DE102009038406A1 - Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs - Google Patents
Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs Download PDFInfo
- Publication number
- DE102009038406A1 DE102009038406A1 DE102009038406A DE102009038406A DE102009038406A1 DE 102009038406 A1 DE102009038406 A1 DE 102009038406A1 DE 102009038406 A DE102009038406 A DE 102009038406A DE 102009038406 A DE102009038406 A DE 102009038406A DE 102009038406 A1 DE102009038406 A1 DE 102009038406A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- motor vehicle
- laser
- data
- laser beam
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000002310 reflectometry Methods 0.000 claims description 10
- 238000011156 evaluation Methods 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 4
- 238000005259 measurement Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 238000002604 ultrasonography Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2518—Projection by scanning of the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
Abstract
Bei einem Verfahren bzw. Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs, wobei aus von einer Kamera aufgenommenen Bildern der Umgebung des Kraftfahrzeugs mittels Motion Stereo erste 3-D-Umfelddaten des Umfeldes bestimmt werden, mittels eines abtastenden Laserstrahls eines Lasersystems, welches unter einem vorgegebenen Winkel zur Kamera angeordnet ist, wobei der Laserstrahl eine vorgegebene räumliche Ausrichtung aufweist, aus dem von der Kamera detektierten reflektierten Laserlicht unter Berücksichtigung des Winkels zwischen Kamera und Lasersystem und der räumlichen Ausrichtung des Laserstrahls zweite 3-D-Daten des Kraftfahrzeugumfeldes ermittelt werden, und werden die ersten und die zweiten 3-D-Daten zu einem gemeinsamen 3-D-Datensatz des Umfeldes des Kraftfahrzeugs verarbeitet.
Description
- Die Erfindung betrifft ein Verfahren zur Vermessung des Umfelds eines Kraftfahrzeugs gemäß dem Oberbegriff des Anspruchs 1 und eine entsprechende Vorrichtung gemäß dem Oberbegriff des Anspruchs 6. Ferner betrifft die Erfindung einen Parkassistenten gemäß dem Oberbegriff des Anspruchs 11.
- Verfahren und Vorrichtungen zur Vermessung des Umfelds eines Kraftfahrzeugs sind bekannt und werden in vielfältiger Form in heutigen modernen Kraftfahrzeugen eingesetzt. So sind beispielsweise Radarsysteme im Einsatz, um in ACC-Fahrerassistenzsystemen (ACC: Automatic Cruise Control) das vorwärtige Umfeld des Kraftfahrzeugs vermessen zu können. Ferner werden Kamerasysteme, Lasersysteme, Radar und Ultraschallsysteme zur Detektion und Vermessung von Parklücken bei Parkassistenten eingesetzt. Systeme zum Halten des Fahrzeugs in der eigenen Fahrspur, sogenannte Lane-Assists-Systeme, detektieren Fahrspurbegrenzungen bzw. Fahrspurmarkierungen und halten das Eigenfahrzeug durch geeignete Lenkmomente innerhalb der eigenen Fahrspur.
- So sind zur Umfelderfassung Laserscanner mit einem mechanisch rotierenden Kopf bekannt, wobei durch Drehen des Kopfes mittels des Lasers die Umgebung abgetastet und erfasst wird.
- Aus der Druckschrift H. G. Jung et al.: "Light stripe projection based parking space detection for intelligent parking Systems", Proceedings of the 2007 IEEE Intelligent Vehicle's Symposium, Istanbul, Turkey, 13.–15. Juni, 2007, S. 962–968, wird zur Bestimmung von Parklücken in schlecht ausgeleuchteten Parkgaragen ein in einer waagerechten Ebene strahlender Linienlaser verwendet, dessen reflektiertes Licht von einer unter einem Winkel zum Laser stehenden Kamera detektiert wird. Aus dem Verlauf der reflektierten Linien kann auf eine mögliche Parklücke geschlossen werden.
- Ferner sind auch Motion-Stereo-Verfahren zur Bestimmung von 3D-Daten bekannt, wie es beispielsweise in E. Wahl et al.: "Realisierung eines Parkassistenten, basierend auf Motion-Stereo", 16. Aachener Kolloquium Fahrzeug- und Motorentechnik 2007, S. 871–880, beschrieben ist, wobei mittels einer Kamera und der Bewegung des Fahrzeugs Parklücken vermessen werden, indem zwei Bilder von verschiedenen Betrachtungspunkten desselben Umgebungsgebiets verwendet werden, um mittels Stereo-Algorithmen Tiefeninformationen zu bestimmen, um so 3D-Daten, der Kraftfahrzeugumgebung zu ermitteln.
- Weiterhin werden in der Fahrzeugserie Ultraschall-Sensoren sowohl zur Vermessung von Parklücken als auch zur Warnung des Fahrers vor möglichen Hindernissen während des Einparkvorgangs verwendet.
- Der aktuelle Stand des Parklückenvermessens bietet jedoch mehrere Nachteile. So werden bei der Verwendung des oben geschilderten Laserverfahrens Bordsteine nicht erkannt, sofern diese niedriger als der abgestrahlte Linienlaser sind. Mit anderen Worten, sämtliche kleineren Objekte, die unterhalb des Linienlasers liegen, werden nicht erkannt. Ebenso können Fahrbahnmarkierungen nicht detektiert werden. Mittels Ultraschall-Sensoren sind Abstände zu Objekten, die im Erfassungsbereich des Ultraschalls liegen, messbar, jedoch ist nicht sichergestellt, dass diese erfassten Objekte auch tatsächlich im Fahrschlauch liegen. Daher kommt es bei Ultraschall-Sensoren oft zu Fehlauslösungen, da naheliegende Objekte als vermeintliche Hindernisse erkannt werden, obwohl sie nicht im Fahrschlauch liegen. Bei der Detektion von Parklücken mittel Motion-Stereo ist eine ausreichende Beleuchtung notwendig, um auswertungsfähige Kamerabilder zur Verfügung zu haben.
- Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur Vermessung der Umgebung eines Kraftfahrzeugs sowie einen entsprechenden Parkassistenten zu schaffen, damit die 3D-Daten der Kraftfahrzeugumgebung einen geringeren Fehler aufweisen.
- Diese Aufgabe wird durch ein Verfahren zur Vermessung der Umgebung eines Kraftfahrzeugs mit den Merkmalen des Anspruchs 1, eine entsprechende Vorrichtung mit den Merkmalen des Anspruchs 6 sowie durch einen Parkassistenten mit den Merkmalen des Anspruchs 11 gelöst. Bevorzugte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.
- Bei dem erfindungsgemäßen Verfahren zur Vermessung des Umfelds eines Kraftfahrzeugs werden mittels der von einer Kamera aufgenommenen Bildern des Umgebung des Kraftfahrzeugs die 3D-Umfelddaten des Kraftfahrzeugumfelds mittels einer Motion-Stereo-Analyse bestimmt. Ferner wird mittels eines scannenden Laserstrahls eines Lasersystems, das unter einem vorgegebenen Winkel zur Kamera angeordnet ist, von dem von der Kamera detektierten reflektierten Laserlicht unter Berücksichtigung des Winkels zwischen Kamera und Lasersystem und der räumlichen Ausrichtung des Laserstrahls zweite 3D-Umfelddaten des Kraftfahrzeugumfelds ermittelt, wobei der Laserstrahl eine vorgegebene räumliche Ausrichtung aufweist. Schließlich werden aus den ersten und zweiten 3D-Daten ein gemeinsamer 3D-Datensatz des Umfelds des Kraftfahrzeugs erzeugt. Mit anderen Worten, die 3D-Daten der Motion-Stereo-Analyse können durch die 3D-Daten des Lasersystems überprüft, verifiziert und gegebenenfalls verbessert werden, so dass das Zusammenführen der ersten und zweiten 3D-Datensätze zu einem gemeinsamen 3D-Datensatz die Qualität der 3D-Daten signifikant erhöht.
- Vorzugsweise wird die genannte räumliche Struktur des Laserstrahls durch eine senkrecht zur Fahrbahnebene verlaufende Linie gebildet. Mit anderen Worten, der Laserstrahl wird durch eine entsprechende Optik in eine Strahlebene aufgeweitet und bildet daher am Ort des Auftreffs keine Punktform, sondern eine Linienform. Derartige Laser werden auch durch den Begriff Linienlaser charakterisiert. Durch diese senkrecht verlaufende Linie werden beispielsweise alle Bodenunebenheiten vermessen. Ferner können durch die erhöhte Reflexivität der Fahrbahnmarkierungen diese erkannt werden, und da deren 3D-Position aufgrund der Motion-Stereo-Analyse bekannt ist, als Fahrbahnmarkierungen erkannt und klassifiziert werden.
- Ferner kann die räumliche Struktur des Laserlichts durch mehrere, senkrecht zur Fahrbahnebene verlaufenden Linien gebildet werden, wodurch ein schnelleres Erkennen des Umfelds ermöglicht wird.
- Vorzugsweise kann die räumliche Struktur des Laserlichts auch durch ein Raster, insbesondere durch ein Schachbrettmuster, gebildet werden. Mit anderen Worten, der Laser wird so aufgespaltet, dass er nicht eine Linie darstellt, sondern ein schachbrettartiges Muster, das so ausgerichtet ist, dass alle Linien des Rasters zu der verwendeten Kamera einen Winkel definieren. Durch die Verwendung eines solchen Rasters, insbesondere eines schachbrettartigen Musters, ist eine ganze Fläche des Kraftfahrzeugumfelds gleichzeitig, d. h. synchron, erfassbar.
- Vorzugsweise scannt der Laserstrahl einen vorgegebenen Winkelbereich ab. Es ist daher möglich, den Scanbereich des Lasersystems durch die Bewegung des Kraftfahrzeugs festzulegen, es ist jedoch auch möglich, den Laserstrahl aktiv scannend über einen vorgegebenen Winkelbereich auszulegen. Beide Ausführungen können beispielsweise bei der Vermessung des seitlichen Umfelds des Kraftfahrzeugs verwendet werden, wie dies bei der Suche nach geeigneten Parkplätzen bei Parkassistenten notwendig ist.
- Eine erfindungsgemäße Vorrichtung zur Durchführung des im vorangegangenen erläuterten Verfahrens umfasst mindestens eine Kamera und mindestens ein unter einem vorgegebenen Winkel zur Kamera angeordnetes Lasersystem, wobei das Lasersystem einen Laserstrahl mit einer vorgegebenen räumlichen Struktur erzeugt, sowie eine Auswerteeinrichtung zur Bestimmung von ersten 3D-Daten mittels einer Motion-Stereo-Analyse von Bildern der mindestens einen Kamera und eines zweiten 3D-Datensatzes aus dem von der Kamera ermittelten reflektierten Laserlichts und einer nachfolgenden Fusionseinheit zum Zusammenführen der ersten und der zweiten 3D-Daten zu einem gemeinsamen 3D-Datensatz der entsprechenden Umgebung des Kraftfahrzeugs.
- Vorzugsweise wird die räumliche Struktur durch eine senkrecht zur Fahrbahnebene verlaufende Ebene des Laserlichts erzeugt, so dass das auf ein Hindernis auftreffende Laserlicht eine senkrecht verlaufende Linie bildet. Mit anderen Worten, der Laser ist ein sogenannter Linienlaser, dessen Licht durch eine geeignete Optik in eine Lichtebene aufgefächert wird. Andere räumliche Strukturen können vorzugsweise ebenso verwendet werden, beispielsweise eine Rasterstruktur oder eine Struktur mehrerer Laserstrahlebenen, wobei die Linien des Rastermusters bzw. die Laserstrahlebenen gegenüber der Kamera einen Winkel bilden. Ferner ist die Kamera von der Laserquelle um einen vorgegebenen Abstand beabstandet.
- Weiter bevorzugt strahlt das Lasersystem im infraroten Wellenlängenbereich, wodurch eine Vermessung der Umgebung für das menschliche Auge nicht sichtbar wäre. Entsprechend muss dann die Kamera auch in der Lage sein, im infraroten Wellenlängenbereich des Lasers geeignet detektieren zu können.
- Vorzugsweise bestimmt die Auswerteeinrichtung aus dem reflektierten Laserlicht die Reflektivität des jeweiligen Kraftfahrzeugumfelds, wobei aus der gemessenen Reflektivität und den 3D-Daten des Motion-Stereo-Verfahrens auf Fahrbahnmarkierungen geschlossen werden kann, wenn die gemessene Reflektivität oberhalb einer vorgegebenen Schwelle liegt. Insbesondere kann auf diese Weise beispielsweise bei Parkassistenten gegebenenfalls vorhandene Parkplatzmarkierungen und deren Koordinaten, d. h., räumliche Anordnung, durch das Zusammenspiel des Motion-Stereo-Verfahrens und des Laserscannens präziser ermittelt werden.
- Ein erfindungsgemäßes Parkassistenzsystem, welches die im Vorangegangenen erläuterte Vorrichtung verwendet, leuchtet mittels des Lasersystems zur Detektion und Vermessung von Parkplatzlücken die seitliche Umgebung des Kraftfahrzeugs aus und legt aufgrund der ermittelten fusionierten 3D-Daten eine Einparkstrategie fest und führt diese durch. Dabei kann das Parkassistenzsystem ein solches sein, welches dem Fahrer Hilfe anbietet, den Parkvorgang teilautomatisch durchführt oder ein autonomes Ein- bzw. Ausparken des Fahrzeugs in bzw. aus einer Parklücke durchführt.
- Vorzugsweise ist bei einem derartigen Parkassistenzsystem die Kamera in einem rechten und/oder linken Seitenspiegel des Kraftfahrzeugs angeordnet, und das Lasersystem befindet sich in der Nähe des rechten und/oder linken Scheinwerfers oder das Lasersystem ist in der Nähe des rechten und/oder des linken Rücklichts angeordnet. Selbstverständlich kann das Parkassistenzsystem zwei Kameras bzw. zwei Lasersysteme aufweisen, wobei jeweils eine Kamera und ein Lasersystem auf der rechten und das zweite auf der linken Fahrzeugseite angeordnet ist, so dass das Parkassistenzsystem beide seitlichen Umgebungen des Kraftfahrzeugs beobachten kann.
- Eine bevorzugte Ausführungsform der Erfindung wird nachfolgend anhand der Zeichnungen erläutert. Dabei zeigt
-
1 ein Kraftfahrzeug mit erfindungsgemäßem Parkassistenzsystem, und -
2 eine schematische Darstellung der Funktionsweise der erfindungsgemäßen Vorrichtung. -
1 zeigt in Draufsicht ein Kraftfahrzeug1 mit linkem Seitenspiegel2 und rechtem Seitenspiegel3 . In den beiden Seitenspiegeln2 ,3 ist jeweils eine nicht dargestellte Kamera angeordnet, die mit einer geeigneten Optik einen entsprechenden Sichtbereich4 ,5 der seitlichen Umgebung des Kraftfahrzeugs einsehen. In der Nähe der Rückspiegel sind seitlich Lasersysteme6 ,7 angeordnet, wie dies hier schematisch angedeutet ist. Dabei strahlen die Lasersysteme entweder in vorgegebenen festen Richtungen8 ,9 in seitlicher Richtung, oder sie scannen über einen vorgegebenen Winkelbereich10 ,11 die seitliche Umgebung des Kraftfahrzeugs. Bewegt sich nun das Kraftfahrzeug1 in Vorwärtsrichtung12 , so können die seitlichen in den Rückspiegeln2 ,3 angeordneten Kameras mittels Motion-Stereo die linke und die rechte Umgebung des Kraftfahrzeugs vermessen und entsprechend 3D-Datensätze erstellen. Mittels der Lasersysteme6 ,7 können nun ebenfalls mittels des Winkels zwischen den Lasersystemen und der entsprechenden Kamera 3D-Daten erstellt werden. Bei fester Beobachtungsrichtung setzt dies neben dem Winkel und dem notwendigen Abstand zwischen Lasersystem und entsprechender Kamera eine Bewegung des Fahrzeugs voraus, um die gesamte seitliche Umgebung des Fahrzeugs scannen zu können, und so einen Abgleich zwischen den 3D-Daten durch Motion-Stereo und den Lasersystem-3D-Daten vornehmen zu können. Falls die Lasersysteme über einen vorgegebenen Winkelbereich10 ,11 scannen können, ist zur Erstellung von 3D-Daten mittels der Lasersysteme keine Bewegung des Fahrzeugs1 notwendig, sondern die linken und rechten seitlichen Umgebungen des Kraftfahrzeugs können über den Scanverlauf ermittelt werden. Jedoch kann bei einem stehenden Fahrzeug keine Motion-Stereo-3D-Daten erzeugt werden. Allerdings können so erste 3D-Datensätze bei einem stehenden Fahrzeug mittels der Lasersysteme erzeugt werden, die dann mit der Bewegung des Fahrzeugs durch Motion-Stereo ergänzt bzw. verbessert werden können. - Wie bereits erwähnt, sind die Lasersysteme Linienlaser mit senkrecht zur Fahrbahnebene verlaufenden Linien bzw. Strahlebenen. Aufgrund des senkrechten Verlaufs der Linie bzw. der Strahlebene können anhand des Linienverlaufs auch kleine Hindernisse in der Fahrbahnebene, wie Bordsteine usw., von den Linienlasern in Verbindung mit dem Kamerasystem erkannt werden. Messungen der Reflexivität des Laserlinienverlaufs als Funktion des Ortes, dessen Koordinaten durch die 3D-Daten der Motion-Stereo-Analyse bekannt sind, können zur Verbesserung der Erkennung von Fahrbahnen, insbesondere Parkplatzmarkierungen führen.
- Insbesondere kann ein Infrarot-Linienlaser verwendet werden, so dass der Messvorgang für das menschliche Auge nicht sichtbar ist. Mit der Verwendung derartiger Infrarot-Wellenlängen kann der Linienverlauf im Kamerabild beispielsweise durch ein Subtraktionsverfahren von zwei entsprechenden ortsgleichen Kamerabildern durch eine Differenzbildung zwischen einem Kamerabild mit Laserlicht und einem entsprechenden Kamerabild ohne Laserlicht vorgenommen werden. Diese Differenzdaten können kann amplitudenmäßig analysiert werden, um die Reflexivität entlang der reflektierten Lichtlinie bestimmen zu können, um Orte hoher Reflexivität als Fahrbahnmarkierungen zu identifizieren.
- Die Kombination des Linienlasersystemverfahrens mit dem Motion-Stereo-Verfahren ermöglicht die Erzeugung eines 3D-Datensatzes der linken oder rechten seitlichen Umgebung des Kraftfahrzeugs mit hoher Qualität.
-
2 zeigt den schematischen Aufbau der erfindungsgemäßen Vorrichtung, die vorzugsweise in einem Parkassistenzsystem eingesetzt werden kann. Dabei beobachtet eine Kamera20 die Umgebung eines Kraftfahrzeugs, welches gleichzeitig durch ein Lasersystem, vorzugsweise im Infraroten,21 gescannt bzw. ausgeleuchtet wird. Aus den Bildern der Kamera zu verschiedenen Zeiten, d. h., zu verschiedenen Positionen. des sich bewegenden Kraftfahrzeugs, wird mittels Motion-Stereo in einer Auswerteeinheit22 ein 3D-Datensatz der beobachteten Umgebung des Kraftfahrzeugs ermittelt. Ferner wird mittels der von dem Lasersystem21 unter einem vorgegebenen Abstand und einem vorgegebenen Winkel angeordneten Kamera20 das reflektierte Bild des Linienlasers21 aus dem Kamerabild extrahiert und in der Auswerteeinheit22 analysiert. Die sich in der Auswerteeinheit22 ergebenden 3D-Daten des Kamera-Lasersystem sowie die Motion-Stereo-3D-Daten der sich bewegenden Kamera in einer Fusionseinheit23 zusammengeführt, und es ergeben sich fusionierte 3D-Daten24 , die aufgrund der Redundanten Ermittlung eine höhere Genauigkeit aufweisen. - Bezugszeichenliste
-
- 1
- Kraftfahrzeug
- 2
- linker Seitenspiegel
- 3
- rechter Seitenspiegel
- 4
- Sichtbereich Kamera links
- 5
- Sichtbereich Kamera rechts
- 6
- Lasersystem links
- 7
- Lasersystem rechts
- 8
- feste Beobachtungsrichtung Laser links
- 9
- feste Beobachtungsrichtung Laser echts
- 10
- Beobachtungsbereich Laser links
- 11
- Beobachtungsbereich Laser rechts
- 20
- Kamera
- 21
- Lasersystem
- 22
- Auswerteeinheit
- 23
- Fusionseinheit
- 24
- fusionierte 3D-Daten
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Nicht-Patentliteratur
-
- H. G. Jung et al.: ”Light stripe projection based parking space detection for intelligent parking Systems”, Proceedings of the 2007 IEEE Intelligent Vehicle's Symposium, Istanbul, Turkey, 13.–15. Juni, 2007, S. 962–968 [0004]
- E. Wahl et al.: ”Realisierung eines Parkassistenten, basierend auf Motion-Stereo”, 16. Aachener Kolloquium Fahrzeug- und Motorentechnik 2007, S. 871–880 [0005]
Claims (12)
- Verfahren zur Vermessung des Umfeldes eines Kraftfahrzeugs, wobei aus von einer Kamera aufgenommenen Bildern der Umgebung des Kraftfahrzeugs (
1 ) mittels Motion Stereo erste 3D-Umfelddaten des Umfeldes bestimmt werden, dadurch gekennzeichnet, dass mittels eines abtastenden Laserstrahls eines Lasersystems (6 ,7 ), welches unter einem vorgegebenen Winkel zur Kamera angeordnet ist, wobei der Laserstrahl eine vorgegebene räumliche Ausrichtung aufweist, aus dem von der Kamera detektierten reflektierten Laserlicht unter Berücksichtigung des Winkels zwischen Kamera und Lasersystem (6 ,7 ) und der räumlichen Ausrichtung des Laserstrahls zweite 3D-Daten des Kraftfahrzeugumfeldes ermittelt werden, und die ersten und die zweiten 3D-Daten zu einem gemeinsamen 3D-Datensatz des Umfeldes des Kraftfahrzeugs (1 ) verarbeitet werden. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die räumliche Struktur des Laserlichts durch eine senkrecht zur Fahrbahnebene verlaufende Linie gebildet wird.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die räumliche Struktur des Laserlichts durch mehrere, senkrecht zur Fahrbahnebene verlaufenden Linien gebildet werden.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die räumliche Struktur des Laserlichts durch ein Raster, insbesondere ein Schachbrettmuster, gebildet wird.
- Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass der Laserstrahl einen vorgegebenen Winkelbereich abscannt.
- Vorrichtung zur Durchführung des Verfahrens nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Vorrichtung eine Kamera (
20 ) und ein unter einem vorgegebenen Winkel zur Kamera angeordnetes Lasersystem (21 ), wobei das Lasersystem (21 ) einen Laserstrahl mit einer vorgegebenen räumlichen Struktur erzeugt, und eine Auswerteeinrichtung (22 ) zur Bestimmung von ersten 3D-Daten mittels Motion-Stereo und zweiten 3D-Daten aus den Kameradaten des reflektierten Laserlichts, und eine Fusionseinheit (23 ) zum Zusammenführen der ersten und der zweiten 3D-Daten zu einem gemeinsamen 3D-Datensatz aufweist - Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die räumliche Struktur des Laserstrahls durch eine senkrecht zur Fahrbahnebene verlaufende Ebene erzeugt wird, so dass auf ein Hindernis auftreffende Laserlicht eine senkrecht verlaufende Linie bildet.
- Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die räumliche Struktur des Laserstrahls durch eine Rasterstruktur, insbesondere durch ein Schachbrettmuster, gebildet wird, so dass die die Linien der Rasterstruktur zur Kamera jeweils einen Winkel bilden.
- Vorrichtung nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass das Lasersystem Licht im Infraroten erzeugt.
- Vorrichtung nach einem der Ansprüche 6 bis 9, dadurch gekennzeichnet, dass die Auswerteeinrichtung aus dem reflektierten Laserlicht die Reflektivität des Kraftfahrzeugumfeldes bestimmt, wobei aus der Reflektivität und den 3D-Daten des Motion-Stereo-Verfahrens auf Fahrbahnmarkierungen geschlossen wird, wenn die Reflektivität oberhalb einer vorgegeben Schwelle liegt.
- Parkassistenzsystem eines Kraftfahrzeugs unter Verwendung der Vorrichtung nach einem der Ansprüche 6 bis 10, wobei das Lasersystem die seitliche Umgebung des Kraftfahrzeugs ausleuchtet.
- Parkassistenzsystem nach Anspruch 11, dadurch gekennzeichnet, dass die Kamera in einem rechten oder linken Seitenspiegel des Kraftfahrzeugs und das Lasersystem in der Nähe des rechten oder linken Scheinwerfer oder in der Nähe des rechten oder linken Rücklichts angeordnet ist.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102009038406.5A DE102009038406B4 (de) | 2009-08-24 | 2009-08-24 | Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102009038406.5A DE102009038406B4 (de) | 2009-08-24 | 2009-08-24 | Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE102009038406A1 true DE102009038406A1 (de) | 2011-03-03 |
| DE102009038406B4 DE102009038406B4 (de) | 2017-10-05 |
Family
ID=43524962
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102009038406.5A Active DE102009038406B4 (de) | 2009-08-24 | 2009-08-24 | Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102009038406B4 (de) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102011082475A1 (de) | 2011-09-12 | 2013-03-14 | Robert Bosch Gmbh | Fahrerassistenzsystem zur Unterstützung eines Fahrers in kollisionsrelevanten Situationen |
| DE102016120433A1 (de) * | 2016-10-26 | 2018-04-26 | Valeo Schalter Und Sensoren Gmbh | Parkplatzerkennung mit Laserscanner |
| CN108051818A (zh) * | 2017-12-29 | 2018-05-18 | 湖南有位智能科技有限公司 | 立体停车库及其人车误入检测系统、人车误入检测方法 |
| US10399483B2 (en) | 2017-03-08 | 2019-09-03 | Ford Global Technologies, Llc | Vehicle illumination assembly |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE69021354T2 (de) * | 1990-01-02 | 1996-03-28 | Honeywell Inc | System zur Detektion eines Hindernisses. |
| DE19730414A1 (de) * | 1997-07-16 | 1999-01-21 | Opel Adam Ag | Verfahren und Vorrichtung zur vorausschauenden Fahrbahnbeurteilung |
| US6502053B1 (en) * | 2000-06-12 | 2002-12-31 | Larry Hardin | Combination passive and active speed detection system |
| DE10143504A1 (de) * | 2001-09-05 | 2003-03-20 | Sick Ag | Überwachungsverfahren und optoelektronischer Sensor |
| DE10154861A1 (de) * | 2001-11-08 | 2003-05-22 | Ibeo Automobile Sensor Gmbh | Verfahren zur Bereitstellung von Bildinformationen |
| DE60009114T2 (de) * | 1999-09-20 | 2004-08-05 | Matsushita Electric Industrial Co. Ltd. | Vorrichtung zur unterstützung von kraftfahrzeugführern |
| DE102005003191A1 (de) * | 2005-01-24 | 2006-07-27 | Robert Bosch Gmbh | Vorrichtung und Verfahren zur Umfelderfassung eines bewegbaren Objektes |
| DE102006007150A1 (de) * | 2005-08-05 | 2007-02-08 | Volkswagen Ag | Verfahren und Vorrichtung zur Parklückenvermessung |
| US20070177011A1 (en) * | 2004-03-05 | 2007-08-02 | Lewin Andrew C | Movement control system |
-
2009
- 2009-08-24 DE DE102009038406.5A patent/DE102009038406B4/de active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE69021354T2 (de) * | 1990-01-02 | 1996-03-28 | Honeywell Inc | System zur Detektion eines Hindernisses. |
| DE19730414A1 (de) * | 1997-07-16 | 1999-01-21 | Opel Adam Ag | Verfahren und Vorrichtung zur vorausschauenden Fahrbahnbeurteilung |
| DE60009114T2 (de) * | 1999-09-20 | 2004-08-05 | Matsushita Electric Industrial Co. Ltd. | Vorrichtung zur unterstützung von kraftfahrzeugführern |
| US6502053B1 (en) * | 2000-06-12 | 2002-12-31 | Larry Hardin | Combination passive and active speed detection system |
| DE10143504A1 (de) * | 2001-09-05 | 2003-03-20 | Sick Ag | Überwachungsverfahren und optoelektronischer Sensor |
| DE10154861A1 (de) * | 2001-11-08 | 2003-05-22 | Ibeo Automobile Sensor Gmbh | Verfahren zur Bereitstellung von Bildinformationen |
| US20070177011A1 (en) * | 2004-03-05 | 2007-08-02 | Lewin Andrew C | Movement control system |
| DE102005003191A1 (de) * | 2005-01-24 | 2006-07-27 | Robert Bosch Gmbh | Vorrichtung und Verfahren zur Umfelderfassung eines bewegbaren Objektes |
| DE102006007150A1 (de) * | 2005-08-05 | 2007-02-08 | Volkswagen Ag | Verfahren und Vorrichtung zur Parklückenvermessung |
Non-Patent Citations (5)
| Title |
|---|
| E. Wahl et al.: "Realisierung eines Parkassistenten, basierend auf Motion-Stereo", 16. Aachener Kolloquium Fahrzeug- und Motorentechnik 2007, S. 871-880 |
| H. G. Jung et al.: "Light stripe projection based parking space detection for intelligent parking Systems", Proceedings of the 2007 IEEE Intelligent Vehicle's Symposium, Istanbul, Turkey, 13.-15. Juni, 2007, S. 962-968 |
| SCHANZ,A.:Fahrerassistenz zum automatischen Parken, VDI-Verl.,2005 Fig.3 m. zugeh. Beschr. |
| SCHANZ,A.:Fahrerassistenz zum automatischen Parken, VDI-Verl.,2005 $ Fig.3 m. zugeh. Beschr.$ * |
| VESTRI,C.,et.al.:Evaluation of a Vision-Based Parking Assistance System.In:IEEE Intelligent Transportation Systems, 2005, Proceedings, S.131-135 * |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102011082475A1 (de) | 2011-09-12 | 2013-03-14 | Robert Bosch Gmbh | Fahrerassistenzsystem zur Unterstützung eines Fahrers in kollisionsrelevanten Situationen |
| WO2013037530A1 (de) | 2011-09-12 | 2013-03-21 | Robert Bosch Gmbh | Fahrerassistenzsystem zur unterstützung eines fahrers in kollisionsrelevanten situationen |
| DE102016120433A1 (de) * | 2016-10-26 | 2018-04-26 | Valeo Schalter Und Sensoren Gmbh | Parkplatzerkennung mit Laserscanner |
| US10399483B2 (en) | 2017-03-08 | 2019-09-03 | Ford Global Technologies, Llc | Vehicle illumination assembly |
| CN108051818A (zh) * | 2017-12-29 | 2018-05-18 | 湖南有位智能科技有限公司 | 立体停车库及其人车误入检测系统、人车误入检测方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102009038406B4 (de) | 2017-10-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102009023326B4 (de) | Vorrichtung und Verfahren zum Detektieren eines kritischen Bereiches und Fußgängerdetektionsvorrichtung unter Verwendung derselben | |
| DE102015213701B4 (de) | Sensorsystem für ein Fahrzeug zum Erkennen von Brücken oder Tunneleinfahrten | |
| DE112017002743B4 (de) | Parkunterstützungsvorrichtung und Parkunterstützungsverfahren | |
| DE20105340U1 (de) | Dimensionale Umfelderfassung | |
| DE102011054852B4 (de) | Verfahren zur Erfassung und Bewertung einer Ebene | |
| DE102011017540B4 (de) | Verfahren und Vorrichtung zum Erkennen einer Anwesenheit von Objekten | |
| EP3877776B1 (de) | Verfahren und verarbeitungseinheit zur ermittlung von information in bezug auf ein objekt in einem umfeld eines fahrzeugs | |
| DE102020105192B4 (de) | Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug | |
| DE102020121504A1 (de) | Antriebssteuervorrichtung für ein autonom fahrendes Fahrzeug, Halteziel und Antriebssteuersystem | |
| EP2982572A2 (de) | Verfahren zum unterstützen eines fahrers eines kraftfahrzeugs beim ausparken, fahrerassistenzsystem und kraftfahrzeug | |
| DE102017205245B4 (de) | Freibereichsfusion für Fahrerassistenzsysteme | |
| WO2021213788A1 (de) | Verfahren und vorrichtung zum erkennen von blooming in einer lidarmessung | |
| WO2011045277A1 (de) | Kamerasystem | |
| DE102021108621A1 (de) | Vorrichtung zum Erfassen von Umgebungsinformationen eines Fahrzeugs und Verfahren zur Steuerung davon | |
| DE102009038406B4 (de) | Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs | |
| DE112017003543T5 (de) | Objekterfassungsvorrichtung | |
| EP1628141B1 (de) | Triangulationsverfahren mit Laserdioden und einer Mono-Kamera zur Abstandsbestimmung für Stop-and-Go Anwendungen für Kraftfahrzeuge | |
| DE102020206935A1 (de) | Lidar mit vertikaler Abtastung | |
| DE102005003191A1 (de) | Vorrichtung und Verfahren zur Umfelderfassung eines bewegbaren Objektes | |
| DE102009052560A1 (de) | Verfahren und Vorrichtung zur Bestimmung der 3D-Position von Objekten im Umfeld eines Kraftfahrzeugs | |
| EP1962245B1 (de) | Verfahren und Vorrichtung zum Ermitteln des Bewegungszustands von Objekten | |
| DE102018121158A1 (de) | Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen | |
| DE102007013501B4 (de) | Fahrerassistenzsystem mit unterschiedlich ausgerichteten Kameras | |
| DE102006007149B4 (de) | Vorrichtung und Verfahren zur Überprüfung der Parklückenvermessung von Einparkhilfsvorrichtungen | |
| DE102006007150A1 (de) | Verfahren und Vorrichtung zur Parklückenvermessung |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
| R012 | Request for examination validly filed | ||
| R016 | Response to examination communication | ||
| R018 | Grant decision by examination section/examining division | ||
| R020 | Patent grant now final | ||
| R082 | Change of representative |