[go: up one dir, main page]

DE102015216908A1 - Verfahren zum Erkennen von Objekten auf einer Abstellfläche - Google Patents

Verfahren zum Erkennen von Objekten auf einer Abstellfläche Download PDF

Info

Publication number
DE102015216908A1
DE102015216908A1 DE102015216908.1A DE102015216908A DE102015216908A1 DE 102015216908 A1 DE102015216908 A1 DE 102015216908A1 DE 102015216908 A DE102015216908 A DE 102015216908A DE 102015216908 A1 DE102015216908 A1 DE 102015216908A1
Authority
DE
Germany
Prior art keywords
imaging sensor
recording quality
imaging
limited
imaging sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015216908.1A
Other languages
English (en)
Inventor
Jan Rexilius
Stefan Nordbruch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102015216908.1A priority Critical patent/DE102015216908A1/de
Priority to US15/247,278 priority patent/US10007268B2/en
Priority to FR1658033A priority patent/FR3040818B1/fr
Priority to CN201610766312.2A priority patent/CN106504561B/zh
Publication of DE102015216908A1 publication Critical patent/DE102015216908A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/048Detecting movement of traffic to be counted or controlled with provision for compensation of environmental or other condition, e.g. snow, vehicle stopped at detector
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Verfahren zum Erkennen von Objekten auf einer Abstellfläche für Fahrzeuge mittels Bildverarbeitung von Aufnahmen von mindestens zwei bildgebenden Sensoren, wobei sich Erfassungsbereiche der bildgebenden Sensoren zumindest teilweise überschneiden. Die Aufnahmen eines bildgebenden Sensors, dessen Aufnahmequalität durch Umwelteinflüsse eingeschränkt ist werden zum Erkennen von Objekten auf der Abstellfläche bei der Bildverarbeitung weniger stark gewichtet als Aufnahmen eines bildverarbeitenden Sensors, dessen Aufnahmequalität nicht durch Umwelteinflüsse eingeschränkt ist. Recheneinheit, Programm und Gesamtsystem zur Durchführung des Verfahrens.

Description

  • Die Erfindung betrifft ein Verfahren zum Erkennen von Objekten auf einer Abstellfläche für Fahrzeuge, eine Recheneinheit zur Durchführung des Verfahrens, ein Programm zur Durchführung des Verfahrens und ein Gesamtsystem, das eingerichtet ist, das Verfahren durchzuführen.
  • Stand der Technik
  • In DE 10 2007 002 198 A1 wird ein Verfahren beschrieben, bei dem Kraftfahrzeuge mittels einer videobildbasierten Objektverfolgung auf einer Abstellfläche für Fahrzeuge erkannt werden.
  • Offenbarung der Erfindung
  • Eine Aufgabe der Erfindung ist die Verbesserung des Verfahrens zum Erkennen von Objekten auf einer Abstellfläche für Fahrzeuge. Eine weitere Aufgabe der Erfindung ist die Bereitstellung einer Recheneinheit und eines Programmes, die jeweils eingerichtet sind, das Verfahren auszuführen. Eine weitere Aufgabe der Erfindung ist es, ein Gesamtsystem bestehend aus bildgebenden Sensoren, einer Recheneinheit und einem Programm bereitzustellen, wobei das Gesamtsystem eingerichtet ist, das Verfahren durchzuführen.
  • Diese gestellte Aufgabe wird mit dem Verfahren zum Erkennen von Objekten auf einer Abstellfläche, der Recheneinheit, dem Programm und dem Gesamtsystem der unabhängigen Patentansprüche gelöst.
  • Bei einem Verfahren zum Erkennen von Objekten auf einer Abstellfläche für Fahrzeuge werden die Objekte mittels Bildverarbeitung von Aufnahmen von mindestens zwei bildgebenden Sensoren erkannt. Dabei überschneiden sich die Erfassungsbereiche der bildgebenden Sensoren zumindest teilweise, und die Aufnahmen eines bildgebenden Sensors, dessen Aufnahmequalität durch Umwelteinflüsse eingeschränkt ist, wird zum Erkennen von Objekten auf der Abstellfläche bei der Bildverarbeitung weniger stark gewichtet als Aufnahmen eines bildgebenden Sensors, deren Aufnahmequalität nicht durch Umwelteinflüsse eingeschränkt ist. Beim Erkennen von Objekten auf einer Abstellfläche für Fahrzeuge, insbesondere dann, wenn die Abstellfläche im Freien angeordnet ist, kann es vorkommen, dass die bildgebenden Sensoren, die zum Erkennen der Objekte verwendet werden, durch Umwelteinflüsse eingeschränkt sind. Beispielsweise kann Sonneneinstrahlung, oder Regen, oder Schnee, oder Nebel die Aufnahmequalität eines oder mehrerer bildgebenden Sensoren beeinträchtigen. Beim Erkennen der Objekte auf der Abstellfläche ist es sinnvoll, bildgebende Sensoren, deren Aufnahmequalität durch die genannten Umwelteinflüsse eingeschränkt ist, weniger stark zu gewichten als Aufnahmen, deren Aufnahmequalität nicht durch Umwelteinflüsse eingeschränkt ist. Dadurch wird das Erkennen von Objekten auf der Abstellfläche verbessert.
  • Die Abstellfläche für Fahrzeuge besteht aus Parkständen oder Stellplätzen und den dazugehörigen Fahrwegen. Die Abstellfläche kann im Freien oder in einem Gebäude angeordnet sein. Im letzteren Fall kann auch von einem Parkhaus gesprochen werden.
  • In einer Ausführungsform überschneiden sich die Erfassungsbereiche von mehr als zwei bildgebenden Sensoren zumindest teilweise, wobei die Aufnahmen von mehr als zwei bildgebenden Sensoren benutzt werden, um mittels Bildverarbeitung Objekte auf der Abstellfläche zu erkennen. Je größer die Anzahl der bildgebenden Sensoren ist, umso besser ist das Verfahren zum Erkennen von Objekten auf der Abstellfläche durchführbar.
  • In einer Ausführungsform wird die eingeschränkte Aufnahmequalität eines bildgebenden Sensors mittels Bildverarbeitung erkannt. Die Umwelteinflüsse, die die Aufnahmequalität des bildgebenden Sensors beeinträchtigen, verändern die Aufnahmen des entsprechenden bildgebenden Sensors so, dass diese Veränderungen mittels Bildverarbeitung erkannt werden können. Sollte beispielsweise Sonneneinstrahlung die Aufnahmequalität eines bildgebenden Sensors verschlechtern, kann dies mittels Bildverarbeitung dadurch erkannt werden, dass die Aufnahmen des entsprechenden bildgebenden Sensors deutlich stärker belichtet sind als andere Aufnahmen von anderen bildgebenden Sensoren, die nicht durch Sonneneinstrahlung beeinträchtigt werden. Sollte also erkannt werden, dass die Aufnahmen eines bildgebenden Sensors eine höhere Belichtung aufweisen, können diese Aufnahmen beim Erkennen von Objekten weniger stark gewichtet werden.
  • In einer Ausführungsform wird die eingeschränkte Aufnahmequalität eines bildgebenden Sensors mittels eines Vergleichs der Aufnahme des bildgebenden Sensors mit einem zu einem anderen Zeitpunkt aufgenommenen Referenzbild des bildgebenden Sensors erkannt. Dies kann beispielsweise durchgeführt werden, wenn durch Nebel, Schnee oder Regen die Konturen von Strukturen, beispielsweise Linien, auf der Abstellfläche weniger scharf dargestellt sind als bei einem Referenzbild, das ohne die genannten Umwelteinflüsse aufgezeichnet wurde. Dadurch können Aufnahmen von bildgebenden Sensoren identifiziert werden, bei denen die Aufnahmequalität durch Umwelteinflüsse eingeschränkt ist, und diese Aufnahmen beim Erkennen von Objekten weniger stark gewichtet werden.
  • In einer Ausführungsform werden Zeiten, in denen ein bildgebender Sensor eine eingeschränkte Aufnahmequalität aufweist, mittels geographischem Ort des bildgebenden Sensors und/oder Ausrichtung des bildgebenden Sensors und/oder Datum und/oder Uhrzeit berechnet. Dies ist insbesondere vorteilhaft bei der Berechnung von Zeiten, in denen ein bildgebender Sensor durch Sonneneinstrahlung in der Aufnahmequalität eingeschränkt ist. Mit der Position und der Ausrichtung des bildgebenden Sensors, dem Datum und der Uhrzeit, können alle Zeiten berechnet werden, zu denen die Sonne so steht, dass eine direkte Einstrahlung von Sonnenlicht in des entsprechende bildgebenden Sensor erfolgt. Wenn eine direkte Einstrahlung von Sonnenlicht in den bildgebenden Sensor erfolgt, ist die Aufnahmequalität des bildgebenden Sensors eingeschränkt. Durch die Berechnung der Zeiten, in denen die Aufnahmequalität eingeschränkt ist, kann auch ohne Bildverarbeitung vorherbestimmt werden, wann Aufnahmen eines bildgebenden Sensors eine geringere Aufnahmequalität aufgrund der Sonnenstrahlung aufweisen.
  • In einer Ausführungsform wird eine Information über ein auf der Abstellfläche erkanntes Objekt, insbesondere eine Position und eine Abmessung des erkannten Objekts, mittels eines Senders an einen Empfänger in einem Fahrzeug mit einer Vorrichtung zum automatisierten Ausführen mindestens einer Fahrfunktion weitergegeben. Durch die Weitergabe der Position und der Abmessung des erkannten Objekts auf der Abstellfläche an ein Fahrzeug mit einer Vorrichtung zum automatisierten Ausführen mindestens einer Fahrfunktion ist dieses Fahrzeug in der Lage, das erkannte Objekt bei seiner eigenen Routenwahl zu berücksichtigen. Dadurch ist es dem Fahrzeug einfacher, eine Route zu einem Parkplatz zu bestimmen, die das Fahrzeug zum automatisierten Ausführen mindestens einer Fahrfunktion abfahren kann.
  • In einer Ausführungsform wird anhand der auf der Abstellfläche erkannten Objekte eine Trajektorie für ein Fahrzeug berechnet. Diese Trajektorie wird mittels Sender an einen Empfänger in einem Fahrzeug mit einer Vorrichtung zum automatisierten Ausführen mindestens einer Fahrfunktion weitergegeben. Dadurch kann ein vollautomatischer Betrieb der Abstellfläche erreicht werden, indem die erkannten Objekte auf der Abstellfläche benutzt werden, um Trajektorien für die Fahrzeuge auf der Abstellfläche zu berechnen und die Fahrzeuge über diese Trajektorie in Kenntnis zu setzen. Das Fahrzeug kann der Trajektorie zu einem freien Stellplatz folgen.
  • Eine Recheneinheit weist Anschlüsse für mindestens zwei bildgebende Sensoren auf und ist eingerichtet, eines der Verfahren durchzuführen. Die Anschlüsse sind dabei Datenanschlüsse, um die Bilder beziehungsweise Aufnahmen der bildgebenden Sensoren in der Recheneinheit zu verarbeiten. Die Bildverarbeitung, mit der die Objekte auf der Abstellfläche erkannt werden, findet also in dieser Recheneinheit statt.
  • In einer Ausführungsform weist die Recheneinheit einen Sender auf, der eingerichtet ist, erkannte Objekte oder Trajektorien an Fahrzeuge weiterzugeben. Diese Recheneinheit ist damit zum automatischen Betrieb des Parkhauses beziehungsweise der Abstellfläche geeignet. Ein Programm, das Programmcode zur Durchführung des Verfahrens umfasst, wenn das Programm auf einer Recheneinheit ausgeführt wird, ermöglicht den Betrieb einer automatisierten Abstellfläche für Fahrzeuge.
  • Mit einem Gesamtsystem, bestehend aus mindestens zwei bildgebenden Sensoren und einer Recheneinheit, die mit den bildgebenden Sensoren verbunden ist und die einen Sender aufweist, ist eingerichtet, das Verfahren durchzuführen.
  • In einer Ausführungsform sind zwei bildgebende Sensoren so angeordnet, dass beide bildgebende Sensoren nicht gleichzeitig von Umwelteinflüssen, insbesondere Sonnenstrahlung, in ihrer Aufnahmequalität eingeschränkt sind.
  • Ausführungsbeispiele der Erfindung werden anhand der folgenden Zeichnungen erläutert. In schematisierter Darstellung zeigen:
  • 1 ein Ablaufdiagramm des Verfahrens;
  • 2 ein Ablaufdiagramm des Verfahrens mit weiteren, optionalen Verfahrensschritten;
  • 3 ein Ausführungsbeispiel einer Recheneinheit;
  • 4 ein weiteres Ausführungsbeispiel einer Recheneinheit;
  • 5 ein Gesamtsystem; und
  • 6 ein Gesamtsystem, bei dem eine Kamera durch einen Umwelteinfluss in der Aufnahmequalität eingeschränkt ist.
  • 1 zeigt ein Ablaufdiagramm 100 eines Verfahrens zum Erkennen von Objekten auf einer Abstellfläche für Fahrzeuge. In einem ersten Verfahrensschritt 101 wird jeweils eine Aufnahme in mindestens zwei Kameras erzeugt, wobei sich Erfassungsbereiche der Kameras zumindest teilweise überschneiden. In einem zweiten Verfahrensschritt 102 wird die Aufnahmequalität der Aufnahmen bestimmt. Die Aufnahmequalität der Kameras kann beispielsweise durch Umwelteinflüsse eingeschränkt sein. Sollte die Aufnahmequalität durch Umwelteinflüsse eingeschränkt sein, wird dies bei der Bestimmung der Aufnahmequalität berücksichtigt. In einem dritten Verfahrensschritt 103 werden die Aufnahmen der mindestens zwei Kameras danach gewichtet, ob die Aufnahmequalität durch Umwelteinflüsse eingeschränkt ist. Dabei kann die Gewichtung von Aufnahmen einer Kamera, deren Aufnahmequalität durch Umwelteinflüsse eingeschränkt ist, beispielsweise 0 % betragen, die Gewichtung von Aufnahmen einer Kamera, deren Aufnahmequalität nicht durch Umwelteinflüsse eingeschränkt ist, 100 %. Ebenso ist eine andere Gewichtung von Aufnahmen einer Kamera, deren Aufnahmequalität durch Umwelteinflüsse eingeschränkt ist, möglich, beispielsweise 50 %. Wenn eine Aufnahme einer Kamera durch Umwelteinflüsse eingeschränkt ist, die Kamera also eine geringere Aufnahmequalität aufweist, werden die entsprechenden Aufnahmen der Kamera im dritten Verfahrensschritt 103 also weniger stark gewichtet als Aufnahmen einer Kamera, deren Aufnahmequalität nicht durch Umwelteinflüsse eingeschränkt ist. In einem vierten Verfahrensschritt 104 werden mittels Bildverarbeitung der Aufnahmen Objekte auf der Abstellfläche erkannt, wobei die Gewichtung der Aufnahmen aus dem dritten Verfahrensschritt 103 berücksichtigt wird. Das Erkennen von Objekten auf der Abstellfläche erfolgt unter anderem dadurch, dass erkannt wird, wo auf der Abstellfläche ein Objekt platziert ist, also die Position des Objektes bestimmt wird. Darüber hinaus kann eine Abmessung des Objektes ermittelt werden, so dass festgestellt werden kann, welche Fläche das Objekt einnimmt.
  • In einem Ausführungsbeispiel werden im ersten Verfahrensschritt 101 mehr als zwei Aufnahmen von mehr als zwei Kameras erstellt, die dann die weiteren Verfahrensschritte 102 bis 104 durchlaufen.
  • In einem Ausführungsbeispiel wird im zweiten Verfahrensschritt 102 eine eingeschränkte Aufnahmequalität einer Kamera mittels Bildverarbeitung ermittelt. Sollte beispielsweise eine Kamera so angeordnet sein, dass es möglich ist, dass Sonneneinstrahlung direkt auf die Kamera trifft, so ist zu den Zeiten, zu denen das passiert, die Aufnahmequalität der Kamera eingeschränkt. Mittels Bildverarbeitung kann beispielsweise ermittelt werden, dass die Aufnahme einer Kamera deutlich stärker belichtet ist als die Aufnahme einer zweiten Kamera oder einer Referenz. Daraus kann gefolgert werden, dass im Moment der Aufnahme Sonnenlicht direkt auf die Kamera getroffen ist, wodurch die hohe Belichtung erzeugt wurde. Durch Überwachung der Belichtungswerte kann also festgestellt werden, ob für eine Kamera eine eingeschränkte Aufnahmequalität vorliegt.
  • Ebenso ist es denkbar, eine eingeschränkte Aufnahmequalität aufgrund von Schnee, Nebel, oder Regen dadurch zu ermitteln, dass Linien oder Objekte auf der Abstellfläche ihre Kontur verlieren und dadurch in den Aufnahmen unschärfer sind, als ohne die störenden Umwelteinflüsse. Auch dadurch können Aufnahmen von Kameras ermittelt werden, bei denen die Aufnahmequalität durch Umwelteinflüsse eingeschränkt ist.
  • In einem Ausführungsbeispiel wird im zweiten Verfahrensschritt 102 eine eingeschränkte Aufnahmequalität einer Kamera mittels eines Vergleichs der Aufnahme mit einem zu einem anderen Zeitpunkt aufgenommenen Referenzbild durchgeführt.
  • In einem Ausführungsbeispiel wird im zweiten Verfahrensschritt 102 die Aufnahmequalität dadurch bestimmt, dass Zeiten, in denen eine Kamera eine eingeschränkte Aufnahmequalität aufweist, mittels einem geographischen Ort und/oder einer Ausrichtung der Kamera und/oder Datum und/oder Uhrzeit berechnet werden. Insbesondere eingeschränkte Aufnahmequalitäten aufgrund von Sonneneinstrahlung können aus der Position und Ausrichtung der Kamera, dem Datum und der Uhrzeit vorausberechnet werden. Dadurch können Zeiten, in denen vorhersehbar ist, dass die Sonne direkt auf eine Kamera treffen wird, ermittelt werden, und die Aufnahmen zu diesem Zeitpunkt geringer gewichtet werden, wenn sie zur Erkennung von Objekten auf der Abstellfläche benutzt werden.
  • 2 zeigt ein weiteres Ablaufdiagramm 100, bei dem die Verfahrensschritte 101 bis 104 den Verfahrensschritten der 1 entsprechen. Ein fünfter Verfahrensschritt 105 ist die Weitergabe eines auf der Abstellfläche erkannten Objektes, insbesondere einer Position und einer Abmessung des erkannten Objektes, mittels eines Senders an einen Empfänger in einem Fahrzeug mit einer Vorrichtung zum automatisierten Ausführen mindestens einer Fahrfunktion. Das Fahrzeug mit einer Vorrichtung zum automatisierten Ausführen mindestens einer Fahrfunktion kann durch die Weitergabe der Position und der Abmessung des Objektes seine Trajektorie auf der Abstellfläche planen.
  • In einem Ausführungsbeispiel wird im fünften Verfahrensschritt 105 die Position und die Abmessung eines Objektes nicht weitergegeben, sondern es wird anhand der erkannten Objekte eine Trajektorie für ein Fahrzeug auf der Abstellfläche ermittelt und diese Trajektorie über einen Sender an ein Fahrzeug mit einer Vorrichtung zum automatisierten Ausführen mindestens einer Fahrfunktion weitergegeben. Die Vorrichtung zum automatisierten Ausführen mindestens einer Fahrfunktion eines Fahrzeuges kann dann das Fahrzeug entlang der weitergegebenen Trajektorie zu einer Abstellfläche, also einem Parkplatz, oder wieder von dem Parkplatz herunter zur Ausfahrt der Abstellfläche führen.
  • Das Verfahren kann auch mit anderen bildgebenden Sensoren anstelle der Kameras durchgeführt werden. Ebenso ist es denkbar, in einem Erfassungsbereich eine Kamera mit einem anderen bildgebenden Sensor zu kombinieren. Andere bildgebenden Sensoren können Laserscanner, Radarscanner oder Lidar-Scanner sein. Diese anderen bildgebenden Sensoren liefern ebenfalls Aufnahmen der Abstellfläche, deren Aufnahmequalität aufgrund von Umwelteinflüssen eingeschränkt sein kann und die genauso im Verfahren weiterverarbeitet werden können, wie Aufnahmen von Kameras.
  • 3 zeigt eine Recheneinheit 200 mit zwei Anschlüssen 201 für jeweils eine Kamera. Diese Recheneinheit 200 ist eingerichtet, das Verfahren der 1 auszuführen.
  • 4 zeigt eine Recheneinheit 200, die eingerichtet ist, das Verfahren der 2 auszuführen. Die Recheneinheit 200 weist ebenfalls zwei Anschlüsse 201 für Kameras auf, darüber hinaus weist die Recheneinheit 200 einen Sender 202 auf, der eingerichtet ist, Daten an ein Fahrzeug weiterzugeben. Die Anschlüsse 201 der 3 und 4 können auch so eingerichtet sein, dass nur ein Anschluss an der Recheneinheit 200 vorhanden ist, an dem mehrere Kameras angeschlossen werden. Dabei kann beispielsweise ein Bussystem für die Kameras verwendet werden, oder die Aufnahmen der Kamera können kodiert über den einen Anschluss 201 an die Recheneinheit weitergegeben werden.
  • Ebenso können Anschlüsse für andere bildgebende Sensoren vorgesehen sein.
  • 5 zeigt ein Gesamtsystem zum Erkennen von Objekten auf einer Abstellfläche 230. Die Abstellfläche 230 besteht aus Parkständen oder Stellplätzen und den dazugehörigen Fahrwegen. Die Abstellfläche kann im Freien oder in einem Gebäude angeordnet sein. Auf der Abstellfläche 230 befindet sich ein Objekt, hier ein Fahrzeug 220. Das Objekt kann aber auch ein Fussgänger oder ein anderes Objekt sein. Eine erste Kamera 210 und eine zweite Kamera 211 sind auf die Abstellfläche 230 gerichtet, so dass sich ihre Erfassungsbereiche überschneiden. Die erste Kamera 210 und die zweite Kamera 211 sind jeweils mit einer Datenleitung 212 mit den Anschlüssen 201 für Kameras einer Recheneinheit 200 verbunden. Darüber hinaus weist die Recheneinheit 200 einen Sender 202 auf, die Recheneinheit 200 entspricht also der Recheneinheit 200 der 4. Das Fahrzeug 220 befindet sich im Erfassungsbereich der ersten Kamera 210 und der zweiten Kamera 211 und kann somit mittels Bildverarbeitung von beiden Kameras 210, 211 erkannt werden.
  • 6 zeigt wiederum eine Abstellfläche 230 mit einem Fahrzeug 220 und auch die weiteren Bestandteile der 5. Außerdem ist die Sonne 240 dargestellt, mit verschiedenen Sonnenstrahlen 241. Ein Strahlenbündel 242 trifft das Objektiv 213 der ersten Kamera 210. Das Objektiv 213 der zweiten Kamera 211 wird nicht von den Sonnenstrahlen getroffen, da die zweite Kamera 211 eine Blende aufweist, die das Objektiv 213 der zweiten Kamera abschattet. Durch das Bündel an Sonnenstrahlen 242, die das Objektiv 213 der ersten Kamera 210 treffen, ist die Aufnahme der ersten Kamera 210 deutlich stärker belichtet, als wenn keine Sonnenstrahlen auf das Objektiv 213 der ersten Kamera 210 treffen würden. Durch die hohe Belichtung der Aufnahme kann im zweiten Verfahrensschritt 102 der 1 oder 2 eine verminderte Aufnahmequalität der ersten Kamera 210 aufgrund von Umwelteinflüssen bestimmt werden. Die Aufnahmen der ersten Kamera 210 können in diesem Fall beim Erkennen des Objektes, hier dem Fahrzeug 220, auf der Abstellfläche 230 geringer gewichtet werden als die Aufnahmen der zweiten Kamera 211.
  • Es ist ebenso möglich, die in 6 verminderte Aufnahmequalität der ersten Kamera 210 dadurch zu bestimmen, dass aus Datum und Uhrzeit die Position der Sonne 240 und aus Position und Ausrichtung der ersten Kamera 210 Zeiten berechnet werden, in denen ein Strahlenbündel 242 auf die erste Kamera 210 trifft. In diesen Zeiten werden die Aufnahmen der ersten Kamera 210 beim Erkennen von Objekten, hier dem Fahrzeug 220, auf der Abstellfläche 230 weniger stark gewichtet als die Aufnahmen der zweiten Kamera 211, die zu diesen Zeiten nicht von der Sonne 240 eingeschränkt ist.
  • Die erste Kamera 210 und die zweite Kamera 211 sind so positioniert, dass sie nicht gleichzeitig von den Sonnenstrahlen 241 in ihrer Aufnahmequalität eingeschränkt sind.
  • Die Kameras 210, 211 können ebenso wie andere bildgebende Sensoren, die anstelle oder zusätzlich zu den Kameras vorgesehen sind, unbeweglich oder beweglich angebracht sein.
  • Obwohl die Erfindung im Detail durch die bevorzugten Ausführungsbeispiele näher illustriert und beschrieben wurde, ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102007002198 A1 [0002]

Claims (12)

  1. Verfahren zum Erkennen von Objekten auf einer Abstellfläche für Fahrzeuge mittels Bildverarbeitung von Aufnahmen von mindestens zwei bildgebenden Sensoren, wobei sich Erfassungsbereiche der bildgebenden Sensoren zumindest teilweise überschneiden, wobei die Aufnahmen eines bildgebenden Sensors, dessen Aufnahmequalität durch Umwelteinflüsse eingeschränkt ist, zum Erkennen von Objekten auf der Abstellfläche bei der Bildverarbeitung weniger stark gewichtet werden als Aufnahmen eines bildgebenden Sensors, dessen Aufnahmequalität nicht durch Umwelteinflüsse eingeschränkt ist.
  2. Verfahren nach Anspruch 1, wobei die bildgebenden Sensoren jeweils als Kamera, Laserscanner, Radarscanner und/oder Lidar-Scanner ausgebildet sind.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei mittels Bildverarbeitung von Aufnahmen von mehr als zwei bildgebenden Sensoren Objekte auf der Abstellfläche erkannt werden, wobei sich die Erfassungsbereiche von jeweils mehr als zwei bildgebenden Sensoren zumindest teilweise überscheiden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei die eingeschränkte Aufnahmequalität eines bildgebenden Sensors mittels Bildverarbeitung erkannt wird.
  5. Verfahren nach Anspruch 4, wobei die eingeschränkte Aufnahmequalität eines bildgebenden Sensors mittels eines Vergleichs der Aufnahme des bildgebenden Sensors mit einem zu einem anderen Zeitpunkt aufgenommenen Referenzbild des bildgebenden Sensors erfolgt.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei Zeiten, in denen ein bildgebender Sensor eine eingeschränkte Aufnahmequalität aufweist, mittels geographischem Ort des bildgebenden Sensors und/oder Ausrichtung des bildgebenden Sensors und/oder Datum und/oder Uhrzeit berechnet werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Information über ein auf der Abstellfläche erkanntes Objekt, insbesondere eine Position und eine Abmessung des erkannten Objekts, mittels eines Senders an einen Empfänger in einem Fahrzeug mit einer Vorrichtung zum automatisierten Ausführen mindestens einer Fahrfunktion weitergegeben wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei anhand der auf der Abstellfläche erkannten Objekte eine Trajektorie für ein Fahrzeug mit einer Vorrichtung zum automatisierten Ausführen mindestens einer Fahrfunktion berechnet wird und die Trajektorie mittels Sender an einen Empfänger im Fahrzeug weitergegeben wird.
  9. Recheneinheit (200), die Anschlüsse (201) für mindestens zwei bildgebende Sensoren (210, 211) aufweist und eingerichtet ist, eines der Verfahren der Ansprüche 1 bis 8 durchzuführen.
  10. Recheneinheit (200) nach Anspruch 9, die einen Sender (202) aufweist.
  11. Programm, umfassend Programmcode zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 8, wenn das Programm auf einer Recheneinheit (200) ausgeführt wird.
  12. Gesamtsystem, bestehend aus mindestens zwei bildgebenden Sensoren (210, 211) und einer Recheneinheit (200), die mit den bildgebenden Sensoren (210, 211) verbunden ist und die einen Sender (202) aufweist, wobei das Gesamtsystem eingerichtet ist, eines der Verfahren der Ansprüche 1 bis 8 durchzuführen.
DE102015216908.1A 2015-09-03 2015-09-03 Verfahren zum Erkennen von Objekten auf einer Abstellfläche Pending DE102015216908A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102015216908.1A DE102015216908A1 (de) 2015-09-03 2015-09-03 Verfahren zum Erkennen von Objekten auf einer Abstellfläche
US15/247,278 US10007268B2 (en) 2015-09-03 2016-08-25 Method for detecting objects on a parking area
FR1658033A FR3040818B1 (fr) 2015-09-03 2016-08-30 Procede de detection d'objets sur une surface de stationnement
CN201610766312.2A CN106504561B (zh) 2015-09-03 2016-08-30 用于识别停车区域上的对象的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015216908.1A DE102015216908A1 (de) 2015-09-03 2015-09-03 Verfahren zum Erkennen von Objekten auf einer Abstellfläche

Publications (1)

Publication Number Publication Date
DE102015216908A1 true DE102015216908A1 (de) 2017-03-09

Family

ID=58054951

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015216908.1A Pending DE102015216908A1 (de) 2015-09-03 2015-09-03 Verfahren zum Erkennen von Objekten auf einer Abstellfläche

Country Status (4)

Country Link
US (1) US10007268B2 (de)
CN (1) CN106504561B (de)
DE (1) DE102015216908A1 (de)
FR (1) FR3040818B1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016223118A1 (de) * 2016-11-23 2018-05-24 Robert Bosch Gmbh Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
CN111028535A (zh) * 2018-10-09 2020-04-17 杭州海康威视数字技术股份有限公司 车位检测装置及方法、车位管理系统
US11157746B2 (en) 2016-11-23 2021-10-26 Robert Bosch Gmbh Method and system for detecting an elevated object situated within a parking facility
DE102021102426A1 (de) 2021-02-03 2022-08-04 Valeo Schalter Und Sensoren Gmbh Verfahren zum betreiben eines fahrzeugs, computerprogrammprodukt, system und fahrzeug

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016200794A1 (de) * 2016-01-21 2017-07-27 Robert Bosch Gmbh Verfahren und Vorrichtung zum Lokalisieren eines Kraftfahrzeugs
US10479376B2 (en) * 2017-03-23 2019-11-19 Uatc, Llc Dynamic sensor selection for self-driving vehicles
DE102017212379A1 (de) * 2017-07-19 2019-01-24 Robert Bosch Gmbh Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes
CN108765973B (zh) * 2018-06-01 2022-04-19 智慧互通科技股份有限公司 一种基于对侧视角互补的路侧停车管理系统
CN109493634A (zh) * 2018-12-21 2019-03-19 深圳信路通智能技术有限公司 一种基于多设备协同工作的停车管理系统及方法
US11474244B2 (en) * 2019-04-16 2022-10-18 GM Global Technology Operations LLC System and method of controlling operation of a device having an optical sensor
CN110329259B (zh) * 2019-07-03 2020-10-16 国唐汽车有限公司 一种基于多传感器融合的车辆自动跟随系统及其方法
EP4189431A1 (de) * 2020-07-29 2023-06-07 Continental Autonomous Mobility US, LLC Fusion von nahbereichsradaren und heckklappenkameras zur anhängerwinkelschätzung

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007002198A1 (de) 2007-01-16 2008-07-31 Siemens Ag Standortermittlung eines Kraftfahrzeugs in einer Parkanlage
DE102008044160A1 (de) * 2008-11-28 2010-06-02 Robert Bosch Gmbh Verfahren zum Unterstützen und/oder zumindest teilweise automatischen Durchführen eines Einparkvorgangs eines Kraftfahrzeugs sowie Einparkassistenzvorrichtung
DE102011014855A1 (de) * 2011-03-24 2012-09-27 Thales Defence & Security Systems GmbH Verfahren und Vorrichtung zum Erfassen und Klassifizieren von fahrenden Fahrzeugen
EP2865575A1 (de) * 2013-10-22 2015-04-29 Honda Research Institute Europe GmbH Vertrauensschätzung für prädiktive Fahrerunterstützungssysteme auf Basis von Plausibilitätsregeln

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004244613A (ja) * 2003-01-23 2004-09-02 Sumitomo Metal Mining Co Ltd 日射遮蔽体と日射遮蔽体形成用分散液
DE10328814B3 (de) * 2003-06-20 2004-12-09 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Verbesserung der Erkennung und/oder Wiedererkennung von Objekten in der Bildverarbeitung
WO2005022485A1 (en) * 2003-09-03 2005-03-10 Stratech Systems Limited Apparatus and method for locating, identifying and tracking vehicles in a parking area
CN101309363A (zh) * 2003-10-15 2008-11-19 富士通天株式会社 图像处理装置、驾驶支援装置和驾驶支援系统
DE102005006290A1 (de) * 2005-02-11 2006-08-24 Bayerische Motoren Werke Ag Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs durch Fusion eines Infrarot- und eines Visuell-Abbilds
WO2006087002A1 (de) * 2005-02-18 2006-08-24 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zum verbringen eines kraftfahrzeugs in eine zielposition
US8077995B1 (en) * 2005-02-23 2011-12-13 Flir Systems, Inc. Infrared camera systems and methods using environmental information
CN100527165C (zh) * 2007-09-04 2009-08-12 杭州镭星科技有限公司 一种以动态投影为背景的实时目标识别方法
CN101304488B (zh) * 2008-06-20 2010-12-15 北京中星微电子有限公司 一种图象采集的方法和装置
DE102008060770A1 (de) * 2008-12-05 2009-09-17 Daimler Ag Verfahren zur Unterstützung eines Fahrers eines Fahrzeuges
CN101650176B (zh) * 2009-08-28 2011-12-21 浙江工业大学 基于主动立体全方位视觉的交通事故现场测绘仪
CN101719987A (zh) * 2009-12-10 2010-06-02 浙江大华技术股份有限公司 一种智能化快速设置自动曝光的方法
CN102542552B (zh) * 2010-12-21 2015-06-03 北京汉王智通科技有限公司 视频图像的顺逆光判断和拍摄时间检测方法
KR101340738B1 (ko) * 2011-11-08 2013-12-12 엘지이노텍 주식회사 주차 보조 시스템
US8582819B2 (en) * 2011-11-18 2013-11-12 Xerox Corporation Methods and systems for improving yield in wanted vehicle searches
CN102694981B (zh) * 2012-05-11 2014-10-29 中国科学院西安光学精密机械研究所 基于自适应阈值分割的直方图均衡化的自动曝光方法
CN103473950B (zh) * 2012-06-06 2017-04-12 刘鉵 一种停车场车位监控方法
US9008389B2 (en) * 2012-09-28 2015-04-14 Robert D. Williams System and method for determining the amount of vitamin D generated by a user
CN103021177B (zh) * 2012-11-05 2014-05-07 北京理工大学 一种雾天交通监控视频图像的处理方法和系统
CN104236539A (zh) * 2013-06-21 2014-12-24 北京四维图新科技股份有限公司 导航方法、导航终端以及导航系统
CN104345523B (zh) * 2013-08-05 2017-07-28 杭州海康威视数字技术股份有限公司 智能交通摄像机局部进光量自动控制的方法及其装置
CN104253979A (zh) * 2014-09-24 2014-12-31 深圳市傲天智能系统有限公司 一种自我感知型的智能摄像机
CN204190866U (zh) * 2014-09-24 2015-03-04 深圳市傲天智能系统有限公司 一种自我感知型智能交通监控的抓拍系统
CN104539921B (zh) * 2014-11-26 2016-09-07 北京理工大学 一种基于多投影系统的光照补偿方法
US10008115B2 (en) * 2016-02-29 2018-06-26 Analog Devices Global Visual vehicle parking occupancy sensor
US9852631B2 (en) * 2016-03-04 2017-12-26 Conduent Business Services, Llc Mobile on-street parking occupancy detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007002198A1 (de) 2007-01-16 2008-07-31 Siemens Ag Standortermittlung eines Kraftfahrzeugs in einer Parkanlage
DE102008044160A1 (de) * 2008-11-28 2010-06-02 Robert Bosch Gmbh Verfahren zum Unterstützen und/oder zumindest teilweise automatischen Durchführen eines Einparkvorgangs eines Kraftfahrzeugs sowie Einparkassistenzvorrichtung
DE102011014855A1 (de) * 2011-03-24 2012-09-27 Thales Defence & Security Systems GmbH Verfahren und Vorrichtung zum Erfassen und Klassifizieren von fahrenden Fahrzeugen
EP2865575A1 (de) * 2013-10-22 2015-04-29 Honda Research Institute Europe GmbH Vertrauensschätzung für prädiktive Fahrerunterstützungssysteme auf Basis von Plausibilitätsregeln

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016223118A1 (de) * 2016-11-23 2018-05-24 Robert Bosch Gmbh Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
US11157746B2 (en) 2016-11-23 2021-10-26 Robert Bosch Gmbh Method and system for detecting an elevated object situated within a parking facility
CN111028535A (zh) * 2018-10-09 2020-04-17 杭州海康威视数字技术股份有限公司 车位检测装置及方法、车位管理系统
CN111028535B (zh) * 2018-10-09 2021-04-27 杭州海康威视数字技术股份有限公司 车位检测装置及方法、车位管理系统
DE102021102426A1 (de) 2021-02-03 2022-08-04 Valeo Schalter Und Sensoren Gmbh Verfahren zum betreiben eines fahrzeugs, computerprogrammprodukt, system und fahrzeug

Also Published As

Publication number Publication date
CN106504561A (zh) 2017-03-15
FR3040818B1 (fr) 2019-07-12
US20170069093A1 (en) 2017-03-09
US10007268B2 (en) 2018-06-26
CN106504561B (zh) 2021-07-27
FR3040818A1 (fr) 2017-03-10

Similar Documents

Publication Publication Date Title
DE102015216908A1 (de) Verfahren zum Erkennen von Objekten auf einer Abstellfläche
DE112018000107T5 (de) Fahrzeugkamerakalibrierungsvorrichtung und -Verfahren
DE102016206493A1 (de) Verfahren und Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug
DE102017205093A1 (de) Verfahren und System zur Vorhersage von Sensorsignalen eines Fahrzeugs
DE102009005861A1 (de) Fahrzeugumgebungs-Erkennungssystem
DE102020215859A1 (de) Korrektur von Bildern einer Kamera bei Regen, Lichteinfall und Verschmutzung
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
DE102015209147A1 (de) Verfahren zur Parkflächenerkennung
DE102016210632A1 (de) Verfahren zum Überprüfen eines Medienverlustes eines Kraftfahrzeuges sowie Kraftfahrzeug und System zum Ausführen eines solchen Verfahrens
DE102018100909A1 (de) Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
DE102012015282B4 (de) Verfahren zur Detektion eines verdeckten Zustands einer Bilderfassungseinrichtung eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102015205634A1 (de) Verfahren zum Erkennen von Bewegungen von Objekten auf einer Abstellfläche für Fahrzeuge
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
DE102012023060A1 (de) Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug
DE102014208272A1 (de) Verfahren und Vorrichtung zur Tracking-basierten Sichtweitenschätzung
DE102016124747A1 (de) Erkennen eines erhabenen Objekts anhand perspektivischer Bilder
DE102012211961A1 (de) Verfahren und Vorrichtung zum Berechnen einer Veränderung eines Abbildungsmaßstabs eines Objekts
EP2996327A2 (de) Surround-view-system für fahrzeuge mit anbaugeräten
DE102010042821B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems
DE102011121473A1 (de) Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung, Kraftfahrzeug und Computerprogramm
DE102021133089A1 (de) Vorrichtung zur Ermittlung einer Topographie einer Fahrzeugumgebung, Fahrzeug und Verfahren
DE102018114231A1 (de) Verfahren und System zum Erfassen von Objekten unter Verwendung mindestens eines Bildes eines Bereichs von Interesse (ROI)
DE102011056948A1 (de) Verfahren zur Kalibrierung einer Kamera zu einem Lagesensor
DE102013218299A1 (de) Verfahren zum Detektieren eines Schadens eines Fahrzeugs anhand eines Prüfbilds, entsprechendes System und Computerprogrammprodukt
DE102017221381A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Ermitteln eines Abstandes zu einem Objekt

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed