[go: up one dir, main page]

DE102009045600A1 - Kamerasystem - Google Patents

Kamerasystem Download PDF

Info

Publication number
DE102009045600A1
DE102009045600A1 DE102009045600A DE102009045600A DE102009045600A1 DE 102009045600 A1 DE102009045600 A1 DE 102009045600A1 DE 102009045600 A DE102009045600 A DE 102009045600A DE 102009045600 A DE102009045600 A DE 102009045600A DE 102009045600 A1 DE102009045600 A1 DE 102009045600A1
Authority
DE
Germany
Prior art keywords
illumination
camera
processing module
areas
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102009045600A
Other languages
English (en)
Other versions
DE102009045600B4 (de
Inventor
Volker Dr. Frey
Thomas Dr. May
Javier Massanell
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PMDtechnologies AG
Original Assignee
IFM Electronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IFM Electronic GmbH filed Critical IFM Electronic GmbH
Priority to DE102009045600.7A priority Critical patent/DE102009045600B4/de
Priority to PCT/EP2010/065210 priority patent/WO2011045277A1/de
Publication of DE102009045600A1 publication Critical patent/DE102009045600A1/de
Application granted granted Critical
Publication of DE102009045600B4 publication Critical patent/DE102009045600B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

3-D-Kamera mit einem Pixel-Array basieren auf einer Photomischdetektion, die derart ausgestaltet ist, dass einzelne Pixel des Pixel-Arrays zu Pixelblöcken zusammenfassbar sind.

Description

  • Die Erfindung betrifft ein Kamerasystem mit einer 3D-Kamera und einer aktiven Beleuchtung sowie ein Verfahren zum Betreiben einer solchen Kamera nach der Gattung der unabhängigen Ansprüche.
  • Aus dem Stand der Technik sind Systeme zur dreidimensionalen Bilderfassung bekannt, welche mit Hilfe einer aktiven Beleuchtung arbeiten. Dazu gehören so genannten Time-of-flight-(TOF-) oder Laufzeitmesssysteme. Diese verwenden eine amplitudenmodulierte oder gepulste Beleuchtung, zur Ausleuchtung der zu erfassenden dreidimensionalen Szenerie.
  • Mit Licht-Laufzeitmesssystem sollen insbesondere auch alle 3D-Kamerasystem mit umfasst sein, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als 3D-Kamera bzw. PMD-Kamera sind insbesondere so genannte Photomischdetektoren (PMD) geeignet, wie sie u. a. in den Anmeldungen DE 196 35 932 , EP 1 777 747 , US 6 587 186 und auch DE 197 04 496 beschrieben und beispielsweise von der Firma ,ifm electronic gmbh' als Frame-Grabber O3D101/M01594 zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.
  • Aus der DE 100 11 263 A1 ist ein Objektdirektionssystem bekannt, bei dem der Objektdetektor in einem ersten und zweiten Betriebsmodus umgeschaltet werden kann, um beispielsweise zwischen einem kleinen und großen Winkelerfassungsbereich umschalten zu können. Für den weit reichenden Bereich wird ein Radarsensor und für den Nahbereich ein Ultraschallsensor eingesetzt.
  • Aufgabe der Erfindung ist es, die Verarbeitungsgeschwindigkeit der 3D-Kamera zu verbessern.
  • Die Aufgabe wird in vorteilhafter Weise durch die erfindungsgemäße 3D-Kamera gelöst.
  • Vorteilhaft ist eine 3D-Kamera vorgesehen, mit einem Pixel-Array basieren auf einer Photomischdetektion, wobei einzelne Pixel des Pixel-Arrays zu Pixelblöcken. zusammenfassbar sind. Hierdurch ist es in vorteilhafter Weise möglich, für bestimmte Erfassungs- und Bildverarbeitungssituationen Pixelblöcke bereitzustellen.
  • Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der in den unabhängigen Ansprüchen angegebenen Erfindung möglich.
  • Insbesondere ist es von Vorteil ein Verarbeitungsmodul derart auszugestalten, dass eine Größe, Positionen und/oder eine Anzahl der Pixelblöcke, in Abhängigkeit einer vorgegebenen Messaufgabe festgelegt und ausgewertet werden kann.
  • In einer weiteren Ausgestaltung ist es vorgesehen die Kamera zusätzlich mit einem Sicherheitsmodul auszugestalten, das unabhängig von dem Verarbeitungsmodul das Pixel-Array auswertet und das Ergebnis mit einem Ergebnis des Verarbeitungsmoduls vergleicht.
  • Ferner ist es auch möglich, dass das Sicherheitsmodul zur Überwachung Verarbeitungsmodul eine vom Verarbeitungsmodul abweichende Pixelblockgröße verwendet und auswertet.
  • Vorteilhaft ist ein Kamerasystem mit einer 3D-Kamera basierend auf einer Potomischdetektion und einer aktiven Beleuchtung zur Beleuchtung eines Erfassungsbereichs der 3D-Kamera vorgesehen, bei der die aktive Beleuchtung derart ausgestaltet ist, dass mindestens zwei Bereiche des Erfassungsbereichs der 3D-Kamera unterschiedlich beleuchtbar sind. Dieses Vorgehen hat den Vorteil, dass für bestimmte bevorzugte Erfassungsbereiche, beispielsweise Seitenstreifen oder entfernte Objekte die Beleuchtung entsprechend des gewünschten Erfassungsbedarfs angepasst werden kann.
  • Vorteilhaft ist ein Kamerasystem mit einer 3D-Kamera basierend auf einer Potomischdetektion und einer aktiven Beleuchtung zur Beleuchtung eines Erfassungsbereichs der 3D-Kamera vorgesehen, bei der die aktive Beleuchtung derart ausgestaltet ist, dass mindestens zwei Bereiche des Erfassungsbereichs der 3D-Kamera unterschiedlich beleuchtbar sind. Dieses Vorgehen hat den Vorteil, dass für bestimmte bevorzugte Erfassungsbereiche, beispielsweise Seitenstreifen oder entfernte Objekte die Beleuchtung entsprechend des gewünschten Erfassungsbedarfs angepasst werden kann
  • Vorzugsweise ist die aktive Beleuchtung in mehrere Beleuchtungsmodule aufgeteilt. Diese Beleuchtungsmodule können insbesondere in Gruppen zu einem oder mehreren Beleuchtungsmodulen aufgeteilt werden, wobei eine jeweilige Gruppe zur Ausleuchtung eines bestimmten Beleuchtungsbereiches ausgebildet ist.
  • Die Einteilung der Beleuchtungsmodule in Gruppen hat den Vorteil, dass die Beleuchtungsbereiche durch Ausrichtung der Module der entsprechenden Gruppe bereits angepasst werden kann. Alternativ oder ergänzend kann es auch vorgesehen sein mindestens eine Strahlführungsoptik eines Beleuchtungsmoduls für einen bestimmten Beleuchtungsbereich anzupassen.
  • Bezüglich des Verfahrens zum Betreiben des Kamerasystems kann es vorgesehen sein, dass die bestimmten Beleuchtungsbereiche entweder gleichzeitig oder sequenziell beleuchtet werden.
  • Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.
  • Es zeigen:
  • 1 schematisch das grundlegende Prinzip der Photomischdetektion,
  • 2 schematisch unterschiedliche Erfassungsbereiche einer PMD-Kamera
  • 3 schematisch eine erfindungsgemäße Verarbeitung der Erfassungsbereiche,
  • 4, ein Fahrzeug mit zwei Beleuchtungsmodulgruppen,
  • 5, schematisch verschiedene Beleuchtungs- und Erfassungsbereiche,
  • 6, eine seitliche Ansicht der verschiedenen Beleuchtungs- und Erfassungsbereiche,
  • 7 und 8 eine serielle und sequenzielle Auswertung der unterschiedlichen Beleuchtungsbereiche.
  • 1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einem TOF-Kamerasystem, wie es beispielsweise aus der DE 197 04 496 bekannt ist.
  • Das TOF-Kamerasystem umfasst hier eine Sendeeinheit bzw. ein Beleuchtungsmodul 100 mit einer Lichtquelle 12 und einer dazugehörigen Strahlformungsoptik 50 sowie eine Empfangseinheit bzw. 3D-Kamera 200 mit einer Empfangsoptik 150 und einem Fotosensor 15. Der Fotosensor 15 ist vorzugsweise als Pixel-Array, insbesondere als PMD-Sensor, ausgebildet. Die Empfangsoptik besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 50 der Sendeeinheit 100 ist vorzugsweise als Reflektor ausgebildet. Es können jedoch auch diffraktive Elemente oder Kombinationen aus reflektierenden und diffraktiven Elementen eingesetzt werden.
  • Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasendifferenz des emittierten und empfangenen Lichts die Laufzeit des emittierten und reflektierten Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle und der Fotosensor 15 über einen Modulator 18 gemeinsam mit einer bestimmten Modulationsfrequenz mit einer ersten Phasenlage a beaufschlagt. Entsprechend der Modulationsfrequenz sendet die Lichtquelle 12 ein amplitudenmoduliertes Signal mit der Phase a aus. Dieses Signal bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 20 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke entsprechend phasenverschoben mit einer zweiten Phasenlage b auf den Fotosensor 15. Im Photosensor 15 wird das Signal der ersten Phasenlage a des Modulators 18 mit dem empfangenen Signal, das mittlerweile eine zweite Phasenlage b angenommen hat, gemischt und aus dem resultierenden Signal die Phasenverschiebung bzw. die Objektentfernung ermittelt.
  • 2 zeigt eine typische Messsituation der erfindungsgemäßen 3D-Kamera. Im dargestellten Beispiel ist eine 3D-Kamera in einem Fahrzeug 70 angeordnet und ermöglicht die Überwachung eines Gesamterfassungsbereichs E. Aufgrund bestimmter Beleuchtungssituationen oder Auswertealgorithmen ist es möglich, innerhalb des Gesamterfassungsbereichs E unterschiedliche Erfassungs- bzw. Überwachungsbereiche auszuwählen. Diese Erfassungsbereiche können sich insbesondere über so genannte „region-of-interest” (ROI) erstrecken oder solche beinhalten.
  • In 2a) ist ein erster Erfassungsbereich EB1 gezeigt, in dem vorzugsweise Objekte in mittlerer und/oder großer Entfernung erfasst werden. 2b) zeigt einen zweiten und dritten deckungsgleichen Erfassungsbereich EB2, EB3. Beide Bereiche EB2, 3 sind geeignet Objekte im Nahbereich zu erfassen. Die Bereiche unterscheiden sich vorzugsweise durch eine unterschiedliche Erfassung durch das Pixel-Array und/oder durch eine unterschiedliche Auswertung bzw. Bildverarbeitung.
  • 3 zeigt schematisch eine mögliche Verarbeitung und Auswertung der unterschiedlichen Erfassungsbereiche EB1, 2, 3. Das Verarbeitungssystem besteht hier im Wesentlichen aus drei Modulen, zum einen dem PMD-Chip bzw. Pixel-Array 15, der den gesamten Erfassungsbereich erfasst und zum anderen aus einem Verarbeitungsmodul VM und einem Sicherheitsmodul SM. Das Verarbeitungsmodul VM erlaubt die Auswahl drei verschiedener Bildverarbeitungsmodi BVM1, 2, 3 zur individuellen Verarbeitung der unterschiedlichen Erfassungsbereiche EB1, 2, 3. Darüber hinaus ist das Verarbeitungsmodul derart ausgestaltet, dass beispielsweise abhängig vom verwendeten Bildverarbeitungsmodus bestimmte Eigenschaften des Pixel-Arrays 15 vorgegeben werden können. Im dargestellten Fall kann das Pixel-Array in einem hoch, mittel und niedrig auflösenden Modus H, M, L betrieben werden.
  • Die unterschiedlichen Auflösungen können vorzugsweise durch Zusammenfassen einzelner Pixel zu Pixelblöcken, dem so genannten binning, eingestellt werden. Weitere Einstellungen des Pixel-Arrays 15 bezüglich Pixel-Position, Größe und/oder Anzahl der Pixelblöcke sind möglich.
  • Im dargestellten Beispiel ist der zweite Erfassungsbereich gem. 2 einem Nahbereich vorzugsweise einem nahen Straßenbereich zugeordnet, in dem Objekte beispielsweise in ihren Abmessungen und Positionen erfasst werden sollen. Zu diesem Zweck ist es vorteilhaft, dass Pixel-Array in einer hohen Auflösung H zu betreiben und eine Bildverarbeitung mit einem geeignetem Algorithmus und geeigneter Parametrisierung auszuwählen.
  • Im dargestellten Fall ist für die Verarbeitung des ersten Erfassungsbereich EB1 vorgesehen, dass erste Bildverarbeitungmodul BVM1 in Kombination mit einer hohen Auflösung H des Pixel-Array zu verwenden. Als Ergebnis der Bildverarbeitung könnte beispielsweise eine Objektliste OL1, 2, 3 mit den erkannten Objekten und ihren Parameter erstellt werden. Es sind jedoch auch andere Objektlisten oder Signalausgänge denkbar.
  • Für den mittleren und/oder fernen zweiten Erfassungsbereich ist eine mittlere Auflösung M und das zweite Bildverarbeitungsmodul BVM2 vorgesehen. Dieses Modul ermittelt beispielsweise neben Position und Abmessung der Objekte auch deren Geschwindigkeit und Beschleunigung. Die Objektliste OL2 aus dieser Verarbeitung kann insbesondere als PreCrash-Information genutzt werden.
  • Der dritte Erfassungsbereich EB3 ist im dargestellten Beispiel für nahste Objekte vorgesehen, die sich vorzugsweise in unmittelbarer Nähe des Fahrzeugs bewegen können, beispielsweise querende Fußgänger oder Fahrradfahrer im Stadtverkehr. Dieser Erfassungsbereich ist einer niedrigen Auflösung L und dem dritten Bildverarbeitungsmodul BVM3 zugeordnet. Als Ergebnis könnte eine optionale Objektliste OL3' erstellt werden.
  • Aus Sicherheitsgründen ist es jedoch vorgesehen, das dritte Bildverarbeitungsmodul mit Hilfe eines Sicherheitsmoduls SM zu überwachen. Das Sicherheitsmodul SM verwendet hierbei dieselben Pixel-Array-Daten, wie sie auch dem Verarbeitungsmodul VM bzw. dem dritten Bildverarbeitungsmodul zur Verfügung standen. Die Verarbeitung der Daten erfolgt mit einem vierten Bildverarbeitungsmodul BVM4, dem vorzugsweise ein anderer Auswerte-Algorithmus und/oder eine andere Parametrisierung zugrunde liegen. Die Ergebnisse des dritten und vierten Bildverarbeitungsmoduls BVM3, 4 werden miteinander vergleichen und nur die sicher erkannten Objekte als dritte Objektliste OL3 weiter gegeben.
  • 4 zeigt schematisch eine Frontansicht eines Kraftfahrzeuges. Im oberen Bereich der Windschutzscheibe ist eine 3D-Kamera 200 angeordnet in der Nähe der Frontscheinwerfer befinden sich auf der rechten und linken Seite des Kraftfahrzeuges verschiedene Beleuchtungsmodule. Die Beleuchtungsmodule 101 zur ersten Gruppe beleuchten einen ersten Beleuchtungsbereich B1 im Fernfeld des Kraftfahrzeuges. Die Beleuchtungsmodule 102 zur zweiten Gruppe beleuchten einen seitlichen Nahbereich des Kraftfahrzeuges in einem ersten und zweiten Beleuchtungsbereich B2, B3. Die seitlichen Beleuchtungsbereiche B2, B3 können beispielsweise zur Erkennung der Fahrbahnränder oder Fahrbahnmarkierung verwendet werden, während der Fernbereich B1 bezüglich einer Hinderniserkennung ausgewertet werden kann.
  • Die Beleuchtungsbereiche sind vorzugsweise so gewählt dass sie innerhalb des Erfassungsbereiches der 3D-Kamera 200 liegen, wie dies exemplarisch in der 5 dargestellt ist. In der 3 sind schematisch die verschiedenen Beleuchtungsgruppen 101 und 102 dargestellt. Das durch die erste Beleuchtungsgruppe 101 aufgespannte Beleuchtungsfeld beleuchtet den Erfassungsbereich E der 3D-Kamera vollständig und geht sogar darüber hinaus. Die Beleuchtungsbereiche B2, B3 der zweiten Beleuchtungsgruppe 102 liegen vollständig innerhalb des Erfassungsbereiches E der 3D-Kamera und sind zudem räumlich voneinander getrennt.
  • Diese zur Verfügungstellung verschiedener gegebenenfalls auch räumlich voneinander getrennten Beleuchtungsbereichen hat den Vorteil, dass mit nur einer einzigen 3D-Kamera mehrere und verschiedene Applikationen abgedeckt werden können. Insbesondere besteht die Möglichkeit die Applikationen nicht nur sequenziell sondern auch simultan einzusetzen.
  • Aus der Seitenansicht in 6 ist ferner zu entnehmen das die Beleuchtungsbereiche nicht nur in der Geometrie sondern auch in der Reichweite angepasst werden können. Im dargestellten Fall ist die erste Beleuchtungsgruppe für die Beleuchtung entfernter Objekte ausgebildet während die zweite Beleuchtungsgruppe 102 vornämlich den Nahbereich beleuchtet. Die 3D-Kamera ist vorzugsweise so ausgebildet, dass sie sowohl den Fernbereich als auch den Nahbereich gleichzeitig erfassen kann.
  • Die Beleuchtungsmodule können mit einer und mehreren Lichtquellen ausgestattet sein, wobei jede Lichtquelle mit einer eigenen Strahlführungsoptik vorzugsweise einem Reflektor ausgestattet ist. Prinzipiell ist es möglich die Strahlführungsoptik einer jeden Lichtquelle für den gewünschten Beleuchtungsbereich zu optimieren. In einer einfacheren Ausgestaltung ist es jedoch vorgesehen, die Strahlführungsoptiken der einzelnen Lichtquellen gleich auszugestalten und den Beleuchtungsbereich durch eine geeignete Gruppierung der Lichtquellen, Positionierung des Beleuchtungsmoduls oder bilden von Beleuchtungsmodulgruppen festzulegen. Ferner könnte ein Beleuchtungsmodul auch in eine vorhandene Beleuchtungseinheit, zum Beispiel dem PKW-Scheinwerfer, integriert werden.
  • Die unterschiedlich beleuchteten Bereiche können nun mit einer nachgelagerten Bildverarbeitung gegebenenfalls mit verschiedenen Algorithmen bzw. Parametrisierungen ausgewertet und/oder bewertet werden. Durch die gezielte Fokussierung des Lichts in die jeweiligen Beleuchtungsbereiche wird ferner sichergestellt, dass ausreichend Licht für eine geeignete Auswertung in diesem Beleuchtungsbereichen ankommt. Um Energie zu sparen oder die Belastung der Beleuchtungsmodule zu verringern, kann es insbesondere vorgesehen sein, bestimmte Beleuchtungsbereiche nur kurzfristig zu beleuchten.
  • Weiterhin ist es denkbar, dass bestimmte Beleuchtungsbereiche B1, B2, B3 nur dann beleuchtet werden, wenn dies eine bestimmte Messsituation erfordert.
  • Prinzipiell ist eine gleichzeitige oder sequenzielle Ausleuchtung der verschiedenen Beleuchtungsbereiche denkbar. Mögliche Auswertungen derartiger Beleuchtungssituationen sind exemplarisch in den 7 und 8 dargestellt.
  • 7 zeigt eine gleichzeitige Erfassung der Beleuchtungsbereiche B1, B2, B3 während eines Zeitintervalls t1. Dieses Zeitintervall kann im vorliegenden Fall auch ein Dauerbetrieb sein. Die erfassten Daten der einzelnen Beleuchtungsbereiche werden einer nachfolgenden Bildverarbeitung zugeführt, wobei die Daten des ersten erfassten Bereiches einer ersten Bildverarbeitung BV1 und die Daten aus dem zweiten und dritten Beleuchtungsbereich einer zweiten Bildverarbeitung BV2 zugeführt werden.
  • Die Beleuchtungsbereiche B1, B2, B3 sind vorzugsweise so genannten Region-of-interest zugeordnet. Eine derartige „Region-of-interest” könnten beispielsweise ein Fernfeld oder ein Nahfeld sein. So kann beispielsweise für die erste Bildverarbeitung BV1 des ersten Beleuchtungsbereich B1 ein Algorithmus und eine Parametrisierung für die Erkennung von Hindernissen, Fahrzeugen, Verkehrsschildern etc. verwendetet werden, während für die zweite Bildverarbeitung BV2 des zweiten und dritten Beleuchtungsbereich B2, B3 der Algorithmus und/oder die verwendeten Parameter vorzugsweise für die Erkennung von Seitenstreifen und/oder Fahrbahnunebenheiten o. ä. optimiert sind.
  • Weiterhin ist es denkbar, für bestimmte Fahrsituationen oder Sicherheitsüberprüfungen die verschiedenen Beleuchtungsbereiche bzw. Region-of-interest mittels unterschiedlichen Bildverarbeitungen zu untersuchen. Im dargestellte Beispiel ist beispielhaft mit gestrichelter Linie eine optionale Auswertung des zweiten Beleuchtungsbereichs B2 mit der ersten Bildverarbeitung BV1 gezeigt. Beispielsweise könnte dieser Beleuchtungsbereich zunächst mit der zweiten Bildverarbeitung im Hinblick auf Erfassung eines Seitenstreifens untersucht werden und vorzugsweise parallel in der ersten Bildverarbeitung beispielsweise auf Hindernisse.
  • Selbstverständlich sind auch weitere Zuordnungen der Beleuchtungsbereiche zu den verschiedenen Bildverarbeitungen denkbar, wie auch die Verwendung weiterer Bildverarbeitungen mit verschiedenen Algorithmen und/oder Parametern.
  • Die von den Bildverarbeitungen BV1, BV2 gewonnen Daten können seriell oder auch parallel weiteren Prozessen zur Verfügung gestellt werden. Als Schnittstelle bzw. Datenbus kommen beispielsweise Ethernet, LVDS, CAN, Flexray etc. in Betracht.
  • 8 zeigt im Wesentlichen die bereits in 7 dargestellte Bildverarbeitung, wobei die Beleuchtungsbereiche nicht zwingend parallel, sondern vorzugsweise sequentiell betrieben werden. Im dargestellten Beispiel ist es vorgesehen, den ersten Beleuchtungsbereich B1 in einem Zeitintervall t1 und den zweiten und dritten Beleuchtungsbereich B2, B3 in einem zweiten Zeitintervall t2 zu betreiben.
  • Die Zeitdauer und Häufigkeit der Zeitintervalle kann hierbei völlig unabhängig gewählt werden. So kann beispielsweise zunächst der erste Beleuchtungsbereich B1 und dann die beiden anderen Beleuchtungsbereiche B2, B3 betrieben und erfasst werden. Es ist jedoch auch möglich, den ersten Beleuchtungsbereich B1 dauerhaft zu betreiben und den zweiten oder dritten Beleuchtungsbereich B2, B3 nur bei Bedarf zuzuschalten und zu erfassen. Auch das Hinzunehmen weiterer Beleuchtungsbereiche oder Bildverarbeitungen sowie weiteren Zeitintervallen ist denkbar.
  • So kann es auch vorgesehen sein, je nach Auswerte-, Umgebungs- und/oder Fahrsituation unterschiedliche Zeitintervalle, Algorithmen, Parameter zu verwenden oder auch zwischen sequenzieller oder paralleler Beleuchtung oder Bildverarbeitung zu wechseln.
  • In einer weiterführenden Ausbaustufe ist es möglich, über einen externen Befehl, beispielsweise über CAM, Flexray, LIN, Ethernet, oder ähnliches, den auszuleuchtenden Bereich und den anzuwendenden Algorithmus oder die anzuwendende Algorithmus-Parametrisierung zu definieren.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 19635932 [0003]
    • EP 1777747 [0003]
    • US 6587186 [0003]
    • DE 19704496 [0003, 0026]
    • DE 10011263 A1 [0004]

Claims (11)

  1. 3D-Kamera mit einem Pixel-Array basieren auf einer Photomischdetektion dadurch gekennzeichnet, dass einzelne Pixel des Pixel-Arrays zu Pixelblöcken zusammenfassbar sind.
  2. Kamera nach Anspruch 1, mit einem Verarbeitungsmodul, das derart ausgestaltet ist, dass eine Größe, Positionen und/oder eine Anzahl der Pixelblöcke, in Abhängigkeit einer vorgegebenen Messaufgabe festgelegt und auswertet werden.
  3. Kamera nach Anspruch 2, mit einem Sicherheitsmodul, das unabhängig von dem Verarbeitungsmodul das Pixel-Array auswertet und das Ergebnis mit einem Ergebnis des Verarbeitungsmoduls vergleicht.
  4. Kamera nach Anspruch 3, bei der das Sicherheitsmodul zur Überwachung Verarbeitungsmodul eine vom Verarbeitungsmodul abweichende Pixelblockgröße verwendet und auswertet.
  5. Kamera nach einem der vorhergehenden Ansprüche, bei dem eine aktive Beleuchtung in Gruppen zu einem oder mehreren Beleuchtungsmodulen aufgeteilt ist, wobei eine jeweilige Gruppe zur Ausleuchtung eines bestimmten Beleuchtungsbereiches ausgebildet ist.
  6. Kamera nach Anspruch 5, bei dem die bestimmten Beleuchtungsbreiche bestimmten Überwachungsbereichen, insbesondere Region-of-interest zugeordnet sind
  7. Kamerasystem nach einem der vorhergehenden Ansprüche, bei dem zur Ausleuchtung des bestimmten Beleuchtungsbereichs die Beleuchtungsmodulgruppe entsprechend ausgerichtet werden kann und/oder mindestens eine Strahlführungsoptik eines Beleuchtungsmoduls für den bestimmten Beleuchtungsbereich angepasst ist.
  8. Verfahren für eine 3D-Kamera nach einem der vorhergehenden Ansprüche, bei dem die Größe und/oder Anzahl der Pixelblöcke in Abhängigkeit der vorgegebenen Sicherheitsanforderungsstufe festgelegt wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Größe der Pixelblöcke mit steigender Sicherheitsanforderung abnimmt.
  10. Verfahren nach einem der vorhergehenden Ansprüche, bei für einen Nahbereich im Wesentlichen die volle Auflösung des Pixel-Array und für einen Fernbereich zumindest teilweise die Einzelpixel zu Pixelblöcken zusammengefasst werden.
  11. Verfahren für ein Kamerasystem nach einem der vorhergehenden Ansprüche, bei dem die von der 3D-Kamera erfassten Beleuchtungsbereiche unterschiedlich ausgewertet und/oder bewertet werden.
DE102009045600.7A 2009-10-12 2009-10-12 Kamerasystem Active DE102009045600B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102009045600.7A DE102009045600B4 (de) 2009-10-12 2009-10-12 Kamerasystem
PCT/EP2010/065210 WO2011045277A1 (de) 2009-10-12 2010-10-11 Kamerasystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009045600.7A DE102009045600B4 (de) 2009-10-12 2009-10-12 Kamerasystem

Publications (2)

Publication Number Publication Date
DE102009045600A1 true DE102009045600A1 (de) 2011-04-14
DE102009045600B4 DE102009045600B4 (de) 2021-11-04

Family

ID=43431181

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009045600.7A Active DE102009045600B4 (de) 2009-10-12 2009-10-12 Kamerasystem

Country Status (2)

Country Link
DE (1) DE102009045600B4 (de)
WO (1) WO2011045277A1 (de)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013112284A1 (en) 2012-01-23 2013-08-01 Microsoft Corporation 3d zoom imager
DE102012207328A1 (de) * 2012-05-03 2013-11-07 Audi Ag System und Verfahren zur Erfassung eines Fahrbahnprofils
DE102013208805A1 (de) * 2012-05-30 2013-12-05 Pmdtechnologies Gmbh Lichtlaufzeitsensor mit Zwischenspeicher
DE102012213294A1 (de) * 2012-07-27 2014-01-30 Ifm Electronic Gmbh Verfahren zum Betreiben eines Sicherheitssystems in einem Kraftfahrzeug, das eine 3D-Ortsfrequenzfilter-Kamera und eine 3D-TOF-Kamera aufweist
WO2016198522A1 (de) * 2015-06-10 2016-12-15 Valeo Schalter Und Sensoren Gmbh Fahrerassistenzsystem für ein kraftfahrzeug, kraftfahrzeug sowie verfahren
CN108541305A (zh) * 2015-12-21 2018-09-14 株式会社小糸制作所 车辆用图像获取装置和包括该装置的车辆
US11187805B2 (en) 2015-12-21 2021-11-30 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
US11194023B2 (en) 2015-12-21 2021-12-07 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
US11249172B2 (en) 2015-12-21 2022-02-15 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
DE102018113629B4 (de) 2017-06-08 2024-01-11 Ifm Electronic Gmbh Entfernungsmesssystem mit wenigstens zwei Beleuchtungsmodulen

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
DE10011263A1 (de) 2000-03-08 2001-09-13 Bosch Gmbh Robert Objektdetektionssystem
US6587186B2 (en) 2000-06-06 2003-07-01 Canesta, Inc. CMOS-compatible three-dimensional image sensing using reduced peak energy
EP1777747A1 (de) 2005-10-19 2007-04-25 CSEM Centre Suisse d'Electronique et de Microtechnique SA Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19730341A1 (de) * 1997-07-15 1999-01-21 Sick Ag Verfahren zum Betrieb einer opto-elektronischen Sensoranordnung
DE10022454B4 (de) 2000-05-09 2004-12-09 Conti Temic Microelectronic Gmbh Bildaufnehmer und Bildaufnahmeverfahren, insbesondere zur dreidimensionalen Erfassung von Objekten und Szenen
DE10147807A1 (de) 2001-09-27 2003-04-24 Conti Temic Microelectronic Verfahren zur dreidimensionalen Erfassung von Objekten oder Szenen
DE10360174B4 (de) 2003-12-20 2007-03-08 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
ATE552514T1 (de) 2006-12-02 2012-04-15 Sick Ag Optoelektronischer mehrebenensensor und verfahren zur erfassung von objekten
JP5190663B2 (ja) 2007-03-27 2013-04-24 スタンレー電気株式会社 距離画像生成装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
DE10011263A1 (de) 2000-03-08 2001-09-13 Bosch Gmbh Robert Objektdetektionssystem
US6587186B2 (en) 2000-06-06 2003-07-01 Canesta, Inc. CMOS-compatible three-dimensional image sensing using reduced peak energy
EP1777747A1 (de) 2005-10-19 2007-04-25 CSEM Centre Suisse d'Electronique et de Microtechnique SA Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2807826A4 (de) * 2012-01-23 2015-06-03 Microsoft Technology Licensing Llc Bildgeber mit 3d-zoom
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
WO2013112284A1 (en) 2012-01-23 2013-08-01 Microsoft Corporation 3d zoom imager
DE102012207328A1 (de) * 2012-05-03 2013-11-07 Audi Ag System und Verfahren zur Erfassung eines Fahrbahnprofils
DE102013208805A1 (de) * 2012-05-30 2013-12-05 Pmdtechnologies Gmbh Lichtlaufzeitsensor mit Zwischenspeicher
DE102013208805B4 (de) * 2012-05-30 2016-09-08 Pmdtechnologies Gmbh Lichtlaufzeitsensor mit Zwischenspeicher
DE102012213294B4 (de) * 2012-07-27 2020-10-22 pmdtechnologies ag Verfahren zum Betreiben eines Sicherheitssystems in einem Kraftfahrzeug, das eine 3D-Ortsfrequenzfilter-Kamera und eine 3D-TOF-Kamera aufweist
DE102012213294A1 (de) * 2012-07-27 2014-01-30 Ifm Electronic Gmbh Verfahren zum Betreiben eines Sicherheitssystems in einem Kraftfahrzeug, das eine 3D-Ortsfrequenzfilter-Kamera und eine 3D-TOF-Kamera aufweist
WO2016198522A1 (de) * 2015-06-10 2016-12-15 Valeo Schalter Und Sensoren Gmbh Fahrerassistenzsystem für ein kraftfahrzeug, kraftfahrzeug sowie verfahren
CN108541305A (zh) * 2015-12-21 2018-09-14 株式会社小糸制作所 车辆用图像获取装置和包括该装置的车辆
EP3396411A4 (de) * 2015-12-21 2019-08-21 Koito Manufacturing Co., Ltd. Bilderfassungsvorrichtung für fahrzeuge und fahrzeug damit
US11187805B2 (en) 2015-12-21 2021-11-30 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
US11194023B2 (en) 2015-12-21 2021-12-07 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
US11204425B2 (en) 2015-12-21 2021-12-21 Koito Manufacturing Co., Ltd. Image acquisition device for vehicles and vehicle provided with same
US11249172B2 (en) 2015-12-21 2022-02-15 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
DE102018113629B4 (de) 2017-06-08 2024-01-11 Ifm Electronic Gmbh Entfernungsmesssystem mit wenigstens zwei Beleuchtungsmodulen

Also Published As

Publication number Publication date
WO2011045277A1 (de) 2011-04-21
DE102009045600B4 (de) 2021-11-04

Similar Documents

Publication Publication Date Title
DE102009045600B4 (de) Kamerasystem
DE102013100327B4 (de) Fahrzeugfahrtumgebungserkennungsvorrichtung
EP2715446B1 (de) Kamerasystem für ein fahrzeug
DE112017006833B4 (de) Fahrzeugbeleuchtungssystem
DE102011088130B4 (de) Verfahren und Vorrichtung zur Erkennung einer Bremssituation
EP2898343B1 (de) Verfahren zur kalibrierung mehrerer umfeldsensoren in einem fahrzeug
DE102013203925B4 (de) Steuersystem für Fahrzeugscheinwerfer
DE102009023326A1 (de) Vorrichtung und Verfahren zum Detektieren eines kritischen Bereiches und Fußgängerdetektionsvorrichtung unter Verwendung derselben
DE102016001692A1 (de) Fahrerassistenzsystem zur Steuerung einer Lichtabstrahlung einer fahrzeugseitigen Scheinwerfereinrichtung
DE102015206936A1 (de) Verfahren und Vorrichtung zum Detektieren von Hindernissen im Fahrweg eines Kraftfahrzeugs
DE102011081357A1 (de) Verfahren und Vorrichtung zur Ansteuerung eines Scheinwerfers eines Fahrzeugs
DE102012100463A1 (de) Vorrichtung und Verfahren zur Ermittlung und Ausgabe von Daten für eine automatische Lichtsteuerung für ein Fahrzeug
DE102009046108A1 (de) Kamerasystem
DE102020117060B4 (de) Vorrichtung und Verfahren zur Umfelderfassung eines Fahrzeugs
DE102014118056A1 (de) Optoelektronische Detektionseinrichtung fuer ein Kraftfahrzeug sowie Verwendung einer solchen Detektionseinrichtung
DE102006010295A1 (de) Kamerasystem mit zumindest zwei Bildaufnehmern
EP2562685B1 (de) Verfahren und Vorrichtung zur Klassifizierung eines sich in einem Vorfeld eines Fahrzeugs befindlichen Lichtobjekts
DE102009045558B4 (de) Kamerasystem
DE102016006326A1 (de) Linear polarisierte Lichtabstrahlung durch einen Fahrzeugscheinwerfer zum Einsatz in einem kamerabasierten Fahrerassistenzsystem
DE102011017707A1 (de) Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera
DE102012111199A1 (de) Optische Vorrichtung mit multifokaler Bilderfassung
DE102008025749A1 (de) Verfahren und Vorrichtung zum Klassifizieren eines in mindestens einem Bild einer Abbildung eines Bereichs vor einem Fahrzeug detektierten Objekts
DE102011007464A1 (de) Verfahren und Vorrichtung zur Visualisierung einer Szene
DE102021126999A1 (de) Verfahren zum Betreiben eines LiDAR-Systems, LiDAR-System und Fahrzeug aufweisend wenigstens eine LiDAR-System
DE102017129654A1 (de) 3D Szenenerfassung basierend auf Lichtlaufzeiten und einem charakteristischen Merkmal von erfassten elektromagnetischen Wellen

Legal Events

Date Code Title Description
OR8 Request for search as to paragraph 43 lit. 1 sentence 1 patent law
R163 Identified publications notified
R163 Identified publications notified

Effective date: 20110809

R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: PMDTECHNOLOGIES AG, DE

Free format text: FORMER OWNER: IFM ELECTRONIC GMBH, 45128 ESSEN, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0013020000

Ipc: H04N0013200000

R081 Change of applicant/patentee

Owner name: PMDTECHNOLOGIES AG, DE

Free format text: FORMER OWNER: PMDTECHNOLOGIES AG, 57076 SIEGEN, DE

R082 Change of representative

Representative=s name: SCHUHMANN, JOERG, DIPL.-PHYS. DR. RER. NAT., DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final