[go: up one dir, main page]

DE102011052815B4 - Kombinierte Time-of-Flight- bzw. Laufzeit- und Bild-Sensorsysteme - Google Patents

Kombinierte Time-of-Flight- bzw. Laufzeit- und Bild-Sensorsysteme Download PDF

Info

Publication number
DE102011052815B4
DE102011052815B4 DE102011052815.6A DE102011052815A DE102011052815B4 DE 102011052815 B4 DE102011052815 B4 DE 102011052815B4 DE 102011052815 A DE102011052815 A DE 102011052815A DE 102011052815 B4 DE102011052815 B4 DE 102011052815B4
Authority
DE
Germany
Prior art keywords
tof
image
display
pixel sensors
detected object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102011052815.6A
Other languages
English (en)
Other versions
DE102011052815A1 (de
Inventor
Silviu Pala
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso International America Inc
Original Assignee
Denso International America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso International America Inc filed Critical Denso International America Inc
Publication of DE102011052815A1 publication Critical patent/DE102011052815A1/de
Application granted granted Critical
Publication of DE102011052815B4 publication Critical patent/DE102011052815B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Abstract

Objekterfassungs-System eines Fahrzeugs (12, 300), aufweisend: einen TOF-Sensor (18, 52, 206), welcher ein reflektiertes Objekterfassungs-Signal zu einer zweiten Zeit empfängt basierend auf einem Objekterfassungs-Signal, welches zu einer ersten Zeit ausgesandt wird; einen Bild-Sensor (22, 54, 208), welcher ein Bild-Signal, welches ein Bild eines erfassten Objekts aufweist, erzeugt, wobei der Bild-Sensor (22, 54, 208) verschieden von und benachbart zu dem TOF-Sensor (18, 52, 206) ist; ein TOF-Steuer- oder Regelmodul (20, 66, 66'), welches Abstands-Daten basierend auf der ersten Zeit und der zweiten Zeit erzeugt, und bestimmt, ob wenigstens ein Abschnitt eines erfassten Objekts innerhalb eines vorbestimmten Abstandes des Fahrzeugs (12, 300) ist; ein Bild-Steuer- oder Regelmodul (24, 68, 68'), das Bild-Daten basierend auf dem Bild-Signal erzeugt; und ein Erfassungs-Steuer- oder Regelmodul (28, 86, 86'), das die Abstands-Daten mit den Bild-Daten korreliert, um eine Warnanzeige (320, 320') zu erzeugen, wenn wenigstens ein Abschnitt des erfassten Objekts innerhalb des vorbestimmten Abstandes des Fahrzeuges (12, 300) ist, wobei die Warnanzeige (320, 320') proportional zu dem Abschnitt des erfassten Objekts innerhalb eines vorbestimmten Abstands ist, wobei das erfasste Objekt auf einer Anzeige (26, 84) gezeigt ist und eine Schnittlinie (322) auf dem erfassten Objekt gezeigt ist, wobei die Schnittlinie (322) dem Abschnitt des erfassten Objekts innerhalb eines vorbestimmten Abstands entspricht.

Description

  • Die vorliegende Erfindung bezieht sich auf Time-of-Flight- bzw. Laufzeitsensorsysteme und Bild-Sensier- bzw. -Erfassungssysteme.
  • Objekterfassungssysteme werden beispielsweise in Fahrzeugen verwendet, um Objekte vor, hinter oder auf einer Seite eines Fahrzeugs zu erfassen. Die Objekterfassungssensoren können verwendet werden während Parkmanövern, wenn eine Geschwindigkeitsregelvorrichtung aktiv ist und/oder um ein nahendes Fahrzeug zu erfassen. Zwei Beispiele eines Objekterfassungssystems sind ein Time-of-Flight- bzw. Laufzeit-(Time-Of-Flight = TOF-)System und ein Bild-Sensier- bzw. -Erfassungssystem.
  • Ein TOF-System weist wenigstens einen TOF-Sensor auf, welcher verwendet wird, um einen Abstand zwischen dem Sensor und einem Objekt zu erfassen. Beispielhafte TOF-Sensoren sind Radarsensoren und Nah-Infrarot-Spektroskopiesensoren. Ein TOF-System misst die Zeitdauer für ein Signal, welches von dem TOF-System übertragen wird, um sich zu einem Objekt fortzubewegen, von dem Objekt reflektiert zu werden und um zu dem TOF-Sensor zurückzukehren. Als solches kann ein TOF-System verwendet werden, um Abstände zwischen beispielsweise einem Fahrzeug und Objekten in einer Umgebung, welche das Fahrzeug umgibt, zu erfassen.
  • Ein Bild-Sensier- bzw. -Erfassungssystem kann Bild-Sensoren aufweisen wie beispielsweise eine ladungsgekoppelte Vorrichtung (CCD = Charge-Coupled Device) oder eine Matrix bzw. Anordnung von komplementären Metalloxidhalbleiter-(CMOS-)Aktiv-Pixel-Sensoren (CMOS = Complimentary Metal Oxide Semiconductor = komplementäre Metalloxidhalbleiter). Die Bild-Sensoren wandeln ein optisches Bild in ein elektrisches Signal um, welches verwendet wird, um ein Bild zu erzeugen, welches eine Umgebung nach vorne, nach hinten und/oder auf einer Seite eines Fahrzeuges repräsentiert. Bild-Daten von den Bild-Sensoren können verwendet werden, um Objekte in der Umgebung des Fahrzeugs zu erfassen.
  • Aus der DE 10 2010 055 865 A1 ist eine Kameravorrichtung für einen Kraftwagen bekannt, welche zumindest ein, mehrere Pixel umfassendes integriertes Halbleiterelement aufweist, das dazu ausgebildet ist, ein erstes Bild optisch zu detektieren und räumlich aufgelöste, zweidimensionale Bildinformationen bereitzustellen, und zumindest ein von dem ersten Halbleiterelement verschiedenes zweites, mehrere photoempfindliche Pixel umfassende integriertes Halbleiterbauelement aufweist, das dazu ausgebildet ist, ein zweites Bild optisch zu detektieren und räumlich aufgelöste, dreidimensionale Bildinformationen bereitzustellen, wobei das zumindest eine erste und das zumindest eine zweite Hableiterbauelement in einem gemeinsamen Gehäuse vorliegen.
  • Aus der US 7 741 961 B1 ein Hinderniserfassungs- und Verfolgungssystem für 3-dimensionale Bildgebungssysteme für Fahrzeuge bekannt. Das System enhält ein Tiefen-Bildgebungssystem, das Tiefendaten von Objekten im Bildfeld einer Detektionszone, die zumindest einen Teil des Fahrwegs des Fahrzeugs umfasst, erfasst. Eine Datenanalyse der Tiefendaten des Objekts identifiziert im 3 dimensionalen X, Y, Z Raum zumindest eine Ebene des Fahrwegs, wonach im Anschluss Schwellwerte für Normalhöhen ober- und unterhalb der Fahrwegebene definiert werden. Erfasste Objekte innerhalb der Detektionszone, die höher oder niedriger als der Normalschwellwert liegen, werden als potentiell gefährlich eingestuft und erzeugen eine Warnung an den Fahrzeugführer.
  • Aus der DE 10 2009 045 233 A1 ist ein Verfahren zur kombinierten visuellen Anzeige von Video- und Abstandsdaten einer Verkehrssituation, in der sich ein Fahrzeug befindet, bekannt. Das Verfahren umfasst das Aufnehmen von Kameradaten eines Umgebungsabschnitts vom Fahrzeug aus sowie das Erfassen von Entfernungsdaten, die mindestens einen Abstand zwischen dem Fahrzeug und mindestens einem Objekt innerhalb des Umgebungsabschnitts wiedergeben. Das Verfahren sieht vor, zumindest einen Bildabschnitt der Kamerabilddaten abhängig von dem mindestens einen Abstand zu verzerren. Der verzerrte, zumindest eine Bildabschnitt wird daraufhin gezeigt. Ferner umfasst die Erfindung eine Vorrichtung zum Ausführen des erfindungsgemäßen Verfahrens.
  • Aus der DE 10 2007 004 348 A1 ist ein Imager-Halbleiterbauelement für ein Kamerasystem eines Fahrzeugs bekannt, das eine zweidimensionale integrierte Anordnung von Imager-Pixeln zur Aufnahme von optischer oder infraroter Strahlung und Ausgabe von Bildsignalen aufweist. Erfindungsgemäß ist vorgesehen, dass auf dem Imager-Halbleiterbauelement Mess-Zellen, insbesondere PMD-Messzellen, für eine Entfernungsbestimmung durch Laufzeitmessung von optischer oder infrarorter Strahlung integriert sind. Hierdurch werden ein monokulares Kamerasystem und Verfahren zu dessen Verwendung ermöglicht, bei denen Infrarot-Strahlung für eine Laufzeitmessung ausgesendet wird, und aus von den Imager-Pixeln ausgegebenen Bildsignalen und von den Mess-Zellen ausgegebenen Mess-Zellen-Signalen ein kombiniertes Bild- und Tiefendarstellung erstellt wird, das Entfernungsinformationen der Mess-Zellen-Signale enthält.
  • Die der Erfindung zugrunde liegende Aufgabe wird durch eine Vorrichtung gemäß Anspruch 1 und 9 gelöst. Vorteilhafte Weiterentwicklungen und Ausführungsformen sind Gegenstand der abhängigen Ansprüche.
  • Ein Objekterfassungssystem eines erfindungsgemäßen Fahrzeuges ist ausgestattet mit und weist auf einen Time-of-Flight- bzw. Laufzeit-(TOF = Time-Of-Flight-)Sensor. Der TOF-Sensor empfängt ein reflektiertes Objekterfassungssignal zu einer zweiten Zeit basierend auf einem Objekterfassungssignal, welches zu einer ersten Zeit ausgesandt wird. Ein Bild-Sensor erzeugt ein Bild-Signal, welches ein Bild eines erfassten Objekts aufweist. Der Bild-Sensor ist verschieden von und benachbart zu dem TOF-Sensor. Ein TOF-Steuer- bzw. Regelmodul erzeugt Abstandsdaten basierend auf der ersten Zeit und der zweiten Zeit und bestimmt, ob wenigstens ein Abschnitt eines erfassten Objekts innerhalb eines bestimmten Abstands des Fahrzeugs ist. Ein Bild-Steuer- bzw. Regelmodul erzeugt Bild-Daten basierend auf dem Bild-Signal. Ein Erfassungs-Steuer- bzw. Regelmodul korreliert bzw. setzt die Abstands-Daten und die Bild-Daten zueinander in Beziehung, um eine Warnanzeige zu erzeugen, wenn wenigstens ein Abschnitt des erfassten Objekts innerhalb des vorbestimmten Abstands des Fahrzeugs ist.
  • In einer anderen Ausgestaltung ist ein Objekterfassungssystem vorgesehen, das ein Substrat aufweist. Das Substrat weist einen TOF-Sensor mit N Pixel-Sensoren auf. Der TOF-Sensor empfängt ein reflektiertes TOF-Signal zu einer zweiten Zeit basierend auf einem TOF-Signal, welches zu einer ersten Zeit ausgesandt wird. N ist eine ganze Zahl. Ein Bild-Sensor weist M Pixel-Sensoren, welche verschieden von den N Pixel-Sensoren sind, auf und erzeugt ein Bild-Signal, und ist benachbart zu dem TOF-Sensor, wobei M eine ganze Zahl ist. Ein TOF-Steuer- bzw. Regelmodul erzeugt Abstands-Daten basierend auf der ersten Zeit und der zweiten Zeit und bestimmt, ob wenigstens ein Abschnitt eines erfassten Objekts innerhalb eines vorbestimmten Abstandes eines Fahrzeuges ist. Ein Bild-Steuer- bzw. Regelmodul erzeugt Bild-Daten basierend auf dem Bild-Signal. Ein Erfassungs-Steuer- bzw. Regelmodul korreliert bzw. setzt die Abstands-Daten und die Bild-Daten zueinander in Beziehung, um eine erste Warnanzeige zu erzeugen, wenn wenigstens ein Abschnitt des erfassten Objekts innerhalb des vorbestimmten Abstandes des Fahrzeugs ist.
  • In einer noch anderen Ausgestaltung ist ein Verfahren zum Betreiben eines Objekterfassungs-Systems vorgesehen, das ein Erzeugen einer Übereinstimmungsmatrix zwischen TOF-Pixel-Sensoren eines TOF-Sensors und Bildpixel-Sensoren eines Bild-Sensors aufweist. Abstands-Daten werden von dem TOF-Sensor empfangen. Bild-Daten werden von dem Bild-Sensor empfangen. Die Abstands-Daten werden mit einem Warnabstand verglichen und eine Warnanzeige wird erzeugt. Eine erste Übereinstimmung wird zwischen einer ersten Teilmenge bzw. Untermenge der TOF-Pixel-Sensoren und wenigstens einem von den Bildpixel-Sensoren und den Pixeln einer Anzeige bestimmt. Die erste Untermenge bzw. Teilmenge der TOF-Pixel-Sensoren ist mit Abständen eines erfassten Objekts, welche innerhalb des Warnabstandes sind, verbunden. Das erfasste Objekt und die Warnanzeige werden gemäß der ersten Übereinstimmung angezeigt.
  • Weitere Gebiete der Anwendbarkeit der vorliegenden Erfindung werden aus der detaillierten Beschreibung, welche hierin nachstehend bereitgestellt ist, offensichtlich werden.
  • Die vorliegende Offenbarung wird vollständiger verstanden werden aus der detaillierten Beschreibung und den beigefügten Zeichnungen, in welchen:
  • 1 eine Draufsicht auf ein Objekterfassungs-System eines Fahrzeugs ist;
  • 2 ine Seitenansicht des Objekterfassungs-Systems der 1 ist;
  • 3 ein funktionales Blockdiagramm eines Objekterfassungs-Systems ist, welches einen TOF-Sensor und einen Bild-Sensor auf getrennten Substraten in Übereinstimmung mit der vorliegenden Offenbarung enthält;
  • 4 ein funktionales Blockdiagramm eines Sensorchips ist, welches eine Massenmittelpunkt- bzw. Masseschwerpunkt- bzw. Schwerpunktimplementation in Übereinstimmung mit der vorliegenden Offenbarung veranschaulicht;
  • 5 ein funktionales Blockdiagramm eines Objekterfassungs-Systems ist, welches einen kombinierten TOF- und Bild-Sensor auf einem gemeinsamen Substrat in Übereinstimmung mit der vorliegenden Offenbarung enthält;
  • 6 ein funktionales Blockdiagramm eines Objekterfassungs-Systems ist, welches einen ineinandergeschachtelten bzw. verschachtelten TOF- und Bild-Sensor in Übereinstimmung mit der vorliegenden Offenbarung enthält;
  • 7 eine Draufsicht auf einen Sensorchip ist, welche ein Beispiel für eine verschachtelte Pixel-Sensoranordnung in Übereinstimmung mit der vorliegenden Offenbarung veranschaulicht;
  • 8 eine Seitenansicht eines Fahrzeuges und eines bevorstehenden Objekts ist, welche eine Beispielwarnung und kritische Abstände in Übereinstimmung mit der vorliegenden Offenbarung veranschaulicht;
  • 9 eine Seitenansicht des Fahrzeugs und des bevorstehenden Objekts der 8 ist, welche das Objekt bei dem Warnabstand veranschaulicht;
  • 10 eine Seitenansicht des Fahrzeuges und des bevorstehenden Objekts der 8 ist, welche das Objekt bei dem kritischen Abstand veranschaulicht; und
  • 11 ein Verfahren zum Betreiben eines Objekterfassungs-Systems in Übereinstimmung mit der vorliegenden Offenbarung veranschaulicht.
  • Es sollte verstanden werden, dass Schritte innerhalb eines Verfahrens in unterschiedlicher Reihenfolge ausgeführt werden können, ohne die Prinzipien der vorliegenden Erfindung zu ändern.
  • Wie hierin verwendet kann sich der Ausdruck „Modul” darauf beziehen, ein Teil zu sein von oder aufzuweisen: eine anwendungsspezifische integrierte Schaltung (ASIC = Application Specific Integrated Circuit = anwendungsspezifische integrierte Schaltung); eine elektronische Schaltung; eine kombinationslogische Schaltung; ein feldprogrammierbares Gate-Array (FPGA = Field Programmable Gate Array = feldprogrammierbares Gate-Array); einen Prozessor (geteilt, dediziert oder Gruppe), welcher Code ausführt; andere geeignete Komponenten, welche die beschriebene Funktionalität aufweisen; oder eine Kombination von einigen oder allen der Vorstehenden, wie beispielsweise in einem System-On-Chip. Der Ausdruck Modul kann einen Speicher (geteilt, dediziert bzw. fest zugeordnet oder Gruppe) aufweisen, welcher Code speichert, welcher durch den Prozessor ausgeführt wird.
  • Der Ausdruck Code, wie er vorstehend verwendet wird, kann Software, Firmware und/oder Micro-Code einschließen und kann sich auf Programme, Routinen, Funktionen, Klassen und/oder Objekte beziehen. Der Ausdruck geteilt, wie er vorstehend verwendet wird, bedeutet, dass einiger oder der gesamte Code von mehreren Modulen ausgeführt werden kann unter Verwendung eines einzelnen (geteilten) Prozessors. Zusätzlich kann einiger oder der gesamte Code von mehreren Modulen durch einen einzelnen (geteilten) Speicher gespeichert werden. Der Ausdruck Gruppe, wie er vorstehend verwendet wird, bedeutet, dass einiger oder der gesamte Code von einem einzelnen Modul ausgeführt werden kann unter Verwendung einer Gruppen von Prozessoren. Zusätzlich kann einiger oder der gesamte Code von einem einzelnen Modul unter Verwendung einer Gruppe von Speichern gespeichert werden.
  • Die Vorrichtungen und Verfahren, welche hierin beschrieben werden, können durch ein oder mehrere Computerprogramme, welche durch einen oder mehrere Prozessoren ausgeführt werden, implementiert sein. Die Computerprogramme weisen prozessorausführbare Instruktionen bzw. Befehle auf, welche auf einem nichtvergänglichen, konkreten bzw. dinghaften computerlesbaren Medium gespeichert sind. Die Computerprogramme können auch gespeicherte Daten aufweisen. Nicht beschränkende Beispiele des nichtvergänglichen dinghaften computerlesbaren Mediums sind ein nichtflüchtiger Speicher, ein magnetischer Speicher und ein optischer Speicher.
  • Objekterfassungs-Sensoren weisen beispielsweise Time-of-Flight- bzw. Laufzeit(Time-Of-Flight = TOF)-Sensoren und Bild-Sensoren auf. Der Ausdruck TOF-Sensor bezieht sich auf eine Anordnung bzw. Matrix oder kollektive Gruppe von TOF-Pixel-Sensoren. Der Ausdruck TOF-Sensor kann sich auf alle TOF-Pixel-Sensoren auf einem Substrat beziehen. Beispielhafte TOF-Sensoren sind Radarsensoren, Nah-Infrarot-Spektroskopie-Sensoren, Ultraschall-Sensoren, Licht-Sensoren, Phasendetektoren etc. Die TOF-Sensoren können Licht von einer gepulsten Lichtquelle, von einer modulierten Funkfrequenzlichtquelle, etc. erfassen. Der Ausdruck Bild-Sensor bezieht sich auf eine Anordnung bzw. Matrix oder kollektive Gruppe von Bild-Pixel-Sensoren, wie beispielsweise Rot-Grün-Blau(RGB = Red-Green-Blue)-Luminanz-Pixel-Sensoren. Der Ausdruck Bild-Sensor kann sich auf alle Bild- oder Luminanz-Pixel-Sensoren auf einem Substrat beziehen. Beispielhafte Bild-Sensoren sind eine ladungsgekoppelte Vorrichtung (Charge-Coupled-Device = CCD), ein komplementärer Metalloxid-Halbleiter(CMOS = Complementary Metal Oxide Seminconductor-)Aktiv-Pixel-Sensor etc. CCDs und CMOS-Aktiv-Pixel-Sensoren sind Beispiele für RGB Luminanz-Pixel-Sensoren.
  • Ein TOF-System weist wenigstens einen TOF-Sensor auf und erfasst Abstände zwischen dem (den) TOF-Sensor(en) und Objekten innerhalb eines Bereiches bzw. der Reichweite des (der) TOF-Sensor(en). Als ein Beispiel kann ein TOF-System eine Laufzeit eines 850 Nanometer (nm) Ausbruches bzw. Impulses von Licht berechnen. Ein Bild-System weist wenigstens einen Bild-Sensor auf und erfasst Objekte innerhalb einer Umgebung. Ein Bild-System ist in seiner Fähigkeit, Abstände zwischen den Bild-Sensoren und den Objekten genau zu bestimmen, beschränkt. Aus diesem Grunde werden typischerweise Bild-Sensor-Daten verwendet, um eine Bild einer Umgebung vorzusehen und sie werden nicht verwendet, um Abstandsinformationen vorzusehen.
  • Ein Objekterfassungs-System, welches sowohl einen TOF-dedizierten Sensor bzw. einen TOF-zugeordneten Sensor und einen Bild-zugeordneten Sensor aufweist, kann sowohl Abstands- als auch Bildinformationen mit den Vorteilen, welche mit TOF- und Bild-Sensoren verbunden sind, bereitstellen. Eine Kollisionsvermeidung und Gegenmaßnahmen können durchgeführt werden basierend auf den Abstands- und Bildinformationen. Diese Art bzw. dieser Typ von Objekterfassungs-Systemen kann verwendet werden, um Objekte in einem Bild zu identifizieren, welche innerhalb vorbestimmter Abstände eines Fahrzeugs bzw. von einem Fahrzeug sind. Die Objekte in einem Bild können hervorgehoben werden oder markiert werden, um einem Bediener eines Fahrzeuges anzuzeigen, dass die Objekte innerhalb eines Warn- oder eines Gefahrenabstandes des Fahrzeugs sind.
  • Bezug nehmend nunmehr auf die 1 und 2 sind eine Draufsicht und eine Seitenansicht eines Objekterfassungs-Systems 10 eines Fahrzeugs 12 gezeigt. Das Objekterfassungs-System 10 kann eine bedruckte Leiterplatte (PCB = Printed Circuit Board) 13 mit einem TOF-Sensormodul 14 und einem Bild-Sensormodul 16 aufweisen. Die Sensormodule 14, 16 werden verwendet, um sowohl Abstands- als auch Bild-Daten zu sammeln, welche mit Objekten in einer Umgebung des Fahrzeugs 12 verbunden sind.
  • Das TOF-Sensormodul 14 kann einen TOF-zugeordneten Sensor (TOF-Sensor) 18 und entsprechende Schaltungskomponenten bzw. Schaltungsbauteile aufweisen. Die Schaltungsbauteile bzw. Schaltungskomponenten können ein TOF-Steuer- bzw. Regelmodul 20 aufweisen, welches ein TOF-Sensor-Signal TOF in ein Abstands-Signal DIST konvertiert bzw. umwandelt. Die Signale TOF und DIST weisen Abstands-Daten auf, welche erfassten Objekten zugeordnet sind.
  • Das Bild-Sensormodul 16 kann einen Bild-zugeordneten Sensor (Bild-Sensor) 22 und entsprechende Schaltungskomponenten bzw. Schaltungsbauteile aufweisen. Die Schaltungskomponenten bzw. Schaltungsbauteile können ein Bild-Steuer- bzw. Regelmodul 24 aufweisen, welches ein Bild-Sensorsignal LUM in ein Bild-Signal IMAGE umwandelt bzw. konvertiert. Die Signale LUM und IMAGE weisen Luminanz- und/oder Bild-Daten einschließlich Daten, welche den erfassten Objekten zugeordnet sind, auf. Der TOF-Sensor 18 und der Bild-Sensor 22 können auf bzw. an einer äußeren Oberfläche des Fahrzeugs 12 (beispielsweise auf einer Fahrzeugstoßstange) platziert sein.
  • Die Abstands- und Bild-Daten können kombiniert werden und auf einer Anzeige 26 einem Fahrzeugbediener über System- und Grafik-Steuer- bzw. Regelmodule 28 gezeigt werden. Die Abstands- und Bild-Daten können verwendet werden, um beispielsweise anzuzeigen, dass ein Objekt innerhalb eines vorbestimmten Abstandes bzw. innerhalb vorbestimmter Abstände des Fahrzeuges 12 ist. Dies ermöglicht es einem Fahrzeug-Gegenmaßnahmen- und/oder -Kollisions-Vermeidungssystem und/oder dem Fahrzeugbediener bzw. Fahrzeugbettiger, Gegenmaßnahmen durchzuführen und eine Kollision mit dem Objekt zu vermeiden.
  • Als ein Beispiel sind Objekte A und B gezeigt. In dem Beispiel, welches gezeigt ist, ist Objekt A auf einer senkrechten bzw. normalen Ebene 30 relativ zu einer TOF-/Bildebene 32 (oder der Mitte eines TOF-/Bildbogens 34) zentriert. Der TOF-/Bildbogen 34 kann beispielsweise sphärisch geformt sein. Objekt B ist weg von der Normalen platziert. Ein Objekt ist weg von der Normalen, wenn das Objekt nicht auf (oder zentriert auf) der senkrechten bzw. normalen Ebene 30 ist. Objekt B ist zu der TOF-/Bildebene 32 durch einen weg-von-der-Normalen-Winkel α weg von der Normalen. Objekt A ist mit ungefähr einem Abstand D1 von der PCB 13, den Modulen 14, 16 und den Linsen 39, 40 gezeigt. Objekt B hat ungefähr einen Abstand D2 von der PCB 13, den Modulen 14, 16 und den Linsen 39, 40, wobei D2 kleiner ist als D1.
  • Die normale Ebene 30 kann sich von einer Referenz-Ebene 36 zwischen dem TOF- und dem Bild-Sensormodul 14, 16 erstrecken. Die normale Ebene 30 ist rechtwinklig zu der TOF-/Bild-Ebene 32. Die normale Ebene 30 kann sich auch von und rechtwinklig zu einer Fahrzeugfahroberfläche (beispielsweise Straße) 42 erstrecken. Die Referenz-Ebene 36 kann sich quer durch eine vordere Oberfläche der TOF- und Bild-Sensoren 18, 22 und/oder quer durch vordere Oberflächen 37, 38 der Linsen 39, 40 erstrecken, wie gezeigt ist. Die Linsen 39 und 40 können relativ zueinander basierend auf einer Referenz angeordnet sein, wie beispielsweise der Referenzebene 36, um eine Unausgeglichenheit bzw. Diskrepanz zwischen Daten der Sensoren 18, 22 zu vermeiden.
  • Obwohl nur eine TOF-/Bild-Ebene (oder TOF-Bild-Bogen) in 1 gezeigt ist, kann irgendeine Anzahl von TOF-/Bild-Ebenen (oder TOF-/Bild-Bögen) verwendet werden. Die TOF-/Bild-Ebene 32 (oder der TOF-/Bild-Bogen 34) kann ein vorbestimmter Abstand von der PCB 13, den Sensoren 18, 22 und/oder den Linsen 39, 40 sein. Andere Beispiele von TOF-/Bild-Ebenen sind in den 8 bis 10 gezeigt.
  • Obwohl das Objekterfassungs-System 10 sowohl Abstands- als auch Bildinformationen vorsieht, können die Abstandsinformationen Fehler aufgrund des Abstandes (z. B. Abstand D1) zwischen Mitten der Sensoren 18, 22 und/oder zwischen Mitten der Linsen 39, 40 aufweisen. Die Abstandsinformationen können Fehler aufweisen, wenn beispielsweise ein Objekt weg von der Normalen relativ zu der TOF-/Bild-Ebene 32 (oder der Mitte des TOF-Bild-Bogens 34) platziert ist, wie beispielsweise das Objekt B. Der Abstand D3 zwischen dem TOF-Sensor 18 (oder der Linse 39) und dem Bild-Sensor 22 (oder der Linse 40) kann beispielsweise 25 bis 50 Millimeter (mm) sein. Je größer der Abstand D3 zwischen den Mitten der Sensoren 18, 22 und/oder zwischen den Mitten der Linsen 39, 40 ist, desto größer sind die Fehler. Auch je größer der weg-von-der-Normalen-Winkel α ist, desto größer ist der Fehler.
  • Eine Technik zum Kompensieren eines Fehlers aufgrund eines Abstandes zwischen den Mitten der Sensoren 18, 22 und/oder zwischen den Mitten der Linsen 39, 40 schließt ein Berechnen der Fehler ein. Abstands- und/oder Bild-Daten werden basierend auf dem Rechner angepasst. Der Fehler wird basierend auf dem Abstand und dem weg-Winkel (beispielsweise Winkel α) des Objekts berechnet. Obwohl diese Technik verwendet werden kann, um den Fehler zu kompensieren, verursacht diese Technik Verarbeitungsverzögerungen. Implementationen sind nachstehend beschrieben, welche Abstände zwischen TOF- und Bild-Sensoren minimieren, um damit verbundene Fehler zu minimieren.
  • In 3 ist ein Objekterfassungs-System 50 gezeigt, welches einen TOF-Sensor 52 und einen Bild-Sensor 54 auf getrennten oder unabhängigen Substraten 56, 58 (beispielsweise getrennten CMOS-Substraten) enthält. Das Objekterfassungs-System 50 kann ein nach vorne gerichtetes, Seiten- und/oder nach hinten gerichtetes Objekterfassungs-System, ein Park-System oder ein anderes Objekterfassungs-System sein. Das Objekterfassungs-System 50 weist ein Verarbeitungsmodul 60 (beispielsweise eine erste PCB) und ein Erfassungsmodul bzw. Sensiermodul 62 (beispielsweise eine zweite PCB) auf. Das Verarbeitungsmodul 60 weist ein Verarbeitungssystem 64 mit einem TOF-Steuer- bzw. Regelmodul 66, einem Bild-Steuer- bzw. Regelmodul 68 und einem System-Steuer- bzw. Regelmodul 70 auf.
  • Das TOF-Steuer- bzw. Regelmodul 64 empfängt ein TOF-Sensor-Signal TOF von dem TOF-Sensor 52. Das TOF-Sensor-Signal TOF kann basierend auf Reflexionen eines Objekterfassungs-Signals erzeugt werden. Das Objekterfassungs-Signal wird zu einer ersten Zeit ausgesandt und das Objekterfassungs-Signal wird durch den TOF-Sensor 52 zu einer zweiten Zeit empfangen, welche auf die erste Zeit nachfolgt. Das Objekterfassungs-Signal kann mittels eines Transmitters bzw. Senders 72 erzeugt werden und von Objekten in der Nähe des Fahrzeuges reflektiert werden. Das TOF-Steuer- bzw. Regelmodul 64 kann das Objekterfassungs-Signal mittels des Transmitters bzw. Senders 72 erzeugen. Der Transmitter 72 kann auf dem Sensiermodul 62 (wie gezeigt), auf dem Verarbeitungsmodul 60, oder auf einem ersten Sensorpaket 80 sein. Der Transmitter 72 kann ein Radar-Transmitter, ein Nah-Infrarot-Spektroskopie-Transmitter, ein Ultraschall-Transmitter, ein Licht-Transmitter etc. sein.
  • Das TOF-Steuer- bzw. Regelmodul 66 verstärkt, filtert und/oder wandelt das TOF-Sensor-Signal TOF in ein Abstands-Signal DIST um. Die Signale TOF und DIST weisen Abstands-Daten auf. Das Abstands-Signal DIST weist vertikale und horizontale TOF-Daten auf, welche auf einer Anzeige 84 (beispielsweise einem grafischen Verwender-Interface bzw. einer grafischen Verwender-Schnittstelle (GUI = Graphical User Interface)) dargestellt werden können. Das Bild-Steuer- bzw. Regelmodul 68 empfängt ein Bild-Sensor-Signal LUM von dem Bild-Sensor 54. Das Bild-Sensor-Signal LUM kann mit aufgenommenen Bild-Daten zu der zweiten Zeit oder einer Zeit entsprechend den gesammelten TOF-Daten verbunden sein bzw. werden. Das Bild-Steuer- bzw. Regelmodul 68 verstärkt, filtert und/oder wandelt das Bild-Sensor-Signal LUM in ein Bild-Signal IMAGE um. Die Signale LUM und IMAGE weisen Luminanz- und/oder Bild-Daten auf. Das Bild-Signal IMAGE weist vertikale und horizontale Bild-Daten auf, welche auf der Anzeige 84 gezeigt werden können.
  • Das System-Steuer- bzw. Regelmodul 70 weist ein Objekterfassungs-Steuer- bzw. Regelmodul 86 auf und erzeugt ein kombiniertes TOF- und Bild-Signal. Das kombinierte TOF- und Bild-Signal ist in ein kombiniertes Grafik-Signal umgewandelt, welches auf der Anzeige 84 über ein Grafik-Steuer- bzw. Regelmodul (GCM = Graphics Control Module) 88 gezeigt wird. Das Objekterfassungs-Steuer- bzw. Regelmodul 86 kombiniert Abstands- und Bild-Daten, um das kombinierte TOF- und Bild-Signal zu erzeugen.
  • Das Objekterfassungs-Steuer- bzw. Regelmodul 86 kombiniert die Abstands- und Bild-Daten gemäß beispielsweise Regeln 90, vom Verwender auswählbare Variablen 92 und Korrelations- bzw. Zuordnungsalgorithmen 94, welche im Speicher 96 gespeichert sind und durch das System-Steuer- bzw. Regelmodul 70 aktualisiert werden. Die Regeln 90 können Kalibrier-Regeln aufweisen, welche durch die Korrelationsalgorithmen 94 verwendet werden, um TOF- und Bild-(oder Luminanz)-Daten von dem TOF und dem Bild-Sensor 52, 54 zu korrelieren bzw. zu verknüpfen. Die TOF- und Bild-Daten können vertikale und horizontale Daten aufweisen. Daten von TOF-Pixel-Sensoren des TOF-Sensors 52 werden mit Daten von Bild-Pixel-Sensoren des Bild-Sensors 54 korreliert bzw. verknüpft, um das kombinierte TOF- und Bild-Signal zu erzeugen.
  • Die Kalibrier-Regeln können physikalische Beziehungen (einschließlich vertikaler und horizontaler Positionen) zwischen TOF-Pixel-Sensoren und Bild-Pixel-Sensoren definieren. Die physikalischen Beziehungen können Pixel-Sensorgrößen, Pixel-Sensor-Platzierungen und TOF-zu-Bild-Pixel-Sensor-Übereinstimmungs-Informationen aufweisen. Die TOF-zu-Bild-Pixel-Sensor-Übereinstimmungs-Informationen können Gruppierungen von TOF- und Bild-Pixel-Sensoren aufweisen und können die Anzahl von Bild-Pixel-Sensoren, welche einem bestimmten TOF-Pixel-Sensor entsprechen, identifizieren.
  • Eine TOF-zu-Bild-Pixel-Sensor-Übereinstimmung kann eine 1:1 Beziehung (d. h. gleiche Auflösung zwischen TOF- und Bild-Pixel-Sensoren) sein. Eine Korrelation zwischen dem TOF- und Bild-Pixel-Sensor kann eine Fehlorientierungskorrelation und eine nichträumliche Platzierungsrelation aufweisen, wenn es eine 1:1 Beziehung gibt. Eine Fehlorientierungskorrelation kann verwendet werden, wenn die Orientierung des TOF und des Bild-Sensors und/oder des TOF- und des Bild-Pixel-Sensors nicht gleich relativ zu einer Referenz wie beispielsweise einer Referenzebene 95 orientiert sind. Dies korrigiert Fehler aufgrund beispielsweise wenn der TOF-Sensor relativ zu dem Bild-Sensor gedreht wird oder nicht ordnungsgemäß mit dem Bild-Sensor ausgerichtet ist. Eine Fehlorientierung von Sensoren und/oder Pixel-Sensoren kann während der Herstellung auftreten. Korrelationen zwischen Abstands-Daten und Bild-Daten können auf einem Winkel-Offset, einem horizontalen Offset, einem vertikalen Offset und einem longitudinalen Offset zwischen dem TOF-Sensor 52 und dem Bild-Sensor 54 und/oder zwischen Pixel-Sensoren davon basiert sein.
  • Es mag eine größere Anzahl von Bild-Pixel-Sensoren relativ zu der Anzahl der TOF-Pixel-Sensoren (beispielsweise N:1 Beziehung, wobei N eine ganze Zahl größer oder gleich 2 ist) geben. Beispielsweise kann der Bild-Sensor 54 eine Video-Grafik-Array (VGA) Auflösung haben und der TOF-Sensor 52 kann eine Viertel-VGA(QVGA = Quarter Video Graphics Array)Auflösung (d. h. ein 4:1 Auflösungsverhältnis) haben basierend auf der Anzahl von Bild- und TOF-Pixel-Sensoren. Beispielsweise können Sätze von Bild-Pixel-Sensoren mit einem einzelnen TOF-Pixel-Sensor gruppiert sein. Als ein Beispiel können 64 Bild-Pixel-Sensoren mit einem einzelnen TOF-Pixel-Sensor gruppiert sein. Beispielhafte TOF- und Bild-Sensor-Anordnungen sind in den 4 und 7 gezeigt.
  • Obwohl es mehr Bild-Pixel-Sensoren als TOF-Pixel-Sensoren geben mag, kann jeder der TOF-Pixel-Sensoren ein größeres Oberflächengebiet als jeder der Bild-Pixel-Sensoren haben. Mit der erhöhten Größe können die TOF-Pixel-Sensoren sensitiver bzw. empfindlicher sein als die Bild-Pixel-Sensoren. Die TOF-Pixel-Sensoren können in der Größe größer sein als die Bild-Pixel-Sensoren, um das Signalrauschverhältnis bzw. die Signalrauschverhältnisse zu maximieren. Dies verbessert die Abstandserfassungsgenauigkeit während eine Verwendung von weniger TOF- und/oder Bild-Pixel-Sensoren ermöglicht wird, was die Sensorgesamtkosten verringert.
  • Eine gesamte nutzbare Oberfläche des TOF- und des Bild-Sensors 52, 54 kann sich auf eine Oberfläche beziehen, wo sich TOF- und Bild-Sensordaten überschneiden oder überlappen. Die TOF-Daten, welche von TOF-Pixel-Sensoren erhalten werden, können im räumlich und/oder zeitlich einem Dithering unterzogen werden, um Schnittlinien (oder Ränder) eines Anzeigebilds zu glätten und/oder weich zu machen. Schnittlinien sind in den 9 und 10 gezeigt. Anti-aliasing und Matrix-Rotationskoeffizienten bzw. Matrix-Drehkoeffizienten können verwendet werden, um die Orientierung eines TOF oder von Warnanzeigen, welche über eine Bild erzeugt und angezeigt werden, zu filtern und anzupassen. Eine TOF- oder Warnanzeige kann sich auf eine Kreuzung bzw. auf einen Schnittpunkt, auf eine Warnanzeige, welche auf einem erfassten Objekt überlagert ist, auf einen Pfeil, welcher ein erfasstes Objekt identifiziert, auf einen Pfeil, welcher eine Platzierung eines erfassten Objekts identifiziert etc. beziehen.
  • Die Kalibrier-Regeln und Korrelationsalgorithmen 94 ermöglichen es, dass TOF-Informationen über einem Bild auf der Anzeige 84 angezeigt werden. Dies kann mittels bzw. über Software und/oder basierend auf physikalischen Platzierungen von TOF- und Bild-Pixel-Sensoren getan werden. TOF-Informationen können über einem Bild direkt von Daten, welche durch TOF- und Bild-Sensoren erzeugt werden angezeigt werden, welche mit einer Schwerpunkts-, einer verschachtelten oder einer anderen gemischten Pixelanordnung zwischen TOF- und Bild-Pixel-Sensoren verbunden sind. Beispiele für Schwerpunkts- und verknüpfte bzw. verschachtelte Anordnungen sind in den 4 und 7 gezeigt. In einer gemischten Pixelanordnung sind die TOF- und die Bild-Pixel in einem einzelnen Sensor auf einem einzelnen Substrat kombiniert. Die TOF-Informationen können über einem Bild indirekt angezeigt werden, wenn die TOF- und die Bild-Sensoren benachbart sind und eigene bzw. individuelle Sensoren sind, wie in 3 gezeigt ist. Eine Software wird verwendet, um Abstandsdaten mit den Bild-Daten zu überlappen, wenn die TOF- und die Bild-Sensoren individuelle bzw. eigene Sensoren sind.
  • Das Objekterfassungs-Steuer- bzw. Regelmodul 86 kombiniert auch Abstandswarninformationen mit den Abstands- und Bild-Daten, wenn es das kombinierte TOF- und Bild-Signal erzeugt. Die Abstandswarninformationen zeigen an, wenn ein Objekt innerhalb vorbestimmter Abstände eines Fahrzeuges ist und/oder zeigt abgeschätzte Abstände von Objekten relativ zu dem Fahrzeug an. Beispielhafte vorbestimmte Abstände sind ein Warnabstand (beispielsweise 8 Meter (m)) und ein kritischer Abstand (beispielsweise 3 m). Vorbestimmte und abgeschätzte Abstände können als Abstandsvariablen 100 in dem Speicher 96 und/oder als Nachrichten 102 gespeichert werden, welche auf der Anzeige 84 angezeigt werden können. Die Nachrichten 102 können auch Warntextnachrichten einschließen. Jegliche Anzahl von vorbestimmten Abständen und abgeschätzten Abständen kann gespeichert und oder angezeigt werden. Die vorbestimmten Abstände wie beispielsweise Warnabstände und kritische Abstände können durch einen Verwender ausgewählt und/oder gesetzt werden und als Teil der vom Verwender auswählbaren Variablen 92 gespeichert werden.
  • Die vom Verwender auswählbaren Variablen 92 können Betriebsvariablen, Anzeigevariablen, Bildvariablen, Warnvariablen etc. einschließen. Die vom Verwender auswählbaren Variablen 92 und/oder die Betriebsvariablen können die Helligkeit, den Kontrast, die Luminanz bzw. Bildleuchtdichte bzw. Helligkeit bzw. Leuchtdichte oder andere Pixelanpassungsparameter einschließen, welche verwendet werden, um Bilder anzupassen oder um Pixel abzubilden. Die vom Verwender auswählbaren Variablen 92 können eine Variable vom Warntyp einschließen, welche identifiziert, ob eine Warnanzeige eine Anzeige vom Audio-, Video- oder Vibrations-Typ ist. Eine Anzeige vom Vibrations-Typ kann ein Vibrieren eines Fahrzeugbedienersitzes, eines Lenkrades etc. einschließen.
  • Beispielsweise kann ein erster Typ von Audio-, Video- und/oder Vibrations-Alarm erzeugt werden, wenn wenigstens ein Teil eines erfassten Objektes innerhalb eines Warnabstandes ist. Ein zweiter Typ eines Audio-, Video- und/oder Vibrations-Alarms kann erzeugt werden, wenn wenigstens ein Abschnitt bzw. Teil eines erfassten Objekts innerhalb eines kritischen Abstandes ist. Beispielhafte Anzeigen bzw. Indikatoren vom Videotyp sind in den 9 und 10 gezeigt.
  • Die Anzeigen vom Videotyp können ein Einfärben, Abmischen (blending), Hervorheben, Blinken, Markieren und visuelle Transparenzeffekte, welche auf der Anzeige 84 gezeigt werden können, einschließen. Abschnitte und/oder alles eines bevorstehenden Objekts können in der Farbe und/oder Transparenz geändert werden, um einen Abstand dieses Objekts anzuzeigen. Beispiele davon sind in den 810 gezeigt. Die Farben können basierend auf dem Abstand des Objekts ausgewählt werden. Das bevorstehende Objekt kann beispielsweise mit einem Pfeil, einer Schnittlinie markiert werden und/oder hervorgehoben werden, so dass eine relative Position des Objekts für einen Fahrzeugbediener offensichtlich ist. Abschnitte oder alles eines Objekts können mit halbtransparenten Farben wie beispielsweise Gelb oder Rot abgemischt werden.
  • Die Audio-, visuellen-, und Vibrations-Alarme können sich mit abnehmendem Abstand eines Objekts relativ zu einem Fahrzeug ändern. Beispielsweise können lautere Audio-Anzeigen und/oder strahlendere bzw. hellere Farben verwendet werden, wenn ein Objekt an einem kritischen Abstand ist gegenüber dann, wenn das Objekt an einem Warnabstand ist. Einige andere Beispiele weisen Folgendes auf: Anpassen einer Vibrationsfrequenz, Anpassen einer Transparenz-Prozentzahl eines erfassten Objekts und/oder einer Warnanzeige; und ein Anpassen einer Blinkanzeigefrequenz bzw. Anzeigeblinkfrequenz.
  • Der Speicher 96 kann eine Bibliothek 104 mit den Regeln 90, den Nachrichten 102 und den Icons 106 aufweisen. Die Icons 106 können als Anzeigen vom Videotyp verwendet werden, um einen Fahrzeugbediener vor einem bevorstehenden Objekt zu warnen. Ein Beispiels-Icon kann eine blinkende Box an oder in der Nähe des bevorstehenden Objekts sein und auf der Anzeige 84 gezeigt sein.
  • Das Sensiermodul 62 weist ein Sensiersystem 110 mit der ersten Sensorpackung 80, einer zweiten Sensorpackung 112 und einer Linse 114 auf. Die erste Sensorpackung 80 weist den TOF-Sensor 52 auf dem ersten Substrat 56 auf. Die zweite Sensorpackung 112 weist den Bild-Sensor 54 auf dem zweiten Substrat 58 auf. Die Sensorpackungen 80, 112 können benachbart zu und/oder in Kontakt miteinander sein, um den Abstand D4 zwischen den Sensoren 52, 54 zu minimieren. Die erste und die zweite Sensorpackung 80, 112 sind unabhängig platziert (einzelne Vorrichtungen). Die TOF- und Bild-Sensoren 52, 54 teilen die Linse 114. Licht kann auf Pixel-Sensoren der TOF- und Bild-Sensoren 52, 54 durch die Linse 114 fokussiert werden.
  • In Betrieb empfängt das System-Steuer- bzw. Regelmodul 70 ein Verwender-Auswahlsignal von einer grafischen Verwender-Schnittstelle (GUI = Graphical User Interface) 120. Die GUI 120 kann ein Keypad bzw. eine Folientastatur, ein Keyboard bzw. eine Tastatur, ein Stimm-Erkennungssystem, ein Touchscreen, eine Maus etc. sein. Das System-Steuer- bzw. Regelmodul 70 aktualisiert Parameter in dem Speicher 96 wie z. B. die vom Verwender auswählbaren Variablen basierend auf dem Verwender-Auswahlsignal. Das System-Steuer- bzw. Regelmodul 70 kann dem Objekterfassungs-Steuer- bzw. Regelmodul 86 befehlen, einen bestimmten Korrelationsalgorithmus zu verwenden, wenn es die TOF- und Bild-Daten kombiniert und vergleicht. Das System-Steuer- bzw. Regelmodul 70 signalisiert bzw. meldet dem GCM 88 basierend auf TOF- und Bild-Daten, welche von dem TOF- und Bild-Steuer- bzw. Regelmodul 66, 68 empfangen werden. Das GCM 88 erzeugt ein kombiniertes Anzeige-Signal DISP, welches auf der Anzeige 84 gezeigt wird. Das GCM 88 kann auf Informationen wie beispielsweise die vom Verwender auswählbaren Variablen 92 zugreifen, wenn es das kombinierte Anzeige-Signal DISP erzeugt.
  • In 4 ist ein Sensorchip (Wafer) 150 gezeigt, welcher eine Schwerpunkt-Implementation veranschaulicht. Der Sensorchip 150 weist Schwerpunkt(Center Of Mass = COM)-Pixel-Sensorsätze 152 auf. Jeder der COM-Pixel-Sensorsätze 152 weist einen TOF-Pixel-Sensor 154 und mehrere Bild-Pixel-Sensoren 156 (Rot(R)-, Grün(G)-, Blau(B)-Pixel) auf. Die COM-Pixel-Sensorsätze 152 können auf demselben Substrat platziert sein, wie gezeigt ist, oder können auf einzelnen bzw. getrennten Substraten platziert sein. Ein Objekterfassungs-System mit einer Anordnung mit einem einzelnen Substrat ist in 6 gezeigt.
  • Die Pixel-Sensoren der COM-Pixel-Sensorsätze 152 können mit Pixeln einer Anzeige verbunden sein. Obwohl der TOF-Pixel-Sensor 154 als durch Bild-Pixel-Sensoren umgeben gezeigt ist, können TOF-Daten modifiziert werden, um effektiv TOF-Informationen auf einem Bild und auf der Anzeige gezeigt zu überlappen. Dies ist durch gestrichelte Linien 160 veranschaulicht. Das Überlappen von TOF-Informationen auf einem Bild kann auch mittels einer Software durchgeführt werden, wenn einzelne TOF- und Bild-Sensoren verwendet werden. Obwohl der TOF-Pixel-Sensor 154 in der Mitte des Bild-Pixel-Sensors 156 platziert ist, kann eine TOF-zu-Bild-Daten-Übereinstimmung durchgeführt werden basierend auf den vertikalen und horizontalen Platzierungsdifferenzen bzw. Unterschieden zwischen den TOF- und den Bild-Pixel-Sensoren 154, 156.
  • Die Bild-Pixel-Sensoren 156 können in verschiedenen Muster sein. In 4 sind die Bild-Pixel-Sensoren 156 in einem RGGB(2×2)Matrix-Muster gezeigt. Die Bild-Pixel-Sensoren 156 können mehr Pixel-Sensoren einer bestimmten Farbe als Pixel-Sensoren von anderen Farben aufweisen. Beispielsweise gibt es in dem Beispiel der 4 mehr grüne Pixel-Sensoren als rote und blaue Pixel-Sensoren. Andere Pixel-Sensorfarben können einbezogen werden, wie beispielsweise gelbe Pixel-Sensoren. Die vorgesehene Farbe des Pixel-Sensors kann sich auf die Farbe beziehen, welche durch diesen Pixel-Sensor erfasst wird.
  • Obwohl eine bestimmte Anzahl von Bild-Pixel-Sensoren hinsichtlich eines einzelnen TOF-Pixel-Sensors gezeigt sind, können andere TOF-zu-Bild-Pixel-Sensor-Verhältnisse verwendet werden und andere TOF- und Bild-Pixel-Sensoranordnungen und -muster können verwendet werden. Ein anderes Beispiel ist in 7 gezeigt.
  • Als nochmal ein anderes Beispiel können der TOF-Pixel-Sensor eines Pixel-Sensorsatzes dasselbe Oberflächengebiet wie die Bild-Pixel-Sensoren in diesem Pixel-Sensorsatz haben. Beispielsweise kann ein Pixel-Sensorsatz eine 2×2-Matrix von Bild-Pixel-Sensoren und eine 2×2-Matrix von TOF-Pixel-Sensoren aufweisen. Die Bild-Pixel-Sensoren können ungefähr die gleiche Größe wie die TOF-Pixel-Sensoren haben. Ein Oberflächengebiet der 2×2-Matrix von Bild-Pixel-Sensoren kann dasselbe sein wie das Oberflächengebiet der 2×2-Matrix der TOF-Pixel-Sensoren.
  • Ein weiteres Beispiel weist einen Pixel-Sensorsatz mit einer 10×10-Matrix von Bild-Pixel-Sensoren und einen einzelnen TOF-Pixel-Sensor auf. Das Oberflächengebiet bzw. der Oberflächenbereich der 10×10-Matrix kann gleich zu dem Oberflächengebiet des TOF-Pixel-Sensors sein. Als noch ein anderes Beispiel kann ein kombinierter TOF- und Bild-Sensor mit VGA-Auflösung (d. h. 640×480 Pixel) wenigstens die Hälfte der Pixel der Luminanz zugeordnet haben und die verbleibenden Pixel-Sensoren einem TOF-Sensieren bzw. -Erfassen zugeordnet haben.
  • Bezug nehmend nun auf 3 und 5 ist ein Objekterfassungs-System 200 gezeigt, welches einen kombinierten TOF- und Bild-Sensor 202 auf einem geteilten Substrat 204 enthält. Der Abstand zwischen dem TOF- und dem Bild-Sensor ist minimiert und/oder beseitigt, da TOF- und Bild-Sensoren 206, 208 des kombinierten TOF- und Bild-Sensors 202 auf dem gleichen Substrat platziert sind. Der Abstand D5 zwischen den TOF- und den Bild-Sensoren 206, 208 ist geringer als der Abstand D4 zwischen den TOF- und den Bild-Sensoren 52, 54. Der Abstand D5 kann beispielsweise 5 Millimeter (mm) sein, welcher Fehler 5 bis 10mal relativ zu Fehlern verringern kann, welche mit dem Abstand D4 verbunden sind. Dies verringert Fehler aufgrund eines Raumes zwischen TOF- und Bild-Pixeln weiter.
  • Das Objekterfassungs-System 200 weist ein Verarbeitungsmodul 210 mit einem Verarbeitungs-System 212 und ein Sensiermodul 214 mit einem Sensier-System 216 auf. Das Verarbeitungsmodul 210 weist ein TOF-Steuer- bzw. Regelmodul 66', ein Bild-Steuer- bzw. Regelmodul 68' und ein System-Steuer- bzw. Regelmodul 70' mit einem Objekterfassungs-Steuer- bzw. Regelmodul 86' auf. Das TOF- und das Bild-Steuer- bzw. Regelmodul 66', 68' erzeugen Abstands- und Bild-Signale DIST und IMAGE basierend auf TOF- und Bild-Daten von dem TOF- und dem Bild-Sensor 206, 208. Das System-Steuer- bzw. Regelmodul 70' kann ein kombiniertes TOF- und Bild-Signal erzeugen, welches auf der Anzeige 84 über das Grafik-Steuer- bzw. Regelmodul 88 gezeigt wird. Das Objekterfassungs-System 200 kann den Speicher 96 mit den vom Verwender auswählbaren Variablen 92 aufweisen, die Korrelationsalgorithmen 94, die Abstandsvariablen 100 und die Bibliothek 104. Die Bibliothek 104 kann die Regeln 90, die Nachrichten 102 und die Icons aufweisen. Die Korrelationsalgorithmen 94 können einen Algorithmus für die Positionsanordnung des TOF- und des Bild-Sensors 206, 208 aufweisen.
  • Das Sensiermodul 214 kann das Sensier-System 216 mit einem Sensorchip 218 aufweisen. Der Sensorchip 218 kann den TOF-Sensor 206, den Bild-Sensor 208 und eine Linse 220 aufweisen. Der TOF-Sensor 206 und der Bild-Sensor 208 sind auf dem Substrat 204. Der TOF- und der Bild-Sensor 206, 208 teilen die Linse 220. Licht kann auf Pixel des TOF- und des Bild-Sensors 206, 208 durch die Linse 220 fokussiert werden. Obwohl nicht gezeigt, kann das Sensiermodul 214 einen Transmitter bzw. Sender wie beispielsweise den Transmitter 72 aufweisen.
  • Bezug nehmend nun auf die 6 ist ein Objekterfassungs-System 250 gezeigt, welches einen verschachtelten (interlaced) TOF- und Bild-Sensor 252 enthält. Die Abstände zwischen TOF-Sensor und Bild-Sensor sind verringert oder beseitigt, da TOF- und Bild-Sensor-Pixel auf demselben Substrat 254 verschachtelt sind. Dies reduziert weiterhin Fehler aufgrund von Raum zwischen TOF- und Bild-Pixel-Sensor. Eine Beispielsreihe für einen verschachtelten TOF- und Bild-Sensor ist in 7 gezeigt. TOF- und Bild-Pixel-Sensoren können vertikal und horizontal verschachtelt sein. Verschiedene unterschiedliche Muster des TOF- und des Bild-Pixel-Sensors können verwendet werden.
  • Ein verschachtelter TOF- und Bild-Sensor kann sich auf einen Sensor beziehen, welcher Reihen und/oder Spalten alternierender TOF- und Bild-Pixel-Sensoren aufweist. In dem Beispiel, welches gezeigt ist, sind Fehler, welche mit Pixel-Sensoren in der horizontalen Richtung verbunden sind, beseitigt und Fehler, welche mit Pixel-Sensoren in der vertikalen Richtung verbunden sind, sind minimiert. Demnach können Fehler in der einen Richtung vorhanden sein und können mit Abständen zwischen TOF- und Bild-Pixel-Sensoren von beispielsweise 0,1 mm verbunden sein. Dies verringert Fehler ungefähr 100mal relativ zu Fehlern, welche mit dem Abstand D4 der 3 verbunden sind. Verringerte Fehler führen zu verringerten Fehlerkorrekturen und Gesamtverarbeitungszeiten, um ein TOF-überlagertes Videobild zu erzeugen. Indem der TOF- und der Bild-Pixel-Sensor des verschachtelten TOF- und Bild-Sensors 252 in einer (derselben) Ebene sind, werden eine mechanische Anpassung bzw. Ausrichtung auf dem Sensorniveau und eine Softwarekompensation aufgrund der Sensor-Orientierung nicht benötigt.
  • In 7 ist ein Sensorchip 272 gezeigt, welcher ein Beispiel für einen verschachtelten TOF- und Bild-Sensor (oder eine verschachtelte Pixel-Sensor-Anordnung) veranschaulicht. Der verschachtelte TOF- und Bild-Sensor weist Reihen von Bild-Pixel-Sensoren 274 (zusammen der Bild-Sensor) und Reihen von TOF-Pixel-Sensoren 276 (zusammen der TOF-Sensor) auf. Wie gezeigt ist, weisen die Reihen von Bild-Pixel-Sensoren 274 Bild (RGB)-Pixel-Sensorsätze 278 auf. Jeder Bild-Sensor-Pixelsatz 278 kann eine beliebige Anzahl von Bild-Pixel-Sensoren aufweisen. Als ein Beispiel kann ein Bild-Pixel-Sensorsatz einen RGGB(2×2)-Pixel-Sensorsatz aufweisen. Zeilen des verschachtelten TOF- und Bild-Sensors können zwischen Bild-Pixel-Sensorsätzen und TOF-Pixel-Sensoren wie gezeigt alternieren. Obwohl die Oberflächengebietsdimensionen X1, Y1 der Bild-Pixelsätze 278 als dieselben wie die Oberflächengebietsdimensionen X2, Y2 der TOF-Pixel-Sensoren 280 gezeigt sind, können die Dimensionen X1, Y1 unterschiedlich von den Dimensionen X2, Y2 sein.
  • Bezug nehmend wiederum auf 6 weist das Objekterfassungs-System 250 ein Verarbeitungsmodul 255 mit einem Verarbeitungs-System 256 und ein Sensiermodul 257 mit einem Sensier-System 258 auf. Das Verarbeitungsmodul 255 weist ein TOF-Steuer- bzw. Regelmodul 66'', ein Bild-Steuer- bzw. Regelmodul 68'' und ein System-Steuer- bzw. Regelmodul 70'' mit einem Objekterfassungs-Steuer- bzw. Regelmodul 86'' auf. Das TOF- und das Bild-Steuer- bzw. Regelmodul 66'', 68'' erzeugen Abstands- und Bild-Signale DIST und IMAGE basierend auf TOF- und Bild-Daten von dem TOF- und Bild-Pixel-Sensor des verschachtelten TOF- und Bild-Sensors 252.
  • Das System-Steuer- bzw. Regelmodul 70'' kann ein kombiniertes TOF- und Bild-Signal erzeugen, welches auf der Anzeige 84 über das Grafik-Steuer- bzw. Regelmodul 88 gezeigt wird. Das Objekterfassungs-System 250 kann den Speicher 96 mit den vom Verwender auswählbaren Variablen 92, die Korrelationsalgorithmen 94, die Abstandsvariablen 100 und die Bibliothek 104 aufweisen. Die Bibliothek 104 kann die Regeln 90, die Nachrichten 102 und die Icons 106 aufweisen. Die Korrelationsalgorithmen 94 können einen Algorithmus für die Positionsanordnung des TOF- und Bild-Pixel-Sensors aufweisen.
  • Das Sensiermodul 257 weist das Sensier-System 258 mit einem Sensorchip 272 auf. Der Sensorchip 272 kann den verschachtelten TOF- und Bild-Sensor 252 und eine Linse 270 aufweisen. Der verschachtelte TOF- und Bild-Sensor 254 ist auf dem Substrat 254. Licht kann auf TOF- und Bild-Pixel durch die Linse 270 fokussiert werden. Obwohl nicht gezeigt, kann das Sensiermodul 257 einen Transmitter bzw. Sender wie beispielsweise den Transmitter 72 der 3 aufweisen.
  • In den 810 sind Seitenansichten eines Fahrzeuges 300 und eines bevorstehenden Objektes 302 gezeigt, welche einen beispielhaften Warnabstand (WD = Warning Distance = Warnabstand) und einen kritischen Abstand (CD = Critical Distance = Kritischer Abstand) veranschaulichen. Imaginäre Ebenen 304, 306 (unsichtbare Wände) sind für den WD und den CD relativ zu einer Referenz-Ebene 308 gezeigt. Die Referenz-Ebene 308 kann sich auf eine Sensorplatzierung auf bzw. an dem Fahrzeug 300 und/oder einen Punkt an bzw. auf dem Fahrzeug 300 am nächsten zu dem vorstehenden Objekt 302 beziehen (beispielsweise äußere Oberfläche einer Stoßstange des Fahrzeugs 300).
  • Das Fahrzeug 300 weist ein Objekterfassungs-System 310, wie beispielsweise eines der Objekterfassungs-Systeme, welche vorstehend unter Bezugnahme auf die 3, 5 und 6 beschrieben sind, auf. Das Objekterfassungs-System 310 weist ein Verarbeitungsmodul 312 und ein Sensiermodul 314 auf, welche vorstehend beschriebene Verarbeitungs- und Sensier-Systeme aufweisen können. Abstands- und Bild-Daten werden auf einer Anzeige 316 gezeigt. Die angezeigten Bilder können zweidimensionale oder dreidimensionale Bilder sein.
  • In 8 ist das Objekt 302 weiter von dem Fahrzeug 300 entfernt als der WD. Aus diesem Grund ist das Objekt 302 auf der Anzeige 316 gezeigt, es ist jedoch keine Warnanzeige und/oder kritische Anzeige gezeigt. Obwohl nicht gezeigt, kann der Abstand des Objekts 302 auf der Anzeige 316 gezeigt werden. Beispielsweise kann der Abstand des nähesten Punkts des Objekts 302 zu dem Fahrzeug 300 gezeigt werden und abnehmen, wenn das Objekt 302 näher zu dem Fahrzeug 300 kommt.
  • In 9 ist ein Abschnitt des Objekts 302 näher zu dem Fahrzeug als der WD. Aus diesem Grund ist eine Warnanzeige 320 auf der Anzeige 316 gezeigt. Wie gezeigt ist, weist die Warnanzeige 320 ein Schattieren, Hervorheben und/oder Ändern der Farbe des Abschnitts des Objekts 302 innerhalb des WD und auf der Anzeige 316 auf. Eine Schnittlinie 322 ist auf dem Objekt 302 gezeigt, welche einem Schnitt (Kontur) zwischen der WD-Ebene 304 und dem Objekt 302 entspricht. Die Schnittlinie 322 kann hervorgehoben sein.
  • In 10 ist ein erster Abschnitt des Objekts 302 näher zu dem Fahrzeug 300 als der CD und das gesamte Objekt 302 ist näher zu dem Fahrzeug 300 als der WD. Aus diesem Grund sind eine Warn- und eine kritische Anzeige 320', 330 auf der Anzeige 316 gezeigt. Wie gezeigt ist, weist die Warnanzeige 320' ein Schattieren, Hervorheben und/oder Ändern der Farbe des zweiten Abschnitts des Objekts 302 auf, welcher innerhalb des WD ist, jedoch nicht innerhalb des CD ist, unter Verwendung einer ersten Technik. Diese Technik kann dieselben Objektveränderungen bzw. Objektänderungen, welche in 9 durchgeführt werden, aufweisen. Die kritische Anzeige 330 weist ein Schattieren, Hervorheben und/oder Ändern der Farbe des ersten Abschnitts des Objekts 302, welcher innerhalb des CD ist, unter Verwendung einer zweiten Technik auf. Eine Schnittlinie 332 ist auf dem Objekt 302 gezeigt und entspricht einem Schnitt zwischen der CD-Ebene 306 und dem Objekt 302.
  • Als ein Beispiel kann die erste Technik ein Ändern der Farbe des zweiten Abschnitts zu einer hellgelben Farbe hin aufweisen. Die zweite Technik kann ein Ändern der Farbe des ersten Abschnitts zu einer hellroten Farbe aufweisen. Verschiedene andere WD- und CD-Anzeigen können wie vorstehend beschrieben verwendet werden.
  • In 11 ist ein Verfahren zum Betreiben eines Objekterfassungs-Systems wie beispielsweise eines der Objekterfassungs-Systeme, welche in den 3, 5, 6 und 810 gezeigt sind, gezeigt. Obwohl die folgenden Arbeitsschritte bzw. Tasks hauptsächlich hinsichtlich der Systeme der 3, 4 und 6 beschrieben sind, können die Arbeitsschritte auch auf andere Implementationen der vorliegenden Offenbarung angewandt werden. Das Verfahren kann bei Arbeitsschritt 350 beginnen.
  • Bei 352 kann ein System-Steuer- bzw. Regelmodul bestimmen, ob ein TOF-Sensieren aktiviert ist. Arbeitsschritt 354 kann durchgeführt werden, wenn ein TOF-Sensieren deaktiviert ist. Arbeitsschritt 356 kann durchgeführt werden, wenn ein TOF-Sensieren aktiviert ist. Obwohl Arbeitsschritt 352 als vor Arbeitsschritt 356 durchgeführt gezeigt ist, kann Arbeitsschritt 352 nachfolgend auf oder während Arbeitsschritt 356 durchgeführt werden. Bei 354 werden Bild-Daten ohne TOF-Daten angezeigt.
  • Bei 356 wird das Objekterfassungs-System initialisiert. Die Initialisierung kann durch das System-Steuer- bzw. Regelmodul durchgeführt werden. Dies kann eine System-Kalibirierung einschließen, das Aufstellen von Warnanzeigen einschließlich des Setzens von WD- und CD-Abstand, das Auswählen von Warn- und kritischen Anzeigen, etc. Eine System-Kalibrierung kann das Erzeugen einer Korrespondenz-Matrix bzw. Übereinstimmungs-Matrix (Mnm) aufweisen bzw. einschließen, wobei n die Anzahl von Zeilen und m die Anzahl von Spalten der Matrix M ist. Die Übereinstimmungs-Matrix Mnm weist Übereinstimmungswerte zwischen TOF-Pixel-Sensoren, welche zugeordnete erfasste Abstände Dij (oder Dij-Pixel-Sensoren) haben, und Bild(oder Video)-Pixel-Sensoren auf, welche zugeordnete Bild-Daten Vkl (Vkl-Pixel-Sensoren) haben, wobei i, j, k und l vertikale und horizontale Pixel-Platzierungen von jeweiligen TOF- und Bild-Pixel-Arrays identifizieren. k kann größer sein als oder gleich zu i sein. l kann größer sein als oder gleich zu j sein.
  • Die Übereinstimmung kann durchgeführt werden unter Verwendung eines Korrelationsalgorithmus bzw. Übereinstimmungsalgorithmus, welcher im Speicher gespeichert ist (beispielsweise einer der Korrelationsalgorithmen 94). Der WD- und CD-Abstand können vorbestimmte und gespeicherte Abstände sein oder können während des Hochfahrens des Objekterfassungs-Systems gesetzt bzw. gewählt und/oder angepasst werden. Der WD- und der CD-Abstand können basiert sein auf gesetzten oder ausgewählten Masseinheiten (beispielsweise englische gegenüber metrischen Einheiten).
  • Die CD-Anzeige kann eingestellt werden, um beispielsweise zu blinken und Pixel von Konturen von angezeigten Objekten innerhalb des CD weiß hervorzuheben. Die WD-Anzeige kann eingestellt werden, um beispielsweise die Luminanz eines Objekts, welches angezeigt wird um 50% zu erhöhen und/oder um eine gelbe Kontur an dem Objekt vorzusehen, wenn es innerhalb des WD ist. Andere CD- und WD-Anzeigen können verwendet werden.
  • Bei 358 empfangen ein TOF-Steuer- bzw. Regelmodul und ein Bild-Steuer- bzw. Regelmodul jeweils TOF- und Bild(Foto-Luminanz)-Daten. Bei 360 bestimmt ein Objekterfassungs-Steuer- bzw. Regelmodul, ob einer der TOF-Pixel-Sensoren anzeigt, dass ein Abschnitt eines erfassten Objekts innerhalb des WD ist. Dies tritt auf, wenn ein Abstand Dij von diesem Pixel geringer ist als der WD. Die TOF-Pixel-Sensoren, welche einem Abschnitt des Objekts zugeordnet sind, der innerhalb des WD ist, werden identifiziert und es wird auf diese Bezug genommen als WDij Pixel-Sensoren. Die WDij Pixel-Sensoren sind eine Teilmenge der Dij Pixel-Sensoren. Der Arbeitsschritt 362 kann durchgeführt werden, wenn die TOF-Pixel-Sensoren nicht anzeigen, dass ein Abschnitt des Objekts innerhalb des WD ist, andernfalls wird der Arbeitsschritt 366 durchgeführt. Die WD-Anzeige kann bei 362 deaktiviert sein. Der Arbeitsschritt 358 kann nach dem Arbeitsschritt 362 durchgeführt werden.
  • Bei 366 bestimmen das System-Steuer- bzw. Regelmodul und/oder das Objekterfassungs-Steuer- bzw. Regelmodul eine Übereinstimmung zwischen den WDij Pixel-Sensoren und den Bild-Pixel-Sensoren Vij, um resultierende WDVij Pixel-Sensoren oder WDVkl Pixel-Sensoren zu bestimmen. Die WDVij Pixel-Sensoren sind eine Untermenge der WDij Pixel-Sensoren. Die WDVkl Pixel-Sensoren beziehen sich auf eine Teilmenge der Vkl Pixel-Sensoren, welche den WDVij Pixel-Sensoren entsprechen. Die Übereinstimmung bzw. Übereinstimmungsbestimmung kann durchgeführt werden unter Verwendung eines Korrelations- bzw. Übereinstimmungs-Algorithmus, welcher im Speicher gespeichert ist (beispielsweise einem der Korrelationsalgorithmen 94). Die Übereinstimmung stellt eine Oberfläche (Pixel-Sensoren) auf dem Bild-Sensor zur Verfügung, welche einer Oberfläche (Pixel-Sensoren) des TOF-Sensor entspricht, welche innerhalb des WD ist. Diese Übereinstimmung kann durchgeführt werden unter Verwendung einer Matrix-Übereinstimmung bzw. Matrix-Korrespondenz.
  • Bei 368 kann das Objekterfassungs-Steuer- bzw. Regelmodul eine erste WD-Anzeige erzeugen, welche das Anpassen von Luminanzwerten der WDVij oder der WDVkl Pixel-Sensoren und/oder der zugeordneten Anzeige Pixel aufweisen kann. Die Luminanz kann beispielsweise um 50% erhöht werden und/oder in gelb hervorgehoben werden. Luminanzwerte der WDVij oder WDVkl Pixel-Sensoren und/oder der zugeordneten Anzeige-Pixel können mit einem vorbestimmten Wert multipliziert werden, um die erhöhte Luminanz zur Verfügung zu stellen. Eine Korrespondenz bzw. Übereinstimmung zwischen Pixel-Sensoren und Display-Pixeln kann durchgeführt werden, wenn es keine 1:1-Beziehung zwischen den Pixel-Sensoren und den Pixeln der Anzeige gibt.
  • Als ein anderes Beispiel können die WDVij oder die WDVkl Pixel-Sensoren und/oder die zugeordneten Anzeige-Pixel mit einer Warnfarbe (beispielsweise 50% transparent Gelb) einem alpha-Blending Vorgang unterzogen werden. Als ein anderes Beispiel kann ein Pfeil angezeigt werden und verwendet werden, um auf eine Grenze oder eine Oberfläche des Objekts mit vorbestimmtem Text zu zeigen, welche in dem angezeigte Bild einem alpha-Blending Vorgang unterzogen kann. Der vorbestimmte Text kann aus Nachrichten in einer Bibliothek (wie beispielsweise den Nachrichten 102 eines Speichers 96) erhalten werden. Der Pfeil und der vorbestimmte Text können basierend auf einer relativen Bewegung zwischen dem Fahrzeug und dem Objekt geändert werden.
  • Bei 370 kann eine zweite WD-Anzeige aktiviert werden. Die zweite WD-Anzeige kann eine hörbare oder eine Vibrations-Warnung einschließen bzw. aufweisen. Beispielsweise kann eine stimmaktivierte Nachricht übertragen werden, um den Fahrzeugbediener vor dem bevorstehenden Objekt zu warnen.
  • Bei 372 bestimmt das Objekterfassungs-Steuer- bzw. Regelmodul, ob irgendein TOF-Pixel-Sensor anzeigt, dass ein Abschnitt eines erfassten Objekts innerhalb des CD ist. Dies tritt auf, wenn ein Abstand Dij dieses Pixels geringer ist als der CD. Die TOF-Pixel-Sensoren, welche einem Abschnitt des Objekts, das innerhalb des CD ist, zugeordnet sind, werden identifziert und auf diese wird Bezug genommen als CDij Pixel-Sensoren. Die CDij Pixel-Sensoren sind eine Teilmenge der Dij Pixel-Sensoren. Ein Arbeitsschritt 374 kann durchgeführt werden, wenn die TOF-Pixel-Sensoren nicht anzeigen, dass ein Abschnitt des Objekts innerhalb des CD ist, andernfalls wird der Arbeitsschritt 378 durchgeführt. Die CD-Anzeige kann bei 374 deaktiviert sein. Der Arbeitsschritt 358 kann nach dem Arbeitsschritt 374 durchgeführt werden.
  • Bei 378 bestimmen das System-Steuer- bzw. Regelmodul und/oder das Objekterfassungs-Steuer- bzw. Regelmodul eine Übereinstimmung zwischen den CDij Pixel-Sensoren und den Bild-Pixel-Sensoren Vkl, um resultierende CDVij Pixel-Sensoren oder VDVkl Pixel-Sensoren zu bestimmen. Die CDVij Pixel-Sensoren sind eine Teilmenge der CDij Pixel-Sensoren. Die CDVkl Pixel-Sensoren sind eine Teilmenge der Vkl Pixel-Sensoren. Die Übereinstimmung kann durchgeführt werden unter Verwendung eines Korrelationsalgorithmus, welcher im Speicher gespeichert ist (beispielsweise eines der Korrelationsalgorithmen 94). Die Übereinstimmung stellt eine Oberfläche (Pixel-Sensoren) auf dem Bild-Sensor bereit, welche einer Oberfläche (Pixel-Sensoren) des TOF-Sensors entspricht, welche innerhalb des CD sind. Diese Übereinstimmung kann durchgeführt werden unter Verwendung einer Matrix-Übereinstimmung bzw. Matrix-Korrespondenz.
  • Bei 380 kann das Objekterfassungs-Steuer- bzw. Regelmodul eine erste CD-Anzeige anzeigen, welche ein Blinken und/oder ein weißes Hervorheben der CDVij oder CDVkl Pixel-Sensoren und/oder zugeordneter Anzeige-Pixel aufweisen kann. Eine Übereinstimmung zwischen Pixel-Sensoren und Anzeige-Pixeln kann durchgeführt werden, wenn es keine 1:1-Beziehung zwischen den Pixel-Sensoren und den Pixeln der Anzeige gibt.
  • Bei 382 kann eine zweite CD-Anzeige aktiviert werden. Die zweite CD-Anzeige kann eine hörbare oder eine Vibrations-Warnung aufweisen. Beispielsweise kann ein Sitz eines Fahrzeugbedieners vibriert werden, um den Fahrzeugbediener vor dem bevorstehenden Objekt zu warnen. Der Arbeitsschritt 358 kann nach dem Arbeitsschritt 382 durchgeführt werden.
  • Die oben beschriebenen Arbeitsschritte sind als veranschaulichende Beispiele gedacht; die Arbeitsschritte können sequentiell bzw. nacheinander, synchron, simultan bzw. gleichzeitig, kontinuierlich, während überlappender Zeitperioden oder in einer verschiedenen Reihenfolge, abhängig von der Anwendung, durchgeführt werden.

Claims (23)

  1. Objekterfassungs-System eines Fahrzeugs (12, 300), aufweisend: einen TOF-Sensor (18, 52, 206), welcher ein reflektiertes Objekterfassungs-Signal zu einer zweiten Zeit empfängt basierend auf einem Objekterfassungs-Signal, welches zu einer ersten Zeit ausgesandt wird; einen Bild-Sensor (22, 54, 208), welcher ein Bild-Signal, welches ein Bild eines erfassten Objekts aufweist, erzeugt, wobei der Bild-Sensor (22, 54, 208) verschieden von und benachbart zu dem TOF-Sensor (18, 52, 206) ist; ein TOF-Steuer- oder Regelmodul (20, 66, 66'), welches Abstands-Daten basierend auf der ersten Zeit und der zweiten Zeit erzeugt, und bestimmt, ob wenigstens ein Abschnitt eines erfassten Objekts innerhalb eines vorbestimmten Abstandes des Fahrzeugs (12, 300) ist; ein Bild-Steuer- oder Regelmodul (24, 68, 68'), das Bild-Daten basierend auf dem Bild-Signal erzeugt; und ein Erfassungs-Steuer- oder Regelmodul (28, 86, 86'), das die Abstands-Daten mit den Bild-Daten korreliert, um eine Warnanzeige (320, 320') zu erzeugen, wenn wenigstens ein Abschnitt des erfassten Objekts innerhalb des vorbestimmten Abstandes des Fahrzeuges (12, 300) ist, wobei die Warnanzeige (320, 320') proportional zu dem Abschnitt des erfassten Objekts innerhalb eines vorbestimmten Abstands ist, wobei das erfasste Objekt auf einer Anzeige (26, 84) gezeigt ist und eine Schnittlinie (322) auf dem erfassten Objekt gezeigt ist, wobei die Schnittlinie (322) dem Abschnitt des erfassten Objekts innerhalb eines vorbestimmten Abstands entspricht.
  2. Objekterfassungs-System nach Anspruch 1, weiterhin aufweisend: eine Anzeige (26, 84); und ein Grafik-Steuer- oder Regelmodul (88), das das erfasste Objekt und die Warnanzeige (320, 320') auf der Anzeige (26, 84) anzeigt, wobei die Warnanzeige (320, 320') anzeigt, dass das erfasste Objekt innerhalb des vorbestimmten Abstandes ist.
  3. Objekterfassungs-System nach Anspruch 1 oder 2, weiterhin aufweisend: ein erstes Chip-Paket (80), welches den TOF-Sensor (52) aufweist; und ein zweites Chip-Paket (112), welches den Bild-Sensor (54) aufweist, wobei das zweite Chip-Paket (112) benachbart zu und in Kontakt mit dem ersten Chip-Paket (80) ist.
  4. Objekterfassungs-System nach einem der Ansprüche 1–3, wobei der TOF-Sensor (18, 52, 206) innerhalb eines vorbestimmten Abstandes des Bild-Sensors (22, 54, 208) ist.
  5. Objekterfassungs-System nach einem der Ansprüche 1–4, wobei das Erfassungs-Steuer- oder Regelmodul (28, 86, 86') Abstands-Daten mit den Bild-Daten korreliert basierend auf wenigstens einem eines Winkel-Offsets, eines horizontalen Offsets, eines vertikalen Offsets und eines longitudinalen Offsets zwischen dem TOF-Sensor (18, 52, 206) und dem Bild-Sensor (22, 54, 208).
  6. Objekterfassungs-System nach Anspruch 1, weiterhin aufweisend ein Grafik-Steuer- oder Regelmodul (88), wobei: das Erfassungs-Steuer- oder Regelmodul (28, 86, 86') die Abstands-Daten mit den Bild-Daten korreliert, um resultierende korrelierte Daten zu erzeugen basierend auf einer Auflösung des TOF-Sensors (18, 52, 206) und einer Auflösung des Bild-Sensors (22, 254, 208); und das Grafik-Steuer- oder Regelmodul (88) basierend auf den resultierenden korrelierten Daten wenigstens eines von einem Ändern der Pixel der Anzeige (26, 84), welche den Abschnitten des erfassten Objekts zugeordnet sind, welche innerhalb des vorbestimmten Abstandes sind, und eines Anzeigens der Warnanzeige (320, 320') über einen Abschnitt des erfassten Objekts auf der Anzeige (26, 84) durchführt.
  7. Objekterfassungs-System nach einem der Ansprüche 1–6, wobei das Erfassungs-Steuer- oder Regelmodul (28, 86, 86'): ein räumliches und/oder zeitliches Dithering auf die Abstands-Daten anwendet, um Dither-Daten zu erzeugen; und die Dither-Daten mit den Bild-Daten korreliert.
  8. Objekterfassungs-System nach einem der Ansprüche 1 bis 7, wobei die Warnanzeige (320, 320') wenigstens ein Schattieren, Hervorheben und/oder Ändern der Farbe des Abschnitts des erfassten Objekts enthält.
  9. Objekterfassungs-System aufweisend: ein Substrat (56, 58, 204, 254), aufweisend: einen TOF-Sensor (52, 206, 252), welcher N Pixel-Sensoren aufweist und ein reflektiertes TOF-Signal zu einer zweiten Zeit basierend auf einem TOF-Signal, welches zu einer ersten Zeit ausgesandt wird, empfängt, wobei N eine ganze Zahl ist; einen Bild-Sensor (54, 208, 252), welcher M Pixel-Sensoren aufweisen, welche verschieden von den N Pixel-Sensoren sind und ein Bild-Signal erzeugt, und welcher benachbart zu dem TOF-Sensor (52, 206, 252) ist, wobei M eine ganze Zahl ist; ein TOF-Steuer- oder Regelmodul (66, 66', 66''), welches Abstands-Daten basierend auf der ersten Zeit und der zweiten Zeit erzeugt und bestimmt, ob wenigstens ein Abschnitt eines erfassten Objekts innerhalb eines vorbestimmten Abstands eines Fahrzeugs (300) ist; ein Abbildungs-Steuer- oder Regelmodul (68, 68', 68''), welches Bild-Daten basierend auf dem Bild-Signal erzeugt; und ein Erfassungs-Steuer- oder Regelmodul (86, 86', 86''), welches die Abstands-Daten mit den Bild-Daten korreliert, um eine erste Warnanzeige (320) zu erzeugen, wenn wenigstens ein Abschnitt des erfassten Objekts innerhalb des vorbestimmten Abstandes des Fahrzeuges (300) ist, wobei die Warnanzeige (320, 320') proportional zu dem Abschnitt des erfassten Objekts innerhalb eines vorbestimmten Abstands ist, wobei das erfasste Objekt auf einer Anzeige (26, 84) gezeigt ist und eine Schnittlinie (322) auf dem erfassten Objekt gezeigt ist, wobei die Schnittlinie (322) dem Abschnitt des erfassten Objekts innerhalb eines vorbestimmten Abstands entspricht.
  10. Objekterfassungs-System nach Anspruch 9, weiterhin aufweisend einen Chip (218, 272), welcher das Substrat (56, 58, 204, 254) aufweist.
  11. Objekterfassungs-System nach Anspruch 9 oder 10, wobei: der TOF-Sensor (252) eine erste Anordnung der N Pixel-Sensoren aufweist; und der Bild-Sensor (252) eine zweite Anordnung der M Pixel-Sensoren aufweist, wobei die zweite Anordnung der M Pixel-Sensoren mit der ersten Anordnung der M Pixel-Sensoren verschachtelt ist.
  12. Objekterfassungs-System nach Anspruch 11, wobei die zweite Anordnung der M Pixel-Sensoren wenigstens eines von vertikal und horizontal mit der ersten Anordnung der M Pixel-Sensoren verschachtelt ist.
  13. Objekterfassungs-System nach einem der Ansprüche 9 bis 12, weiterhin aufweisend ein Grafik-Steuer- oder Regelmodul (88), wobei: das Erfassungs-Steuer- oder Regelmodul (86, 86', 86'') die Abstands-Daten mit den Bild-Daten korreliert, um resultierende korrelierte Daten zu erzeugen basierend auf einer Auflösung des TOF-Sensors (52, 206, 252) und der Auflösung des Bild-Sensors (54, 208, 252); und das Grafik-Steuer- oder Regelmodul (88) basierend auf den resultierenden korrelierten Daten wenigstens eines von einem Ändern der Pixel der Anzeige (26, 84), welche den Abschnitten des erfassten Objekts zugeordnet sind, welche innerhalb des vorbestimmten Abstandes sind, und eines Anzeigens der Warnanzeige (320) über einen Abschnitt des erfassten Objekts auf der Anzeige (26, 84) durchführt.
  14. Objekterfassungs-System nach einem der Ansprüche 9 bis 13, wobei das Erfassungs-Steuer- oder Regelmodul (86, 86', 86'') die Abstands-Daten mit den Bild-Daten basierend auf Gruppierungen der N Pixel-Sensoren mit den M Pixel-Sensoren korreliert.
  15. Objekterfassungs-System nach einem der Ansprüche 9 bis 14, weiterhin aufweisend: eine Anzeige (84); und ein Grafik-Steuer- oder Regelmodul (88), welches das erfasste Objekt und die erste Warnanzeige (320) auf der Anzeige (84) anzeigt, wobei das Erfassungs-Steuer- oder Regelmodul (86, 86', 86''): bestimmt, wann Abschnitte des erfassten Objekts einen Warnabstand haben und und innerhalb eines kritischen Abstandes eines Fahrzeuges (300) sind; die erste Warnanzeige (320) erzeugt, wenn ein Abschnitt des erfassten Objekts innerhalb des Warnabstandes ist; eine zweite Warnanzeige (320') erzeugt, wenn ein Abschnitt des erfassten Objekts innerhalb des kritischen Abstandes ist; und die zweite Warnanzeige (320') auf der Anzeige (84) anzeigt, und wobei die erste Warnanzeige (320) unterschiedlich zu der zweiten Warnanzeige (320') ist.
  16. Objekterfassungs-System nach einem der Ansprüche 9 bis 15, wobei: N kleiner ist als M; und ein Oberflächenbereich der N Pixel-Sensoren gleich zu einem Oberflächenbereich der M Pixel-Sensoren ist.
  17. Objekterfassungs-System nach einem der Ansprüche 9 bis 16, wobei die Warnanzeige (320, 320') wenigstens ein Schattieren, Hervorheben und/oder Ändern der Farbe des Abschnitts des erfassten Objekts enthält.
  18. Verfahren zum Betreiben eines Objekterfassungs-Systems aufweisend: Erzeugen einer Übereinstimmungs-Matrix zwischen TOF-Pixel-Sensoren von einem TOF-Sensor (18, 52, 206, 252) und Bild-Pixel-Sensoren von einem Bild-Sensor (22, 52, 208, 252); Empfangen von Abstands-Daten von dem TOF-Sensor (18, 52, 206, 252); Empfangen von Bild-Daten von dem Bild-Sensor (22, 54, 208, 252); Vergleichen der Abstands-Daten mit einem Warnabstand und Erzeugen einer Warnanzeige (320, 320'), wobei die Warnanzeige (320, 320') proportional zu dem Abschnitt des erfassten Objekts innerhalb eines vorbestimmten Abstands ist, wobei das erfasste Objekt auf einer Anzeige (26, 84) gezeigt wird und eine Schnittlinie (322) auf dem erfassten Objekt gezeigt wird, wobei die Schnittlinie (322) dem Abschnitt des erfassten Objekts innerhalb eines vorbestimmten Abstands entspricht; Bestimmen einer ersten Übereinstimmung zwischen einer ersten Teilmenge der TOF-Pixel-Sensoren und wenigstens einem der Bild-Pixel-Sensoren und Pixeln von einer Anzeige (26, 84), wobei die erste Teilmenge der TOF-Pixel-Sensoren Abständen eines erfassten Objekts zugeordnet ist, welche innerhalb des Warnabstandes sind; und Anzeigen des erfassten Objekts und der Warnanzeige (320, 320') gemäß der ersten Übereinstimmung.
  19. Verfahren nach Anspruch 18, weiterhin aufweisend: ein Vergleichen der Abstands-Daten mit einem kritischen Abstand und Erzeugen einer kritischen Anzeige (330); Bestimmen einer zweiten Übereinstimmung zwischen einer zweiten Teilmenge der TOF-Pixel-Sensoren und wenigstens einem der Bild-Pixel-Sensoren und Pixeln von der Anzeige (26, 84), wobei die zweite Teilmenge der TOF-Pixel-Sensoren Abständen des erfassten Objekts zugeordnet sind, welche innerhalb des kritischen Abstandes sind; und Anzeigen der kritischen Anzeige (330) gemäß der zweiten Übereinstimmung, wobei die Warnanzeige (320, 320') unterschiedlich zu der kritischen Anzeige (330) ist.
  20. Verfahren nach Anspruch 19, weiterhin aufweisend: Erhöhen einer Luminanz und Anpassen einer Farbe von wenigstens einem der Bild-Pixel-Sensoren und der Pixel der Anzeige (26, 84) entsprechend der ersten Teilmenge des TOF-Pixel-Sensors, wenn die Warnanzeige (320, 320') angezeigt wird; und wobei die kritische Anzeige (330) ein Anpassen der Farbe wenigstens eines der Bild-Pixel-Sensoren und der Pixel der Anzeige (26, 84) entsprechend der zweiten Teilmenge der TOF-Pixel-Sensoren aufweist, wenn die kritische Anzeige (330) angezeigt wird.
  21. Verfahren nach Anspruch 20, weiterhin aufweisend: ein Hervorheben wenigstens eines der Bild-Pixel-Sensoren und der Pixel der Anzeige (26, 84) entsprechend der ersten Teilmenge der TOF-Pixel-Sensoren, wenn die Warnanzeige (320, 320'), angezeigt wird; und Blinken wenigstens eines der Bild-Pixel-Sensoren und der Pixel der Anzeige (26, 84) entsprechend der zweiten Teilmenge der TOF-Pixel-Sensoren, wenn die kritische Anzeige (330) angezeigt wird.
  22. Verfahren nach Anspruch 21, weiterhin aufweisend: Erzeugen einer zweiten Warnanzeige (320'), wenn Abstands-Daten, welche TOF-Pixeln des TOF-Sensors (18, 52, 206, 252) zugeordnet sind, anzeigen, dass ein Abschnitt des erfassten Objekts innerhalb des Warnabstandes ist; und Erzeugen einer zweiten kritischen Anzeige (330), wenn Abstands-Daten, welche TOF-Pixeln des TOF-Sensors (18, 52, 206, 252) zugeordnet sind, anzeigen, dass ein Abschnitt des erfassten Objekts innerhalb des kritischen Abstandes ist, wobei die zweite Warnanzeige (320') wenigstens eines einer ersten Stimm-Nachricht und einer ersten Vibrationsanzeige aufweist, und wobei die zweite kritische Anzeige (330) wenigstens eines einer zweiten Stimm-Nachricht und einer zweiten Vibrationsanzeige aufweist.
  23. Verfahren nach Anspruch 18 bis 22, wobei die Warnanzeige (320, 320') wenigstens ein Schattieren, Hervorheben und/oder Ändern der Farbe des Abschnitts des erfassten Objekts enthält.
DE102011052815.6A 2010-08-20 2011-08-18 Kombinierte Time-of-Flight- bzw. Laufzeit- und Bild-Sensorsysteme Expired - Fee Related DE102011052815B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/860,092 US8648702B2 (en) 2010-08-20 2010-08-20 Combined time-of-flight and image sensor systems
US12/860,092 2010-08-20

Publications (2)

Publication Number Publication Date
DE102011052815A1 DE102011052815A1 (de) 2012-02-23
DE102011052815B4 true DE102011052815B4 (de) 2017-10-12

Family

ID=45557462

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011052815.6A Expired - Fee Related DE102011052815B4 (de) 2010-08-20 2011-08-18 Kombinierte Time-of-Flight- bzw. Laufzeit- und Bild-Sensorsysteme

Country Status (3)

Country Link
US (1) US8648702B2 (de)
CN (1) CN102445688B (de)
DE (1) DE102011052815B4 (de)

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2487504A1 (de) * 2011-02-10 2012-08-15 Technische Universität München Verfahren für die verbesserte Tiefenbilderfassung
US8982960B2 (en) 2011-02-23 2015-03-17 Qualcomm Incorporated Multi-metric filtering
US8441394B2 (en) * 2011-07-11 2013-05-14 Delphi Technologies, Inc. System and method for detecting obstructions and misalignment of ground vehicle radar systems
US9554286B2 (en) 2011-12-02 2017-01-24 Lear Corporation Apparatus and method for detecting a location of a wireless device
US9069075B2 (en) * 2012-02-10 2015-06-30 GM Global Technology Operations LLC Coupled range and intensity imaging for motion estimation
EP2689650B1 (de) * 2012-07-27 2014-09-10 Honda Research Institute Europe GmbH Lernender autonomer Rasenmäher
DE102012213294B4 (de) * 2012-07-27 2020-10-22 pmdtechnologies ag Verfahren zum Betreiben eines Sicherheitssystems in einem Kraftfahrzeug, das eine 3D-Ortsfrequenzfilter-Kamera und eine 3D-TOF-Kamera aufweist
US9957692B2 (en) * 2013-03-15 2018-05-01 Hexagon Technology Center Gmbh System and method for heavy equipment navigation and working edge positioning using an image acquisition device that provides distance information
LU92173B1 (en) 2013-03-20 2014-09-22 Iee Sarl Distance determination method
CN104118351A (zh) * 2013-04-24 2014-10-29 鸿富锦精密工业(深圳)有限公司 车辆辅助系统及车辆辅助方法
DE102013007886B3 (de) * 2013-05-08 2014-09-25 Audi Ag Time-of-Flight-System mit räumlich voneinander getrennten Time-of-Flight-Empfangseinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
US9069080B2 (en) 2013-05-24 2015-06-30 Advanced Scientific Concepts, Inc. Automotive auxiliary ladar sensor
US9606606B2 (en) 2013-06-03 2017-03-28 Qualcomm Incorporated Multifunctional pixel and display
JP5812061B2 (ja) * 2013-08-22 2015-11-11 株式会社デンソー 物標検出装置およびプログラム
JP6149676B2 (ja) * 2013-10-09 2017-06-21 富士通株式会社 画像処理装置、画像処理方法、及び、プログラム
CN105723239B (zh) * 2013-11-20 2020-12-18 松下半导体解决方案株式会社 测距摄像系统以及固体摄像元件
EP2890125B1 (de) 2013-12-24 2021-10-13 Sony Depthsensing Solutions Time of flight Kamera System
CN105323571B (zh) * 2014-06-17 2017-09-29 立普思股份有限公司 影像相位补正方法
WO2016025908A2 (en) 2014-08-15 2016-02-18 US LADAR, Inc. Methods and systems for ladar transmission
US9881422B2 (en) * 2014-12-04 2018-01-30 Htc Corporation Virtual reality system and method for controlling operation modes of virtual reality system
CN106199738A (zh) * 2015-02-15 2016-12-07 鲍星合 物体存在检测装置及方法
EP3283843B1 (de) 2015-04-01 2024-01-10 Vayavision Sensing Ltd. Erzeugung von dreidimensionalen karten einer szene mittels passiver und aktiver messungen
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
US12399279B1 (en) 2016-02-15 2025-08-26 Red Creamery Llc Enhanced hybrid LIDAR with high-speed scanning
US12399278B1 (en) 2016-02-15 2025-08-26 Red Creamery Llc Hybrid LIDAR with optically enhanced scanned laser
US12123950B2 (en) 2016-02-15 2024-10-22 Red Creamery, LLC Hybrid LADAR with co-planar scanning and imaging field-of-view
US10042159B2 (en) 2016-02-18 2018-08-07 Aeye, Inc. Ladar transmitter with optical field splitter/inverter
US9933513B2 (en) 2016-02-18 2018-04-03 Aeye, Inc. Method and apparatus for an adaptive ladar receiver
US10908262B2 (en) 2016-02-18 2021-02-02 Aeye, Inc. Ladar transmitter with optical field splitter/inverter for improved gaze on scan area portions
US10782393B2 (en) 2016-02-18 2020-09-22 Aeye, Inc. Ladar receiver range measurement using distinct optical path for reference light
KR20170105701A (ko) * 2016-03-09 2017-09-20 한국전자통신연구원 스캐닝 장치 및 이의 동작 방법
WO2018014088A1 (en) 2016-07-22 2018-01-25 Commonwealth Scientific And Industrial Research Organisation Low resolution adaptive distance display
US10685548B2 (en) 2016-07-22 2020-06-16 The Boeing Company Low resolution adaptive distance display
US10890649B2 (en) * 2016-08-11 2021-01-12 Qualcomm Incorporated System and method for measuring reference and returned light beams in an optical system
US10394237B2 (en) 2016-09-08 2019-08-27 Ford Global Technologies, Llc Perceiving roadway conditions from fused sensor data
US9953534B1 (en) * 2016-10-20 2018-04-24 Ford Global Technologies, Llc Vehicle collision warnings based on a time-to-collision
CN106441104B (zh) * 2016-12-26 2019-02-01 中国科学院长春光学精密机械与物理研究所 一种尺寸测量系统
CN108269238B (zh) * 2017-01-04 2021-07-13 浙江舜宇智能光学技术有限公司 深度图像采集装置和深度图像采集系统及其图像处理方法
US10209349B2 (en) 2017-02-17 2019-02-19 Aeye, Inc. Method and system for ladar pulse deconfliction to detect and track other ladar systems
US10366294B2 (en) 2017-03-23 2019-07-30 Aptiv Technologies Limited Transparency-characteristic based object classification for automated vehicle
CN109085603A (zh) * 2017-06-14 2018-12-25 浙江舜宇智能光学技术有限公司 光学三维成像系统和彩色三维图像成像方法
US10663596B2 (en) 2017-09-15 2020-05-26 Aeye, Inc. Ladar receiver with co-bore sited camera
US10393873B2 (en) 2017-10-02 2019-08-27 Ford Global Technologies, Llc Adaptive mitigation of ultrasonic emission in vehicular object detection systems
US11341771B2 (en) * 2017-10-18 2022-05-24 Sony Semiconductor Solutions Corporation Object identification electronic device
CN112204486B (zh) 2018-04-03 2024-08-09 尚科宁家运营有限公司 机器人导航的飞行时间传感器布置及用其定位的方法
WO2019243038A1 (en) * 2018-06-22 2019-12-26 Ams Ag Using time-of-flight and pseudo-random bit sequences to measure distance to object
US11054515B2 (en) 2018-06-26 2021-07-06 Zoox, Inc. Radar clustering and velocity disambiguation
CN109001927B (zh) * 2018-07-24 2021-10-01 京东方科技集团股份有限公司 一种显示面板、显示装置和显示装置的空间定位方法
US11609313B2 (en) * 2018-07-31 2023-03-21 Waymo Llc Hybrid time-of-flight and imager module
KR20210033540A (ko) * 2018-08-16 2021-03-26 센스 포토닉스, 인크. 통합된 라이다 이미지-센서 디바이스들 및 시스템들 및 관련된 동작 방법들
US10985203B2 (en) * 2018-10-10 2021-04-20 Sensors Unlimited, Inc. Sensors for simultaneous passive imaging and range finding
US10656252B1 (en) 2018-10-25 2020-05-19 Aeye, Inc. Adaptive control of Ladar systems using spatial index of prior Ladar return data
US10830894B2 (en) 2018-11-21 2020-11-10 Zoox, Inc. Intensity and depth measurements in time-of-flight sensors
US10921450B2 (en) 2019-04-24 2021-02-16 Aeye, Inc. Ladar system and method with frequency domain shuttering
JP7569334B2 (ja) 2019-05-13 2024-10-17 アウスター インコーポレイテッド 電子走査lidarシステム用同期画像捕捉
CN112313941A (zh) * 2019-09-20 2021-02-02 深圳市大疆创新科技有限公司 控制装置、摄像装置、控制方法以及程序
JP7173657B2 (ja) * 2019-09-20 2022-11-16 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 制御装置、撮像装置、制御方法、及びプログラム
US11373322B2 (en) 2019-12-26 2022-06-28 Stmicroelectronics, Inc. Depth sensing with a ranging sensor and an image sensor
US11269075B2 (en) 2020-04-17 2022-03-08 Samsung Electronics Co., Ltd. Hybrid sensor system and method for providing 3D imaging
CA3198326A1 (en) 2020-07-21 2021-10-06 Leddartech Inc. Beam-steering device particularly for lidar systems
CA3125618C (en) 2020-07-21 2023-05-23 Leddartech Inc. Beam-steering device particularly for lidar systems
CA3125716C (en) * 2020-07-21 2024-04-09 Leddartech Inc. Systems and methods for wide-angle lidar using non-uniform magnification optics
CN114114317B (zh) * 2020-08-28 2023-11-17 上海禾赛科技有限公司 激光雷达、数据处理方法及数据处理模块、介质
CN113009499A (zh) * 2021-01-29 2021-06-22 宁波飞芯电子科技有限公司 一种复合型阵列探测器与使用其的探测系统
US11635495B1 (en) 2021-03-26 2023-04-25 Aeye, Inc. Hyper temporal lidar with controllable tilt amplitude for a variable amplitude scan mirror
US11630188B1 (en) 2021-03-26 2023-04-18 Aeye, Inc. Hyper temporal lidar with dynamic laser control using safety models
US11460553B1 (en) 2021-03-26 2022-10-04 Aeye, Inc. Hyper temporal lidar with dynamic laser control using different mirror motion models for shot scheduling and shot firing
US20220308187A1 (en) 2021-03-26 2022-09-29 Aeye, Inc. Hyper Temporal Lidar Using Multiple Matched Filters to Determine Target Retro-Reflectivity
US11619740B2 (en) 2021-03-26 2023-04-04 Aeye, Inc. Hyper temporal lidar with asynchronous shot intervals and detection intervals
US20220317249A1 (en) 2021-03-26 2022-10-06 Aeye, Inc. Hyper Temporal Lidar with Switching Between a Baseline Scan Mode and a Pulse Burst Mode
US20230044929A1 (en) 2021-03-26 2023-02-09 Aeye, Inc. Multi-Lens Lidar Receiver with Multiple Readout Channels
WO2023044688A1 (zh) * 2021-09-23 2023-03-30 华为技术有限公司 信号处理方法、信号传输方法及装置
JP2023116142A (ja) * 2022-02-09 2023-08-22 株式会社小糸製作所 測定装置
JP2025036237A (ja) * 2023-09-01 2025-03-14 ウェイモ エルエルシー 3D ToFビジョンシステム
US20250296505A1 (en) * 2024-03-25 2025-09-25 Ford Global Technologies, Llc Techniques for adjusting vehicle step

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007004348A1 (de) * 2007-01-29 2008-07-31 Robert Bosch Gmbh Imager-Halbleiterbauelement, Kamerasystem und Verfahren zum Erstellen eines Bildes
US7741961B1 (en) * 2006-09-29 2010-06-22 Canesta, Inc. Enhanced obstacle detection and tracking for three-dimensional imaging systems used in motor vehicles
DE102009045233A1 (de) * 2009-10-01 2011-04-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur kombinierten visuellen Anzeige von Video- und Abstandsdaten einer Verkehrssituation

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59131282A (ja) 1983-01-17 1984-07-28 Mitsubishi Electric Corp 自動車用後方監視装置
KR100208806B1 (ko) 1996-12-12 1999-07-15 윤종용 차량의 진행을 예측하여 안내하는 방법
US6150956A (en) * 1998-05-01 2000-11-21 Zohar Lightomatic Ltd. Proximity warning system for vehicles
JP2000184368A (ja) 1998-12-14 2000-06-30 Matsushita Electric Ind Co Ltd センサー信号重畳車載カメラシステム
US6734896B2 (en) * 2000-04-28 2004-05-11 Matsushita Electric Industrial Co., Ltd. Image processor and monitoring system
JP4354085B2 (ja) * 2000-05-09 2009-10-28 本田技研工業株式会社 車両用ヘッドアップディスプレイ装置
CN2507707Y (zh) 2000-12-22 2002-08-28 徽昌工业股份有限公司 倒车雷达测距监视装置
US7564125B2 (en) 2002-12-06 2009-07-21 General Electric Company Electronic array and methods for fabricating same
US7881496B2 (en) * 2004-09-30 2011-02-01 Donnelly Corporation Vision system for vehicle
US7375620B2 (en) * 2005-12-08 2008-05-20 Gm Global Technology Operations, Inc. Speed-sensitive rear obstacle detection and avoidance system
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US7719410B2 (en) * 2007-01-08 2010-05-18 Gm Global Technology Operations, Inc. Threat assessment state processing for collision warning, mitigation and/or avoidance in ground-based vehicles
US8208129B2 (en) 2007-01-14 2012-06-26 Microsoft International Holdings B.V. Method, device and system for imaging
US8786704B2 (en) * 2007-08-09 2014-07-22 Donnelly Corporation Vehicle mirror assembly with wide angle element
JP2009059258A (ja) 2007-09-03 2009-03-19 Alpine Electronics Inc 障害物接近警告装置
US20090254260A1 (en) * 2008-04-07 2009-10-08 Axel Nix Full speed range adaptive cruise control system
JP2009265803A (ja) 2008-04-23 2009-11-12 Panasonic Corp 車両視界支援装置
JP5181937B2 (ja) * 2008-09-02 2013-04-10 株式会社デンソー 車両周辺画像表示装置
DE102010055865A1 (de) 2010-12-22 2011-07-28 Daimler AG, 70327 Kameravorrichtung für einen Kraftwagen

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7741961B1 (en) * 2006-09-29 2010-06-22 Canesta, Inc. Enhanced obstacle detection and tracking for three-dimensional imaging systems used in motor vehicles
DE102007004348A1 (de) * 2007-01-29 2008-07-31 Robert Bosch Gmbh Imager-Halbleiterbauelement, Kamerasystem und Verfahren zum Erstellen eines Bildes
DE102009045233A1 (de) * 2009-10-01 2011-04-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur kombinierten visuellen Anzeige von Video- und Abstandsdaten einer Verkehrssituation

Also Published As

Publication number Publication date
US8648702B2 (en) 2014-02-11
CN102445688B (zh) 2015-01-14
DE102011052815A1 (de) 2012-02-23
CN102445688A (zh) 2012-05-09
US20120044093A1 (en) 2012-02-23

Similar Documents

Publication Publication Date Title
DE102011052815B4 (de) Kombinierte Time-of-Flight- bzw. Laufzeit- und Bild-Sensorsysteme
EP2919197B1 (de) Objekt-erkennungsvorrichtung und objekt-erkennungsverfahren
EP1933167B1 (de) Optoelektronischer Sensor sowie Verfahren zur Erfassung und Abstandsbestimmung eines Objekts
DE60207395T2 (de) System zur bildanalyse
DE60207655T2 (de) Vorrichtung zum Anzeigen der Umgebung eines Fahrzeuges und System zur Bildbereitstellung
EP1950583B1 (de) Nachtsichtsystem, insbesondere für ein Fahrzeug, und Verfahren zum Erstellen eines Nachtsichtbildes
DE102013209415A1 (de) Dynamische Hinweisüberlagerung mit Bildbeschneidung
EP2414776B1 (de) Hilfsvorrichtung zur fahrzeughandhabung
DE102010012811B4 (de) Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten
US20110102581A1 (en) Target position identifying apparatus
JP5718920B2 (ja) 車両周辺監視装置
EP2106527A2 (de) Abbildungsverfahren, -vorrichtung und -system
DE112017004936T5 (de) Peripherieüberwachungsvorrichtung
DE112010005565T5 (de) Einparkunterstützungsvorrichtung, Einparkunterstützungssystem und Einparkunterstützungskameraeinheit
JP2007234019A (ja) 車両画像領域特定装置およびその方法
DE112018007485T5 (de) Straßenoberflächen-Detektionsvorrichtung, Bildanzeige-Vorrichtung unter Verwendung einer Straßenoberflächen-Detektionsvorrichtung, Hindernis-Detektionsvorrichtung unter Nutzung einer Straßenoberflächen-Detektionsvorrichtung, Straßenoberflächen-Detektionsverfahren, Bildanzeige-Verfahren unter Verwendung eines Straßenoberflächen-Detektionsverfahrens, und Hindernis-Detektionsverfahren unter Nutzung eines Straßenoberflächen-Detektionsverfahrens
DE102012001554A1 (de) Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug
CN109886064B (zh) 确定可驾驶空间的边界的方法
DE112021004793T5 (de) Vorrichtung für dreidimensionale Messungen
Adamshuk et al. On the applicability of inverse perspective mapping for the forward distance estimation based on the HSV colormap
DE112013001647T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren im Fahrzeug
DE112022001536T5 (de) Messungsvorrichtung, messungsverfahren und informationsverarbeitungsvorrichtung
EP2490175A1 (de) Verfahren zur Kalibrierung und/oder Ausrichtung einer auf einem Automobil montierten Kamera sowie zugehörige Kamera
DE112021002865T5 (de) Erfassungssystem
DE112022003998T5 (de) Fahrzeugmontierte steuervorrichtung und verfahren zur erfassung dreidimensionaler informationen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R006 Appeal filed
R007 Decision rectified on appeal
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee