[go: up one dir, main page]

DE60130517T2 - Integriertes Sichtsystem - Google Patents

Integriertes Sichtsystem Download PDF

Info

Publication number
DE60130517T2
DE60130517T2 DE60130517T DE60130517T DE60130517T2 DE 60130517 T2 DE60130517 T2 DE 60130517T2 DE 60130517 T DE60130517 T DE 60130517T DE 60130517 T DE60130517 T DE 60130517T DE 60130517 T2 DE60130517 T2 DE 60130517T2
Authority
DE
Germany
Prior art keywords
integration
data
camera
stereo
stereo camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60130517T
Other languages
English (en)
Other versions
DE60130517D1 (de
Inventor
Takeshi Takatsuka
Tatsuya Suzuki
Hiroshi Okada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK, Fuji Heavy Industries Ltd filed Critical Fuji Jukogyo KK
Application granted granted Critical
Publication of DE60130517D1 publication Critical patent/DE60130517D1/de
Publication of DE60130517T2 publication Critical patent/DE60130517T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/346Image reproducers using prisms or semi-transparent mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf ein Integrationssichtsystem, das einer Fahrzeugbesatzung auch bei eigentlich geringer Sicht Ansichten mit hoher visueller Wahrnehmbarkeit liefert.
  • Fahrzeuge, zum Beispiel Flugzeuge, sind mit einem Sichtsystem ausgestattet, das über Bildsensoren verfügt, wie etwa eine Infrarotkamera, einen im millimetrischen Wellenbereich arbeitenden Radar und einen Laserradar. Das Sichtsystem bietet einem Fahrer oder Piloten künstliche Pseudoansichten, die auf Grundlage von Sichtdaten, die von den Bildsensoren bei geringer Sicht in der Nacht oder bei schlechtem Wetter erzeugt werden, und dreidimensionalen (3-D) Abbildungsdaten erzeugt werden, die im System zur Sicherheit gespeichert sind.
  • Die ungeprüfte japanische Patentveröffentlichung Nr. 11-72350 offenbart die Erzeugung von Pseudoansichten unter Verwendung von geografischen Weitraumdaten, die auf einer in einem Speicher abgespeicherten 3-D-Abbildung beruhen, und Daten über Hindernisse wie elektrische Hochspannungsleitungen, Hochhäuser und Krane, und das Anzeigen der Pseudoansichten und tatsächlichen Ansichten, die auf einer transparenten Anzeige, die an einem Helm eines Piloten angebracht ist, übereinander zu legen.
  • Sichtdaten, die von Bildsensoren wie einer Infrarotkamera, einem im millimetrischen Wellenbereich arbeitenden Radar und einem Laserradar gesammelt werden, reichen jedoch für einen Fahrer oder Piloten nicht aus. Darüber hinaus können 3-D-Abbil dungsdaten keine sich tatsächlich verändernden geografischen Bedingungen nachvollziehen. Pseudoansichten, die auf Grundlage dieser Daten erzeugt werden, erfüllen deshalb nicht die Anforderungen eines Fahrers oder Piloten.
  • Im Einzelnen lassen sich Infrarotkameras bei einem bestimmten Grad geringer Sicht verwenden und können bei Nacht äußerst klare Bilder erzeugen, aufgrund monochromer Bilder fehlt es ihnen jedoch an Wirklichkeitstreue, Perspektive und Nachempfinden von Geschwindigkeit.
  • Im millimetrischen Wellenbereich arbeitende Radare können auch bei Regenwetter eine relativ lange Strecke abdecken und sind deshalb bei einer Bildanzeige bei geringer Sicht nützlich, können jedoch aufgrund der Wellenlänge, die extrem länger als die von Licht ist, keine klaren Bilder erzeugen, die so für einen Fahrer oder Piloten nicht ausreichen.
  • Laserradare verfügen über eine ausgezeichnete Hinderniserfassungsfunktion, brauchen jedoch lang, um einen weiten Bereich abzutasten, und legen somit ein geringes Ansprechverhalten an den Tag. Für einen schmalen Abtastbereich liefern sie relativ scharfe Bilder, schmale Ansichten reichen aber so für einen Fahrer oder Piloten zur Sicherheit nicht aus.
  • Eine Bilderzeugung eines Schauplatzes in einem weiten Sichtbereich, der von einem Fahrer oder Piloten gesehen werden könnte, ist nützlich. Eine solche Bilderzeugung macht eine Entscheidung über den Grad an Kollisionsrisiko erforderlich, die auf einem Vergleich zwischen geografischen Daten, Hindernisdaten und Fahrzeugpositionsdaten (Längengrad, Breitengrad, Flughöhe) beruht. Diese Daten stimmen aber eventuell mit tatsächlichen Geländemerkmalen und Hindernissen nicht überein. Solch eine Bilderzeugung hat somit eine Schwierigkeit beim Abtasten neu auftauchender Hindernisse und macht einen umfangreichen Sicherheitsnachweis erforderlich.
  • Weitere Information, die den Stand der Technik betrifft, lässt sich im US-Patent 5,983,161 finden, das ein GPS-Fahrzeugkollisionswarn- und -steuersystem und ein GPS-Fahrzeugkollisionswarn- und -steuerverfahren offenbart, wobei GPS-Satellitenreichweitensignale, die an comm1 empfangen werden, und DGPS-Zusatzbereichskorrektur signale und Pseudolit-Trägerphasenunbestimmtheitsauflösungssignale (Pseudolit = Pseudo-Satellit) von einer feststehenden, bekannten Bodenbasisstation, die an comm2 empfangen werden, an einem von mehreren Fahrzeugen/Luftfahrzeugen/Automobilen computerverarbeitet werden, um die eigene kinematische Spurverfolgungsposition auf einem Weg zentimetergenau zu bestimmen. Diese auf GPS beruhende Position wird mit ausgewählter weiterer Statusinformation jedem der anderen mehreren Fahrzeuge, der einen Station und/oder einem von mehreren Kontrollzentren mitgeteilt, und das eine Fahrzeug empfängt von dort jeweils die Statusinformation und kinematische Spurverfolgungsposition der anderen Fahrzeuge. Objekte werden aus allen Richtungen erfasst, und zwar von vielen ergänzenden Einrichtungen, z.B. Video, Radar/Lidar, Laser und optischen Abtastern. Daten und Information werden in neuronalen Netzen in dem einen Fahrzeug computerverarbeitet und analysiert, um Kollisionsgefahren/Objekte zu identifizieren, einzustufen und zu bewerten, wobei ein Expertenoperationsansprechen darauf in einem assoziativen Fuzzy-Speicher bestimmt wird, der Steuersignale erzeugt, die mehrere Steuersysteme in dem einen Fahrzeug koordiniert aktivieren, um es seitlich oder längs zur Vermeidung jeder Kollisionsgefahr zu manövrieren, oder bei Motorfahrzeugen, wenn eine Kollision unvermeidlich ist, die sich daraus ergebende Verletzung oder den sich daraus ergebenden Schaden auf ein Minimum zu begrenzen. Die Bedienperson wird durch eine Helmanzeige und auf andere Weisen gewarnt und kann manuell eingreifen. Eine automatische Kraftfahrzeugkursgeberbetriebsart (Autopilot) ist vorgesehen.
  • Das US-Patent 5,530,420 offenbart eine Streckenführungsvorrichtung für ein Fahrzeug, die ein Stereoskopbild-Verarbeitungselement, um ein Paar Stereoskopbilder eines Objekts außerhalb eines Fahrzeugs zu verarbeiten, das von einem im Fahrzeug montierten Bildgebungssystem abgebildet wurde, ein Bautenerfassungselement zum Erfassen mehrerer verschiedener Bauten, indem dreidimensionale Positionsdaten verwendet werden, die mit jedem Abschnitt des Objekts berechnet werden, die den Abstandsverteilungsdaten aus dem Stereoskopbildverarbeitungselement entsprechen; ein Zwischenraumabstandsberechnungselement, um jeweils den kürzesten Abstand als rechten und linken Zwischenraumabstand zwischen einer verlängerten Linie auf der rechten oder linken Seite des Fahrzeugs und jeweils den fahrzeugseitigen Enden der mehreren der verschiedenen vom Bautenerfassungselement erfassten Bauten zu berechnen; und ein Informationselement umfasst, um den Fahrer über Daten zu informieren, die sich auf die rechten und linken Zwischenraumdaten beziehen, die vom Zwischenraumabstandsberechnungselement berechnet wurden; um in Übereinstimmung mit einem Triangulierungsprinzip eine Abstandsverteilung eines gesamten Bilds in Abhängigkeit von einem Diskrepanzpositionenbetrags zu erhalten, der dem Paar der Stereoskopbilder entspricht.
  • Das US-Patent 5,410,346 offenbart ein System zur Überwachung eines Zustands außerhalb eines Fahrzeugs unter Verwendung eines von mehreren Fernsehkameras aufgenommenen Bilds, wobei ein Abstand zwischen einem fahrenden Fahrzeug und einem Objekt mit hoher Zuverlässigkeit über ein aufgenommenes Bild bestimmt wird. Es werden auch dreidimensionale Objekte oder ein Straßenzustand zusammen mit der genauen Position oder Abmessung erfasst. Ein Objekt innerhalb eines Sollbereichs außerhalb eines Fahrzeugs wird von einem stereoskopischen optischen System abgebildet, um das aufgenommen Bild des Objekts in eine Stereoskopbildverarbeitungsvorrichtung einzugeben. Diese verarbeitet das vom stereoskopischen optischen System aufgenommene Bild, um eine Abstandsverteilung über das gesamte Bild zu berechnen. Eine Erfassungsvorrichtung für Straßen/dreidimensionale Objekte berechnet dreidimensionale Positionen jeweiliger Abschnitte von Objekten entsprechend der Information über die Abstandsverteilung, um unter Verwendung dieser dreidimensionalen Positionen den Zustand der Straße und mehrere dreidimensionale Objekte sicher und mit hoher Zuverlässigkeit zu erfassen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ein Zweck der vorliegenden Erfindung ist es, ein Integrationssichtsystem bereitzustellen, um einer Besatzung in einem Fahrzeug beinahe reale Pseudoansichten mit hoher visueller Wahrnehmbarkeit wie bei gutem Wetter auch bei geringer Sicht mit einer Erfassung von vor dem Fahrzeug befindlichen Hindernissen für einen gefahrlosen und sicheren Flug oder eine gefahrlose und sichere Fahrt zu bieten.
  • Die vorliegende Erfindung stellt ein Integrationssichtsystem nach dem unabhängigen Anspruch 1 bereit. Bevorzugte Ausführungsformen der Erfindung sind in den abhängigen Ansprüchen wiedergegeben.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein Blockschema eines Integrationssichtsystems nach der vorliegenden Erfindung; und
  • 2 zeigt Anzeigebereiche.
  • AUSFÜHRLICHE BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSFORMEN
  • Bevorzugte Ausführungsformen der vorliegenden Erfindung werden nun mit Bezug auf die beigefügten Zeichnungen offengelegt.
  • Ein in 1 gezeigtes Integrationssichtsystem 1 wird in einem Fahrzeug wie einem Automobil, einem Zug und einem Luftfahrzeug installiert. Dieses System 1 bietet einem Fahrer oder Piloten integrierte Ansichten, die als sichtbare, virtuelle Realitätsbilder mit hoher visueller Wahrnehmbarkeit wie bei gutem Wetter erzeugt werden, auch wenn die tatsächliche Sicht bei schlechtem Wetter aufgrund von Dunst oder Nebel oder bei Nacht sehr gering ist.
  • Nachstehend wird eine Ausführungsform offenbart, bei der das Integrationssichtsystem 1 in einem Luftfahrzeug wie einem Helikopter installiert ist, der in relativ niedriger Höhe fliegt.
  • Das Integrationssichtsystem 1 ist mit einer Stereokamera 2, um Bilder eines vorn befindlichen Schauplatzes eines vorbestimmten Bereichs aufzunehmen, einer Bildkombinationsvorrichtung 10 und einer Integrationssichtanzeigevorrichtung 20 als Hauptbestandteile ausgestattet.
  • Zwei Bilder, und zwar ein rechtes und ein linkes Bild, die von der Stereokamera 2 aufgenommen wurden, werden an einem linken und einem rechten Blickpunkt eines Piloten angezeigt, um dreidimensionale (3-D-) Bilder zu erzeugen, die dem Piloten Perspektive und ein Gefühl für Höhe und Geschwindigkeit vermitteln.
  • Außerdem werden die zwei Bilder, also das rechte und linke Bild, durch Stereobildverarbeitung zur Berechnung von Daten über einen (relativen) Abstand zu eventuellen Objekten verarbeitet. Die Bild- und Abstandsdaten werden durch eine Bilderkennungsverarbeitung verarbeitet, um Hindernisse als Warnung anzuzeigen, wenn die Hindernisse auf oder in der Nähe der Flugstrecke erfasst werden.
  • Das Integrationssichtsystem 1 ist mit einem Sichtachsenumschalter 3, um eine Sichtachse zu verändern, um die sich die Stereokamera 2 in die vom Piloten oder einem anderen Besatzungsmitglied angeforderte Richtung dreht, einem Anzeigebetriebsartumschalter 4, um die Stereokamera 2 so zu steuern, dass sie 3-D-Bilder "einfriert", und einer Flugdatenschnittstelle 5 ausgestattet, um Flugdaten wie Geschwindigkeit, Höhe, Position und Höhenlage eines Helikopters einzugeben.
  • Der Sichtachsenumschalter 3 ist nützlich, um vorab die Bedingungen der Flugstrecke in Erfahrung zu bringen, in die der Helikopter einschwenken soll, oder um zu bestimmen, ob sich irgendein Hindernis auf der Strecke befindet. Der Umschalter 3 ist in dieser Ausführungsform ein manueller Schalter, um die optische Achse der Stereokamera 2 zu drehen. Aber nicht nur dies, denn die Stereokamera 2 kann automatisch in jede Richtung gedreht werden, indem der Blickpunkt des Piloten von einer Kopfbewegungserfassungseinrichtung 23 usw., die später noch beschrieben wird, erfasst wird.
  • Die Stereokamera 2 besteht in dieser Ausführungsform aus zwei Infrarotkameras, um vor allem bei Nacht extrem scharfe Bilder zu erzeugen. Die beiden Infrarotkameras sind mit einem optimalen Abstand (Grundlinienlänge) innerhalb eines zulässigen Bereichs angeordnet, der auf Suchbereich und Entfernungsgenauigkeit beruht, um Hindernisse genau zu erfassen, die unter verschiedenen Flugbedingungen vorhergesagt sind.
  • Flugbedingungen, unter denen ein Pilot künstliche Sichtunterstützung bei allgemein geringer Sicht braucht, umfassen größtenteils Nacht- oder Dämmerungsflüge. Infrarotkameras, die über eine ausgezeichnete Nachtsichtfunktion verfügen, sind unter solchen Bedingungen nützlich. Insbesondere liefern 3-D-Bilder, die von zwei Infrarotkameras erzeugt werden, einem Piloten eine virtuelle Realität mit Perspektive und einem Gefühl für Flughöhe und Geschwindigkeit, was mit einer einzigen Infrarotkamera nicht erzielt werden kann.
  • Andere Flugbedingungen können außer mit Infrarotkameras auch mit verschiedenen anderen Arten von Bildsensoren wie einer gewöhnlichen Kamera, einem Verstärker, der auf schwaches Licht anspricht, aktiven/passiven im millimetrischen Wellenbereich arbeitenden Kameras, die eine ausgezeichnete Lichtdurchlässigkeit bei Dunst und Regen aufweisen, und empfindlichen CCDs abgedeckt werden. Diese Sensoren können entsprechend der Ursache für die geringe Sicht selektiv kombiniert werden.
  • Wenn vom Gewicht her relativ leichte Bildsensoren für die Kameras der Stereokamera 2 verwendet werden, kann die Grundlinienlänge für die Stereokamera 2 dadurch eingestellt werden, dass beide oder eine der Kameras mit den Bildsensoren verschoben wird.
  • Schwere Bildsensoren können mit einem Objektivlinsenmechanismus in der Röhre eines Periskops installiert werden, wobei die Röhrenlänge variabel ist, um die Grundlinienlänge zu verändern.
  • Die Bildkombinationsvorrichtung 10 ist mit einem Stereobilderkennungsprozessor 11 zur Erkennung von Hindernissen, indem rechte und linke Bilder aus der Stereokamera 2 zu verarbeitet werden, einem geografischen Bildgenerator 12, um geografische 3-D-Bilder eines Schauplatzes zu erzeugen, die von einem Piloten oder Besatzungsmitglied auf Grundlage von Blickpunktdaten gesehen werden könnten, die von der Kopfbewegungserfassungseinrichtung 23, die später noch beschrieben wird, übertragen werden, und Daten aus der Flugdatenschnittstelle 5, und einem Integrationssichtgenerator 13 ausgestattet, um Integrationsansichten zu erzeugen, bei denen es sich um 3-D-Sichtdaten linker und rechter Bilder aus der Stereokamera 2, Hindernisdaten aus dem Stereobilderkennungsprozessor 11, geografische Daten über eine Weitraumansicht aus dem geografischen Bildgenerator 12 und Daten aus der Flugdatenschnittstelle 5 handelt.
  • Der Stereobilderkennungsprozessor 11 ist mit einer Bilddatenbank 11a versehen, die verschiedene Arten von 3-D-Daten abgespeichert hat, um verschiedene Arten von Hindernissen, usw. zu erkennen und anzuzeigen.
  • Der geografische Bildgenerator 12 ist mit einem digitalen 3-D-Speicherabbild 12a ausgestattet, in dem geografische Weitraumdaten abgespeichert sind, die durch Luftbildaufnahmen oder von Satelliten her erhalten werden.
  • Die Integrationssichtanzeigevorrichtung 20 ist mit einer an einem Helm des Piloten oder eines Besatzungsmitglieds anzubringenden Helmanzeige (HMD) 21, die eine transparente Anzeige hat, wie etwa eine transparente Flüssigkristallanzeige, durch die ein Pilot oder ein Besatzungsmitglied einen tatsächlichen Schauplatz über integrierte Ansichten aus dem Integrationssichtgenerator 13 sehen kann, einer Anzeigeeinstellvorrichtung 22, um Stärke und Kontrast der integrierten Ansichten und die Lichtdurchlässigkeit zu den eigentlichen Ansichten am HMD 21 so einzustellen, dass der Pilot oder ein Besatzungsmitglied die sich überlagernden tatsächlichen und integrierten Ansichten in einem guten Zustand beobachten kann, und der Kopfbewegungserfassungseinrichtung 23 ausgestattet, um die Kopfstellung und Haltung des Piloten oder Besatzungsmitglieds nachzuvollziehen bzw. zu erfassen, um Blickpunktdaten des Piloten oder Besatzungsmitglieds auszugeben.
  • Zwei Bilder, und zwar ein linkes und ein rechtes Bild, die während des Flugs von der Stereokamera 2 aufgenommen werden, werden als 3-D-Bilder an den Integrationssichtgenerator 13 und auch an den Stereobilderkennungsprozessor 11 übertragen, um vorn befindliche Hindernisse zu erfassen.
  • Der Stereobilderkennungsprozessor 11 verarbeitet die linken und rechten Bilder aus der Stereokamera 2 durch eine Stereoabgleichverarbeitung, um eine Korrelation zwischen den Bildern zu erhalten, wodurch die Abstandsdaten durch Dreieckvermessung auf Grundlage einer Parallaxe zum selben Objekt, der Position der Stereokamera 2 und ihres Parameters wie etwa Brennweite berechnet werden.
  • Auf Daten, die in der Bilddatenbank gespeichert sind, wird auf Grundlage der Abstands- und Bilddaten zum Erkennen von Hindernissen und irgendwelchen Objekte zugegriffen, die dem Flug im Wege stehen würden. Das Integrationssichtsystem 1, das in Luftfahrzeugen, zum Beispiel Helikoptern installiert ist, die in relativ niedriger Höhe fliegen, erkennt Strukturen wie Pylone und Hochhäuser oder ein anderes Luftfahrzeug, usw. während eines Nachtflugs in Vorwärtssicht. Wenn das System 1 auch elektrische Hochspannungsleitungen in den Bilddaten unter Erkennung von Pylonen erkennt, generiert es Hindernisdaten, welche die Stromleitungen symbolisieren oder hervorheben, und überträgt die Daten an den Integrationssichtgenerator 13.
  • Wenn das Integrationssichtsystem 1 Pylone, elektrische Hochspannungsleitungen und Hochhäuser, usw. in Vorwärtssicht über die Stereokamera 2 erkennt, warnt es den Piloten entsprechend unverzüglich über diese Strukturen als Hindernisse, mit denen er kollidieren könnte, so dass der Helikopter sofort eine Ausweichmaßnahme ergreift.
  • Die vorliegende Erfindung bietet deshalb ein hochsicheres Fliegen und Fahren ohne den Kollisionsrisikograd zu bestimmen, indem in einem digitalen 3-D-Speicherabbild gespeicherte Positionsdaten wie Längengrad, Breitengrad und Höhe mit tatsächlichen Flugdaten verglichen werden.
  • Der geografische Bildgenerator 12 vollzieht eine Koordinatenumsetzung der Luftfahrzeugdaten wie Geschwindigkeit, Flughöhe, Fluglage und Flugpositionsdaten, die über die Luftfahrzeugflugdatenschnittstelle 5 auf Blickpunkte des Piloten oder eines Besatzungsmitglieds eingegeben werden, die von der Kopfbewegungserfassungseinrichtung 23 eingegeben werden. Der Generator 12 ruft darüber hinaus die konvertierten Daten aus der digitalen 3-D-Speicherabbildung als geografische 3-D-Bilder ab, die vom Piloten oder einem Besatzungsmitglied gesehen werden könnten, und die an den Integrationssichtgenerator 13 übertragen wurden. Bei den 3-D-Bildern handelt es sich um geografische Daten, die weitgefasster sind als der eigentliche Schauplatz in Vorwärtssicht, beispielsweise um eine Bergkette in der Entfernung, die nicht direkt mit der Sicherheit gegen Kollision in Zusammenhang steht. Diese geografischen 3-D-Bilddaten können als beinahe reale Szenen gesehen werden, die auf einer 3-D-Anzeige beruhen, die durch Computergrafik mit geografischer Information wie Ortsnamen, Seen, Straßen und Flüssen beruhen.
  • Die geografischen 3-D-Bilddaten können anstatt aus der digitalen 3-D-Speicherabbildung 12a auch aus Bildern generiert werden, die von einem im millimetrischen Bereich arbeitenden Weitraumradar erfasst wurden.
  • Der Integrationssichtgenerator 13 empfängt 3-D-Bilddaten von linken und rechten Bildern, die von der vom Sichtachsenumschalter 3 gesteuerten Stereokamera 2 aufgenommen wurden, und auch die Hindernisbilder, die vom Stereobilderkennungsprozessor 11 erzeugt wurden. Der Generator 13 empfängt auch geografische Weitraumumfangsbilder, die vom geografischen Bildgenerator 12 erzeugt wurden.
  • Der Integrationssichtgenerator 13 kombiniert unter der Steuerung des Anzeigebetriebsartumschalters 4 die Hindernis- und geografischen Umfangsbilder mit Bildverarbeitung wie etwa Einstellungen an Auflösung, Stärke, Kontrast und Farbe und auch Kantenmischung, um natürliche Bilder ohne sichtbare Kombinationsverbindungsstellen als integrierte Ansichtsdaten herzustellen.
  • Der Integrationsansichtsgenerator 13 kombiniert wenn nötig die integrierten Ansichtsdaten mit Flugdaten wie Geschwindigkeit, Flughöhe, Position und Fluglage, die von der Flugdatenschnittstelle 5 übertragen werden, und überträgt sie an den HMD 21.
  • Bei guter Sicht, wie sie etwa bei gutem Wetter herrscht, kann die Stereokamera 2 ausgeschaltet werden, so dass als Integrationsansichtsdaten nicht die 3-D-Bilder der Stereokamera 2, sondern die Hindernisdaten und andere Daten wenn nötig an den HMD 21 übertragen werden.
  • 2 zeigt Sichtbereiche, die von dem HMD 21 abgedeckt werden, wobei die Integrationsansichtsdaten wie vorstehend offenbart verarbeitet werden.
  • Ein Sichtbereich, der von einer unterbrochenen Strichpunktlinie umgeben ist, wird zur Anzeige der Vorwärtssichtdaten mit Hindernisdaten aus der Stereokamera 2 verwendet. Ein anderer Sichtbereich, der von einer unterbrochenen Punktlinie umgeben ist, sich aber außerhalb der Strichpunktlinie befindet, wird zur Anzeige der Weitraumsichtdaten von geografischen 3-D-Bildern verwendet.
  • Der Pilot oder ein Besatzungsmitglied kann den tatsächlichen Schauplatz vom Cockpit 30 aus durch Fenster überlagert mit den Integrationsansichten sehen, während er Anzeigen im Cockpit sieht, somit kann der Pilot oder ein Besatzungsmitglied Anzeigedaten zusätzlich zu den Daten sehen, die am HMD 21 angezeigt werden.
  • Wie vorstehend offenbart liefert das Integrationssichtsystem 1 nach der vorliegenden Erfindung auch bei geringer Sicht einem Piloten oder Besatzungsmitglied in Perspektive, Flughöhe und Geschwindigkeit fast reale 3-D-Bilder, die auf linken und rechten, von der Stereokamera 2 aufgenommenen Bildern beruhen, was mit einer einzigen Kamera nicht erzielt werden kann.
  • Das Integrationssichtsystem 1 verarbeitet darüber hinaus die aus der Stereokamera 2 stammenden linken und rechten Bilder durch Stereobildverarbeitung zur Bilderkennung unter Nutzung von Abstandsdaten, um Hindernisse auf oder in der Nähe der Flugroute zu erfassen, und zeigt die Hindernisse als Warnung an.
  • Das Integrationssichtsystem 1 nach der vorliegenden Erfindung bietet somit auch bei geringer Sicht einen pseudovisuellen Flug, um einen Piloten für einen gefahrlosen und sicheren Flug im regulären Dienst oder im Notfall zu unterstützen.
  • 3-D-Bilder können bei guter Sicht nicht unbedingt notwendig sein, jedoch sorgt die Hinderniserfassung zur Warnung durch Stereobilderkennungsverarbeitung für einen noch sichereren Flug.
  • Die 3-D-Bildanzeige von Vorwärtssichten und die Hinderniserfassung/-warnung erfolgen durch die Stereokamera 2 ohne Sensoren für die jeweiligen Funktionen. Das Integrationssichtsystem 1 nach der vorliegenden Erfindung kann somit als zuverlässiges und leichtes System zu niedrigen Kosten aufgebaut werden.
  • Wie vorstehend offenbart, liefert die vorliegende Erfindung Besatzungsmitgliedern in einem Fahrzeug auch bei geringer Sicht beinahe reale Pseudoansichten mit guter Sichtbarkeit wie bei schönem Wetter für einen gefahrlosen und sicheren Flug oder eine gefahrlose und sichere Fahrt, wobei vorn befindliche Hindernisse erfasst werden.
  • Ferner sollte den Fachleuten auf dem Gebiet klar sein, dass es sich bei der vorstehenden Erfindung um eine bevorzugte Ausführungsform des offenbarten Systems handelt, und dass verschieden Änderungen und Modifizierungen an der Erfindung vorgenommen werden können, ohne dass dabei von deren Umfang abgewichen wird.

Claims (5)

  1. Integrationssichtsystem, das Folgendes umfasst: mindestens eine Stereokamera, die in einem Fahrzeug installiert ist, um Bilder eines vorbestimmten Außenbereichs aufzunehmen; eine Stereobilderkennungsvorrichtung zum Verarbeiten eines Paars von Bildern, die von der Stereokamera aufgenommen wurden, um Objekte zu erkennen, die vorn befindliche Hindernisse darstellen, wodurch Hindernisdaten generiert werden; einen Integrationsansichtsdatengenerator zum Generieren von Integrationsansichtsdaten einschließlich dreidimensionaler Sichtdaten auf Grundlage des Paars von Bildern, die von der Kamera aufgenommen wurden, und der Hindernisdaten aus der Stereobilderkennungsvorrichtung, und eine Integrationsbildanzeige zum Anzeigen der Integrationsansichtsdaten als sichtbare Bilder für die Besatzung im Fahrzeug, wobei der Integrationsansichtsdatengenerator in der Lage ist, die dreidimensionalen Sichtdaten aus den Integrationsansichtsdaten zu beseitigen, indem die Stereokamera abgeschaltet wird, während die Hindernisdaten beibehalten werden.
  2. Integrationssystem nach Anspruch 1, wobei der Integrationsansichtsdatengenerator den dreidimensionalen Sichtdaten periphere Weitraumsichtdaten hinzufügt.
  3. Integrationssichtsystem nach einem der Ansprüche 1 oder 2, wobei der Integrationsansichtsdatengenerator eine Helmanzeige umfasst, um die sichtbaren Bilder der Integrationssichtdaten und die tatsächliche Ansicht übereinander zu legen.
  4. Integrationssichtsystem nach einem der Ansprüche 1 bis 3, wobei die Stereokamera zwei Infrarotkameras umfasst, die um einen Abstand getrennt voneinander angeordnet sind, der einer spezifischen Grundlinie entspricht.
  5. Integrationssichtsystem nach einem der Ansprüche 1 bis 4, darüber hinaus mindestens eine erste Stereokamera, eine zweite Stereokamera und eine dritte Stereokamera umfassend, wobei die erste Stereokamera eine Infrarotkamera ist, die zweite Kamera eine im millimetrischen Wellenbereich arbeitende Kamera ist, und die dritte Kamera ein Verstärker ist, wobei die erste, die zweite und die dritte Stereokamera entsprechend den tatsächlichen Ansichten selektiv eingesetzt werden.
DE60130517T 2000-05-30 2001-05-29 Integriertes Sichtsystem Expired - Lifetime DE60130517T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000160940 2000-05-30
JP2000160940A JP2001344597A (ja) 2000-05-30 2000-05-30 融合視界装置

Publications (2)

Publication Number Publication Date
DE60130517D1 DE60130517D1 (de) 2007-10-31
DE60130517T2 true DE60130517T2 (de) 2008-06-12

Family

ID=18665057

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60130517T Expired - Lifetime DE60130517T2 (de) 2000-05-30 2001-05-29 Integriertes Sichtsystem

Country Status (4)

Country Link
US (1) US20010048763A1 (de)
EP (1) EP1160541B1 (de)
JP (1) JP2001344597A (de)
DE (1) DE60130517T2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015003973B3 (de) * 2015-03-26 2016-06-23 Audi Ag Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
US9665782B2 (en) 2014-12-22 2017-05-30 Hyundai Mobis Co., Ltd. Obstacle detecting apparatus and obstacle detecting method

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6633802B2 (en) * 2001-03-06 2003-10-14 Sikorsky Aircraft Corporation Power management under limited power conditions
US7424133B2 (en) * 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
JP4328551B2 (ja) 2003-03-05 2009-09-09 富士重工業株式会社 撮像姿勢制御装置
US7486291B2 (en) * 2003-07-08 2009-02-03 Berson Barry L Systems and methods using enhanced vision to provide out-the-window displays for a device
US7982767B2 (en) * 2003-11-11 2011-07-19 Supersonic Aerospace International, Llc System and method for mounting sensors and cleaning sensor apertures for out-the-window displays
US7312725B2 (en) * 2003-07-08 2007-12-25 Supersonic Aerospace International, Llc Display system for operating a device with reduced out-the-window visibility
WO2005050601A2 (en) * 2003-07-08 2005-06-02 Supersonic Aerospace International, Llc Display systems for a device
JP2005182305A (ja) * 2003-12-17 2005-07-07 Denso Corp 車両走行支援装置
US8036494B2 (en) * 2004-04-15 2011-10-11 Hewlett-Packard Development Company, L.P. Enhancing image resolution
US20050275717A1 (en) * 2004-06-10 2005-12-15 Sarnoff Corporation Method and apparatus for testing stereo vision methods using stereo imagery data
JP2008502538A (ja) * 2004-06-11 2008-01-31 ストラテック システムズ リミテッド 鉄道軌道スキャニングシステムおよび方法
JP2005350010A (ja) * 2004-06-14 2005-12-22 Fuji Heavy Ind Ltd ステレオ式車外監視装置
SE527257C2 (sv) * 2004-06-21 2006-01-31 Totalfoersvarets Forskningsins Anordning och metod för att presentera en omvärldsbild
US7730406B2 (en) * 2004-10-20 2010-06-01 Hewlett-Packard Development Company, L.P. Image processing system and method
JP4246691B2 (ja) * 2004-11-30 2009-04-02 本田技研工業株式会社 画像情報処理システム、画像情報処理方法、画像情報処理プログラム、及び自動車
US9092458B1 (en) 2005-03-08 2015-07-28 Irobot Corporation System and method for managing search results including graphics
US7760956B2 (en) 2005-05-12 2010-07-20 Hewlett-Packard Development Company, L.P. System and method for producing a page using frames of a video stream
US7512258B2 (en) * 2005-07-19 2009-03-31 The Boeing Company System and method for passive wire detection
US9002511B1 (en) 2005-10-21 2015-04-07 Irobot Corporation Methods and systems for obstacle detection using structured light
US7605719B1 (en) * 2007-07-25 2009-10-20 Rockwell Collins, Inc. System and methods for displaying a partial images and non-overlapping, shared-screen partial images acquired from vision systems
JP5345350B2 (ja) * 2008-07-30 2013-11-20 富士重工業株式会社 車両の運転支援装置
US8040258B2 (en) * 2009-04-07 2011-10-18 Honeywell International Inc. Enhanced situational awareness system and method
US20110261188A1 (en) * 2010-04-23 2011-10-27 Adarve Lozano Alberto System for providing night vision at low visibility conditions
JP2012253472A (ja) * 2011-06-01 2012-12-20 Yoshihiko Kitamura 3dカメラ
JP6026088B2 (ja) * 2011-08-09 2016-11-16 株式会社トプコン 遠隔操作システム
CN104204726B (zh) * 2012-03-06 2017-05-31 日产自动车株式会社 移动物体位置姿态估计装置和移动物体位置姿态估计方法
US9299118B1 (en) * 2012-04-18 2016-03-29 The Boeing Company Method and apparatus for inspecting countersinks using composite images from different light sources
WO2014003698A1 (en) * 2012-06-29 2014-01-03 Tusaş-Türk Havacilik Ve Uzay Sanayii A.Ş. An aircraft vision system
JPWO2014077046A1 (ja) * 2012-11-13 2017-01-05 ソニー株式会社 画像表示装置及び画像表示方法、移動体装置、画像表示システム、並びにコンピューター・プログラム
WO2015015521A1 (en) * 2013-07-31 2015-02-05 Mes S.P.A. A Socio Unico Indirect vision system and associated operating method
US9384670B1 (en) * 2013-08-12 2016-07-05 The Boeing Company Situational awareness display for unplanned landing zones
KR101519261B1 (ko) 2013-12-17 2015-05-11 현대자동차주식회사 차량의 모니터링 방법 및 자동 제동 장치
EP2933707B1 (de) 2014-04-14 2017-12-06 iOnRoad Technologies Ltd. Darstellungseinstellung für kopfmontierte Anzeige
US10516815B2 (en) * 2014-12-01 2019-12-24 Northrop Grumman Systems Corporation Image processing system
US9911344B2 (en) 2015-07-24 2018-03-06 Honeywell International Inc. Helicopter landing system using a camera for obstacle detection
JP6354085B2 (ja) * 2016-05-20 2018-07-11 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
SE541180C2 (en) * 2017-04-03 2019-04-23 Cargotec Patenter Ab Driver assistance system for a vehicle provided with a crane using 3D representations
US10402646B2 (en) * 2017-09-21 2019-09-03 Amazon Technologies, Inc. Object detection and avoidance for aerial vehicles
FR3075167B1 (fr) * 2017-12-19 2019-11-15 Airbus Operations (S.A.S.) Pointe avant a visibilite frontale directe et laterale indirecte
CN108304807A (zh) * 2018-02-02 2018-07-20 北京华纵科技有限公司 一种基于fpga平台和深度学习的轨道异物检测方法及系统
JP6429347B1 (ja) * 2018-05-18 2018-11-28 豊 川口 視界表示システムおよび移動体
JP6429350B1 (ja) * 2018-08-08 2018-11-28 豊 川口 車両
US10683067B2 (en) 2018-08-10 2020-06-16 Buffalo Automation Group Inc. Sensor system for maritime vessels
US10782691B2 (en) 2018-08-10 2020-09-22 Buffalo Automation Group Inc. Deep learning and intelligent sensing system integration
WO2020033967A1 (en) 2018-08-10 2020-02-13 Buffalo Automation Group Inc. Training a deep learning system for maritime applications
CN109319162B (zh) * 2018-11-28 2021-10-22 西安亚联航空科技有限公司 一种摄像无人机中利用正反向形成空气对流的摄像装置
JP7367922B2 (ja) * 2019-08-21 2023-10-24 株式会社島津製作所 操縦支援システム
JP6903287B1 (ja) 2020-12-25 2021-07-14 雄三 安形 ワイパーを具備しない車両
CN113572959A (zh) * 2021-07-13 2021-10-29 郭晓勤 一种设置在客运飞机上的旅客视觉旅行系统

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
LU74579A1 (de) * 1976-03-17 1976-09-01
US4805015A (en) * 1986-09-04 1989-02-14 Copeland J William Airborne stereoscopic imaging system
JPS6473382A (en) * 1987-09-14 1989-03-17 Nec Corp Display device for flight simulator
US5128874A (en) * 1990-01-02 1992-07-07 Honeywell Inc. Inertial navigation sensor integrated obstacle detection system
US5092602A (en) * 1990-11-26 1992-03-03 Witler James L Golfing apparatus
CA2060406C (en) * 1991-04-22 1998-12-01 Bruce Edward Hamilton Helicopter virtual image display system incorporating structural outlines
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
US5293227A (en) * 1992-07-24 1994-03-08 Tektronix, Inc. Self-synchronizing optical state controller for infrared linked stereoscopic glasses
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
JPH07143524A (ja) * 1993-11-19 1995-06-02 Honda Motor Co Ltd 車載用ステレオ画像表示装置
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
JPH089422A (ja) * 1994-06-17 1996-01-12 Sony Corp 立体画像出力装置
US5581271A (en) * 1994-12-05 1996-12-03 Hughes Aircraft Company Head mounted visual display
JP3390289B2 (ja) * 1995-06-16 2003-03-24 富士重工業株式会社 警報装置
JPH0935177A (ja) * 1995-07-18 1997-02-07 Hitachi Ltd 運転支援方法および運転支援装置
JPH09167253A (ja) * 1995-12-14 1997-06-24 Olympus Optical Co Ltd 映像表示装置
JPH10117342A (ja) * 1996-10-11 1998-05-06 Yazaki Corp 車両周辺監視装置、障害物検出方法、及び障害物検出プログラムを記憶した媒体
US5838262A (en) * 1996-12-19 1998-11-17 Sikorsky Aircraft Corporation Aircraft virtual image display system and method for providing a real-time perspective threat coverage display
FR2760554B1 (fr) * 1997-03-06 1999-04-16 Alsthom Cge Alcatel Procede de detection de contours de relief dans une paire d'images stereoscopiques
US6061068A (en) * 1998-06-30 2000-05-09 Raytheon Company Method and apparatus for providing synthetic vision using reality updated virtual image
EP0899580A3 (de) * 1997-08-29 2000-02-02 Kabushiki Kaisha Toshiba System zur Ortung eines Zieles und Anflug-Leitsystem
DE19741631B4 (de) * 1997-09-20 2013-08-14 Volkswagen Ag Verfahren und Vorrichtung zur Vermeidung und/oder Minimierung von Konfliktsituationen im Straßenverkehr
US6055042A (en) * 1997-12-16 2000-04-25 Caterpillar Inc. Method and apparatus for detecting obstacles using multiple sensors for range selective detection
JP3745117B2 (ja) * 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
US5999122A (en) * 1998-06-23 1999-12-07 Trw Inc. Millimeter wave instant photographic camera
JP2000112343A (ja) * 1998-10-06 2000-04-21 Alpine Electronics Inc ナビゲーション用立体表示方法及びナビゲーション装置
US6483429B1 (en) * 1999-10-21 2002-11-19 Matsushita Electric Industrial Co., Ltd. Parking assistance system
US6535242B1 (en) * 2000-10-24 2003-03-18 Gary Steven Strumolo System and method for acquiring and displaying vehicular information

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9665782B2 (en) 2014-12-22 2017-05-30 Hyundai Mobis Co., Ltd. Obstacle detecting apparatus and obstacle detecting method
DE102015121387B4 (de) 2014-12-22 2019-07-11 Hyundai Mobis Co., Ltd. Hinderniserkennungseinrichtung und Hinderniserkennungsverfahren
DE102015003973B3 (de) * 2015-03-26 2016-06-23 Audi Ag Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille

Also Published As

Publication number Publication date
JP2001344597A (ja) 2001-12-14
EP1160541A1 (de) 2001-12-05
EP1160541B1 (de) 2007-09-19
DE60130517D1 (de) 2007-10-31
US20010048763A1 (en) 2001-12-06

Similar Documents

Publication Publication Date Title
DE60130517T2 (de) Integriertes Sichtsystem
EP1505556B1 (de) Verfahren und Vorrichtung zur Erkennung eines Flughindernisses
DE112015001534B4 (de) Fahrzeugerkennungsbenachrichtigungsvorrichtung und Fahrzeugerkennungsbenachrichtigungssystem
EP2603402B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung und fahrerassistenzsystem
DE102004064249B3 (de) Fahrzeuginformationsanzeigesystem
DE10304703B4 (de) Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit umgebungsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds
EP2883748B1 (de) Verfahren zur Anzeige von optischen Informationen in Fahrzeugen
US8874284B2 (en) Methods for remote display of an enhanced image
DE102014226458A1 (de) Verfahren und System zur Steuerung eines autonom bewegbaren, datentechnisch mit einem Fahrzeug gekoppelten Flugkörpers
DE102015116043A1 (de) Sichtlinien-Führungsvorrichtung für Fahrzeuge
DE102012021420B4 (de) Verfahren und Fahrerassistenzsystem zur Unterstützung eines Fahrers eines Kraftfahrzeugs in einer Offroad-Umgebung
EP1405124A1 (de) Head-up display system und verfahren zur ortskorrrekten darstellung eines objekts im aussenraum eines fahrzeugs in bezug auf die fahrerposition
DE3927851A1 (de) System fuer die bestimmung der raeumlichen position eines sich bewegenden objekts und zum fuehren seiner bewegung
DE112014005021T5 (de) Fahrtsteuervorrichtung, Server und In-Vehicle-Vorrichtung
DE102017106083A1 (de) Rückfahrsichtsystem für ein fahrzeug und verfahren zur verwendung desselben
DE102018108751B4 (de) Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
DE102013010010B4 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems zum Rangieren und/oder Parken
DE102009035984B4 (de) Laufzeitsensor
DE112018001529T5 (de) Anzeigesteuerungsvorrichtung für ein fahrzeug und anzeigeeinheit für ein fahrzeug
EP1801632A2 (de) Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit Fusion eines Infrarot- und eines Visuell-Abbilds
DE102007019808A1 (de) Landehilfesystem für senkrecht startende und landende Luftfahrzeuge, insbesondere Helikopter
WO2011157723A1 (de) System und verfahren zur kollisionsvermeidung
DE102009060901A1 (de) Landehilfseinrichtung
DE102021100583A1 (de) System und verfahren zur fahrzeugnavigation mit geländetexterkennung
DE10015164A1 (de) Kommunikations-Verfahren mit einem ROSAR-Gerät

Legal Events

Date Code Title Description
8364 No opposition during term of opposition