DE60130517T2 - Integriertes Sichtsystem - Google Patents
Integriertes Sichtsystem Download PDFInfo
- Publication number
- DE60130517T2 DE60130517T2 DE60130517T DE60130517T DE60130517T2 DE 60130517 T2 DE60130517 T2 DE 60130517T2 DE 60130517 T DE60130517 T DE 60130517T DE 60130517 T DE60130517 T DE 60130517T DE 60130517 T2 DE60130517 T2 DE 60130517T2
- Authority
- DE
- Germany
- Prior art keywords
- integration
- data
- camera
- stereo
- stereo camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000004438 eyesight Effects 0.000 title claims description 16
- 230000010354 integration Effects 0.000 claims description 42
- 238000012545 processing Methods 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 10
- 241000380131 Ammophila arenaria Species 0.000 claims 1
- 230000002093 peripheral effect Effects 0.000 claims 1
- 230000000717 retained effect Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 9
- 230000004886 head movement Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000000034 method Methods 0.000 description 3
- 208000010415 Low Vision Diseases 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000004303 low vision Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001444 catalytic combustion detection Methods 0.000 description 1
- 101150042618 comm2 gene Proteins 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000010006 flight Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 230000035699 permeability Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/346—Image reproducers using prisms or semi-transparent mirrors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/373—Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/376—Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/38—Image reproducers using viewer tracking for tracking vertical translational head movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/286—Image signal generators having separate monoscopic and stereoscopic modes
- H04N13/289—Switching between monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/361—Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Processing Or Creating Images (AREA)
- Traffic Control Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
- HINTERGRUND DER ERFINDUNG
- Die vorliegende Erfindung bezieht sich auf ein Integrationssichtsystem, das einer Fahrzeugbesatzung auch bei eigentlich geringer Sicht Ansichten mit hoher visueller Wahrnehmbarkeit liefert.
- Fahrzeuge, zum Beispiel Flugzeuge, sind mit einem Sichtsystem ausgestattet, das über Bildsensoren verfügt, wie etwa eine Infrarotkamera, einen im millimetrischen Wellenbereich arbeitenden Radar und einen Laserradar. Das Sichtsystem bietet einem Fahrer oder Piloten künstliche Pseudoansichten, die auf Grundlage von Sichtdaten, die von den Bildsensoren bei geringer Sicht in der Nacht oder bei schlechtem Wetter erzeugt werden, und dreidimensionalen (3-D) Abbildungsdaten erzeugt werden, die im System zur Sicherheit gespeichert sind.
- Die
offenbart die Erzeugung von Pseudoansichten unter Verwendung von geografischen Weitraumdaten, die auf einer in einem Speicher abgespeicherten 3-D-Abbildung beruhen, und Daten über Hindernisse wie elektrische Hochspannungsleitungen, Hochhäuser und Krane, und das Anzeigen der Pseudoansichten und tatsächlichen Ansichten, die auf einer transparenten Anzeige, die an einem Helm eines Piloten angebracht ist, übereinander zu legen.ungeprüfte japanische Patentveröffentlichung Nr. 11-72350 - Sichtdaten, die von Bildsensoren wie einer Infrarotkamera, einem im millimetrischen Wellenbereich arbeitenden Radar und einem Laserradar gesammelt werden, reichen jedoch für einen Fahrer oder Piloten nicht aus. Darüber hinaus können 3-D-Abbil dungsdaten keine sich tatsächlich verändernden geografischen Bedingungen nachvollziehen. Pseudoansichten, die auf Grundlage dieser Daten erzeugt werden, erfüllen deshalb nicht die Anforderungen eines Fahrers oder Piloten.
- Im Einzelnen lassen sich Infrarotkameras bei einem bestimmten Grad geringer Sicht verwenden und können bei Nacht äußerst klare Bilder erzeugen, aufgrund monochromer Bilder fehlt es ihnen jedoch an Wirklichkeitstreue, Perspektive und Nachempfinden von Geschwindigkeit.
- Im millimetrischen Wellenbereich arbeitende Radare können auch bei Regenwetter eine relativ lange Strecke abdecken und sind deshalb bei einer Bildanzeige bei geringer Sicht nützlich, können jedoch aufgrund der Wellenlänge, die extrem länger als die von Licht ist, keine klaren Bilder erzeugen, die so für einen Fahrer oder Piloten nicht ausreichen.
- Laserradare verfügen über eine ausgezeichnete Hinderniserfassungsfunktion, brauchen jedoch lang, um einen weiten Bereich abzutasten, und legen somit ein geringes Ansprechverhalten an den Tag. Für einen schmalen Abtastbereich liefern sie relativ scharfe Bilder, schmale Ansichten reichen aber so für einen Fahrer oder Piloten zur Sicherheit nicht aus.
- Eine Bilderzeugung eines Schauplatzes in einem weiten Sichtbereich, der von einem Fahrer oder Piloten gesehen werden könnte, ist nützlich. Eine solche Bilderzeugung macht eine Entscheidung über den Grad an Kollisionsrisiko erforderlich, die auf einem Vergleich zwischen geografischen Daten, Hindernisdaten und Fahrzeugpositionsdaten (Längengrad, Breitengrad, Flughöhe) beruht. Diese Daten stimmen aber eventuell mit tatsächlichen Geländemerkmalen und Hindernissen nicht überein. Solch eine Bilderzeugung hat somit eine Schwierigkeit beim Abtasten neu auftauchender Hindernisse und macht einen umfangreichen Sicherheitsnachweis erforderlich.
- Weitere Information, die den Stand der Technik betrifft, lässt sich im
US-Patent 5,983,161 finden, das ein GPS-Fahrzeugkollisionswarn- und -steuersystem und ein GPS-Fahrzeugkollisionswarn- und -steuerverfahren offenbart, wobei GPS-Satellitenreichweitensignale, die an comm1 empfangen werden, und DGPS-Zusatzbereichskorrektur signale und Pseudolit-Trägerphasenunbestimmtheitsauflösungssignale (Pseudolit = Pseudo-Satellit) von einer feststehenden, bekannten Bodenbasisstation, die an comm2 empfangen werden, an einem von mehreren Fahrzeugen/Luftfahrzeugen/Automobilen computerverarbeitet werden, um die eigene kinematische Spurverfolgungsposition auf einem Weg zentimetergenau zu bestimmen. Diese auf GPS beruhende Position wird mit ausgewählter weiterer Statusinformation jedem der anderen mehreren Fahrzeuge, der einen Station und/oder einem von mehreren Kontrollzentren mitgeteilt, und das eine Fahrzeug empfängt von dort jeweils die Statusinformation und kinematische Spurverfolgungsposition der anderen Fahrzeuge. Objekte werden aus allen Richtungen erfasst, und zwar von vielen ergänzenden Einrichtungen, z.B. Video, Radar/Lidar, Laser und optischen Abtastern. Daten und Information werden in neuronalen Netzen in dem einen Fahrzeug computerverarbeitet und analysiert, um Kollisionsgefahren/Objekte zu identifizieren, einzustufen und zu bewerten, wobei ein Expertenoperationsansprechen darauf in einem assoziativen Fuzzy-Speicher bestimmt wird, der Steuersignale erzeugt, die mehrere Steuersysteme in dem einen Fahrzeug koordiniert aktivieren, um es seitlich oder längs zur Vermeidung jeder Kollisionsgefahr zu manövrieren, oder bei Motorfahrzeugen, wenn eine Kollision unvermeidlich ist, die sich daraus ergebende Verletzung oder den sich daraus ergebenden Schaden auf ein Minimum zu begrenzen. Die Bedienperson wird durch eine Helmanzeige und auf andere Weisen gewarnt und kann manuell eingreifen. Eine automatische Kraftfahrzeugkursgeberbetriebsart (Autopilot) ist vorgesehen. - Das
US-Patent 5,530,420 offenbart eine Streckenführungsvorrichtung für ein Fahrzeug, die ein Stereoskopbild-Verarbeitungselement, um ein Paar Stereoskopbilder eines Objekts außerhalb eines Fahrzeugs zu verarbeiten, das von einem im Fahrzeug montierten Bildgebungssystem abgebildet wurde, ein Bautenerfassungselement zum Erfassen mehrerer verschiedener Bauten, indem dreidimensionale Positionsdaten verwendet werden, die mit jedem Abschnitt des Objekts berechnet werden, die den Abstandsverteilungsdaten aus dem Stereoskopbildverarbeitungselement entsprechen; ein Zwischenraumabstandsberechnungselement, um jeweils den kürzesten Abstand als rechten und linken Zwischenraumabstand zwischen einer verlängerten Linie auf der rechten oder linken Seite des Fahrzeugs und jeweils den fahrzeugseitigen Enden der mehreren der verschiedenen vom Bautenerfassungselement erfassten Bauten zu berechnen; und ein Informationselement umfasst, um den Fahrer über Daten zu informieren, die sich auf die rechten und linken Zwischenraumdaten beziehen, die vom Zwischenraumabstandsberechnungselement berechnet wurden; um in Übereinstimmung mit einem Triangulierungsprinzip eine Abstandsverteilung eines gesamten Bilds in Abhängigkeit von einem Diskrepanzpositionenbetrags zu erhalten, der dem Paar der Stereoskopbilder entspricht. - Das
US-Patent 5,410,346 offenbart ein System zur Überwachung eines Zustands außerhalb eines Fahrzeugs unter Verwendung eines von mehreren Fernsehkameras aufgenommenen Bilds, wobei ein Abstand zwischen einem fahrenden Fahrzeug und einem Objekt mit hoher Zuverlässigkeit über ein aufgenommenes Bild bestimmt wird. Es werden auch dreidimensionale Objekte oder ein Straßenzustand zusammen mit der genauen Position oder Abmessung erfasst. Ein Objekt innerhalb eines Sollbereichs außerhalb eines Fahrzeugs wird von einem stereoskopischen optischen System abgebildet, um das aufgenommen Bild des Objekts in eine Stereoskopbildverarbeitungsvorrichtung einzugeben. Diese verarbeitet das vom stereoskopischen optischen System aufgenommene Bild, um eine Abstandsverteilung über das gesamte Bild zu berechnen. Eine Erfassungsvorrichtung für Straßen/dreidimensionale Objekte berechnet dreidimensionale Positionen jeweiliger Abschnitte von Objekten entsprechend der Information über die Abstandsverteilung, um unter Verwendung dieser dreidimensionalen Positionen den Zustand der Straße und mehrere dreidimensionale Objekte sicher und mit hoher Zuverlässigkeit zu erfassen. - ZUSAMMENFASSUNG DER ERFINDUNG
- Ein Zweck der vorliegenden Erfindung ist es, ein Integrationssichtsystem bereitzustellen, um einer Besatzung in einem Fahrzeug beinahe reale Pseudoansichten mit hoher visueller Wahrnehmbarkeit wie bei gutem Wetter auch bei geringer Sicht mit einer Erfassung von vor dem Fahrzeug befindlichen Hindernissen für einen gefahrlosen und sicheren Flug oder eine gefahrlose und sichere Fahrt zu bieten.
- Die vorliegende Erfindung stellt ein Integrationssichtsystem nach dem unabhängigen Anspruch 1 bereit. Bevorzugte Ausführungsformen der Erfindung sind in den abhängigen Ansprüchen wiedergegeben.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 zeigt ein Blockschema eines Integrationssichtsystems nach der vorliegenden Erfindung; und -
2 zeigt Anzeigebereiche. - AUSFÜHRLICHE BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSFORMEN
- Bevorzugte Ausführungsformen der vorliegenden Erfindung werden nun mit Bezug auf die beigefügten Zeichnungen offengelegt.
- Ein in
1 gezeigtes Integrationssichtsystem1 wird in einem Fahrzeug wie einem Automobil, einem Zug und einem Luftfahrzeug installiert. Dieses System1 bietet einem Fahrer oder Piloten integrierte Ansichten, die als sichtbare, virtuelle Realitätsbilder mit hoher visueller Wahrnehmbarkeit wie bei gutem Wetter erzeugt werden, auch wenn die tatsächliche Sicht bei schlechtem Wetter aufgrund von Dunst oder Nebel oder bei Nacht sehr gering ist. - Nachstehend wird eine Ausführungsform offenbart, bei der das Integrationssichtsystem
1 in einem Luftfahrzeug wie einem Helikopter installiert ist, der in relativ niedriger Höhe fliegt. - Das Integrationssichtsystem
1 ist mit einer Stereokamera2 , um Bilder eines vorn befindlichen Schauplatzes eines vorbestimmten Bereichs aufzunehmen, einer Bildkombinationsvorrichtung10 und einer Integrationssichtanzeigevorrichtung20 als Hauptbestandteile ausgestattet. - Zwei Bilder, und zwar ein rechtes und ein linkes Bild, die von der Stereokamera
2 aufgenommen wurden, werden an einem linken und einem rechten Blickpunkt eines Piloten angezeigt, um dreidimensionale (3-D-) Bilder zu erzeugen, die dem Piloten Perspektive und ein Gefühl für Höhe und Geschwindigkeit vermitteln. - Außerdem werden die zwei Bilder, also das rechte und linke Bild, durch Stereobildverarbeitung zur Berechnung von Daten über einen (relativen) Abstand zu eventuellen Objekten verarbeitet. Die Bild- und Abstandsdaten werden durch eine Bilderkennungsverarbeitung verarbeitet, um Hindernisse als Warnung anzuzeigen, wenn die Hindernisse auf oder in der Nähe der Flugstrecke erfasst werden.
- Das Integrationssichtsystem
1 ist mit einem Sichtachsenumschalter3 , um eine Sichtachse zu verändern, um die sich die Stereokamera2 in die vom Piloten oder einem anderen Besatzungsmitglied angeforderte Richtung dreht, einem Anzeigebetriebsartumschalter4 , um die Stereokamera2 so zu steuern, dass sie 3-D-Bilder "einfriert", und einer Flugdatenschnittstelle5 ausgestattet, um Flugdaten wie Geschwindigkeit, Höhe, Position und Höhenlage eines Helikopters einzugeben. - Der Sichtachsenumschalter
3 ist nützlich, um vorab die Bedingungen der Flugstrecke in Erfahrung zu bringen, in die der Helikopter einschwenken soll, oder um zu bestimmen, ob sich irgendein Hindernis auf der Strecke befindet. Der Umschalter3 ist in dieser Ausführungsform ein manueller Schalter, um die optische Achse der Stereokamera2 zu drehen. Aber nicht nur dies, denn die Stereokamera2 kann automatisch in jede Richtung gedreht werden, indem der Blickpunkt des Piloten von einer Kopfbewegungserfassungseinrichtung23 usw., die später noch beschrieben wird, erfasst wird. - Die Stereokamera
2 besteht in dieser Ausführungsform aus zwei Infrarotkameras, um vor allem bei Nacht extrem scharfe Bilder zu erzeugen. Die beiden Infrarotkameras sind mit einem optimalen Abstand (Grundlinienlänge) innerhalb eines zulässigen Bereichs angeordnet, der auf Suchbereich und Entfernungsgenauigkeit beruht, um Hindernisse genau zu erfassen, die unter verschiedenen Flugbedingungen vorhergesagt sind. - Flugbedingungen, unter denen ein Pilot künstliche Sichtunterstützung bei allgemein geringer Sicht braucht, umfassen größtenteils Nacht- oder Dämmerungsflüge. Infrarotkameras, die über eine ausgezeichnete Nachtsichtfunktion verfügen, sind unter solchen Bedingungen nützlich. Insbesondere liefern 3-D-Bilder, die von zwei Infrarotkameras erzeugt werden, einem Piloten eine virtuelle Realität mit Perspektive und einem Gefühl für Flughöhe und Geschwindigkeit, was mit einer einzigen Infrarotkamera nicht erzielt werden kann.
- Andere Flugbedingungen können außer mit Infrarotkameras auch mit verschiedenen anderen Arten von Bildsensoren wie einer gewöhnlichen Kamera, einem Verstärker, der auf schwaches Licht anspricht, aktiven/passiven im millimetrischen Wellenbereich arbeitenden Kameras, die eine ausgezeichnete Lichtdurchlässigkeit bei Dunst und Regen aufweisen, und empfindlichen CCDs abgedeckt werden. Diese Sensoren können entsprechend der Ursache für die geringe Sicht selektiv kombiniert werden.
- Wenn vom Gewicht her relativ leichte Bildsensoren für die Kameras der Stereokamera
2 verwendet werden, kann die Grundlinienlänge für die Stereokamera2 dadurch eingestellt werden, dass beide oder eine der Kameras mit den Bildsensoren verschoben wird. - Schwere Bildsensoren können mit einem Objektivlinsenmechanismus in der Röhre eines Periskops installiert werden, wobei die Röhrenlänge variabel ist, um die Grundlinienlänge zu verändern.
- Die Bildkombinationsvorrichtung
10 ist mit einem Stereobilderkennungsprozessor11 zur Erkennung von Hindernissen, indem rechte und linke Bilder aus der Stereokamera2 zu verarbeitet werden, einem geografischen Bildgenerator12 , um geografische 3-D-Bilder eines Schauplatzes zu erzeugen, die von einem Piloten oder Besatzungsmitglied auf Grundlage von Blickpunktdaten gesehen werden könnten, die von der Kopfbewegungserfassungseinrichtung23 , die später noch beschrieben wird, übertragen werden, und Daten aus der Flugdatenschnittstelle5 , und einem Integrationssichtgenerator13 ausgestattet, um Integrationsansichten zu erzeugen, bei denen es sich um 3-D-Sichtdaten linker und rechter Bilder aus der Stereokamera2 , Hindernisdaten aus dem Stereobilderkennungsprozessor11 , geografische Daten über eine Weitraumansicht aus dem geografischen Bildgenerator12 und Daten aus der Flugdatenschnittstelle5 handelt. - Der Stereobilderkennungsprozessor
11 ist mit einer Bilddatenbank11a versehen, die verschiedene Arten von 3-D-Daten abgespeichert hat, um verschiedene Arten von Hindernissen, usw. zu erkennen und anzuzeigen. - Der geografische Bildgenerator
12 ist mit einem digitalen 3-D-Speicherabbild12a ausgestattet, in dem geografische Weitraumdaten abgespeichert sind, die durch Luftbildaufnahmen oder von Satelliten her erhalten werden. - Die Integrationssichtanzeigevorrichtung
20 ist mit einer an einem Helm des Piloten oder eines Besatzungsmitglieds anzubringenden Helmanzeige (HMD)21 , die eine transparente Anzeige hat, wie etwa eine transparente Flüssigkristallanzeige, durch die ein Pilot oder ein Besatzungsmitglied einen tatsächlichen Schauplatz über integrierte Ansichten aus dem Integrationssichtgenerator13 sehen kann, einer Anzeigeeinstellvorrichtung22 , um Stärke und Kontrast der integrierten Ansichten und die Lichtdurchlässigkeit zu den eigentlichen Ansichten am HMD21 so einzustellen, dass der Pilot oder ein Besatzungsmitglied die sich überlagernden tatsächlichen und integrierten Ansichten in einem guten Zustand beobachten kann, und der Kopfbewegungserfassungseinrichtung23 ausgestattet, um die Kopfstellung und Haltung des Piloten oder Besatzungsmitglieds nachzuvollziehen bzw. zu erfassen, um Blickpunktdaten des Piloten oder Besatzungsmitglieds auszugeben. - Zwei Bilder, und zwar ein linkes und ein rechtes Bild, die während des Flugs von der Stereokamera
2 aufgenommen werden, werden als 3-D-Bilder an den Integrationssichtgenerator13 und auch an den Stereobilderkennungsprozessor11 übertragen, um vorn befindliche Hindernisse zu erfassen. - Der Stereobilderkennungsprozessor
11 verarbeitet die linken und rechten Bilder aus der Stereokamera2 durch eine Stereoabgleichverarbeitung, um eine Korrelation zwischen den Bildern zu erhalten, wodurch die Abstandsdaten durch Dreieckvermessung auf Grundlage einer Parallaxe zum selben Objekt, der Position der Stereokamera2 und ihres Parameters wie etwa Brennweite berechnet werden. - Auf Daten, die in der Bilddatenbank gespeichert sind, wird auf Grundlage der Abstands- und Bilddaten zum Erkennen von Hindernissen und irgendwelchen Objekte zugegriffen, die dem Flug im Wege stehen würden. Das Integrationssichtsystem
1 , das in Luftfahrzeugen, zum Beispiel Helikoptern installiert ist, die in relativ niedriger Höhe fliegen, erkennt Strukturen wie Pylone und Hochhäuser oder ein anderes Luftfahrzeug, usw. während eines Nachtflugs in Vorwärtssicht. Wenn das System1 auch elektrische Hochspannungsleitungen in den Bilddaten unter Erkennung von Pylonen erkennt, generiert es Hindernisdaten, welche die Stromleitungen symbolisieren oder hervorheben, und überträgt die Daten an den Integrationssichtgenerator13 . - Wenn das Integrationssichtsystem
1 Pylone, elektrische Hochspannungsleitungen und Hochhäuser, usw. in Vorwärtssicht über die Stereokamera2 erkennt, warnt es den Piloten entsprechend unverzüglich über diese Strukturen als Hindernisse, mit denen er kollidieren könnte, so dass der Helikopter sofort eine Ausweichmaßnahme ergreift. - Die vorliegende Erfindung bietet deshalb ein hochsicheres Fliegen und Fahren ohne den Kollisionsrisikograd zu bestimmen, indem in einem digitalen 3-D-Speicherabbild gespeicherte Positionsdaten wie Längengrad, Breitengrad und Höhe mit tatsächlichen Flugdaten verglichen werden.
- Der geografische Bildgenerator
12 vollzieht eine Koordinatenumsetzung der Luftfahrzeugdaten wie Geschwindigkeit, Flughöhe, Fluglage und Flugpositionsdaten, die über die Luftfahrzeugflugdatenschnittstelle5 auf Blickpunkte des Piloten oder eines Besatzungsmitglieds eingegeben werden, die von der Kopfbewegungserfassungseinrichtung23 eingegeben werden. Der Generator12 ruft darüber hinaus die konvertierten Daten aus der digitalen 3-D-Speicherabbildung als geografische 3-D-Bilder ab, die vom Piloten oder einem Besatzungsmitglied gesehen werden könnten, und die an den Integrationssichtgenerator13 übertragen wurden. Bei den 3-D-Bildern handelt es sich um geografische Daten, die weitgefasster sind als der eigentliche Schauplatz in Vorwärtssicht, beispielsweise um eine Bergkette in der Entfernung, die nicht direkt mit der Sicherheit gegen Kollision in Zusammenhang steht. Diese geografischen 3-D-Bilddaten können als beinahe reale Szenen gesehen werden, die auf einer 3-D-Anzeige beruhen, die durch Computergrafik mit geografischer Information wie Ortsnamen, Seen, Straßen und Flüssen beruhen. - Die geografischen 3-D-Bilddaten können anstatt aus der digitalen 3-D-Speicherabbildung
12a auch aus Bildern generiert werden, die von einem im millimetrischen Bereich arbeitenden Weitraumradar erfasst wurden. - Der Integrationssichtgenerator
13 empfängt 3-D-Bilddaten von linken und rechten Bildern, die von der vom Sichtachsenumschalter3 gesteuerten Stereokamera2 aufgenommen wurden, und auch die Hindernisbilder, die vom Stereobilderkennungsprozessor11 erzeugt wurden. Der Generator13 empfängt auch geografische Weitraumumfangsbilder, die vom geografischen Bildgenerator12 erzeugt wurden. - Der Integrationssichtgenerator
13 kombiniert unter der Steuerung des Anzeigebetriebsartumschalters4 die Hindernis- und geografischen Umfangsbilder mit Bildverarbeitung wie etwa Einstellungen an Auflösung, Stärke, Kontrast und Farbe und auch Kantenmischung, um natürliche Bilder ohne sichtbare Kombinationsverbindungsstellen als integrierte Ansichtsdaten herzustellen. - Der Integrationsansichtsgenerator
13 kombiniert wenn nötig die integrierten Ansichtsdaten mit Flugdaten wie Geschwindigkeit, Flughöhe, Position und Fluglage, die von der Flugdatenschnittstelle5 übertragen werden, und überträgt sie an den HMD21 . - Bei guter Sicht, wie sie etwa bei gutem Wetter herrscht, kann die Stereokamera
2 ausgeschaltet werden, so dass als Integrationsansichtsdaten nicht die 3-D-Bilder der Stereokamera2 , sondern die Hindernisdaten und andere Daten wenn nötig an den HMD21 übertragen werden. -
2 zeigt Sichtbereiche, die von dem HMD21 abgedeckt werden, wobei die Integrationsansichtsdaten wie vorstehend offenbart verarbeitet werden. - Ein Sichtbereich, der von einer unterbrochenen Strichpunktlinie umgeben ist, wird zur Anzeige der Vorwärtssichtdaten mit Hindernisdaten aus der Stereokamera
2 verwendet. Ein anderer Sichtbereich, der von einer unterbrochenen Punktlinie umgeben ist, sich aber außerhalb der Strichpunktlinie befindet, wird zur Anzeige der Weitraumsichtdaten von geografischen 3-D-Bildern verwendet. - Der Pilot oder ein Besatzungsmitglied kann den tatsächlichen Schauplatz vom Cockpit
30 aus durch Fenster überlagert mit den Integrationsansichten sehen, während er Anzeigen im Cockpit sieht, somit kann der Pilot oder ein Besatzungsmitglied Anzeigedaten zusätzlich zu den Daten sehen, die am HMD21 angezeigt werden. - Wie vorstehend offenbart liefert das Integrationssichtsystem
1 nach der vorliegenden Erfindung auch bei geringer Sicht einem Piloten oder Besatzungsmitglied in Perspektive, Flughöhe und Geschwindigkeit fast reale 3-D-Bilder, die auf linken und rechten, von der Stereokamera2 aufgenommenen Bildern beruhen, was mit einer einzigen Kamera nicht erzielt werden kann. - Das Integrationssichtsystem
1 verarbeitet darüber hinaus die aus der Stereokamera2 stammenden linken und rechten Bilder durch Stereobildverarbeitung zur Bilderkennung unter Nutzung von Abstandsdaten, um Hindernisse auf oder in der Nähe der Flugroute zu erfassen, und zeigt die Hindernisse als Warnung an. - Das Integrationssichtsystem
1 nach der vorliegenden Erfindung bietet somit auch bei geringer Sicht einen pseudovisuellen Flug, um einen Piloten für einen gefahrlosen und sicheren Flug im regulären Dienst oder im Notfall zu unterstützen. - 3-D-Bilder können bei guter Sicht nicht unbedingt notwendig sein, jedoch sorgt die Hinderniserfassung zur Warnung durch Stereobilderkennungsverarbeitung für einen noch sichereren Flug.
- Die 3-D-Bildanzeige von Vorwärtssichten und die Hinderniserfassung/-warnung erfolgen durch die Stereokamera
2 ohne Sensoren für die jeweiligen Funktionen. Das Integrationssichtsystem1 nach der vorliegenden Erfindung kann somit als zuverlässiges und leichtes System zu niedrigen Kosten aufgebaut werden. - Wie vorstehend offenbart, liefert die vorliegende Erfindung Besatzungsmitgliedern in einem Fahrzeug auch bei geringer Sicht beinahe reale Pseudoansichten mit guter Sichtbarkeit wie bei schönem Wetter für einen gefahrlosen und sicheren Flug oder eine gefahrlose und sichere Fahrt, wobei vorn befindliche Hindernisse erfasst werden.
- Ferner sollte den Fachleuten auf dem Gebiet klar sein, dass es sich bei der vorstehenden Erfindung um eine bevorzugte Ausführungsform des offenbarten Systems handelt, und dass verschieden Änderungen und Modifizierungen an der Erfindung vorgenommen werden können, ohne dass dabei von deren Umfang abgewichen wird.
Claims (5)
- Integrationssichtsystem, das Folgendes umfasst: mindestens eine Stereokamera, die in einem Fahrzeug installiert ist, um Bilder eines vorbestimmten Außenbereichs aufzunehmen; eine Stereobilderkennungsvorrichtung zum Verarbeiten eines Paars von Bildern, die von der Stereokamera aufgenommen wurden, um Objekte zu erkennen, die vorn befindliche Hindernisse darstellen, wodurch Hindernisdaten generiert werden; einen Integrationsansichtsdatengenerator zum Generieren von Integrationsansichtsdaten einschließlich dreidimensionaler Sichtdaten auf Grundlage des Paars von Bildern, die von der Kamera aufgenommen wurden, und der Hindernisdaten aus der Stereobilderkennungsvorrichtung, und eine Integrationsbildanzeige zum Anzeigen der Integrationsansichtsdaten als sichtbare Bilder für die Besatzung im Fahrzeug, wobei der Integrationsansichtsdatengenerator in der Lage ist, die dreidimensionalen Sichtdaten aus den Integrationsansichtsdaten zu beseitigen, indem die Stereokamera abgeschaltet wird, während die Hindernisdaten beibehalten werden.
- Integrationssystem nach Anspruch 1, wobei der Integrationsansichtsdatengenerator den dreidimensionalen Sichtdaten periphere Weitraumsichtdaten hinzufügt.
- Integrationssichtsystem nach einem der Ansprüche 1 oder 2, wobei der Integrationsansichtsdatengenerator eine Helmanzeige umfasst, um die sichtbaren Bilder der Integrationssichtdaten und die tatsächliche Ansicht übereinander zu legen.
- Integrationssichtsystem nach einem der Ansprüche 1 bis 3, wobei die Stereokamera zwei Infrarotkameras umfasst, die um einen Abstand getrennt voneinander angeordnet sind, der einer spezifischen Grundlinie entspricht.
- Integrationssichtsystem nach einem der Ansprüche 1 bis 4, darüber hinaus mindestens eine erste Stereokamera, eine zweite Stereokamera und eine dritte Stereokamera umfassend, wobei die erste Stereokamera eine Infrarotkamera ist, die zweite Kamera eine im millimetrischen Wellenbereich arbeitende Kamera ist, und die dritte Kamera ein Verstärker ist, wobei die erste, die zweite und die dritte Stereokamera entsprechend den tatsächlichen Ansichten selektiv eingesetzt werden.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000160940 | 2000-05-30 | ||
| JP2000160940A JP2001344597A (ja) | 2000-05-30 | 2000-05-30 | 融合視界装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE60130517D1 DE60130517D1 (de) | 2007-10-31 |
| DE60130517T2 true DE60130517T2 (de) | 2008-06-12 |
Family
ID=18665057
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE60130517T Expired - Lifetime DE60130517T2 (de) | 2000-05-30 | 2001-05-29 | Integriertes Sichtsystem |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US20010048763A1 (de) |
| EP (1) | EP1160541B1 (de) |
| JP (1) | JP2001344597A (de) |
| DE (1) | DE60130517T2 (de) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102015003973B3 (de) * | 2015-03-26 | 2016-06-23 | Audi Ag | Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille |
| US9665782B2 (en) | 2014-12-22 | 2017-05-30 | Hyundai Mobis Co., Ltd. | Obstacle detecting apparatus and obstacle detecting method |
Families Citing this family (49)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6633802B2 (en) * | 2001-03-06 | 2003-10-14 | Sikorsky Aircraft Corporation | Power management under limited power conditions |
| US7424133B2 (en) * | 2002-11-08 | 2008-09-09 | Pictometry International Corporation | Method and apparatus for capturing, geolocating and measuring oblique images |
| JP4328551B2 (ja) | 2003-03-05 | 2009-09-09 | 富士重工業株式会社 | 撮像姿勢制御装置 |
| US7486291B2 (en) * | 2003-07-08 | 2009-02-03 | Berson Barry L | Systems and methods using enhanced vision to provide out-the-window displays for a device |
| US7982767B2 (en) * | 2003-11-11 | 2011-07-19 | Supersonic Aerospace International, Llc | System and method for mounting sensors and cleaning sensor apertures for out-the-window displays |
| US7312725B2 (en) * | 2003-07-08 | 2007-12-25 | Supersonic Aerospace International, Llc | Display system for operating a device with reduced out-the-window visibility |
| WO2005050601A2 (en) * | 2003-07-08 | 2005-06-02 | Supersonic Aerospace International, Llc | Display systems for a device |
| JP2005182305A (ja) * | 2003-12-17 | 2005-07-07 | Denso Corp | 車両走行支援装置 |
| US8036494B2 (en) * | 2004-04-15 | 2011-10-11 | Hewlett-Packard Development Company, L.P. | Enhancing image resolution |
| US20050275717A1 (en) * | 2004-06-10 | 2005-12-15 | Sarnoff Corporation | Method and apparatus for testing stereo vision methods using stereo imagery data |
| JP2008502538A (ja) * | 2004-06-11 | 2008-01-31 | ストラテック システムズ リミテッド | 鉄道軌道スキャニングシステムおよび方法 |
| JP2005350010A (ja) * | 2004-06-14 | 2005-12-22 | Fuji Heavy Ind Ltd | ステレオ式車外監視装置 |
| SE527257C2 (sv) * | 2004-06-21 | 2006-01-31 | Totalfoersvarets Forskningsins | Anordning och metod för att presentera en omvärldsbild |
| US7730406B2 (en) * | 2004-10-20 | 2010-06-01 | Hewlett-Packard Development Company, L.P. | Image processing system and method |
| JP4246691B2 (ja) * | 2004-11-30 | 2009-04-02 | 本田技研工業株式会社 | 画像情報処理システム、画像情報処理方法、画像情報処理プログラム、及び自動車 |
| US9092458B1 (en) | 2005-03-08 | 2015-07-28 | Irobot Corporation | System and method for managing search results including graphics |
| US7760956B2 (en) | 2005-05-12 | 2010-07-20 | Hewlett-Packard Development Company, L.P. | System and method for producing a page using frames of a video stream |
| US7512258B2 (en) * | 2005-07-19 | 2009-03-31 | The Boeing Company | System and method for passive wire detection |
| US9002511B1 (en) | 2005-10-21 | 2015-04-07 | Irobot Corporation | Methods and systems for obstacle detection using structured light |
| US7605719B1 (en) * | 2007-07-25 | 2009-10-20 | Rockwell Collins, Inc. | System and methods for displaying a partial images and non-overlapping, shared-screen partial images acquired from vision systems |
| JP5345350B2 (ja) * | 2008-07-30 | 2013-11-20 | 富士重工業株式会社 | 車両の運転支援装置 |
| US8040258B2 (en) * | 2009-04-07 | 2011-10-18 | Honeywell International Inc. | Enhanced situational awareness system and method |
| US20110261188A1 (en) * | 2010-04-23 | 2011-10-27 | Adarve Lozano Alberto | System for providing night vision at low visibility conditions |
| JP2012253472A (ja) * | 2011-06-01 | 2012-12-20 | Yoshihiko Kitamura | 3dカメラ |
| JP6026088B2 (ja) * | 2011-08-09 | 2016-11-16 | 株式会社トプコン | 遠隔操作システム |
| CN104204726B (zh) * | 2012-03-06 | 2017-05-31 | 日产自动车株式会社 | 移动物体位置姿态估计装置和移动物体位置姿态估计方法 |
| US9299118B1 (en) * | 2012-04-18 | 2016-03-29 | The Boeing Company | Method and apparatus for inspecting countersinks using composite images from different light sources |
| WO2014003698A1 (en) * | 2012-06-29 | 2014-01-03 | Tusaş-Türk Havacilik Ve Uzay Sanayii A.Ş. | An aircraft vision system |
| JPWO2014077046A1 (ja) * | 2012-11-13 | 2017-01-05 | ソニー株式会社 | 画像表示装置及び画像表示方法、移動体装置、画像表示システム、並びにコンピューター・プログラム |
| WO2015015521A1 (en) * | 2013-07-31 | 2015-02-05 | Mes S.P.A. A Socio Unico | Indirect vision system and associated operating method |
| US9384670B1 (en) * | 2013-08-12 | 2016-07-05 | The Boeing Company | Situational awareness display for unplanned landing zones |
| KR101519261B1 (ko) | 2013-12-17 | 2015-05-11 | 현대자동차주식회사 | 차량의 모니터링 방법 및 자동 제동 장치 |
| EP2933707B1 (de) | 2014-04-14 | 2017-12-06 | iOnRoad Technologies Ltd. | Darstellungseinstellung für kopfmontierte Anzeige |
| US10516815B2 (en) * | 2014-12-01 | 2019-12-24 | Northrop Grumman Systems Corporation | Image processing system |
| US9911344B2 (en) | 2015-07-24 | 2018-03-06 | Honeywell International Inc. | Helicopter landing system using a camera for obstacle detection |
| JP6354085B2 (ja) * | 2016-05-20 | 2018-07-11 | 本田技研工業株式会社 | 車両制御システム、車両制御方法、および車両制御プログラム |
| SE541180C2 (en) * | 2017-04-03 | 2019-04-23 | Cargotec Patenter Ab | Driver assistance system for a vehicle provided with a crane using 3D representations |
| US10402646B2 (en) * | 2017-09-21 | 2019-09-03 | Amazon Technologies, Inc. | Object detection and avoidance for aerial vehicles |
| FR3075167B1 (fr) * | 2017-12-19 | 2019-11-15 | Airbus Operations (S.A.S.) | Pointe avant a visibilite frontale directe et laterale indirecte |
| CN108304807A (zh) * | 2018-02-02 | 2018-07-20 | 北京华纵科技有限公司 | 一种基于fpga平台和深度学习的轨道异物检测方法及系统 |
| JP6429347B1 (ja) * | 2018-05-18 | 2018-11-28 | 豊 川口 | 視界表示システムおよび移動体 |
| JP6429350B1 (ja) * | 2018-08-08 | 2018-11-28 | 豊 川口 | 車両 |
| US10683067B2 (en) | 2018-08-10 | 2020-06-16 | Buffalo Automation Group Inc. | Sensor system for maritime vessels |
| US10782691B2 (en) | 2018-08-10 | 2020-09-22 | Buffalo Automation Group Inc. | Deep learning and intelligent sensing system integration |
| WO2020033967A1 (en) | 2018-08-10 | 2020-02-13 | Buffalo Automation Group Inc. | Training a deep learning system for maritime applications |
| CN109319162B (zh) * | 2018-11-28 | 2021-10-22 | 西安亚联航空科技有限公司 | 一种摄像无人机中利用正反向形成空气对流的摄像装置 |
| JP7367922B2 (ja) * | 2019-08-21 | 2023-10-24 | 株式会社島津製作所 | 操縦支援システム |
| JP6903287B1 (ja) | 2020-12-25 | 2021-07-14 | 雄三 安形 | ワイパーを具備しない車両 |
| CN113572959A (zh) * | 2021-07-13 | 2021-10-29 | 郭晓勤 | 一种设置在客运飞机上的旅客视觉旅行系统 |
Family Cites Families (28)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| LU74579A1 (de) * | 1976-03-17 | 1976-09-01 | ||
| US4805015A (en) * | 1986-09-04 | 1989-02-14 | Copeland J William | Airborne stereoscopic imaging system |
| JPS6473382A (en) * | 1987-09-14 | 1989-03-17 | Nec Corp | Display device for flight simulator |
| US5128874A (en) * | 1990-01-02 | 1992-07-07 | Honeywell Inc. | Inertial navigation sensor integrated obstacle detection system |
| US5092602A (en) * | 1990-11-26 | 1992-03-03 | Witler James L | Golfing apparatus |
| CA2060406C (en) * | 1991-04-22 | 1998-12-01 | Bruce Edward Hamilton | Helicopter virtual image display system incorporating structural outlines |
| JPH05265547A (ja) * | 1992-03-23 | 1993-10-15 | Fuji Heavy Ind Ltd | 車輌用車外監視装置 |
| US5293227A (en) * | 1992-07-24 | 1994-03-08 | Tektronix, Inc. | Self-synchronizing optical state controller for infrared linked stereoscopic glasses |
| US5983161A (en) * | 1993-08-11 | 1999-11-09 | Lemelson; Jerome H. | GPS vehicle collision avoidance warning and control system and method |
| JPH07143524A (ja) * | 1993-11-19 | 1995-06-02 | Honda Motor Co Ltd | 車載用ステレオ画像表示装置 |
| JP3522317B2 (ja) * | 1993-12-27 | 2004-04-26 | 富士重工業株式会社 | 車輌用走行案内装置 |
| JPH089422A (ja) * | 1994-06-17 | 1996-01-12 | Sony Corp | 立体画像出力装置 |
| US5581271A (en) * | 1994-12-05 | 1996-12-03 | Hughes Aircraft Company | Head mounted visual display |
| JP3390289B2 (ja) * | 1995-06-16 | 2003-03-24 | 富士重工業株式会社 | 警報装置 |
| JPH0935177A (ja) * | 1995-07-18 | 1997-02-07 | Hitachi Ltd | 運転支援方法および運転支援装置 |
| JPH09167253A (ja) * | 1995-12-14 | 1997-06-24 | Olympus Optical Co Ltd | 映像表示装置 |
| JPH10117342A (ja) * | 1996-10-11 | 1998-05-06 | Yazaki Corp | 車両周辺監視装置、障害物検出方法、及び障害物検出プログラムを記憶した媒体 |
| US5838262A (en) * | 1996-12-19 | 1998-11-17 | Sikorsky Aircraft Corporation | Aircraft virtual image display system and method for providing a real-time perspective threat coverage display |
| FR2760554B1 (fr) * | 1997-03-06 | 1999-04-16 | Alsthom Cge Alcatel | Procede de detection de contours de relief dans une paire d'images stereoscopiques |
| US6061068A (en) * | 1998-06-30 | 2000-05-09 | Raytheon Company | Method and apparatus for providing synthetic vision using reality updated virtual image |
| EP0899580A3 (de) * | 1997-08-29 | 2000-02-02 | Kabushiki Kaisha Toshiba | System zur Ortung eines Zieles und Anflug-Leitsystem |
| DE19741631B4 (de) * | 1997-09-20 | 2013-08-14 | Volkswagen Ag | Verfahren und Vorrichtung zur Vermeidung und/oder Minimierung von Konfliktsituationen im Straßenverkehr |
| US6055042A (en) * | 1997-12-16 | 2000-04-25 | Caterpillar Inc. | Method and apparatus for detecting obstacles using multiple sensors for range selective detection |
| JP3745117B2 (ja) * | 1998-05-08 | 2006-02-15 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
| US5999122A (en) * | 1998-06-23 | 1999-12-07 | Trw Inc. | Millimeter wave instant photographic camera |
| JP2000112343A (ja) * | 1998-10-06 | 2000-04-21 | Alpine Electronics Inc | ナビゲーション用立体表示方法及びナビゲーション装置 |
| US6483429B1 (en) * | 1999-10-21 | 2002-11-19 | Matsushita Electric Industrial Co., Ltd. | Parking assistance system |
| US6535242B1 (en) * | 2000-10-24 | 2003-03-18 | Gary Steven Strumolo | System and method for acquiring and displaying vehicular information |
-
2000
- 2000-05-30 JP JP2000160940A patent/JP2001344597A/ja active Pending
-
2001
- 2001-05-29 DE DE60130517T patent/DE60130517T2/de not_active Expired - Lifetime
- 2001-05-29 EP EP01113091A patent/EP1160541B1/de not_active Expired - Lifetime
- 2001-05-30 US US09/866,773 patent/US20010048763A1/en not_active Abandoned
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9665782B2 (en) | 2014-12-22 | 2017-05-30 | Hyundai Mobis Co., Ltd. | Obstacle detecting apparatus and obstacle detecting method |
| DE102015121387B4 (de) | 2014-12-22 | 2019-07-11 | Hyundai Mobis Co., Ltd. | Hinderniserkennungseinrichtung und Hinderniserkennungsverfahren |
| DE102015003973B3 (de) * | 2015-03-26 | 2016-06-23 | Audi Ag | Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2001344597A (ja) | 2001-12-14 |
| EP1160541A1 (de) | 2001-12-05 |
| EP1160541B1 (de) | 2007-09-19 |
| DE60130517D1 (de) | 2007-10-31 |
| US20010048763A1 (en) | 2001-12-06 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE60130517T2 (de) | Integriertes Sichtsystem | |
| EP1505556B1 (de) | Verfahren und Vorrichtung zur Erkennung eines Flughindernisses | |
| DE112015001534B4 (de) | Fahrzeugerkennungsbenachrichtigungsvorrichtung und Fahrzeugerkennungsbenachrichtigungssystem | |
| EP2603402B1 (de) | Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung und fahrerassistenzsystem | |
| DE102004064249B3 (de) | Fahrzeuginformationsanzeigesystem | |
| DE10304703B4 (de) | Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit umgebungsabhängiger Fusion eines Infrarot- und eines Visuell-Abbilds | |
| EP2883748B1 (de) | Verfahren zur Anzeige von optischen Informationen in Fahrzeugen | |
| US8874284B2 (en) | Methods for remote display of an enhanced image | |
| DE102014226458A1 (de) | Verfahren und System zur Steuerung eines autonom bewegbaren, datentechnisch mit einem Fahrzeug gekoppelten Flugkörpers | |
| DE102015116043A1 (de) | Sichtlinien-Führungsvorrichtung für Fahrzeuge | |
| DE102012021420B4 (de) | Verfahren und Fahrerassistenzsystem zur Unterstützung eines Fahrers eines Kraftfahrzeugs in einer Offroad-Umgebung | |
| EP1405124A1 (de) | Head-up display system und verfahren zur ortskorrrekten darstellung eines objekts im aussenraum eines fahrzeugs in bezug auf die fahrerposition | |
| DE3927851A1 (de) | System fuer die bestimmung der raeumlichen position eines sich bewegenden objekts und zum fuehren seiner bewegung | |
| DE112014005021T5 (de) | Fahrtsteuervorrichtung, Server und In-Vehicle-Vorrichtung | |
| DE102017106083A1 (de) | Rückfahrsichtsystem für ein fahrzeug und verfahren zur verwendung desselben | |
| DE102018108751B4 (de) | Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten | |
| DE102013010010B4 (de) | Verfahren zum Betrieb eines Fahrerassistenzsystems zum Rangieren und/oder Parken | |
| DE102009035984B4 (de) | Laufzeitsensor | |
| DE112018001529T5 (de) | Anzeigesteuerungsvorrichtung für ein fahrzeug und anzeigeeinheit für ein fahrzeug | |
| EP1801632A2 (de) | Verfahren und Vorrichtung zur Sichtbarmachung der Umgebung eines Fahrzeugs mit Fusion eines Infrarot- und eines Visuell-Abbilds | |
| DE102007019808A1 (de) | Landehilfesystem für senkrecht startende und landende Luftfahrzeuge, insbesondere Helikopter | |
| WO2011157723A1 (de) | System und verfahren zur kollisionsvermeidung | |
| DE102009060901A1 (de) | Landehilfseinrichtung | |
| DE102021100583A1 (de) | System und verfahren zur fahrzeugnavigation mit geländetexterkennung | |
| DE10015164A1 (de) | Kommunikations-Verfahren mit einem ROSAR-Gerät |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8364 | No opposition during term of opposition |