[go: up one dir, main page]

DE102017106931B4 - Method for detecting and locating a non-line-of-sight object - Google Patents

Method for detecting and locating a non-line-of-sight object Download PDF

Info

Publication number
DE102017106931B4
DE102017106931B4 DE102017106931.3A DE102017106931A DE102017106931B4 DE 102017106931 B4 DE102017106931 B4 DE 102017106931B4 DE 102017106931 A DE102017106931 A DE 102017106931A DE 102017106931 B4 DE102017106931 B4 DE 102017106931B4
Authority
DE
Germany
Prior art keywords
line
sight
objects
reflections
sight objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017106931.3A
Other languages
German (de)
Other versions
DE102017106931A1 (en
Inventor
Michael Slutsky
Igal Bilik
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/161,872 external-priority patent/US10395539B2/en
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102017106931A1 publication Critical patent/DE102017106931A1/en
Application granted granted Critical
Publication of DE102017106931B4 publication Critical patent/DE102017106931B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/35Details of non-pulse systems
    • G01S7/352Receivers
    • G01S7/354Extracting wanted echo-signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/0209Systems with very large relative bandwidth, i.e. larger than 10 %, e.g. baseband, pulse, carrier-free, ultrawideband
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Verfahren zum Erfassen und Lokalisieren eines Nicht-Sichtlinienobjekts (120b), das Verfahren umfassend:
Empfangen von Reflexionen an einem Erfassungssystem (110) einer beweglichen Plattform (10), wobei die Reflexionen direkte und mehrteilige Reflexionen beinhalten;
Erhalten von Informationen von anderen Sensoren (105) als dem Erfassungssystem (110), wobei ein Standort der Plattform (10) und eine Karte des Standorts erhalten werden;
Identifizieren der Reflexionen, die mit statischen Zielen verknüpft sind, um die Reflexionen zu behalten, die mit sich bewegenden Zielen verbunden sind;
Identifizieren der statischen Ziele auf der Karte;
Unterscheiden zwischen Sichtlinienobjekten (120a) und Nicht-Sichtlinienobjekten (120b) unter den beweglichen Zielen;
Lokalisieren der Nicht-Sichtlinienobjekte (120b) relativ zur Plattform (10); und
Anzeigen von sich nähernden Nicht-Sichtlinienobjekte (120b) unter den Nicht-Sichtlinienobjekten (120b), wobei sich die nähernden Nicht-Sichtlinienobjekte (120b) in Richtung der Plattform (10) auf einem Pfad bewegen, der die Plattform (10) schneidet; dadurch gekennzeichnet , dass
die Nicht-Sichtlinienobjekte (120b) lokalisiert werden, indem der Standort der Nicht-Sichtlinienobjekte (120b) auf der Karte bestimmt wird; und dass
auf Basis der Karte bestimmt wird, ob die Nicht-Sichtlinienobjekte (120b) sich annähernde Nicht-Sichtlinienobjekte (120b) sind;
wobei das Erhalten von Information umfasst, dass Informationen über sich bewegende Objekte von einer Kamera empfangen werden,
wobei das Unterscheiden zwischen den Sichtlinienobjekten (120a) und den Nicht-Sichtlinienobjekten (120b) umfasst, dass Richtungs- und Höhenwinkel von Pixeln, die sich bewegenden Objekten im Sichtfeld der Kamera zugeordnet sind, in Richtungs- und Höhenwinkel übersetzt werden, die dem Sichtfeld des Erfassungssystems (110) zugeordnet sind.

Figure DE102017106931B4_0000
A method for detecting and locating a non-line-of-sight object (120b), the method comprising:
Receiving reflections at a detection system (110) of a movable platform (10), the reflections including direct and multi-part reflections;
Obtaining information from sensors (105) other than the sensing system (110), obtaining a location of the platform (10) and a map of the location;
Identify the reflections associated with static targets in order to retain the reflections associated with moving targets;
Identifying static targets on the map;
Distinguishing between line-of-sight objects (120a) and non-line-of-sight objects (120b) among the moving targets;
Localizing the non-line-of-sight objects (120b) relative to the platform (10); and
Displaying approaching non-line-of-sight objects (120b) among the non-line-of-sight objects (120b), wherein the approaching non-line-of-sight objects (120b) move toward the platform (10) on a path that intersects the platform (10); characterized in that
the non-line-of-sight objects (120b) are localized by determining the location of the non-line-of-sight objects (120b) on the map; and that
determining on the basis of the map whether the non-line-of-sight objects (120b) are approaching non-line-of-sight objects (120b);
wherein obtaining information comprises receiving information about moving objects from a camera,
wherein distinguishing between the line-of-sight objects (120a) and the non-line-of-sight objects (120b) comprises translating heading and elevation angles of pixels associated with moving objects in the field of view of the camera into heading and elevation angles associated with the field of view of the detection system (110).
Figure DE102017106931B4_0000

Description

GEBIET DER ERFINDUNGFIELD OF THE INVENTION

Die vorliegende Erfindung bezieht sich auf die Hinderniserfassung und insbesondere auf Verfahren zum Erfassen und Lokalisieren eines Nicht-Sichtlinienobjekts gemäß dem Oberbegriff des Anspruchs 1, wie es der Art nach im Wesentlichen aus der DE 10 2015 210 069 A1 bekannt ist.The present invention relates to obstacle detection and in particular to methods for detecting and locating a non-line-of-sight object according to the preamble of claim 1, as it essentially consists of the DE 10 2015 210 069 A1 is known.

Weitergehender Stand der Technik ergibt sich ferner aus den Druckschriften DE 10 2004 058 844 A1 , DE 103 11 959 B4 , DE 10 2014 002 435 A1 und DE 10 2011 119 767 A1 .Further state of the art can also be found in the publications DE 10 2004 058 844 A1 , DE 103 11 959 B4 , DE 10 2014 002 435 A1 and DE 10 2011 119 767 A1 .

HINTERGRUNDBACKGROUND

Die Hinderniserkennung in verschiedenen Formen ist Teil einer Anzahl von Systemen. In automatisierten Fertigungseinrichtungen müssen zum Beispiel Maschinen, die Transporteinrichtungen und Komponenten an verschiedene Bereiche der Anlage transportieren, Hindernisse erkennen und vermeiden. Als weiteres Beispiel müssen automatisierte Staubsauger Hindernisse wie Treppen erkennen und vermeiden. Als noch ein weiteres Beispiel ist die Hinderniserkennung eine der Aufgaben, die durch zunehmend automatisierte Fahrzeuge erreicht werden müssen. Derzeit bezieht sich Hinderniserkennung auf die Erkennung von Hindernissen in der Sichtlinie. Dementsprechend ist es wünschenswert, eine nicht-Sichtlinien Hinderniserkennung und Lokalisierung bereitzustellen.Obstacle detection in various forms is part of a number of systems. For example, in automated manufacturing facilities, machines that transport equipment and components to different areas of the facility must detect and avoid obstacles. As another example, automated vacuum cleaners must detect and avoid obstacles such as stairs. As yet another example, obstacle detection is one of the tasks that must be accomplished by increasingly automated vehicles. Currently, obstacle detection refers to the detection of obstacles in the line of sight. Accordingly, it is desirable to provide non-line of sight obstacle detection and localization.

ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION

Erfindungsgemäß wird ein Verfahren zum Erfassen und Lokalisieren eines Nicht-Sichtlinienobjekts vorgestellt, das sich durch die Merkmale des Anspruchs 1 auszeichnet.According to the invention, a method for detecting and localizing a non-line-of-sight object is presented, which is characterized by the features of claim 1.

Ferner wird ein Nicht-Sichtlinien Hinderniserkennungs- und Lokalisierungssystem beschrieben. Das System ist auf einer beweglichen Plattform angeordnet und umfasst, einen Senderabschnitt, der konfiguriert ist, um Hochfrequenzsignale von einer Vielzahl von Übertragungselementen zu übertragen; einen Empfängerabschnitt, der so konfiguriert ist, dass er Reflexionen an einer Vielzahl von Empfangsantennenelementen empfängt, wobei die Reflexionen direkte und mehrseitige Reflexionen beinhalten; und ein Verarbeitungssystem, das konfiguriert ist, um die Reflexionen zu identifizieren, die statischen Zielen zugeordnet sind, die mit bewegten Zielen verbundenen Reflexionen zu behalten, zwischen Sichtlinienobjekten und Nicht-Sichtlinienobjekten unter den beweglichen Zielen zu unterscheiden, Lokalisieren der Nicht-Sichtlinienobjekten relativ zur Plattform, und Annäherung an Nicht-Sichtlinienobjekte unter den Nicht-Sichtlinienobjekten, wobei sich nähernde Nicht-Sichtlinienobjekte in Richtung der Plattform auf einem Weg, der die Plattform schneidet, bewegen.Further described is a non-line-of-sight obstacle detection and localization system. The system is disposed on a moving platform and includes a transmitter portion configured to transmit radio frequency signals from a plurality of transmitting elements; a receiver portion configured to receive reflections at a plurality of receiving antenna elements, wherein the reflections include direct and multi-directional reflections; and a processing system configured to identify the reflections associated with static targets, retain the reflections associated with moving targets, distinguish between line-of-sight objects and non-line-of-sight objects among the moving targets, locate the non-line-of-sight objects relative to the platform, and approach non-line-of-sight objects among the non-line-of-sight objects, wherein approaching non-line-of-sight objects move toward the platform on a path that intersects the platform.

Die vorstehend genannten Merkmale und Vorteile sowie weitere Merkmale und Vorteile der Erfindung sind aus der folgenden ausführlichen Beschreibung der Erfindung in Verbindung mit den zugehörigen Zeichnungen, leicht ersichtlich.The above-mentioned features and advantages as well as other features and advantages of the invention are readily apparent from the following detailed description of the invention taken in conjunction with the accompanying drawings.

KURZBESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS

Andere Eigenschaften, Vorteile und Details erscheinen, nur exemplarisch, in der folgenden ausführlichen Beschreibung der Ausführungsformen und der ausführlichen Beschreibung, welche sich auf die folgenden Zeichnungen bezieht:

  • 1 ist eine Darstellung der Nicht-Sichtlinien Hinderniserkennung gemäß Ausführungsformen;
  • 2 ist ein Blockdiagramm des Erfassungssystems gemäß Ausführungsformen; und
  • 3 ist ein Prozessablauf eines Verfahrens zum Durchführen der Nicht-Sichtlinien Hinderniserkennung gemäß Ausführungsformen.
Other features, advantages and details appear, by way of example only, in the following detailed description of the embodiments and the detailed description, which refers to the following drawings:
  • 1 is an illustration of non-line-of-sight obstacle detection according to embodiments;
  • 2 is a block diagram of the detection system according to embodiments; and
  • 3 is a process flow of a method for performing non-line-of-sight obstacle detection according to embodiments.

BESCHREIBUNG DER AUSFÜHRUNGSFORMENDESCRIPTION OF THE EMBODIMENTS

Wie vorstehend erwähnt, ist die Hinderniserkennung Teil des Betriebs vieler Systeme, die eine automatisierte Pfadsteuerung beinhalten. Je nach Standort und Distanz können verschiedene Arten der Hinderniserkennung verwendet werden. So können zum Beispiel automatisierte Staubsauger, die Hindernisse erkennen müssen, die in der Größenordnung von Zoll entfernt sind, Infrarotübertragungen und Reflexionen verwenden. Bei anderen Anwendungen, wie beispielsweise Fahrzeug- und Flugzeuganwendungen, bei denen die Erkennung von Hindernissen bei längeren Bereichen von Interesse ist, wird im Allgemeinen Funkerkennung und Reichweiten (Radar) verwendet. Im Allgemeinen senden Radarsysteme Funkwellen und einen bestimmen Bereich, Winkel (Azimut und Elevation) und Geschwindigkeit eines Objekts basierend auf der Reflexion der Funkwellen aus dem Objekt. Als solches beruht eine typische Radarerkennung auf Sichtlinie auf das Objekt (Ziel), das erkannt wird. Allerdings besteht bei Fahrzeugkollisionsvermeidungssystemen beispielsweise ein Interesse daran, Objekte zu erkennen, die sich noch nicht in der Sichtlinie der Fahrzeugsensoren befinden. In Übereinstimmung mit exemplarischen Ausführungsformen der Erfindung wird eine Nicht-Sichtlinien Hinderniserkennung und Lokalisierung erleichtert. Wie unten ausführlicher beschrieben wird, werden Radardaten mit einem vorgegebenen oder gelernten Modell der aktuellen Topologie kombiniert, um Informationen über Objekte abzuleiten, die außerhalb der Sichtlinie liegen. Während der exemplarische Fall von fahrzeugbasierten Radarsystemen zu erläuternden Zwecken beschrieben wird, sind die hierin beschriebenen Ausführungsformen nicht darauf beschränkt, in einem Fahrzeugsystem verwendet zu werden. Andere Fahrzeuge (z.B. Baumaschinen, landwirtschaftliche Ausrüstung) und andere Arten von Plattformen werden ebenfalls in Betracht gezogen. Zusätzlich kann, während ein Doppler-Radarsystem als eine exemplarische Ausführungsform eines Nicht-Sichtlinien Erfassungssystems hierin erörtert wird, jedes Sensorsystem, das Bereichs-, Azimut-, Höhen- und Geschwindigkeitsinformationen bereitstellt, gemäß den ausführlichen Ausführungsformen verwendet werden.As mentioned above, obstacle detection is part of the operation of many systems that involve automated path control. Depending on location and distance, different types of obstacle detection may be used. For example, automated vacuum cleaners that need to detect obstacles that are on the order of inches away may use infrared transmissions and reflections. In other applications, such as vehicle and aircraft applications, where obstacle detection at longer ranges is of interest, radio detection and ranging (radar) is generally used. Generally, radar systems transmit radio waves and determine the range, angle (azimuth and elevation), and speed of an object based on the reflection of the radio waves from the object. As such, typical radar detection relies on line of sight to the object (target) being detected. However, in vehicle collision avoidance systems, for example, there is an interest in detecting objects that are not yet in the line of sight of the vehicle sensors. In accordance with exemplary embodiments of the invention, non-line of sight obstacle detection and localization is facilitated. As described in more detail below, radar data is combined with a given or learned model of the current topology to derive information about objects that are beyond the line of sight. While the exemplary case of vehicle-based radar systems is described for illustrative purposes, the embodiments described herein are not limited to use in a vehicle system. Other vehicles (e.g., construction equipment, agricultural equipment) and other types of platforms are also contemplated. Additionally, while a Doppler radar system is discussed as an exemplary embodiment of a non-line of sight sensing system herein, any sensor system that provides range, azimuth, altitude, and velocity information may be used in accordance with the detailed embodiments.

1 ist eine Darstellung der Nicht-Sichtlinien Hinderniserkennung gemäß Ausführungsformen. Eine exemplarische Kreuzung ist dargestellt, und die exemplarische Plattform 10 für das Nicht-Sichtlinien Hinderniserfassungssystem 110 ist ein Fahrzeug. Ein Host-Fahrzeug 100, welches das Erfassungssystem 110 (2) gemäß den nachstehend beschriebenen Ausführungsformen beinhaltet, ist an der exemplarischen Kreuzung gezeigt. Das Host-Fahrzeug 100 kann andere Sensoren 105 (z. B. Kamera, Lidarsystem) beinhalten. Andere Fahrzeuge 120a, 120b (die auch das Erfassungssystem 110 beinhalten können) und andere Objekte 130 (die in der exemplarischen Darstellung Gebäude sind) werden ebenfalls in 1 gezeigt. Die anderen Objekte 130a und eines der anderen Fahrzeuge 120a befinden sich innerhalb der Sichtlinie des Erfassungssystems 110 des Host-Fahrzeugs 100. Eines der anderen Objekte 130b und das andere Fahrzeug 120b befinden sich nicht innerhalb der Sichtlinie des Erfassungssystems 110 des Host-Fahrzeugs 100. Das heißt, die Übertragungen 215 vom Erfassungssystem 110 des Host-Fahrzeugs 100 können das Fahrzeug 120b oder das Objekt 130b nicht direkt auf der Grundlage der relativen Positionen des Host-Fahrzeugs 100 und des Fahrzeugs 120b oder des in 1 gezeigten Objekts 130b erreichen. Als solches können auch Reflexionen 225 direkt aus dem Fahrzeug 120b oder Objekt 130b nicht mit dem Erfassungssystem 110 des Host-Fahrzeugs 100 erhalten werden. 1 is an illustration of non-line-of-sight obstacle detection according to embodiments. An exemplary intersection is shown, and the exemplary platform 10 for the non-line-of-sight obstacle detection system 110 is a vehicle. A host vehicle 100, which includes the detection system 110 (2) according to the embodiments described below, is shown at the exemplary intersection. The host vehicle 100 may include other sensors 105 (e.g., camera, lidar system). Other vehicles 120a, 120b (which may also include the detection system 110) and other objects 130 (which are buildings in the exemplary illustration) are also shown in 1 shown. The other objects 130a and one of the other vehicles 120a are within the line of sight of the detection system 110 of the host vehicle 100. One of the other objects 130b and the other vehicle 120b are not within the line of sight of the detection system 110 of the host vehicle 100. That is, the transmissions 215 from the detection system 110 of the host vehicle 100 cannot directly detect the vehicle 120b or the object 130b based on the relative positions of the host vehicle 100 and the vehicle 120b or the 1 shown object 130b. As such, reflections 225 directly from the vehicle 120b or object 130b may not be obtained with the detection system 110 of the host vehicle 100.

Wie jedoch die gestrichelten Linien in 1 anzeigen, können die Übertragungen 215 vom Erfassungssystem 110 des Host-Fahrzeugs 100 von dem anderen Fahrzeug 120a und anderen Objekten 130a abprallen und das Fahrzeug 120b oder das Objekt 130b erreichen, die außerhalb der Sichtlinie des Erfassungssystems 110 des Host-Fahrzeugs liegen 100. Die Reflexionen 225 des Fahrzeugs 120b oder dem Objekt 130b können auch vom anderen Fahrzeug 120a und anderen Objekten 130 abprallen, um das Host-Fahrzeug 100 zu erreichen. Diese abgeprallten Signale werden als Mehrwegesignale bezeichnet, da auf der Grundlage einer Übertragung 215 durch das Erfassungssystem 110 Reflexionen 225 aus mehreren Pfaden resultieren können. Um deutlich sein, ist nur eine der Direktübertragungen 215x und die resultierenden Reflexionen 225x innerhalb der Sichtlinie des Host-Fahrzeugs 100 (zu und vom Fahrzeug 120a und den anderen Objekten 130) gezeigt, um die nach den Ausführungsformen interessanten Mehrwege-Aufprallsignale (215/225) zu verschleiern. So kann beispielsweise eine Übertragung 215x durch das andere Objekt 130a reflektiert werden und führt zu einer Reflexion 225x direkt zurück zum Erfassungssystem 110 und zusätzlich kann eine Übertragung 215 von dem anderen Objekt 130a abprallen und zu einer Reflexion 225 führen, die tatsächlich vom Nicht-Sichtlinienobjekt des Fahrzeugs 120b stammt.However, as the dashed lines in 1 indicate, the transmissions 215 from the detection system 110 of the host vehicle 100 may bounce off the other vehicle 120a and other objects 130a and reach the vehicle 120b or the object 130b that are outside the line of sight of the detection system 110 of the host vehicle 100. The reflections 225 from the vehicle 120b or the object 130b may also bounce off the other vehicle 120a and other objects 130 to reach the host vehicle 100. These bounced signals are referred to as multipath signals because reflections 225 may result from multiple paths based on one transmission 215 by the detection system 110. To be clear, only one of the direct transmissions 215x and the resulting reflections 225x are shown within the line of sight of the host vehicle 100 (to and from the vehicle 120a and the other objects 130) in order to obscure the multi-path impact signals (215/225) of interest according to the embodiments. For example, a transmission 215x may reflect off the other object 130a and result in a reflection 225x directly back to the detection system 110 and, in addition, a transmission 215 may bounce off the other object 130a and result in a reflection 225 that actually originates from the non-line of sight object of the vehicle 120b.

Bei einem typischen Radarsystem sind diese abgeprallten Übertragungen 215 und resultierenden reflektierten Reflexionen 225 oder Mehrwegesignale eine unerwünschte Wirkung, während die direkten Übertragungen 215 und Reflexionen 225 von Zielen innerhalb der Sichtlinie (Fahrzeug 120, Objekte 130) von Interesse sind. Jedoch werden gemäß den Ausführungsformen der Erfindung diese Mehrwege-Reflexionen 225 isoliert und verarbeitet, um eine Nicht-Sichtlinien Hinderniserkennung und Lokalisierung durchzuführen. Die Erfassungssystem 110 ist unter Bezugnahme auf 2 ausgeführt.In a typical radar system, these bounced transmissions 215 and resulting reflected reflections 225 or multipath signals are an undesirable effect, while the direct transmissions 215 and reflections 225 from targets within the line of sight (vehicle 120, objects 130) are of interest. However, according to embodiments of the invention, these multipath reflections 225 are isolated and processed to perform non-line of sight obstacle detection and localization. The detection system 110 is described with reference to 2 executed.

2 ist ein Blockdiagramm des Erfassungssystems 110 gemäß den Ausführungsformen. ist das Erfassungssystem 110, das ein Doppler-Radarsystem ist, eine exemplarische Ausführungsform, aber jedes Sensorsystem, das ähnliche Informationen liefert (z. B. Geschwindigkeit, Bereich, Azimut, Elevation), kann in alternativen Ausführungsformen verwendet werden. Fahrzeug-Erfassungssysteme 110, die in Fahrzeugplattformen 10, wie beispielsweise dem Host-Fahrzeug 100 verwendet werden, können im Allgemeinen in der kontinuierlichen linearen Wellenfrequenzmodulation (CW-LFM) arbeiten und können Frequenzbereiche von 21 bis 27 Gigahertz oder 77 bis 81 Gigahertz betreiben. Energie wird über eine Anzahl von Zyklen übertragen und empfangen, um die Nicht-Sichtlinien Hinderniserkennung und Lokalisierung gemäß den hierin erörterten Ausführungsformen durchzuführen. Informationen, die vom Erfassungssystem 110 erhalten werden, können den Fahrzeugsteuerungssystemen 270, den Anzeigesystemen 280, zugeführt werden. Das Erfassungssystem 110 kann zusätzlich mit anderen Sensorsystemen 105 des Host-Fahrzeugs 100 kommunizieren. Die Fahrzeugsteuerungssysteme 270 können beispielsweise automatische Brems- oder Lenksteuersysteme beinhalten. Die Anzeigesysteme 280 können dem Fahrer ein Nicht-Sichtlinienobjekt (z. B. ein anderes Fahrzeug 120b, 1) anzeigen. Andere Sensorsysteme 105 des Host-Fahrzeugs 100 können Abbildungssysteme (z. B. ein globales Positionierungssystem (GPS)), visuelle Systeme (z. B. Mono- oder Stereokamerasysteme) und Entfernungssysteme (z. B. LIDAR) beinhalten. Diese anderen Sensorsysteme 105 können die Bestimmung des Standorts des Host-Fahrzeugs 100 und ein Modell der Topologie an der Stelle erleichtern. 2 12 is a block diagram of the sensing system 110 according to embodiments. The sensing system 110, which is a Doppler radar system, is an exemplary embodiment, but any sensor system that provides similar information (e.g., speed, range, azimuth, elevation) may be used in alternative embodiments. Vehicle sensing systems 110 used in vehicle platforms 10, such as the host vehicle 100, may generally operate in continuous linear wave frequency modulation (CW-LFM) and may operate frequency ranges of 21 to 27 gigahertz or 77 to 81 gigahertz. Power is transmitted and received over a number of cycles to perform non-line-of-sight obstacle detection and localization according to the embodiments discussed herein. Information obtained from the sensing system 110 may be provided to the vehicle control systems 270, the display systems 280. The sensing system 110 may additionally communicate with other sensor systems 105 of the host vehicle 100. The vehicle control systems 270 may include, for example, automatic braking or steering control systems. The display systems 280 may display a non-line-of-sight object (e.g., a other vehicle 120b, 1 ). Other sensor systems 105 of the host vehicle 100 may include imaging systems (e.g., a global positioning system (GPS)), vision systems (e.g., mono or stereo camera systems), and ranging systems (e.g., LIDAR). These other sensor systems 105 may facilitate determining the location of the host vehicle 100 and a model of the topology at the location.

Das Erfassungssystem 110 beinhaltet einen Senderabschnitt 210, einen Empfangsabschnitt 220 und ein Verarbeitungssystem 230. Das Erfassungssystem 110 kann ein Multiple Input Multiple Output (MIMO) Array-Radar sein, wie gezeigt. Somit kann der Senderabschnitt 210 mehrere Antennenelemente 214 beinhalten, die mehrere Übertragungen 215 aussenden, und der Empfängerabschnitt 220 kann mehrere Antennenelemente 224 beinhalten, um die Reflexionen 225 aufzunehmen. Derartige Reflexionen werden über einen Azimutbereich und einen Höhenbereich mit den Arrays der Elemente 214, 224 erhalten. Das Erfassungssystem 110 kann bekannte Techniken wie Strahlformung an den Antennenelementen 224 des Empfangsabschnitts 220 verwenden und spezifisch den Dopplereffekt verwenden, um die Geschwindigkeit der erfassten Objekte zu bestimmen. Bereich und Leistung (Intensität) wird auch aus den Reflexionen 225 erhalten. Somit erleichtert das Array von Antennenelementen 214, 224 das Erhalten eines Bildes, bei dem angenommen wird, dass jedes Pixel mit einem Azimut-, Höhen-, Bereichs- und Geschwindigkeitswert sowie einer Intensität zugeordnet ist. Zusätzlich kann das Erfassungssystem 110 ein Modell der Topologie (das die Ziele in der Sichtlinie angibt) verwenden, um die Identifizierung von Nicht-Sichtlinienobjekten zu vereinfachen.The detection system 110 includes a transmitter section 210, a receive section 220, and a processing system 230. The detection system 110 may be a multiple input multiple output (MIMO) array radar, as shown. Thus, the transmitter section 210 may include multiple antenna elements 214 that emit multiple transmissions 215, and the receiver section 220 may include multiple antenna elements 224 to collect the reflections 225. Such reflections are obtained over an azimuth range and an elevation range with the arrays of elements 214, 224. The detection system 110 may use known techniques such as beamforming on the antenna elements 224 of the receive section 220, and specifically using the Doppler effect to determine the speed of the detected objects. Range and power (intensity) is also obtained from the reflections 225. Thus, the array of antenna elements 214, 224 facilitates obtaining an image in which each pixel is assumed to be associated with an azimuth, altitude, range and velocity value, as well as an intensity. Additionally, the detection system 110 may use a model of the topology (indicating the targets in the line of sight) to facilitate identification of non-line of sight objects.

Der Senderabschnitt 210 und der Empfängerabschnitt 220 sind bekannt und werden hierin nicht ausführlich beschrieben. Wie in der erweiterten Ansicht in 2 gezeigt, beinhaltet der Senderabschnitt 210 im Allgemeinen einen Oszillator 211, einen Puffer 212 und einen Leistungsverstärker 213 und der Empfangsabschnitt 220 beinhaltet im Allgemeinen einen Vorverstärker 221, einen Mischer 222 und einen Analog-Digital-Wandler (A/D-Wandler) 223. Das Verarbeitungssystem 230 beinhaltet eine oder mehrere Speichervorrichtungen 240 und einen oder mehrere Prozessoren 250, um die Nicht-Sichtlinien Hinderniserkennung durchzuführen. Während das Verarbeitungssystem 230 als Teil des Erfassungssystems 110 gezeigt ist und von anderen Fahrzeugsteuerungssystemen 270 getrennt ist, kann beispielsweise das Verarbeitungssystem 230, das die Reflexionen 225 verarbeitet, um eine Nicht-Sichtlinien Hinderniserkennung durchzuführen, unter einem oder mehreren Systemen in dem Host-Fahrzeug 100 gemeinsam geteilt werden. Die Kommunikation zwischen den verschiedenen Systemen (110, 270, 280, 105) kann auf einer Festverdrahtung oder drahtlosen Kommunikation oder auf einer Kombination von bekannten Kommunikationsschemata basieren, einschließlich beispielsweise über einen gemeinsamen Bus. Die Verarbeitung der Reflexionen 225, die durch das Verarbeitungssystem 230 durchgeführt wird, um Nicht-Sichtlinienobjekte zu identifizieren und zu lokalisieren, die sich dem Host-Fahrzeug 100 nähern, wird unter Bezugnahme auf 3 beschrieben.The transmitter section 210 and the receiver section 220 are known and are not described in detail herein. As shown in the expanded view in 2 As shown, the transmitter section 210 generally includes an oscillator 211, a buffer 212, and a power amplifier 213, and the receive section 220 generally includes a preamplifier 221, a mixer 222, and an analog-to-digital (A/D) converter 223. The processing system 230 includes one or more memory devices 240 and one or more processors 250 to perform non-line-of-sight obstacle detection. For example, while the processing system 230 is shown as part of the sensing system 110 and separate from other vehicle control systems 270, the processing system 230 that processes the reflections 225 to perform non-line-of-sight obstacle detection may be shared among one or more systems in the host vehicle 100. The communication between the various systems (110, 270, 280, 105) may be based on hardwired or wireless communication or on a combination of known communication schemes, including, for example, via a common bus. The processing of the reflections 225 performed by the processing system 230 to identify and locate non-line-of-sight objects approaching the host vehicle 100 is described with reference to 3 described.

3 ist ein Prozessablauf eines Verfahrens zum Durchführen der Nicht-Sichtlinien Hinderniserkennung und Lokalisierung gemäß den Ausführungsformen. Die nachfolgend dargestellten exemplarischen Ausführungsformen beziehen sich auf die Reflexionen 225, die vom Erfassungssystem 110 zu erläuternden Zwecken empfangen werden. Wie vorstehend erwähnt, können (Bereichs-, Geschwindigkeits-, Azimut-, Höhen-) Information, die verwendet wird, um eine Nicht-Sichtlinienerkennung durchzuführen, stattdessen von anderen bekannten Sensorsystemen oder anderen Konfigurationen von Radarsystemen erhalten werden. Bei Block 310 beinhaltet das Erhalten von Reflexionen 225 das Erhalten sowohl der direkten als auch der Mehrwegreflexionen 225 auf der Grundlage der vorhandenen Objekte. Das Erhalten von Reflexionen 225 beinhaltet auch das Durchführen mehrerer Übertragungen 215 von jedem Sendeantennenelement 214 und das Erhalten mehrerer Reflexionen 225 an jedem Empfangsantennenelement 224. Die Verarbeitung der Reflexionen 225, bei Block 320 beinhaltet mehrere Prozesse 330, 340, 350, wie gezeigt. Zusätzlich zu den im Block 310 erhaltenen Reflexionen 225 werden andere Informationen (die bei den Blöcken 325 und 335 erhalten werden) verwendet, um Nicht-Sichtlinienobjekte (z. B. ein anderes Fahrzeug 120b, 1) zu erfassen und zu lokalisieren. Das Erhalten anderer Informationen bei Block 325 bezieht sich auf das Erhalten von Informationen von anderen Sensoren 105 oder anderen Verarbeitungssystemen der Plattform 10 (z. B. Host-Fahrzeug 100). Die anderen Informationen können Landschaftsinformationen über die Topologie des aktuellen Standortes der Plattform 10 (Hostfahrzeug 100) beinhalten. Die Landschaftsinformation kann beispielsweise die Lage von Objekten 130 wie zum Beispiel Gebäude beinhalten. Diese Information kann als Eingabe für das Host-Fahrzeug 100 bereitgestellt werden oder kann bei früheren Besuchen an der gleichen Stelle durch das Host-Fahrzeug 100 gemäß einem bekannten dynamischen Lernalgorithmus gelernt werden. Das Überwachen von Host-Fahrzeug 100 Bewegungsparametern kann bei Block 335 das Überwachen anderer Sensoren 105, wie beispielsweise eines GPS-Empfängers des Host-Fahrzeugs 100, beinhalten, um Position und Bewegung zu bestimmen. Wie 3 angezeigt, wird die Ortsinformation, die durch Überwachen des Host-Fahrzeugs 100 (bei Block 335) erhalten wird, benötigt, um andere Informationen, wie beispielsweise Landschaftsinformation (bei Block 325) zu erhalten. 3 is a process flow of a method for performing non-line-of-sight obstacle detection and localization in accordance with embodiments. The exemplary embodiments presented below refer to the reflections 225 received by the detection system 110 for illustrative purposes. As mentioned above, information (range, velocity, azimuth, altitude) used to perform non-line-of-sight detection may instead be obtained from other known sensor systems or other configurations of radar systems. At block 310, obtaining reflections 225 includes obtaining both the direct and multipath reflections 225 based on the objects present. Obtaining reflections 225 also includes performing multiple transmissions 215 from each transmit antenna element 214 and obtaining multiple reflections 225 at each receive antenna element 224. Processing the reflections 225, at block 320, includes multiple processes 330, 340, 350, as shown. In addition to the reflections 225 obtained at block 310, other information (obtained at blocks 325 and 335) is used to detect non-line-of-sight objects (e.g., another vehicle 120b, 1 ) to detect and locate. Obtaining other information at block 325 refers to obtaining information from other sensors 105 or other processing systems of the platform 10 (e.g., host vehicle 100). The other information may include landscape information about the topology of the current location of the platform 10 (host vehicle 100). For example, the landscape information may include the location of objects 130 such as buildings. This information may be provided as input to the host vehicle 100 or may be learned by the host vehicle 100 from previous visits to the same location according to a known dynamic learning algorithm. Monitoring host vehicle 100 motion parameters may include monitoring other sensors 105, such as a GPS receiver of the host vehicle 100, to determine position and motion at block 335. How 3 displayed, the location information, obtained by monitoring the host vehicle 100 (at block 335) is needed to obtain other information, such as landscape information (at block 325).

Das Identifizieren von Reflexionen 225 aus statischen Umgebungen, bei Block 330, bezieht sich auf die Identifizierung von Pixeln mit Nullgeschwindigkeit (Null-Doppler). Diese Pixel können dann nicht bewegten Objekten (z. B. den Objekten 130a, 130b, 1) zugeordnet werden. Die Identifikation bei Block 330 kann unterstützt werden, wenn die Landschaftsinformation verfügbar ist (ab Block 325). Die Landschaftsinformation hilft bei der Unterscheidung zwischen den stationären Objekten 130 in der Szene. Das heißt, wenn das Fahrzeug 120a in 1 gestoppt wird, kann es als ein nicht bewegendes Objekt erscheinen. Jedoch kann die Landschaftsinformation (von Block 325) verwendet werden, um das Fahrzeug 120a (das zum Zeitpunkt der Verarbeitung nicht beweglich sein kann, aber nicht stationär ist) mit Objekten 130 (die zum Zeitpunkt der Verarbeitung sowohl unbewegt als auch stationär sind) verwendet werden. Die Identifizierung von Reflexionen 225 aus statischen Umgebungen bei Block 330 kann zuerst als eine Art von Filterung der Reflexionen 225 durchgeführt werden, um die Reflexionen 225 zu isolieren, die mit sich bewegenden (oder beweglichen) Objekten verbunden sind (sowohl innerhalb als auch außerhalb der Sichtlinie des Host-Fahrzeugs 100 des Überwachungssystems 110). Bei dieser Filterung von statischen Objekten (bei Block 330) folgt die Unterscheidung zwischen Sichtlinie (z. B. 120a) und Nicht-Sichtlinie (z. B. andere Fahrzeug 120b, 1), die Objekte im Block 340 bewegt. Als Teil der Verarbeitung bei Block 340 können Pixel, die einer Bewegung zugeordnet sind, zuerst verwendet werden, um Objekte basierend auf einem bekannten Clustering-Algorithmus zu identifizieren. Der Rest der Verarbeitung bei Block 340 beinhaltet dann die Kategorisierung der Objekte innerhalb oder außerhalb der Sichtlinie der Plattform 10.Identifying reflections 225 from static environments, at block 330, refers to identifying pixels with zero velocity (zero Doppler). These pixels can then be assigned to non-moving objects (e.g., objects 130a, 130b, 1 ). The identification at block 330 can be supported if the landscape information is available (from block 325). The landscape information helps to distinguish between the stationary objects 130 in the scene. That is, if the vehicle 120a in 1 is stopped, it may appear as a non-moving object. However, the landscape information (from block 325) may be used to compare the vehicle 120a (which may be non-moving at the time of processing, but is not stationary) with objects 130 (which are both still and stationary at the time of processing). The identification of reflections 225 from static environments at block 330 may first be performed as a type of filtering of the reflections 225 to isolate the reflections 225 associated with moving (or moving) objects (both within and outside the line of sight of the host vehicle 100 of the surveillance system 110). In this filtering of static objects (at block 330), the distinction between line of sight (e.g., 120a) and non-line of sight (e.g., other vehicle 120b, 1 ) that moves objects at block 340. As part of the processing at block 340, pixels associated with motion may first be used to identify objects based on a known clustering algorithm. The remainder of the processing at block 340 then involves categorizing the objects within or outside the line of sight of the platform 10.

Die Unterscheidung der Sichtlinienbewegungsobjekte von Nicht-Sichtlinienbewegungsobjekten, bei Block 340, kann nach verschiedenen Ausführungsformen durchgeführt werden. Gemäß einer Ausführungsform können andere Sensoren 105 auf der Grundlage der in Block 325 erhaltenen Information verwendet werden. So kann beispielsweise eine auf dem Host-Fahrzeug 100 angebrachte Kamera (105) verwendet werden, und es kann eine bekannte Bewegungsobjekt-Erfassung innerhalb des Sichtfeldes der Kamera durchgeführt werden. Der Azimut und die Erhöhung von Pixeln, die mit beliebigen bewegten Objekten im Kamerafeld der Ansicht zugeordnet sind, können in einen Azimut und eine Elevation übersetzt werden, die dem Sichtfeld des Erfassungssystems 110 zugeordnet sind. Wenn die übersetzten Azimut- und Höhenwerte mit Azimut- und Höhenwerten von sich bewegenden Objekten oder Reflexionen 225 übereinstimmen, die nicht als statisch ausgefiltert werden (bei Block 330), so sind diese Objekte oder Reflexionen 225 mit einer Sichtlinie verbunden. Gemäß einer anderen Ausführungsform wird ein bekannter statistischer Modellierungsansatz auf Reflexionen 225 verwendet, die mit sich bewegenden Objekten verbunden sind. Sobald die Nicht-Sichtlinienbewegungsobjekte von Sichtlinienbewegungsobjekten identifiziert sind (bei Block 340), lokalisieren die Nicht-Sichtlinienbewegungsobjekte (z. B. 120b) bei Block 350, das Erhalten anderer Information (bei Block 325), wie in 3 dargestellt. Die anderen Informationen können beispielsweise eine Abbildung der aktuellen Position des Host-Fahrzeugs 100 beinhalten. Die Angabe eines sich nähernden Nicht-Sichtlinienbewegungsobjekts im Block 360 beinhaltet das Bestimmen, basierend auf der Lokalisierung (bei Block 350), ob sich das Nicht-Sichtlinienbewegungsobjekt des Sichtlinienbewegungsobjekts mit dem Host-Fahrzeug 100 schneidet. So wird sich beispielsweise bei dem in 1 dargestellten Szenario das Nicht-Sichtlinienobjekt mit dem Host-Fahrzeug 100 schneiden, wenn beide Fahrzeuge 100 auf dem aktuellen Pfad verlaufen. Jedoch kann in einem anderen exemplarischen Szenario der Pfad, auf dem das andere Fahrzeug 120b gezeigt ist, unter den Pfad gehen, auf dem das Hostfahrzeug 100 gezeigt ist. In einem derartigen Szenario würden sich das andere Fahrzeug 120b und das Hostfahrzeug 100 nicht schneiden. Als solches kann die Lokalisierung (bei Block 350), die eine Karte verwendet, verhindern, dass das andere Fahrzeug 120b als ein sich näherndes Nicht-Sichtlinienobjekt bei Block 360 angezeigt wird. Die in Block 360 vorgesehene Anzeige kann auf einer Karte (über ein Anzeigesystem 280), die für den Fahrer des Host-Fahrzeugs 100 sichtbar ist, als Warnung vor dem sich nähernden Objekt (z. B. ein anderes Fahrzeug 120b, 1) sichtbar sein. In zusätzlichen oder alternativen Ausführungsformen kann die Anzeige an ein Fahrzeugsteuersystem 270 (z. B. Kollisionsvermeidungs- oder automatisiertes Lenksystem) geliefert werden, um Entscheidungen bezüglich der Steuerung des Hostfahrzeugs 100 basierend auf der Position und der Bewegung der Nicht-Sichtlinienobjekt(e) zu erleichtern.Distinguishing line-of-sight moving objects from non-line-of-sight moving objects, at block 340, may be performed according to various embodiments. According to one embodiment, other sensors 105 may be used based on the information obtained at block 325. For example, a camera (105) mounted on the host vehicle 100 may be used and known moving object detection may be performed within the camera's field of view. The azimuth and elevation of pixels associated with any moving objects in the camera's field of view may be translated into an azimuth and elevation associated with the field of view of the detection system 110. If the translated azimuth and elevation values match azimuth and elevation values of moving objects or reflections 225 that are not filtered out as static (at block 330), then those objects or reflections 225 are associated with a line of sight. According to another embodiment, a known statistical modeling approach is used on reflections 225 associated with moving objects. Once the non-line-of-sight moving objects are identified from line-of-sight moving objects (at block 340), locate the non-line-of-sight moving objects (e.g., 120b) at block 350, obtain other information (at block 325) as in 3 The other information may include, for example, a map of the current position of the host vehicle 100. The indication of an approaching non-line-of-sight moving object in block 360 includes determining, based on the location (at block 350), whether the non-line-of-sight moving object of the line-of-sight moving object intersects with the host vehicle 100. For example, in the case of the 1 illustrated scenario, the non-line-of-sight object may intersect with the host vehicle 100 if both vehicles 100 are traveling on the current path. However, in another exemplary scenario, the path on which the other vehicle 120b is shown may go below the path on which the host vehicle 100 is shown. In such a scenario, the other vehicle 120b and the host vehicle 100 would not intersect. As such, localization (at block 350) using a map may prevent the other vehicle 120b from being displayed as an approaching non-line-of-sight object at block 360. The display provided at block 360 may be visible on a map (via display system 280) visible to the driver of the host vehicle 100 as a warning of the approaching object (e.g., another vehicle 120b, FIG. 1). In additional or alternative embodiments, the indication may be provided to a vehicle control system 270 (e.g., collision avoidance or automated steering system) to facilitate decisions regarding control of the host vehicle 100 based on the position and motion of the non-line-of-sight object(s).

Claims (1)

Verfahren zum Erfassen und Lokalisieren eines Nicht-Sichtlinienobjekts (120b), das Verfahren umfassend: Empfangen von Reflexionen an einem Erfassungssystem (110) einer beweglichen Plattform (10), wobei die Reflexionen direkte und mehrteilige Reflexionen beinhalten; Erhalten von Informationen von anderen Sensoren (105) als dem Erfassungssystem (110), wobei ein Standort der Plattform (10) und eine Karte des Standorts erhalten werden; Identifizieren der Reflexionen, die mit statischen Zielen verknüpft sind, um die Reflexionen zu behalten, die mit sich bewegenden Zielen verbunden sind; Identifizieren der statischen Ziele auf der Karte; Unterscheiden zwischen Sichtlinienobjekten (120a) und Nicht-Sichtlinienobjekten (120b) unter den beweglichen Zielen; Lokalisieren der Nicht-Sichtlinienobjekte (120b) relativ zur Plattform (10); und Anzeigen von sich nähernden Nicht-Sichtlinienobjekte (120b) unter den Nicht-Sichtlinienobjekten (120b), wobei sich die nähernden Nicht-Sichtlinienobjekte (120b) in Richtung der Plattform (10) auf einem Pfad bewegen, der die Plattform (10) schneidet; dadurch gekennzeichnet , dass die Nicht-Sichtlinienobjekte (120b) lokalisiert werden, indem der Standort der Nicht-Sichtlinienobjekte (120b) auf der Karte bestimmt wird; und dass auf Basis der Karte bestimmt wird, ob die Nicht-Sichtlinienobjekte (120b) sich annähernde Nicht-Sichtlinienobjekte (120b) sind; wobei das Erhalten von Information umfasst, dass Informationen über sich bewegende Objekte von einer Kamera empfangen werden, wobei das Unterscheiden zwischen den Sichtlinienobjekten (120a) und den Nicht-Sichtlinienobjekten (120b) umfasst, dass Richtungs- und Höhenwinkel von Pixeln, die sich bewegenden Objekten im Sichtfeld der Kamera zugeordnet sind, in Richtungs- und Höhenwinkel übersetzt werden, die dem Sichtfeld des Erfassungssystems (110) zugeordnet sind.A method for detecting and locating a non-line-of-sight object (120b), the method comprising: receiving reflections at a detection system (110) of a movable platform (10), the reflections including direct and multi-part reflections; obtaining information from sensors (105) other than the detection system (110), wherein a Location of the platform (10) and a map of the location are obtained; identifying the reflections associated with static targets to retain the reflections associated with moving targets; identifying the static targets on the map; distinguishing between line of sight objects (120a) and non-line of sight objects (120b) among the moving targets; locating the non-line of sight objects (120b) relative to the platform (10); and indicating approaching non-line of sight objects (120b) among the non-line of sight objects (120b), the approaching non-line of sight objects (120b) moving toward the platform (10) on a path that intersects the platform (10); characterized in that the non-line of sight objects (120b) are located by determining the location of the non-line of sight objects (120b) on the map; and determining, based on the map, whether the non-line-of-sight objects (120b) are approaching non-line-of-sight objects (120b); wherein obtaining information comprises receiving information about moving objects from a camera, wherein distinguishing between the line-of-sight objects (120a) and the non-line-of-sight objects (120b) comprises translating heading and elevation angles of pixels associated with moving objects in the field of view of the camera into heading and elevation angles associated with the field of view of the detection system (110).
DE102017106931.3A 2016-03-31 2017-03-30 Method for detecting and locating a non-line-of-sight object Active DE102017106931B4 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662316103P 2016-03-31 2016-03-31
US62/316,103 2016-03-31
US15/161,872 US10395539B2 (en) 2016-03-31 2016-05-23 Non-line of sight obstacle detection and localization
US15/161,872 2016-05-23

Publications (2)

Publication Number Publication Date
DE102017106931A1 DE102017106931A1 (en) 2017-10-05
DE102017106931B4 true DE102017106931B4 (en) 2024-11-28

Family

ID=59885739

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017106931.3A Active DE102017106931B4 (en) 2016-03-31 2017-03-30 Method for detecting and locating a non-line-of-sight object

Country Status (1)

Country Link
DE (1) DE102017106931B4 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111352106B (en) * 2018-12-24 2022-06-14 珠海一微半导体股份有限公司 Sweeping robot slope identification method and device, chip and sweeping robot
CN113364969B (en) 2020-03-06 2023-05-12 华为技术有限公司 Imaging method of non-line-of-sight object and electronic equipment
KR20240062227A (en) * 2022-10-28 2024-05-09 삼성전기주식회사 Target detection method and apparatus
US20260014932A1 (en) * 2024-07-10 2026-01-15 GM Global Technology Operations LLC Non-line-of-sight imminent crash warning using reflective head-up displays

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004058844A1 (en) 2004-12-06 2006-06-08 Daimlerchrysler Ag Traffic condition detecting method, involves detecting virtual reflection points by looped around radar radiations, where reflection points are included in computation for detection of traffic condition
DE102011119767A1 (en) 2010-12-02 2012-06-14 GM Global Technology Operations LLC APPEARANCE-BASED ASSOCIATION OF CAMERA AND DISTANCE SENSORS FOR MULTIPLE OBJECTS
DE10311959B4 (en) 2002-03-19 2013-07-25 Denso Corporation Object recognition device, radar device and method for recognizing an object
DE102014002435A1 (en) 2014-02-20 2014-08-14 Daimler Ag Method for representation of environment information of vehicle, involves evaluating radar echo signals as radar data, where radar echo signals are transferred from direct signal path between radar device and reflected objects
DE102015210069A1 (en) 2014-06-04 2015-12-17 Toyota Jidosha Kabushiki Kaisha DRIVING SUPPORT DEVICE

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10311959B4 (en) 2002-03-19 2013-07-25 Denso Corporation Object recognition device, radar device and method for recognizing an object
DE102004058844A1 (en) 2004-12-06 2006-06-08 Daimlerchrysler Ag Traffic condition detecting method, involves detecting virtual reflection points by looped around radar radiations, where reflection points are included in computation for detection of traffic condition
DE102011119767A1 (en) 2010-12-02 2012-06-14 GM Global Technology Operations LLC APPEARANCE-BASED ASSOCIATION OF CAMERA AND DISTANCE SENSORS FOR MULTIPLE OBJECTS
DE102014002435A1 (en) 2014-02-20 2014-08-14 Daimler Ag Method for representation of environment information of vehicle, involves evaluating radar echo signals as radar data, where radar echo signals are transferred from direct signal path between radar device and reflected objects
DE102015210069A1 (en) 2014-06-04 2015-12-17 Toyota Jidosha Kabushiki Kaisha DRIVING SUPPORT DEVICE

Also Published As

Publication number Publication date
DE102017106931A1 (en) 2017-10-05

Similar Documents

Publication Publication Date Title
DE102016117710B4 (en) METHOD AND FUSION SYSTEM FOR DETERMINING THE VELOCITY OF A TARGET
CN107272001B (en) External-of-sight obstacle detection and location
DE102015100134B4 (en) Method for detecting and tracking objects using multiple radar sensors
DE112017004333B4 (en) Environmental monitoring device and environmental monitoring method
DE102018127328B4 (en) Method and system for performing target detection
DE102015115743B4 (en) Detection system for detecting an object and method for performing a detection of an object
EP3540457A1 (en) Identification of objects by means of radar data
DE102019124152A1 (en) CLUTCH SUPPORT SYSTEM
DE102017106931B4 (en) Method for detecting and locating a non-line-of-sight object
DE102018101120B4 (en) Iterative approach to achieve angle ambiguity resolution
DE102018120405A1 (en) FUSION OF RADAR AND IMAGE SENSORS
DE102015110619A1 (en) Centralized radar methods and systems
DE102019113928A1 (en) MICRODOPPLER DEVICE AND METHOD FOR TRAILER DETECTION AND TRACKING
DE102015115789B4 (en) METHOD AND SYSTEM REALIZED ON A COMPUTER FOR PROCESSING AN IMAGE
DE112021003079T5 (en) RADAR DEVICE AND RADAR SYSTEM
DE112018001437T5 (en) METHOD AND SYSTEMS FOR POSING A VEHICLE ON A TRAILER
DE102020107484A1 (en) METHOD AND DEVICE FOR CONFIRMING A RADAR DETECTION
DE102018106478A1 (en) TARGET TRACKING USING REGIONAL COVENANT
DE10036042A1 (en) Multi-sensor lane allocation
DE102020131864A1 (en) PROCEDURES AND DEVICES FOR DETERMINING TRAILER DIMENSIONS
DE112019006516B4 (en) Driver assistance device
DE102021214580A1 (en) Systems and procedures to help drivers and passengers locate each other
DE102018112142A1 (en) METHOD AND DEVICE FOR LOW FREQUENCY LOCALIZATION OF SURROUNDING VEHICLES
DE112015005343T5 (en) OBJECT DETECTION DEVICE AND OBJECT DETECTION METHOD
DE102023110301A1 (en) IMPROVED DOPPLER RADAR RESOLUTION BASED ON A VEHICLE INERTIAL MEASUREMENT UNIT

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01S0017930000

Ipc: G01S0013890000

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final