[go: up one dir, main page]

DE102022124000A1 - Method for determining boundaries of and immovable objects in deployment areas for autonomous and/or partially autonomous all-terrain vehicles for deploying the all-terrain vehicles in the deployment areas - Google Patents

Method for determining boundaries of and immovable objects in deployment areas for autonomous and/or partially autonomous all-terrain vehicles for deploying the all-terrain vehicles in the deployment areas Download PDF

Info

Publication number
DE102022124000A1
DE102022124000A1 DE102022124000.2A DE102022124000A DE102022124000A1 DE 102022124000 A1 DE102022124000 A1 DE 102022124000A1 DE 102022124000 A DE102022124000 A DE 102022124000A DE 102022124000 A1 DE102022124000 A1 DE 102022124000A1
Authority
DE
Germany
Prior art keywords
boundaries
area
immovable objects
images
deployment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022124000.2A
Other languages
German (de)
Inventor
Mohammad Rasty
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FEV Group GmbH
Original Assignee
FEV Group GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FEV Group GmbH filed Critical FEV Group GmbH
Publication of DE102022124000A1 publication Critical patent/DE102022124000A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/15Agricultural vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/17Construction vehicles, e.g. graders, excavators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Ermitteln von Begrenzungen (3) von und unbeweglichen Objekten in Einsatzgebieten (4) für autonome und/oder teilweise autonome Geländefahrzeuge (1) für Einsätze der Geländefahrzeuge (1) in den Einsatzgebieten (4), umfassend die Schritte:- (20) Bereitstellen von Bildern des Einsatzgebietes (4) aus einer ersten Ansichtsrichtung, wobei die Bilder Geokoordinaten umfassen;- (40) Ermitteln von Begrenzungen (3) des Einsatzgebietes (4) anhand der Bilder;- (50) Berechnen von Geokoordinaten der Begrenzungen (3) anhand der Bilder und der ermittelten Begrenzungen (3);- (70) Bereitstellen einer 3-dimensionalen Repräsentation des Einsatzgebietes (4), wobei die 3-dimensionale Repräsentation Ansichten aus weiteren Ansichtsrichtungen für wenigstens Teile des Einsatzgebietes (4) umfasst;- (80) Ermitteln von unbeweglichen Objekten innerhalb des Einsatzgebietes (4) anhand der 3-dimensionalen Repräsentation mittels eines neuronalen Netzes;- (90) Klassifizieren der ermittelten unbeweglichen Objekte mittels des neuronalen Netzes;- (100) Ermitteln von Geokoordinaten der ermittelten Begrenzungen (3) und/oder der unbeweglichen Objekte;The invention relates to a method for determining boundaries (3) of and immovable objects in areas of use (4) for autonomous and/or partially autonomous all-terrain vehicles (1) for use of the all-terrain vehicles (1) in the areas of use (4), comprising the steps: - (20) providing images of the area of application (4) from a first viewing direction, the images comprising geo-coordinates;- (40) determining boundaries (3) of the area of application (4) using the images;- (50) calculating geo-coordinates of the Boundaries (3) based on the images and the determined boundaries (3); - (70) providing a 3-dimensional representation of the application area (4), the 3-dimensional representation comprising views from other viewing directions for at least parts of the application area (4). - (80) determining immovable objects within the operational area (4) based on the 3-dimensional representation using a neural network;- (90) classifying the determined immovable objects using the neural network;- (100) determining geo-coordinates of the determined boundaries (3) and/or the immovable objects;

Description

Die Erfindung betrifft ein Verfahren zum Ermitteln von Begrenzungen von und unbeweglichen Objekten in Einsatzgebieten für autonome und/oder teilweise autonome Geländefahrzeuge für Einsätze der Geländefahrzeuge in den Einsatzgebieten, ein Geländefahrzeug und ein Computerprogrammprodukt.The invention relates to a method for determining the boundaries of and immovable objects in areas of use for autonomous and/or partially autonomous all-terrain vehicles for use of the all-terrain vehicles in the areas of use, an all-terrain vehicle and a computer program product.

Die US2006095171 offenbart ein Verfahren zum Generieren einer Route für ein autonomes Geländefahrzeug.The US2006095171 discloses a method for generating a route for an autonomous all-terrain vehicle.

Ein erfindungsgemäßes Verfahren zum Ermitteln von Begrenzungen von und unbeweglichen Objekten in Einsatzgebieten für autonome und/oder teilweise autonome Geländefahrzeuge für Einsätze der Geländefahrzeuge in den Einsatzgebieten umfasst die Schritte:

  • - Bereitstellen von Bildern des Einsatzgebietes aus einer ersten Ansichtsrichtung, wobei die Bilder Geokoordinaten umfassen;
  • - Ermitteln von Begrenzungen des Einsatzgebietes anhand der Bilder;
  • - Berechnen von Geokoordinaten der Begrenzungen anhand der Bilder und der ermittelten Begrenzungen;
  • - Bereitstellen einer 3-dimensionalen Repräsentation des Einsatzgebietes, wobei die 3-dimensionale Repräsentation Ansichten aus weiteren Ansichtsrichtungen für wenigstens Teile des Einsatzgebietes umfasst;
  • - Ermitteln von unbeweglichen Objekten innerhalb des Einsatzgebietes anhand der 3-dimensionalen Repräsentation mittels eines neuronalen Netzes;
  • - Klassifizieren der ermittelten unbeweglichen Objekte mittels des neuronalen Netzes;
  • - Ermitteln von Geokoordinaten der ermittelten Begrenzungen und/oder der unbeweglichen Objekte;
A method according to the invention for determining boundaries of and immovable objects in areas of application for autonomous and/or partially autonomous all-terrain vehicles for use of the all-terrain vehicles in the areas of use comprises the steps:
  • - Providing images of the deployment area from a first viewing direction, the images comprising geo-coordinates;
  • - Determination of limitations of the area of application based on the images;
  • - Calculation of geo-coordinates of the boundaries based on the images and the determined boundaries;
  • - Providing a 3-dimensional representation of the area of application, wherein the 3-dimensional representation includes views from other viewing directions for at least parts of the area of application;
  • - Determination of immovable objects within the deployment area based on the 3-dimensional representation using a neural network;
  • - Classifying the determined stationary objects by means of the neural network;
  • - Determining geo-coordinates of the determined boundaries and/or the immovable objects;

Dadurch, dass eine 3-dimensionale Repräsentation des Einsatzgebietes zum Ermitteln von unbeweglichen Objekten verwendet wird, und dadurch, dass die 3-dimensionale Repräsentation Ansichten aus weiteren Ansichtsrichtungen umfasst, wird es ermöglicht, dass eine präzise Klassifizierung der unbeweglichen Objekte erfolgt. Dies ermöglicht es, dass im Vorfeld eines Einsatzes des Geländefahrzeugs die unbeweglichen Objekte, inklusive der Geokoordinaten bekannt sind. Dadurch wird es ermöglicht, Einsätze anhand der unbeweglichen Objekte zu ermitteln.Because a 3-dimensional representation of the area of application is used to determine immovable objects, and because the 3-dimensional representation includes views from other viewing directions, it is possible for the immovable objects to be classified precisely. This makes it possible for the immovable objects, including the geo-coordinates, to be known before the all-terrain vehicle is used. This makes it possible to determine missions based on the immovable objects.

Einsatzgebiete umfassen bevorzugt landwirtschaftliche Felder und/oder Anbauflächen, Minengebiete zum Abbau von Rohstoffen, wie Kohle und/oder Erze oder militärische Einsatzgebiete.Areas of use preferably include agricultural fields and/or cultivated areas, mining areas for mining raw materials such as coal and/or ores, or military areas of use.

Geländefahrzeuge umfassen bevorzugt als landwirtschaftliche Nutzfahrzeuge, Minenfahrzeuge und/oder militärische Fahrzeuge ausgebildet.Off-road vehicles preferably include agricultural vehicles, mining vehicles and/or military vehicles.

Begrenzungen umfassen bevorzugt Ränder von zu bewirtschaftenden Felder und/oder Minenbereiche, in denen das Geländefahrzeug operieren soll.Boundaries preferably include edges of fields to be cultivated and/or mine areas in which the all-terrain vehicle is intended to operate.

Unbewegliche Objekte umfassen bevorzugt Bäume, Gebäude, Brücken, fest verbaute Geräte und/oder Infrastrukturkomponenten.Immovable objects preferably include trees, buildings, bridges, permanently installed devices and/or infrastructure components.

In der Regel erfolgt das Ermitteln von unbeweglichen Objekten in Einsatzgebieten manuell durch Abfahren des Einsatzgebietes mit einem Fahrzeug, welches Sensoren zum Erfassen des Einsatzgebietes umfasst. Das Fahrzeug kann dabei das Einsatzfahrzeug sein. Menschliches Eingreifen ist hierfür unerlässlich, beispielsweise um einzuschätzen, ob und wie unbewegliche Objekte in Einsätzen berücksichtigt werden müssen. Dabei ist es oft unerlässlich, dass ein Mensch die Art des unbeweglichen Objektes ermittelt. Dann müssen, ebenfalls manuell die Geokoordinaten der Objekte ermittelt werden. Sobald sich Begrenzungen des und/oder unbewegliche Objekte innerhalb des Einsatzgebietes ändern, muss dieser manuelle Prozess erneut durchgeführt werden.As a rule, immobile objects in deployment areas are determined manually by driving through the deployment area with a vehicle that includes sensors for detecting the deployment area. The vehicle can be the emergency vehicle. Human intervention is essential for this, for example to assess whether and how immovable objects have to be taken into account in operations. It is often essential that a human determines the type of immovable object. Then the geo-coordinates of the objects must also be determined manually. As soon as boundaries and/or immovable objects change within the area of operation, this manual process has to be repeated.

Das erfindungsgemäße Verfahren ermöglicht im Gegensatz dazu ein automatisiertes Ermitteln von Begrenzungen und unbeweglichen Objekten. Dies ermöglicht eine enorme Zeit- und Kostenersparnis gegenüber einem manuellen Erfassen der Begrenzungen und unbeweglichen Objekten.In contrast to this, the method according to the invention enables an automated determination of boundaries and immovable objects. This saves an enormous amount of time and money compared to manually capturing the boundaries and immovable objects.

Zusätzlich ist das erfindungsgemäße Verfahren in der Größe der Einsatzgebiete skalierbar und eignet sich somit für großen Minengebiete ebenso wie für kleine landwirtschaftliche Felder. Das erfindungsgemäße Verfahren ist ebenso skalierbar im Hinblick auf eine Genauigkeit der ermittelten Begrenzungen und der unbeweglichen Objekte. Dabei geht eine höhere Genauigkeit mit einer längeren Durchführungsdauer einher.In addition, the method according to the invention is scalable in terms of the size of the areas of use and is therefore suitable for large mining areas as well as for small agricultural fields. The method according to the invention is also scalable with regard to the accuracy of the determined boundaries and the immovable objects. Greater accuracy goes hand in hand with a longer execution time.

Bevorzugt umfasst das erfindungsgemäße Verfahren den Schritt:

  • Ermitteln eines ersten Einsatzes für ein Geländefahrzeug unter Berücksichtigung der ermittelten Begrenzungen und/oder ermittelten und klassifizierten unbeweglichen Objekte.
The method according to the invention preferably comprises the step:
  • Determining a first deployment for an all-terrain vehicle taking into account the determined boundaries and/or determined and classified immovable objects.

Dadurch wird es ermöglicht, dass für das Ermitteln des ersten Einsatzes die Begrenzungen und die unbeweglichen Objekte berücksichtig werden. Dadurch kann das Einsatzgebiet beispielsweise durch die Begrenzungen begrenzt werden. Zudem wird es so ermöglicht, dass das Geländefahrzeug während des ersten Einsatzes unbewegliche Objekte umfährt. Kollisionen es Einsatzfahrzeugs mit den unbeweglichen Objekten werden so verhindert.This allows for determining the first bet to overcome the limitations and the immovable objects are taken into account. As a result, the field of application can be limited, for example, by the limitations. In addition, this enables the all-terrain vehicle to avoid immovable objects during the first deployment. This prevents the emergency vehicle from colliding with the stationary objects.

Bevorzugt umfasst das erfindungsgemäße Verfahren die Schritte:

  • - Durchführen eines zweiten Einsatzes durch das Geländefahrzeug;
  • - Erfassen von Sensordaten von Teilen des Einsatzgebietes mittels Sensoren des Geländefahrzeugs während des zweiten Einsatzes des Geländefahrzeugs,
  • - Analysieren der Sensordaten zum Ermitteln von zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes anhand der Sensordaten;
  • - Vergleichen der Begrenzungen des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes und der zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes;
  • - Verifizieren der Begrenzungen des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes für den Fall, dass der Vergleich eine Übereinstimmung der Begrenzungen des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes und der zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes ergeben hat.
The method according to the invention preferably comprises the steps:
  • - performing a second mission by the off-road vehicle;
  • - Acquisition of sensor data from parts of the deployment area using sensors of the all-terrain vehicle during the second deployment of the all-terrain vehicle,
  • - Analyzing the sensor data to determine second boundaries of the and / or immovable objects within the area of use based on the sensor data;
  • - comparing the boundaries of the and/or immovable objects within the deployment area and the second boundaries of the and/or immovable objects within the deployment area;
  • - verifying the boundaries of the and/or immovable objects within the deployment area in the event that the comparison has revealed a match between the boundaries of the and/or immovable objects within the deployment area and the second boundaries of the and/or immovable objects within the deployment area.

Einsätze umfassen bevorzugt das Bewegen des Einsatzfahrzeugs entlang eines Pfades durch das Einsatzgebiet.Missions preferably include moving the mission vehicle along a path through the mission area.

Dadurch, dass die Begrenzungen bei dem zweiten Einsatzverifiziert werden, wird es ermöglicht, dass die die Begrenzungen und unbeweglichen Objekte stets hoch aktuell sind und für das Ermitteln von weitern Einsätzen berücksichtigt werden können.Because the boundaries are verified on the second mission, it is made possible for the boundaries and immovable objects to always be up to date and to be taken into account for determining further missions.

Ein erfindungsgemäßes Geländefahrzeug ist ausgebildet und eingerichtet, einen Einsatz durchzuführen, der mittels eines erfindungsgemäßen Verfahrens ermittelt wurde und/oder zur Durchführung eines erfindungsgemäßen Verfahrens. Das Geländefahrzeug ist teilweise und/oder vollständig autonom. Das Geländefahrzeug umfasst Sensoren zum Erfassen von Sensordaten von Teilen eines Einsatzgebietes.An all-terrain vehicle according to the invention is designed and set up to carry out an operation that was determined using a method according to the invention and/or to carry out a method according to the invention. The all-terrain vehicle is partially and/or fully autonomous. The all-terrain vehicle includes sensors for acquiring sensor data from parts of a deployment area.

Ein erfindungsgemäßes Computerprogrammprodukt umfasst ein Programm das, wenn es von einem Computer ausgeführt wird, den Computer veranlasst, ein erfindungsgemäßes Verfahren zum Ermitteln von Begrenzungen von und unbeweglichen Objekten in Einsatzgebieten für autonome und/oder teilweise autonome Geländefahrzeuge für Einsätze der Geländefahrzeuge in den Einsatzgebieten durchzuführen.A computer program product according to the invention comprises a program which, when it is executed by a computer, causes the computer to carry out a method according to the invention for determining boundaries of and immovable objects in areas of application for autonomous and/or partially autonomous all-terrain vehicles for use of the all-terrain vehicles in the areas of application.

Die Vorteile des erfindungsgemäßen Verfahrens ergeben sich in gleicher Weise für das erfindungsgemäße Geländefahrzeug und das erfindungsgemäße Computerprogrammprodukt.The advantages of the method according to the invention result in the same way for the off-road vehicle according to the invention and the computer program product according to the invention.

Die abhängigen Ansprüche beschreiben vorteilhafte Ausführungsformen der Erfindung.The dependent claims describe advantageous embodiments of the invention.

Bevorzugte Ausführungsbeispiele werden anhand der folgenden Figuren näher erläutert. Dabei zeigt

  • 1 ein Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zum Ermitteln von Begrenzungen von und unbeweglichen Objekten in Einsatzgebieten für autonome und/oder teilweise autonome Geländefahrzeuge für Einsätze der Geländefahrzeuge in den Einsatzgebieten durchzuführen,
  • 2 ein Ausführungsbeispiel eines erfindungsgemäßen Geländefahrzeugs und
  • 3 zeigt ein schematisches Ausführungsbeispiels eines Einsatzgebietes mit Begrenzungen.
Preferred exemplary embodiments are explained in more detail with reference to the following figures. while showing
  • 1 to carry out an exemplary embodiment of a method according to the invention for determining boundaries of and immovable objects in areas of application for autonomous and/or partially autonomous all-terrain vehicles for use of the all-terrain vehicles in the areas of application,
  • 2 an embodiment of an all-terrain vehicle according to the invention and
  • 3 shows a schematic embodiment of an application area with limitations.

2 zeigt ein Ausführungsbeispiel eines erfindungsgemäßen Geländefahrzeugs 1 und ein erfindungsgemäßes Computerprogrammprodukt 2. Das Geländefahrzeug 1 umfasst Sensoren 5 zum Erfassen von Sensordaten von mindestens Teilen eines Einsatzgebietes 4. Das Geländefahrzeug 1 ist als landwirtschaftliches Nutzfahrzeug ausgebildet. 2 1 shows an exemplary embodiment of an all-terrain vehicle 1 according to the invention and an inventive computer program product 2. The all-terrain vehicle 1 includes sensors 5 for acquiring sensor data from at least parts of an application area 4. The all-terrain vehicle 1 is designed as an agricultural utility vehicle.

Das erfindungsgemäße Computerprogrammprodukt 2 umfasst ein Programm das, wenn es von einem Computer ausgeführt wird, den Computer veranlasst, ein erfindungsgemäßes Verfahren zum Ermitteln von Begrenzungen 3 von und unbeweglichen Objekten in Einsatzgebieten 4 für autonome und/oder teilweise autonome Geländefahrzeuge 1 für Einsätze der Geländefahrzeuge 1 in den Einsatzgebieten 4 durchzuführen.The computer program product 2 according to the invention comprises a program which, when it is executed by a computer, causes the computer to carry out a method according to the invention for determining boundaries 3 of and immovable objects in areas of application 4 for autonomous and/or partially autonomous all-terrain vehicles 1 for use of the all-terrain vehicles 1 to be carried out in the operational areas 4.

1 zeigt ein Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zum Ermitteln von Begrenzungen 3 von und unbeweglichen Objekten in Einsatzgebieten 4 für autonome und/oder teilweise autonome Geländefahrzeuge 1 für Einsätze der Geländefahrzeuge 1 in den Einsatzgebieten 4. 1 shows an exemplary embodiment of a method according to the invention for determining boundaries 3 of and immovable objects in operational areas 4 for autonomous and/or partially autonomous all-terrain vehicles 1 for deployments of the all-terrain vehicles 1 in the operational areas 4.

Das Einsatzgebiet 4 ist als landwirtschaftliches Feld ausgebildet, auf dem Kartoffeln angebaut sind. Das Geländefahrzeug 1 ist als autonome Erntemaschine ausgebildet.Operational area 4 is designed as an agricultural field on which potatoes are grown are. The all-terrain vehicle 1 is designed as an autonomous harvesting machine.

In einem ersten Schritt 10 erfolgt ein Erstellen von Bildern des Einsatzgebietes 4 mittels einer Drohne für das Bereitstellen der Bilder.In a first step 10, images of the deployment area 4 are created using a drone to provide the images.

Die Drohne ist mit einer hochauflösenden Kamera ausgestattet. Bei einem Überflug über das Einsatzgebiet 4 nimmt die Drohne Bilder des Einsatzgebietes aus der Luft auf, wodurch diese Bilder des Einsatzgebietes 4 eine Draufsicht des Einsatzgebietes 4 zeigen. Dies ermöglicht es, dass auch kleine Objekte, welche sich innerhalb des Einsatzgebietes 4 befinden, von den Bildern erfasst sind.The drone is equipped with a high-resolution camera. When flying over the operational area 4 , the drone takes pictures of the operational area from the air, as a result of which these images of the operational area 4 show a plan view of the operational area 4 . This makes it possible for small objects, which are located within the deployment area 4, to be captured by the images.

In einem darauffolgenden Schritt 20 erfolgt ein Bereitstellen von Bildern des Einsatzgebietes 4 aus einer ersten Ansichtsrichtung, wobei die Bilder Geokoordinaten umfassen.In a subsequent step 20, images of the deployment area 4 are provided from a first viewing direction, the images including geo-coordinates.

Die Drohne umfasst eine Einrichtung zum Ermitteln von Geokoordinaten von aufgenommen Bildern. Die ermittelten Geokoordinaten sind von den Bildern umfasst.The drone includes a device for determining geo-coordinates of recorded images. The determined geo-coordinates are included in the images.

Alternativ zu Schritt 10 sind die Bilder in Schritt 20 hochauflösende Satellitenaufnahmen. Die Satellitenaufnahmen umfassen ebenfalls Geokoordinaten der Bilder. Dies ermöglicht es, auf den Einsatz einer Drohe zu verzichten. Dies ermöglicht eine deutliche Zeitreduktion für das Bereitstellen der Bilder, da diese im Vorfeld nicht erst erstellt werden müssen. Die bereitgestellten Bilder ermöglichen allerdings eine Detektion von kleineren Objekten innerhalb des Einsatzgebietes 4 nur eingeschränkt.As an alternative to step 10, the images in step 20 are high-resolution satellite images. The satellite images also include geo-coordinates of the images. This makes it possible to dispense with the use of a drone. This enables a significant time reduction for the provision of the images, since they do not have to be created in advance. However, the images provided only allow detection of smaller objects within the operational area 4 to a limited extent.

In einem darauffolgenden Schritt 30 erfolgt ein Anwenden eines Sobel-Filters zum Ermitteln der Begrenzungen 3 des Einsatzgebietes 4.In a subsequent step 30, a Sobel filter is used to determine the boundaries 3 of the area of application 4.

3 zeigt einen Sobel-Filter, angewendet auf eine Satellitenaufnahme des Einsatzgebietes 4. Dieser Filter ermöglicht es, sicher Feldgrenzen und damit Begrenzungen 3 zu ermitteln. Die Begrenzungen sind eindeutig als weiße Markierungen gegenüber dem schwarzen Feld zu erkennen. 3 shows a Sobel filter applied to a satellite image of the operational area 4. This filter makes it possible to reliably determine field boundaries and thus boundaries 3 . The boundaries are clearly visible as white markings against the black field.

Alternativ erfolgt ein Anwenden eines Prewitt-filters oder eines Lapace-Filters.Alternatively, a Prewitt filter or a Lapace filter is used.

In einem darauffolgenden Schritt 40 erfolgt ein Ermitteln von Begrenzungen 3 des Einsatzgebietes 4 anhand der Bilder.In a subsequent step 40, delimitations 3 of the area of use 4 are determined using the images.

In diesem Ausführungsbeispiel erfolgt eine regelbasierte Analyse der weißen Markierungen mittels eines Computers. Dabei werden insbesondere der Verlauf und die Breite der weißen Markierungen berücksichtigt, um die Begrenzungen zu ermitteln.In this exemplary embodiment, a rule-based analysis of the white markings is carried out using a computer. In particular, the course and the width of the white markings are taken into account in order to determine the boundaries.

In einem darauffolgenden Schritt 50 erfolgt ein Berechnen von Geokoordinaten der Begrenzungen 3 anhand der Bilder und der ermittelten Begrenzungen 3.In a subsequent step 50, geo-coordinates of the boundaries 3 are calculated using the images and the determined boundaries 3.

Sowohl von Satellitenbildern als auch von den Bildern, welche durch die Drohne erstellt wurden, sind Geokoordinaten in Form von GPS-Koordinaten umfasst. Anhand dieser GPS-Koordinaten und den ermittelten Begrenzungen werden nun durch Abgleichen die GPS-Koordinaten der Begrenzungen ermittelt.Geocoordinates in the form of GPS coordinates are included both from satellite images and from the images created by the drone. Using these GPS coordinates and the determined boundaries, the GPS coordinates of the boundaries are now determined by comparison.

In einem darauffolgenden Schritt 60 erfolgt ein Erstellen von weiteren Bildern des Einsatzgebietes 4 aus weiteren Ansichtsrichtungen mittels einer Drohne zum Bereitstellen der 3-dimensionalen Repräsentation des Einsatzgebietes 4.In a subsequent step 60, additional images of the deployment area 4 are created from additional viewing directions using a drone to provide the 3-dimensional representation of the deployment area 4.

Dafür bewegt sich die Drohne in einer geringen Höhe von bis zu 20 m über dem Einsatzgebiet 4. Die Bilder zeigen demnach mindestens Teilweise Seitenansichten des Einsatzgebietes 4. In diesem Ausführungsbeispiel werden die Seitenansichten aus verschieden Richtungen erstellt. Die Seitenansichten und die Draufsichten werden nun in eine 3-dimensionalen Repräsentation des Einsatzgebietes 4 verarbeitet. Dabei werden gängige Algorithmen zum Erstellen von 3-dimensionalen Repräsentation verwendet.For this purpose, the drone moves at a low altitude of up to 20 m above the operational area 4. The images therefore show at least partial side views of the operational area 4. In this exemplary embodiment, the side views are created from different directions. The side views and the top views are now processed into a 3-dimensional representation of the application area 4. Common algorithms for creating 3-dimensional representations are used.

In einem darauffolgenden Schritt 70 erfolgt ein Bereitstellen einer 3-dimensionalen Repräsentation des Einsatzgebietes 4. Die die 3-dimensionale Repräsentation umfasst Ansichten aus weiteren Ansichtsrichtungen für wenigstens Teile des Einsatzgebietes 4.In a subsequent step 70, a 3-dimensional representation of the area of use 4 is provided. The 3-dimensional representation includes views from other viewing directions for at least parts of the area of use 4.

Alternativ zu Schritt 60 werden schon vorhandene 3-dimensionalen Repräsentation des Einsatzgebietes 4 verwendet, wie sie beispielsweise auf Karten im Internet verfügbar sind. Dies ermöglicht enorme Zeitersparnisse im Vergleich zu der Durchführung von Schritt 60. Allerdings kann die Auflösung der 3-dimensionalen Repräsentation des Einsatzgebietes 4 im Fall der Durchführung von Schritt 60 deutlich erhöht sein.As an alternative to step 60, existing 3-dimensional representations of the operational area 4 are used, such as are available on maps on the Internet. This enables enormous time savings compared to carrying out step 60. However, the resolution of the 3-dimensional representation of the operational area 4 can be significantly increased if step 60 is carried out.

In einem darauffolgenden Schritt 80 erfolgt ein Ermitteln von unbeweglichen Objekten innerhalb des Einsatzgebietes 4 anhand der 3-dimensionalen Repräsentation mittels eines neuronalen Netzes.In a subsequent step 80, immobile objects within the operational area 4 are determined based on the 3-dimensional representation using a neural network.

Es liegen nun Bilder aus verschiedenen Ansichtsrichtungen auch von Objekten innerhalb des Einsatzgebietes 4 vor. Dies ermöglicht es, dass ein neuronales Netz aus diesen Bildern Objekte detektieren kann. Das neuronale Netz wurde trainiert zum Detektieren und Klassifizieren von Objekten auf Bildern.There are now images from different viewing directions, also of objects within the operational area 4. This enables a neural network to detect objects from these images. The neural network was trained to detect and classify objects in images.

In einem darauffolgenden Schritt 90 erfolgt ein Klassifizieren der ermittelten unbeweglichen Objekte mittels des neuronalen Netzes.In a subsequent step 90, the identified immovable objects are classified using the neural network.

In diesem Ausführungsbeispiel befindet sich ein Baum als unbewegliches Objekt innerhalb des Einsatzgebietes 4. Das neuronale Netz ermittelt den Baum und klassifiziert es als Baum.In this exemplary embodiment, there is a tree as an immovable object within the application area 4. The neural network determines the tree and classifies it as a tree.

In einem darauffolgenden Schritt 100 erfolgt ein Ermitteln von Geokoordinaten der ermittelten Begrenzungen 3 und/oder der unbeweglichen Objekte.In a subsequent step 100, geo-coordinates of the determined boundaries 3 and/or the immovable objects are determined.

Durch Abgleichen werden nun GPS-Koordinaten des Baumes anhand der Bilder ermittelt. Dabei werden auch die Begrenzungen des Baumes ermittelt. Dies ermöglicht eine genaue Bestimmung der Größe des Baumes.By comparing the GPS coordinates of the tree are now determined using the images. The boundaries of the tree are also determined. This allows for an accurate determination of the size of the tree.

In einem darauffolgenden Schritt 110 erfolgt ein Ermitteln eines ersten Einsatzes für ein Geländefahrzeug 1 unter Berücksichtigung der ermittelten Begrenzungen 3 und/oder ermittelten und klassifizierten unbeweglichen Objekte.In a subsequent step 110, a first use for an all-terrain vehicle 1 is determined, taking into account the determined boundaries 3 and/or determined and classified immovable objects.

Der Baum würde ein Überfahren durch die Erntemaschine nicht erlauben. Die Erntemaschine soll allerdings einen möglichst großen Teil des Feldes abfahren, um einen Ernteertrag zu maximieren. Daher soll der Baum möglichst eng umfahren werden. Dies wird dadurch ermöglicht, dass die Größe des Baumes ermittelt wurde. Als erster Einsatz wird nun ein Pfad für das Abfahren des Feldes geplant, so dass die Erntemaschine ein komplettes Abernten des Feldes erlaubt. Der Baum ist dabei von dem Pfad ausgenommen. Dies reduziert den Ernteertrag allerdings nicht, da an der Stelle des Baumes keine Kartoffeln vorhanden sein können.The tree would not allow the harvester to run over it. However, the harvesting machine should cover as large a part of the field as possible in order to maximize a crop yield. Therefore, the tree should be avoided as closely as possible. This is made possible by determining the size of the tree. As a first step, a path for driving down the field is now planned so that the harvesting machine allows a complete harvest of the field. The tree is excluded from the path. However, this does not reduce the crop yield, since potatoes cannot be present at the location of the tree.

In einem darauffolgenden Schritt 120 erfolgt ein Durchführen eines zweiten Einsatzes durch das Geländefahrzeug 1.In a subsequent step 120, a second operation is carried out by the all-terrain vehicle 1.

Der erste und der zweite Einsatz sind in diesem Ausführungsbeispiel identisch. Die Erntemaschine fährt während des zweiten Einsatzes den geplanten Pfad ab und erntet automatisiert Kartoffeln.The first and second inserts are identical in this embodiment. During the second use, the harvesting machine follows the planned path and automatically harvests potatoes.

In einem gleichzeigt ausgeführtem Schritt 130 erfolgt ein Erfassen von Sensordaten von Teilen des Einsatzgebietes 4 mittels Sensoren 5 des Geländefahrzeugs 1 während des zweiten Einsatzes des Geländefahrzeugs 1.In step 130, which is executed at the same time, sensor data is recorded from parts of the deployment area 4 using sensors 5 of the all-terrain vehicle 1 during the second deployment of the all-terrain vehicle 1.

In diesem Ausführungsbeispiel umfassen die Sensoren 5 Kameras und ein Modul zum Ermitteln von GPS-Koordinaten. Während des Abfahrens des geplanten Pfades, nimmt die Kamera Bilder auf, während das Modul GPS-Koordinaten der Bilder ermittelt. Eine Anzahl der Bilder zeigt den Baum aus verschiedenen Richtungen.In this exemplary embodiment, the sensors include 5 cameras and a module for determining GPS coordinates. While driving along the planned path, the camera takes pictures while the module determines the GPS coordinates of the pictures. A number of the images show the tree from different directions.

In einem darauffolgenden Schritt 140 erfolgt ein Analysieren der Sensordaten zum Ermitteln von zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes 4 anhand der Sensordaten.In a subsequent step 140, the sensor data is analyzed to determine second boundaries of the and/or immovable objects within the deployment area 4 using the sensor data.

In diesem Ausführungsbeispiel erfolgt die Analyse analog zu den Schritten 80 und 90. Der Baum wird erneut als solcher klassifiziert.In this exemplary embodiment, the analysis is carried out analogously to steps 80 and 90. The tree is again classified as such.

In einem darauffolgenden Schritt 150 erfolgt ein Vergleichen der Begrenzungen 3 des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes 4 und der zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes 4.In a subsequent step 150, the boundaries 3 of the objects and/or immovable objects within the area of use 4 and the second boundaries of the objects and/or immovable objects within the area of use 4 are compared.

In diesem Ausführungsbeispiel werden die beiden ermittelten Datensätze des Baumes vergleich und sie stimmen überein.In this exemplary embodiment, the two determined data sets of the tree are compared and they match.

In einem darauffolgenden Schritt 160 erfolgt ein Verifizieren der Begrenzungen 3 des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes 4 für den Fall, dass der Vergleich eine Übereinstimmung der Begrenzungen 3 des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes 4 und der zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes 4 ergeben hat.In a subsequent step 160, the boundaries 3 of the and/or immovable objects within the deployment area 4 are verified in the event that the comparison shows a match between the boundaries 3 of the and/or immovable objects within the deployment area 4 and the second delimitations of and/or or immovable objects within Area of Operation 4.

In diesem Ausführungsbeispiel wird demnach die Position und Klasse des Baumes verifiziert.In this embodiment, therefore, the position and class of the tree is verified.

Alternativ zu Schritt 160 erfolgt in einem Schritt 170 ein Ändern der Begrenzungen 3 des und/oder unbeweglichen Objekten innerhalb Einsatzgebietes 4 zu den zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes, für den Fall, dass der Vergleich keine Übereinstimmung der Begrenzungen 3 des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes 4 und der zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes 4 ergeben hat.As an alternative to step 160, in a step 170 the boundaries 3 of the objects and/or immovable objects within the operational area 4 are changed to the second boundaries of the objects and/or immovable objects within the operational area, in the event that the comparison does not show that the boundaries 3 of the and/or immovable objects within the operational area 4 and the second boundaries of the and/or immovable objects within the operational area 4.

In diesem alternativen Ausführungsbeispiel wurde innerhalb des Einsatzgebietes 4 ein Gebäude neu errichtet. Dieses wird nun nach den beschriebenen Schritten erfasst und klassifiziert. Der zweite Einsatz wird nun angepasst, so dass das Gebäude ebenfalls umfahren wird.In this alternative exemplary embodiment, a new building was erected within operational area 4. This is now recorded and classified according to the steps described. The second mission will now be adjusted so that the building is also bypassed.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • US 2006095171 [0002]US2006095171 [0002]

Claims (10)

Verfahren zum Ermitteln von Begrenzungen (3) von und unbeweglichen Objekten in Einsatzgebieten (4) für autonome und/oder teilweise autonome Geländefahrzeuge (1) für Einsätze der Geländefahrzeuge (1) in den Einsatzgebieten (4), umfassend die Schritte: - (20) Bereitstellen von Bildern des Einsatzgebietes (4) aus einer ersten Ansichtsrichtung, wobei die Bilder Geokoordinaten umfassen; - (40) Ermitteln von Begrenzungen (3) des Einsatzgebietes (4) anhand der Bilder; - (50) Berechnen von Geokoordinaten der Begrenzungen (3) anhand der Bilder und der ermittelten Begrenzungen (3); - (70) Bereitstellen einer 3-dimensionalen Repräsentation des Einsatzgebietes (4), wobei die 3-dimensionale Repräsentation Ansichten aus weiteren Ansichtsrichtungen für wenigstens Teile des Einsatzgebietes (4) umfasst; - (80) Ermitteln von unbeweglichen Objekten innerhalb des Einsatzgebietes (4) anhand der 3-dimensionalen Repräsentation mittels eines neuronalen Netzes; - (90) Klassifizieren der ermittelten unbeweglichen Objekte mittels des neuronalen Netzes; - (100) Ermitteln von Geokoordinaten der ermittelten Begrenzungen (3) und/oder der unbeweglichen Objekte;Method for determining boundaries (3) of and immovable objects in areas of use (4) for autonomous and/or partially autonomous all-terrain vehicles (1) for use of the all-terrain vehicles (1) in the areas of use (4), comprising the steps: - (20) providing images of the deployment area (4) from a first viewing direction, the images comprising geo-coordinates; - (40) Determination of boundaries (3) of the area of use (4) based on the images; - (50) calculating geo-coordinates of the boundaries (3) using the images and the determined boundaries (3); - (70) providing a 3-dimensional representation of the area of use (4), the 3-dimensional representation comprising views from other viewing directions for at least parts of the area of use (4); - (80) determining immobile objects within the deployment area (4) based on the 3-dimensional representation by means of a neural network; - (90) classifying the determined stationary objects by means of the neural network; - (100) determining geo-coordinates of the determined boundaries (3) and/or the immovable objects; Verfahren nach Anspruch 1, umfassend den Schritt: - (110) Ermitteln eines ersten Einsatzes für ein Geländefahrzeug (1) unter Berücksichtigung der ermittelten Begrenzungen (3) und/oder ermittelten und klassifizierten unbeweglichen Objekte.procedure after claim 1 , comprising the step of: - (110) determining a first deployment for an all-terrain vehicle (1) taking into account the determined boundaries (3) and/or determined and classified immovable objects. Verfahren nach einem der vorhergehenden Ansprüche, umfassend die Schritte: - (120) Durchführen eines zweiten Einsatzes durch das Geländefahrzeug (1); - (130) Erfassen von Sensordaten von Teilen des Einsatzgebietes (4) mittels Sensoren (5) des Geländefahrzeugs (1) während des zweiten Einsatzes des Geländefahrzeugs (1), - (140) Analysieren der Sensordaten zum Ermitteln von zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes (4) anhand der Sensordaten; - (150) Vergleichen der Begrenzungen (3) des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes (4) und der zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes (4); - (160) Verifizieren der Begrenzungen (3) des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes (4) für den Fall, dass der Vergleich eine Übereinstimmung der Begrenzungen (3) des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes (4) und der zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes (4) ergeben hat.Method according to one of the preceding claims, comprising the steps of: - (120) performing a second mission by the off-road vehicle (1); - (130) acquisition of sensor data from parts of the deployment area (4) using sensors (5) of the all-terrain vehicle (1) during the second deployment of the all-terrain vehicle (1), - (140) Analyzing the sensor data to determine second boundaries of the and/or immovable objects within the deployment area (4) based on the sensor data; - (150) comparing the boundaries (3) of the and/or immovable objects within the deployment area (4) and the second boundaries of the and/or immovable objects within the deployment area (4); - (160) Verifying the boundaries (3) of the and / or immovable objects within the area of operation (4) in the event that the comparison shows a match of the boundaries (3) of the and / or immovable objects within the area of \u200b\u200b(4) and the second limitations of and/or immovable objects within the operational area (4). Verfahren nach einem der vorhergehenden Ansprüche, umfassen den Schritt: - (170) Ändern der der Begrenzungen (3) des und/oder unbeweglichen Objekten innerhalb Einsatzgebietes (4) zu den zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes, für den Fall, dass der Vergleich keine Übereinstimmung der Begrenzungen (3) des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes (4) und der zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes (4) ergeben hat.Method according to one of the preceding claims, comprising the step: - (170) Changing the boundaries (3) of the and/or immovable objects within the area of operation (4) to the second boundaries of the and/or immovable objects within the area of operation in the event that the comparison does not indicate a match of the boundaries (3) of the and/or immovable objects within the deployment area (4) and the second boundaries of the and/or immovable objects within the deployment area (4). Verfahren nach einem der vorhergehenden Ansprüche, umfassen den Schritt: - (10) Erstellen von Bildern des Einsatzgebietes (4) mittels einer Drohne für das Bereitstellen der Bilder.Method according to one of the preceding claims, comprising the step: - (10) Creation of images of the operational area (4) using a drone to provide the images. Verfahren nach einem der vorhergehenden Ansprüche, umfassend den Schritt: - (30) Anwenden eines Sobel-Filters, eines Prewitt-Filters und/oder eines Laplace-Filters zum Ermitteln der Begrenzungen (3) des Einsatzgebietes (4).Method according to one of the preceding claims, comprising the step: - (30) Applying a Sobel filter, a Prewitt filter and/or a Laplace filter to determine the boundaries (3) of the field of application (4). Verfahren nach einem der vorhergehenden Ansprüche, umfassend den Schritt: - (60) Erstellen von weiteren Bildern des Einsatzgebietes (4) aus weiteren Ansichtsrichtungen mittels einer Drohne zum Bereitstellen der 3-dimensionalen Repräsentation des Einsatzgebietes (4).Method according to one of the preceding claims, comprising the step: - (60) Creation of further images of the operational area (4) from other viewing directions using a drone to provide the 3-dimensional representation of the operational area (4). Geländefahrzeug (1), ausgebildet und eingerichtet, einen Einsatz durchzuführen, der mittels eines Verfahrens nach einem er Ansprüche 2 bis 6 ermittelt wurde und/oder zur Durchführung eines Verfahrens nach einem der Ansprüche 2 oder 3, wobei das Geländefahrzeug teilweise und/oder vollständig autonom ist, und wobei das Geländefahrzeug (1) Sensoren (5) zum Erfassen von Sensordaten von Teilen eines Einsatzgebietes (4).All-terrain vehicle (1), trained and equipped to carry out an operation that he using a method according to a claims 2 until 6 was determined and / or to carry out a method according to one of claims 2 or 3 , wherein the all-terrain vehicle is partially and/or fully autonomous, and wherein the all-terrain vehicle (1) has sensors (5) for acquiring sensor data from parts of a deployment area (4). Geländefahrzeug (1) nach Anspruch 8, ausgebildet als landwirtschaftliches Nutzfahrzeug und/oder als Minenfahrzeug.All-terrain vehicle (1) after claim 8 , designed as an agricultural utility vehicle and/or as a mining vehicle. Computerprogrammprodukt (2), umfassend ein Programm das, wenn es von einem Computer ausgeführt wird, den Computer veranlasst, ein erfindungsgemäßes Verfahren nach einem der Ansprüche 1 bis 7 durchzuführen.Computer program product (2), comprising a program which, when executed by a computer, causes the computer to perform an inventive method according to one of Claims 1 until 7 to perform.
DE102022124000.2A 2021-10-08 2022-09-19 Method for determining boundaries of and immovable objects in deployment areas for autonomous and/or partially autonomous all-terrain vehicles for deploying the all-terrain vehicles in the deployment areas Pending DE102022124000A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021005058.4A DE102021005058A1 (en) 2021-10-08 2021-10-08 Method for determining boundaries of and immovable objects in deployment areas for autonomous and/or partially autonomous all-terrain vehicles for deploying the all-terrain vehicles in the deployment areas
DE102021005058.4 2021-10-08

Publications (1)

Publication Number Publication Date
DE102022124000A1 true DE102022124000A1 (en) 2023-04-13

Family

ID=79020476

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102021005058.4A Withdrawn DE102021005058A1 (en) 2021-10-08 2021-10-08 Method for determining boundaries of and immovable objects in deployment areas for autonomous and/or partially autonomous all-terrain vehicles for deploying the all-terrain vehicles in the deployment areas
DE102022124000.2A Pending DE102022124000A1 (en) 2021-10-08 2022-09-19 Method for determining boundaries of and immovable objects in deployment areas for autonomous and/or partially autonomous all-terrain vehicles for deploying the all-terrain vehicles in the deployment areas

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE102021005058.4A Withdrawn DE102021005058A1 (en) 2021-10-08 2021-10-08 Method for determining boundaries of and immovable objects in deployment areas for autonomous and/or partially autonomous all-terrain vehicles for deploying the all-terrain vehicles in the deployment areas

Country Status (1)

Country Link
DE (2) DE102021005058A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060095171A1 (en) 2004-11-02 2006-05-04 Whittaker William L Methods, devices and systems for high-speed autonomous vehicle and high-speed autonomous vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060095171A1 (en) 2004-11-02 2006-05-04 Whittaker William L Methods, devices and systems for high-speed autonomous vehicle and high-speed autonomous vehicle

Also Published As

Publication number Publication date
DE102021005058A1 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
EP2034461B1 (en) Method for detecting and/or tracking moved objects in a monitoring zone with stoppers, device and computer program
DE102017107264A1 (en) VISIBLE RAIN RECOGNITION USING DEEP LEARNING
DE112009000949T5 (en) Detection of a free driving path for a vehicle
EP2517149A2 (en) Device and method for monitoring video objects
DE102016210534A1 (en) Method for classifying an environment of a vehicle
WO2020126167A1 (en) Method for identifying at least one pattern in the surroundings of a vehicle, control device for carrying out such a method, and vehicle having such a control device
DE102018121008A1 (en) CROSS TRAFFIC RECORDING USING CAMERAS
DE102018005969A1 (en) Method for operating a driver assistance system with two detection devices
DE102021204040A1 (en) Method, device and computer program for creating training data in the vehicle
DE102019119084A1 (en) Determining a signal status of a traffic light system
DE102020208080A1 (en) Detection of objects in images under equivariance or invariance with respect to the object size
DE102021206475A1 (en) Obstacle detection in the track area based on depth data
EP3576013A1 (en) Estimation of a path of a rail path
DE102022124000A1 (en) Method for determining boundaries of and immovable objects in deployment areas for autonomous and/or partially autonomous all-terrain vehicles for deploying the all-terrain vehicles in the deployment areas
DE102019201690A1 (en) Procedure and assistance system for monitoring the surroundings of an ego vehicle
DE102021201774A1 (en) Augmented Reality Recognition for the Localization of Autonomous Vehicles
DE102022201279B3 (en) Method for capturing an environment of a vehicle, camera device and vehicle
EP3714398A1 (en) Method for object detection for a vehicle having a thermographic camera and modified noise-suppression filters
DE102019102672A1 (en) INTERSENSORY LEARNING
DE102016216528A1 (en) Method and device for determining the location of a vehicle, in particular a rail vehicle
DE102022200147A1 (en) Detection with higher safety integrity of characteristics of a scenery by matching sensor data with an expectation
DE102016119592A1 (en) Method for detecting objects in an environmental region of a motor vehicle taking into account sensor data in the infrared wavelength range, object recognition device, driver assistance system and motor vehicle
WO2019223987A1 (en) Method and device for detecting a drivable area away from roads
DE102013011927B4 (en) Method for controlling a monitoring device
DE102015011926A1 (en) Method for operating a camera system in a motor vehicle and motor vehicle

Legal Events

Date Code Title Description
R084 Declaration of willingness to licence