DE102022124000A1 - Method for determining boundaries of and immovable objects in deployment areas for autonomous and/or partially autonomous all-terrain vehicles for deploying the all-terrain vehicles in the deployment areas - Google Patents
Method for determining boundaries of and immovable objects in deployment areas for autonomous and/or partially autonomous all-terrain vehicles for deploying the all-terrain vehicles in the deployment areas Download PDFInfo
- Publication number
- DE102022124000A1 DE102022124000A1 DE102022124000.2A DE102022124000A DE102022124000A1 DE 102022124000 A1 DE102022124000 A1 DE 102022124000A1 DE 102022124000 A DE102022124000 A DE 102022124000A DE 102022124000 A1 DE102022124000 A1 DE 102022124000A1
- Authority
- DE
- Germany
- Prior art keywords
- boundaries
- area
- immovable objects
- images
- deployment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000013528 artificial neural network Methods 0.000 claims abstract description 11
- 238000004590 computer program Methods 0.000 claims description 6
- 238000005065 mining Methods 0.000 claims description 5
- 238000003306 harvesting Methods 0.000 description 6
- 235000002595 Solanum tuberosum Nutrition 0.000 description 3
- 244000061456 Solanum tuberosum Species 0.000 description 3
- 235000012015 potatoes Nutrition 0.000 description 3
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003245 coal Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2300/00—Indexing codes relating to the type of vehicle
- B60W2300/15—Agricultural vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2300/00—Indexing codes relating to the type of vehicle
- B60W2300/17—Construction vehicles, e.g. graders, excavators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Ermitteln von Begrenzungen (3) von und unbeweglichen Objekten in Einsatzgebieten (4) für autonome und/oder teilweise autonome Geländefahrzeuge (1) für Einsätze der Geländefahrzeuge (1) in den Einsatzgebieten (4), umfassend die Schritte:- (20) Bereitstellen von Bildern des Einsatzgebietes (4) aus einer ersten Ansichtsrichtung, wobei die Bilder Geokoordinaten umfassen;- (40) Ermitteln von Begrenzungen (3) des Einsatzgebietes (4) anhand der Bilder;- (50) Berechnen von Geokoordinaten der Begrenzungen (3) anhand der Bilder und der ermittelten Begrenzungen (3);- (70) Bereitstellen einer 3-dimensionalen Repräsentation des Einsatzgebietes (4), wobei die 3-dimensionale Repräsentation Ansichten aus weiteren Ansichtsrichtungen für wenigstens Teile des Einsatzgebietes (4) umfasst;- (80) Ermitteln von unbeweglichen Objekten innerhalb des Einsatzgebietes (4) anhand der 3-dimensionalen Repräsentation mittels eines neuronalen Netzes;- (90) Klassifizieren der ermittelten unbeweglichen Objekte mittels des neuronalen Netzes;- (100) Ermitteln von Geokoordinaten der ermittelten Begrenzungen (3) und/oder der unbeweglichen Objekte;The invention relates to a method for determining boundaries (3) of and immovable objects in areas of use (4) for autonomous and/or partially autonomous all-terrain vehicles (1) for use of the all-terrain vehicles (1) in the areas of use (4), comprising the steps: - (20) providing images of the area of application (4) from a first viewing direction, the images comprising geo-coordinates;- (40) determining boundaries (3) of the area of application (4) using the images;- (50) calculating geo-coordinates of the Boundaries (3) based on the images and the determined boundaries (3); - (70) providing a 3-dimensional representation of the application area (4), the 3-dimensional representation comprising views from other viewing directions for at least parts of the application area (4). - (80) determining immovable objects within the operational area (4) based on the 3-dimensional representation using a neural network;- (90) classifying the determined immovable objects using the neural network;- (100) determining geo-coordinates of the determined boundaries (3) and/or the immovable objects;
Description
Die Erfindung betrifft ein Verfahren zum Ermitteln von Begrenzungen von und unbeweglichen Objekten in Einsatzgebieten für autonome und/oder teilweise autonome Geländefahrzeuge für Einsätze der Geländefahrzeuge in den Einsatzgebieten, ein Geländefahrzeug und ein Computerprogrammprodukt.The invention relates to a method for determining the boundaries of and immovable objects in areas of use for autonomous and/or partially autonomous all-terrain vehicles for use of the all-terrain vehicles in the areas of use, an all-terrain vehicle and a computer program product.
Die
Ein erfindungsgemäßes Verfahren zum Ermitteln von Begrenzungen von und unbeweglichen Objekten in Einsatzgebieten für autonome und/oder teilweise autonome Geländefahrzeuge für Einsätze der Geländefahrzeuge in den Einsatzgebieten umfasst die Schritte:
- - Bereitstellen von Bildern des Einsatzgebietes aus einer ersten Ansichtsrichtung, wobei die Bilder Geokoordinaten umfassen;
- - Ermitteln von Begrenzungen des Einsatzgebietes anhand der Bilder;
- - Berechnen von Geokoordinaten der Begrenzungen anhand der Bilder und der ermittelten Begrenzungen;
- - Bereitstellen einer 3-dimensionalen Repräsentation des Einsatzgebietes, wobei die 3-dimensionale Repräsentation Ansichten aus weiteren Ansichtsrichtungen für wenigstens Teile des Einsatzgebietes umfasst;
- - Ermitteln von unbeweglichen Objekten innerhalb des Einsatzgebietes anhand der 3-dimensionalen Repräsentation mittels eines neuronalen Netzes;
- - Klassifizieren der ermittelten unbeweglichen Objekte mittels des neuronalen Netzes;
- - Ermitteln von Geokoordinaten der ermittelten Begrenzungen und/oder der unbeweglichen Objekte;
- - Providing images of the deployment area from a first viewing direction, the images comprising geo-coordinates;
- - Determination of limitations of the area of application based on the images;
- - Calculation of geo-coordinates of the boundaries based on the images and the determined boundaries;
- - Providing a 3-dimensional representation of the area of application, wherein the 3-dimensional representation includes views from other viewing directions for at least parts of the area of application;
- - Determination of immovable objects within the deployment area based on the 3-dimensional representation using a neural network;
- - Classifying the determined stationary objects by means of the neural network;
- - Determining geo-coordinates of the determined boundaries and/or the immovable objects;
Dadurch, dass eine 3-dimensionale Repräsentation des Einsatzgebietes zum Ermitteln von unbeweglichen Objekten verwendet wird, und dadurch, dass die 3-dimensionale Repräsentation Ansichten aus weiteren Ansichtsrichtungen umfasst, wird es ermöglicht, dass eine präzise Klassifizierung der unbeweglichen Objekte erfolgt. Dies ermöglicht es, dass im Vorfeld eines Einsatzes des Geländefahrzeugs die unbeweglichen Objekte, inklusive der Geokoordinaten bekannt sind. Dadurch wird es ermöglicht, Einsätze anhand der unbeweglichen Objekte zu ermitteln.Because a 3-dimensional representation of the area of application is used to determine immovable objects, and because the 3-dimensional representation includes views from other viewing directions, it is possible for the immovable objects to be classified precisely. This makes it possible for the immovable objects, including the geo-coordinates, to be known before the all-terrain vehicle is used. This makes it possible to determine missions based on the immovable objects.
Einsatzgebiete umfassen bevorzugt landwirtschaftliche Felder und/oder Anbauflächen, Minengebiete zum Abbau von Rohstoffen, wie Kohle und/oder Erze oder militärische Einsatzgebiete.Areas of use preferably include agricultural fields and/or cultivated areas, mining areas for mining raw materials such as coal and/or ores, or military areas of use.
Geländefahrzeuge umfassen bevorzugt als landwirtschaftliche Nutzfahrzeuge, Minenfahrzeuge und/oder militärische Fahrzeuge ausgebildet.Off-road vehicles preferably include agricultural vehicles, mining vehicles and/or military vehicles.
Begrenzungen umfassen bevorzugt Ränder von zu bewirtschaftenden Felder und/oder Minenbereiche, in denen das Geländefahrzeug operieren soll.Boundaries preferably include edges of fields to be cultivated and/or mine areas in which the all-terrain vehicle is intended to operate.
Unbewegliche Objekte umfassen bevorzugt Bäume, Gebäude, Brücken, fest verbaute Geräte und/oder Infrastrukturkomponenten.Immovable objects preferably include trees, buildings, bridges, permanently installed devices and/or infrastructure components.
In der Regel erfolgt das Ermitteln von unbeweglichen Objekten in Einsatzgebieten manuell durch Abfahren des Einsatzgebietes mit einem Fahrzeug, welches Sensoren zum Erfassen des Einsatzgebietes umfasst. Das Fahrzeug kann dabei das Einsatzfahrzeug sein. Menschliches Eingreifen ist hierfür unerlässlich, beispielsweise um einzuschätzen, ob und wie unbewegliche Objekte in Einsätzen berücksichtigt werden müssen. Dabei ist es oft unerlässlich, dass ein Mensch die Art des unbeweglichen Objektes ermittelt. Dann müssen, ebenfalls manuell die Geokoordinaten der Objekte ermittelt werden. Sobald sich Begrenzungen des und/oder unbewegliche Objekte innerhalb des Einsatzgebietes ändern, muss dieser manuelle Prozess erneut durchgeführt werden.As a rule, immobile objects in deployment areas are determined manually by driving through the deployment area with a vehicle that includes sensors for detecting the deployment area. The vehicle can be the emergency vehicle. Human intervention is essential for this, for example to assess whether and how immovable objects have to be taken into account in operations. It is often essential that a human determines the type of immovable object. Then the geo-coordinates of the objects must also be determined manually. As soon as boundaries and/or immovable objects change within the area of operation, this manual process has to be repeated.
Das erfindungsgemäße Verfahren ermöglicht im Gegensatz dazu ein automatisiertes Ermitteln von Begrenzungen und unbeweglichen Objekten. Dies ermöglicht eine enorme Zeit- und Kostenersparnis gegenüber einem manuellen Erfassen der Begrenzungen und unbeweglichen Objekten.In contrast to this, the method according to the invention enables an automated determination of boundaries and immovable objects. This saves an enormous amount of time and money compared to manually capturing the boundaries and immovable objects.
Zusätzlich ist das erfindungsgemäße Verfahren in der Größe der Einsatzgebiete skalierbar und eignet sich somit für großen Minengebiete ebenso wie für kleine landwirtschaftliche Felder. Das erfindungsgemäße Verfahren ist ebenso skalierbar im Hinblick auf eine Genauigkeit der ermittelten Begrenzungen und der unbeweglichen Objekte. Dabei geht eine höhere Genauigkeit mit einer längeren Durchführungsdauer einher.In addition, the method according to the invention is scalable in terms of the size of the areas of use and is therefore suitable for large mining areas as well as for small agricultural fields. The method according to the invention is also scalable with regard to the accuracy of the determined boundaries and the immovable objects. Greater accuracy goes hand in hand with a longer execution time.
Bevorzugt umfasst das erfindungsgemäße Verfahren den Schritt:
- Ermitteln eines ersten Einsatzes für ein Geländefahrzeug unter Berücksichtigung der ermittelten Begrenzungen und/oder ermittelten und klassifizierten unbeweglichen Objekte.
- Determining a first deployment for an all-terrain vehicle taking into account the determined boundaries and/or determined and classified immovable objects.
Dadurch wird es ermöglicht, dass für das Ermitteln des ersten Einsatzes die Begrenzungen und die unbeweglichen Objekte berücksichtig werden. Dadurch kann das Einsatzgebiet beispielsweise durch die Begrenzungen begrenzt werden. Zudem wird es so ermöglicht, dass das Geländefahrzeug während des ersten Einsatzes unbewegliche Objekte umfährt. Kollisionen es Einsatzfahrzeugs mit den unbeweglichen Objekten werden so verhindert.This allows for determining the first bet to overcome the limitations and the immovable objects are taken into account. As a result, the field of application can be limited, for example, by the limitations. In addition, this enables the all-terrain vehicle to avoid immovable objects during the first deployment. This prevents the emergency vehicle from colliding with the stationary objects.
Bevorzugt umfasst das erfindungsgemäße Verfahren die Schritte:
- - Durchführen eines zweiten Einsatzes durch das Geländefahrzeug;
- - Erfassen von Sensordaten von Teilen des Einsatzgebietes mittels Sensoren des Geländefahrzeugs während des zweiten Einsatzes des Geländefahrzeugs,
- - Analysieren der Sensordaten zum Ermitteln von zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes anhand der Sensordaten;
- - Vergleichen der Begrenzungen des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes und der zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes;
- - Verifizieren der Begrenzungen des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes für den Fall, dass der Vergleich eine Übereinstimmung der Begrenzungen des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes und der zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes ergeben hat.
- - performing a second mission by the off-road vehicle;
- - Acquisition of sensor data from parts of the deployment area using sensors of the all-terrain vehicle during the second deployment of the all-terrain vehicle,
- - Analyzing the sensor data to determine second boundaries of the and / or immovable objects within the area of use based on the sensor data;
- - comparing the boundaries of the and/or immovable objects within the deployment area and the second boundaries of the and/or immovable objects within the deployment area;
- - verifying the boundaries of the and/or immovable objects within the deployment area in the event that the comparison has revealed a match between the boundaries of the and/or immovable objects within the deployment area and the second boundaries of the and/or immovable objects within the deployment area.
Einsätze umfassen bevorzugt das Bewegen des Einsatzfahrzeugs entlang eines Pfades durch das Einsatzgebiet.Missions preferably include moving the mission vehicle along a path through the mission area.
Dadurch, dass die Begrenzungen bei dem zweiten Einsatzverifiziert werden, wird es ermöglicht, dass die die Begrenzungen und unbeweglichen Objekte stets hoch aktuell sind und für das Ermitteln von weitern Einsätzen berücksichtigt werden können.Because the boundaries are verified on the second mission, it is made possible for the boundaries and immovable objects to always be up to date and to be taken into account for determining further missions.
Ein erfindungsgemäßes Geländefahrzeug ist ausgebildet und eingerichtet, einen Einsatz durchzuführen, der mittels eines erfindungsgemäßen Verfahrens ermittelt wurde und/oder zur Durchführung eines erfindungsgemäßen Verfahrens. Das Geländefahrzeug ist teilweise und/oder vollständig autonom. Das Geländefahrzeug umfasst Sensoren zum Erfassen von Sensordaten von Teilen eines Einsatzgebietes.An all-terrain vehicle according to the invention is designed and set up to carry out an operation that was determined using a method according to the invention and/or to carry out a method according to the invention. The all-terrain vehicle is partially and/or fully autonomous. The all-terrain vehicle includes sensors for acquiring sensor data from parts of a deployment area.
Ein erfindungsgemäßes Computerprogrammprodukt umfasst ein Programm das, wenn es von einem Computer ausgeführt wird, den Computer veranlasst, ein erfindungsgemäßes Verfahren zum Ermitteln von Begrenzungen von und unbeweglichen Objekten in Einsatzgebieten für autonome und/oder teilweise autonome Geländefahrzeuge für Einsätze der Geländefahrzeuge in den Einsatzgebieten durchzuführen.A computer program product according to the invention comprises a program which, when it is executed by a computer, causes the computer to carry out a method according to the invention for determining boundaries of and immovable objects in areas of application for autonomous and/or partially autonomous all-terrain vehicles for use of the all-terrain vehicles in the areas of application.
Die Vorteile des erfindungsgemäßen Verfahrens ergeben sich in gleicher Weise für das erfindungsgemäße Geländefahrzeug und das erfindungsgemäße Computerprogrammprodukt.The advantages of the method according to the invention result in the same way for the off-road vehicle according to the invention and the computer program product according to the invention.
Die abhängigen Ansprüche beschreiben vorteilhafte Ausführungsformen der Erfindung.The dependent claims describe advantageous embodiments of the invention.
Bevorzugte Ausführungsbeispiele werden anhand der folgenden Figuren näher erläutert. Dabei zeigt
-
1 ein Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zum Ermitteln von Begrenzungen von und unbeweglichen Objekten in Einsatzgebieten für autonome und/oder teilweise autonome Geländefahrzeuge für Einsätze der Geländefahrzeuge in den Einsatzgebieten durchzuführen, -
2 ein Ausführungsbeispiel eines erfindungsgemäßen Geländefahrzeugs und -
3 zeigt ein schematisches Ausführungsbeispiels eines Einsatzgebietes mit Begrenzungen.
-
1 to carry out an exemplary embodiment of a method according to the invention for determining boundaries of and immovable objects in areas of application for autonomous and/or partially autonomous all-terrain vehicles for use of the all-terrain vehicles in the areas of application, -
2 an embodiment of an all-terrain vehicle according to the invention and -
3 shows a schematic embodiment of an application area with limitations.
Das erfindungsgemäße Computerprogrammprodukt 2 umfasst ein Programm das, wenn es von einem Computer ausgeführt wird, den Computer veranlasst, ein erfindungsgemäßes Verfahren zum Ermitteln von Begrenzungen 3 von und unbeweglichen Objekten in Einsatzgebieten 4 für autonome und/oder teilweise autonome Geländefahrzeuge 1 für Einsätze der Geländefahrzeuge 1 in den Einsatzgebieten 4 durchzuführen.The
Das Einsatzgebiet 4 ist als landwirtschaftliches Feld ausgebildet, auf dem Kartoffeln angebaut sind. Das Geländefahrzeug 1 ist als autonome Erntemaschine ausgebildet.
In einem ersten Schritt 10 erfolgt ein Erstellen von Bildern des Einsatzgebietes 4 mittels einer Drohne für das Bereitstellen der Bilder.In a
Die Drohne ist mit einer hochauflösenden Kamera ausgestattet. Bei einem Überflug über das Einsatzgebiet 4 nimmt die Drohne Bilder des Einsatzgebietes aus der Luft auf, wodurch diese Bilder des Einsatzgebietes 4 eine Draufsicht des Einsatzgebietes 4 zeigen. Dies ermöglicht es, dass auch kleine Objekte, welche sich innerhalb des Einsatzgebietes 4 befinden, von den Bildern erfasst sind.The drone is equipped with a high-resolution camera. When flying over the
In einem darauffolgenden Schritt 20 erfolgt ein Bereitstellen von Bildern des Einsatzgebietes 4 aus einer ersten Ansichtsrichtung, wobei die Bilder Geokoordinaten umfassen.In a
Die Drohne umfasst eine Einrichtung zum Ermitteln von Geokoordinaten von aufgenommen Bildern. Die ermittelten Geokoordinaten sind von den Bildern umfasst.The drone includes a device for determining geo-coordinates of recorded images. The determined geo-coordinates are included in the images.
Alternativ zu Schritt 10 sind die Bilder in Schritt 20 hochauflösende Satellitenaufnahmen. Die Satellitenaufnahmen umfassen ebenfalls Geokoordinaten der Bilder. Dies ermöglicht es, auf den Einsatz einer Drohe zu verzichten. Dies ermöglicht eine deutliche Zeitreduktion für das Bereitstellen der Bilder, da diese im Vorfeld nicht erst erstellt werden müssen. Die bereitgestellten Bilder ermöglichen allerdings eine Detektion von kleineren Objekten innerhalb des Einsatzgebietes 4 nur eingeschränkt.As an alternative to step 10, the images in
In einem darauffolgenden Schritt 30 erfolgt ein Anwenden eines Sobel-Filters zum Ermitteln der Begrenzungen 3 des Einsatzgebietes 4.In a
Alternativ erfolgt ein Anwenden eines Prewitt-filters oder eines Lapace-Filters.Alternatively, a Prewitt filter or a Lapace filter is used.
In einem darauffolgenden Schritt 40 erfolgt ein Ermitteln von Begrenzungen 3 des Einsatzgebietes 4 anhand der Bilder.In a
In diesem Ausführungsbeispiel erfolgt eine regelbasierte Analyse der weißen Markierungen mittels eines Computers. Dabei werden insbesondere der Verlauf und die Breite der weißen Markierungen berücksichtigt, um die Begrenzungen zu ermitteln.In this exemplary embodiment, a rule-based analysis of the white markings is carried out using a computer. In particular, the course and the width of the white markings are taken into account in order to determine the boundaries.
In einem darauffolgenden Schritt 50 erfolgt ein Berechnen von Geokoordinaten der Begrenzungen 3 anhand der Bilder und der ermittelten Begrenzungen 3.In a
Sowohl von Satellitenbildern als auch von den Bildern, welche durch die Drohne erstellt wurden, sind Geokoordinaten in Form von GPS-Koordinaten umfasst. Anhand dieser GPS-Koordinaten und den ermittelten Begrenzungen werden nun durch Abgleichen die GPS-Koordinaten der Begrenzungen ermittelt.Geocoordinates in the form of GPS coordinates are included both from satellite images and from the images created by the drone. Using these GPS coordinates and the determined boundaries, the GPS coordinates of the boundaries are now determined by comparison.
In einem darauffolgenden Schritt 60 erfolgt ein Erstellen von weiteren Bildern des Einsatzgebietes 4 aus weiteren Ansichtsrichtungen mittels einer Drohne zum Bereitstellen der 3-dimensionalen Repräsentation des Einsatzgebietes 4.In a
Dafür bewegt sich die Drohne in einer geringen Höhe von bis zu 20 m über dem Einsatzgebiet 4. Die Bilder zeigen demnach mindestens Teilweise Seitenansichten des Einsatzgebietes 4. In diesem Ausführungsbeispiel werden die Seitenansichten aus verschieden Richtungen erstellt. Die Seitenansichten und die Draufsichten werden nun in eine 3-dimensionalen Repräsentation des Einsatzgebietes 4 verarbeitet. Dabei werden gängige Algorithmen zum Erstellen von 3-dimensionalen Repräsentation verwendet.For this purpose, the drone moves at a low altitude of up to 20 m above the
In einem darauffolgenden Schritt 70 erfolgt ein Bereitstellen einer 3-dimensionalen Repräsentation des Einsatzgebietes 4. Die die 3-dimensionale Repräsentation umfasst Ansichten aus weiteren Ansichtsrichtungen für wenigstens Teile des Einsatzgebietes 4.In a
Alternativ zu Schritt 60 werden schon vorhandene 3-dimensionalen Repräsentation des Einsatzgebietes 4 verwendet, wie sie beispielsweise auf Karten im Internet verfügbar sind. Dies ermöglicht enorme Zeitersparnisse im Vergleich zu der Durchführung von Schritt 60. Allerdings kann die Auflösung der 3-dimensionalen Repräsentation des Einsatzgebietes 4 im Fall der Durchführung von Schritt 60 deutlich erhöht sein.As an alternative to step 60, existing 3-dimensional representations of the
In einem darauffolgenden Schritt 80 erfolgt ein Ermitteln von unbeweglichen Objekten innerhalb des Einsatzgebietes 4 anhand der 3-dimensionalen Repräsentation mittels eines neuronalen Netzes.In a
Es liegen nun Bilder aus verschiedenen Ansichtsrichtungen auch von Objekten innerhalb des Einsatzgebietes 4 vor. Dies ermöglicht es, dass ein neuronales Netz aus diesen Bildern Objekte detektieren kann. Das neuronale Netz wurde trainiert zum Detektieren und Klassifizieren von Objekten auf Bildern.There are now images from different viewing directions, also of objects within the
In einem darauffolgenden Schritt 90 erfolgt ein Klassifizieren der ermittelten unbeweglichen Objekte mittels des neuronalen Netzes.In a
In diesem Ausführungsbeispiel befindet sich ein Baum als unbewegliches Objekt innerhalb des Einsatzgebietes 4. Das neuronale Netz ermittelt den Baum und klassifiziert es als Baum.In this exemplary embodiment, there is a tree as an immovable object within the
In einem darauffolgenden Schritt 100 erfolgt ein Ermitteln von Geokoordinaten der ermittelten Begrenzungen 3 und/oder der unbeweglichen Objekte.In a
Durch Abgleichen werden nun GPS-Koordinaten des Baumes anhand der Bilder ermittelt. Dabei werden auch die Begrenzungen des Baumes ermittelt. Dies ermöglicht eine genaue Bestimmung der Größe des Baumes.By comparing the GPS coordinates of the tree are now determined using the images. The boundaries of the tree are also determined. This allows for an accurate determination of the size of the tree.
In einem darauffolgenden Schritt 110 erfolgt ein Ermitteln eines ersten Einsatzes für ein Geländefahrzeug 1 unter Berücksichtigung der ermittelten Begrenzungen 3 und/oder ermittelten und klassifizierten unbeweglichen Objekte.In a
Der Baum würde ein Überfahren durch die Erntemaschine nicht erlauben. Die Erntemaschine soll allerdings einen möglichst großen Teil des Feldes abfahren, um einen Ernteertrag zu maximieren. Daher soll der Baum möglichst eng umfahren werden. Dies wird dadurch ermöglicht, dass die Größe des Baumes ermittelt wurde. Als erster Einsatz wird nun ein Pfad für das Abfahren des Feldes geplant, so dass die Erntemaschine ein komplettes Abernten des Feldes erlaubt. Der Baum ist dabei von dem Pfad ausgenommen. Dies reduziert den Ernteertrag allerdings nicht, da an der Stelle des Baumes keine Kartoffeln vorhanden sein können.The tree would not allow the harvester to run over it. However, the harvesting machine should cover as large a part of the field as possible in order to maximize a crop yield. Therefore, the tree should be avoided as closely as possible. This is made possible by determining the size of the tree. As a first step, a path for driving down the field is now planned so that the harvesting machine allows a complete harvest of the field. The tree is excluded from the path. However, this does not reduce the crop yield, since potatoes cannot be present at the location of the tree.
In einem darauffolgenden Schritt 120 erfolgt ein Durchführen eines zweiten Einsatzes durch das Geländefahrzeug 1.In a
Der erste und der zweite Einsatz sind in diesem Ausführungsbeispiel identisch. Die Erntemaschine fährt während des zweiten Einsatzes den geplanten Pfad ab und erntet automatisiert Kartoffeln.The first and second inserts are identical in this embodiment. During the second use, the harvesting machine follows the planned path and automatically harvests potatoes.
In einem gleichzeigt ausgeführtem Schritt 130 erfolgt ein Erfassen von Sensordaten von Teilen des Einsatzgebietes 4 mittels Sensoren 5 des Geländefahrzeugs 1 während des zweiten Einsatzes des Geländefahrzeugs 1.In
In diesem Ausführungsbeispiel umfassen die Sensoren 5 Kameras und ein Modul zum Ermitteln von GPS-Koordinaten. Während des Abfahrens des geplanten Pfades, nimmt die Kamera Bilder auf, während das Modul GPS-Koordinaten der Bilder ermittelt. Eine Anzahl der Bilder zeigt den Baum aus verschiedenen Richtungen.In this exemplary embodiment, the sensors include 5 cameras and a module for determining GPS coordinates. While driving along the planned path, the camera takes pictures while the module determines the GPS coordinates of the pictures. A number of the images show the tree from different directions.
In einem darauffolgenden Schritt 140 erfolgt ein Analysieren der Sensordaten zum Ermitteln von zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes 4 anhand der Sensordaten.In a
In diesem Ausführungsbeispiel erfolgt die Analyse analog zu den Schritten 80 und 90. Der Baum wird erneut als solcher klassifiziert.In this exemplary embodiment, the analysis is carried out analogously to
In einem darauffolgenden Schritt 150 erfolgt ein Vergleichen der Begrenzungen 3 des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes 4 und der zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes 4.In a
In diesem Ausführungsbeispiel werden die beiden ermittelten Datensätze des Baumes vergleich und sie stimmen überein.In this exemplary embodiment, the two determined data sets of the tree are compared and they match.
In einem darauffolgenden Schritt 160 erfolgt ein Verifizieren der Begrenzungen 3 des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes 4 für den Fall, dass der Vergleich eine Übereinstimmung der Begrenzungen 3 des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes 4 und der zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes 4 ergeben hat.In a
In diesem Ausführungsbeispiel wird demnach die Position und Klasse des Baumes verifiziert.In this embodiment, therefore, the position and class of the tree is verified.
Alternativ zu Schritt 160 erfolgt in einem Schritt 170 ein Ändern der Begrenzungen 3 des und/oder unbeweglichen Objekten innerhalb Einsatzgebietes 4 zu den zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes, für den Fall, dass der Vergleich keine Übereinstimmung der Begrenzungen 3 des und/oder unbeweglichen Objekten innerhalb des Einsatzgebietes 4 und der zweiten Begrenzungen des und/oder unbeweglichen Objekte innerhalb des Einsatzgebietes 4 ergeben hat.As an alternative to step 160, in a
In diesem alternativen Ausführungsbeispiel wurde innerhalb des Einsatzgebietes 4 ein Gebäude neu errichtet. Dieses wird nun nach den beschriebenen Schritten erfasst und klassifiziert. Der zweite Einsatz wird nun angepasst, so dass das Gebäude ebenfalls umfahren wird.In this alternative exemplary embodiment, a new building was erected within
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- US 2006095171 [0002]US2006095171 [0002]
Claims (10)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102021005058.4A DE102021005058A1 (en) | 2021-10-08 | 2021-10-08 | Method for determining boundaries of and immovable objects in deployment areas for autonomous and/or partially autonomous all-terrain vehicles for deploying the all-terrain vehicles in the deployment areas |
| DE102021005058.4 | 2021-10-08 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102022124000A1 true DE102022124000A1 (en) | 2023-04-13 |
Family
ID=79020476
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102021005058.4A Withdrawn DE102021005058A1 (en) | 2021-10-08 | 2021-10-08 | Method for determining boundaries of and immovable objects in deployment areas for autonomous and/or partially autonomous all-terrain vehicles for deploying the all-terrain vehicles in the deployment areas |
| DE102022124000.2A Pending DE102022124000A1 (en) | 2021-10-08 | 2022-09-19 | Method for determining boundaries of and immovable objects in deployment areas for autonomous and/or partially autonomous all-terrain vehicles for deploying the all-terrain vehicles in the deployment areas |
Family Applications Before (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102021005058.4A Withdrawn DE102021005058A1 (en) | 2021-10-08 | 2021-10-08 | Method for determining boundaries of and immovable objects in deployment areas for autonomous and/or partially autonomous all-terrain vehicles for deploying the all-terrain vehicles in the deployment areas |
Country Status (1)
| Country | Link |
|---|---|
| DE (2) | DE102021005058A1 (en) |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20060095171A1 (en) | 2004-11-02 | 2006-05-04 | Whittaker William L | Methods, devices and systems for high-speed autonomous vehicle and high-speed autonomous vehicle |
-
2021
- 2021-10-08 DE DE102021005058.4A patent/DE102021005058A1/en not_active Withdrawn
-
2022
- 2022-09-19 DE DE102022124000.2A patent/DE102022124000A1/en active Pending
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20060095171A1 (en) | 2004-11-02 | 2006-05-04 | Whittaker William L | Methods, devices and systems for high-speed autonomous vehicle and high-speed autonomous vehicle |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102021005058A1 (en) | 2022-01-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP2034461B1 (en) | Method for detecting and/or tracking moved objects in a monitoring zone with stoppers, device and computer program | |
| DE102017107264A1 (en) | VISIBLE RAIN RECOGNITION USING DEEP LEARNING | |
| DE112009000949T5 (en) | Detection of a free driving path for a vehicle | |
| EP2517149A2 (en) | Device and method for monitoring video objects | |
| DE102016210534A1 (en) | Method for classifying an environment of a vehicle | |
| WO2020126167A1 (en) | Method for identifying at least one pattern in the surroundings of a vehicle, control device for carrying out such a method, and vehicle having such a control device | |
| DE102018121008A1 (en) | CROSS TRAFFIC RECORDING USING CAMERAS | |
| DE102018005969A1 (en) | Method for operating a driver assistance system with two detection devices | |
| DE102021204040A1 (en) | Method, device and computer program for creating training data in the vehicle | |
| DE102019119084A1 (en) | Determining a signal status of a traffic light system | |
| DE102020208080A1 (en) | Detection of objects in images under equivariance or invariance with respect to the object size | |
| DE102021206475A1 (en) | Obstacle detection in the track area based on depth data | |
| EP3576013A1 (en) | Estimation of a path of a rail path | |
| DE102022124000A1 (en) | Method for determining boundaries of and immovable objects in deployment areas for autonomous and/or partially autonomous all-terrain vehicles for deploying the all-terrain vehicles in the deployment areas | |
| DE102019201690A1 (en) | Procedure and assistance system for monitoring the surroundings of an ego vehicle | |
| DE102021201774A1 (en) | Augmented Reality Recognition for the Localization of Autonomous Vehicles | |
| DE102022201279B3 (en) | Method for capturing an environment of a vehicle, camera device and vehicle | |
| EP3714398A1 (en) | Method for object detection for a vehicle having a thermographic camera and modified noise-suppression filters | |
| DE102019102672A1 (en) | INTERSENSORY LEARNING | |
| DE102016216528A1 (en) | Method and device for determining the location of a vehicle, in particular a rail vehicle | |
| DE102022200147A1 (en) | Detection with higher safety integrity of characteristics of a scenery by matching sensor data with an expectation | |
| DE102016119592A1 (en) | Method for detecting objects in an environmental region of a motor vehicle taking into account sensor data in the infrared wavelength range, object recognition device, driver assistance system and motor vehicle | |
| WO2019223987A1 (en) | Method and device for detecting a drivable area away from roads | |
| DE102013011927B4 (en) | Method for controlling a monitoring device | |
| DE102015011926A1 (en) | Method for operating a camera system in a motor vehicle and motor vehicle |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R084 | Declaration of willingness to licence |