[go: up one dir, main page]

DE102020203814A1 - Training an artificial neural network - Google Patents

Training an artificial neural network Download PDF

Info

Publication number
DE102020203814A1
DE102020203814A1 DE102020203814.7A DE102020203814A DE102020203814A1 DE 102020203814 A1 DE102020203814 A1 DE 102020203814A1 DE 102020203814 A DE102020203814 A DE 102020203814A DE 102020203814 A1 DE102020203814 A1 DE 102020203814A1
Authority
DE
Germany
Prior art keywords
driver
data
vehicle
information
reaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020203814.7A
Other languages
German (de)
Inventor
Steffen Biel
Christian Heupel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102020203814.7A priority Critical patent/DE102020203814A1/en
Publication of DE102020203814A1 publication Critical patent/DE102020203814A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/227Position in the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft eine Vorrichtung (16) zum autonomen oder teilautonomen Betreiben eines Fahrzeugs (12), mit: einer Eingangsschnittstelle (22) zum Empfangen von Kameradaten eines Kamerasensors (14), wobei die Kameradaten Informationen zu Objekten (18) in einer Umgebung des Fahrzeugs (12) umfassen; einer Auswerteeinheit (24) zum Ermitteln einer Fahrzeugreaktion basierend auf einer Auswertung der Kameradaten in einem vortrainierten künstlichen neuronalen Netzwerk; und einer Steuereinheit (26) zum Ermitteln eines Steuersignals für einen Aktor (20) des Fahrzeugs (12) zum Ausführen der Fahrzeugreaktion, wobei das künstliche neuronale Netzwerk basierend auf Umfeld-Beobachtungsdaten mit Informationen zu Objekten (18) in einem Sichtfeld des Fahrers (31), simultanen Fahrer-Beobachtungsdaten mit Informationen zu einer Blickrichtung des Fahrers (31) innerhalb des Sichtfelds des Fahrers (31) und Reaktionsdaten mit Informationen zu einer Aktion des Fahrers (31) vortrainiert ist. Die vorliegende Erfindung betrifft weiterhin ein System (10) und ein Verfahren zum autonomen oder teilautonomen Betreiben eines Fahrzeugs (12) sowie eine Trainingsvorrichtung (28) und ein Trainingsverfahren.The present invention relates to a device (16) for autonomous or semi-autonomous operation of a vehicle (12), having: an input interface (22) for receiving camera data from a camera sensor (14), the camera data providing information on objects (18) in the vicinity of the Vehicle (12) include; an evaluation unit (24) for determining a vehicle reaction based on an evaluation of the camera data in a pre-trained artificial neural network; and a control unit (26) for determining a control signal for an actuator (20) of the vehicle (12) for executing the vehicle reaction, wherein the artificial neural network is based on environment observation data with information about objects (18) in a field of view of the driver (31 ), simultaneous driver observation data with information on a direction of view of the driver (31) within the field of view of the driver (31) and reaction data with information on an action of the driver (31) is pre-trained. The present invention also relates to a system (10) and a method for autonomous or semi-autonomous operation of a vehicle (12) as well as a training device (28) and a training method.

Description

Die vorliegende Erfindung betrifft eine Vorrichtung zum autonomen Betreiben eines Fahrzeugs. Die Erfindung betrifft weiterhin ein Verfahren und ein System zum autonomen Betreiben eines Fahrzeugs sowie eine Trainingsvorrichtung und ein Trainingsverfahren eines künstlichen neuronalen Netzwerks.The present invention relates to a device for the autonomous operation of a vehicle. The invention further relates to a method and a system for autonomous operation of a vehicle, as well as a training device and a training method for an artificial neural network.

Moderne Fahrzeuge (Autos, Transporter, Lastwagen, Motorräder etc.) umfassen eine Vielzahl an Systemen, die dem Fahrer Informationen zur Verfügung stellen und einzelne Funktionen des Kraftfahrzeugs teil- oder vollautomatisiert steuern. Über Sensoren werden die Umgebung des Kraftfahrzeugs sowie andere Verkehrsteilnehmer erfasst. Basierend auf den erfassten Daten kann ein Modell der Fahrzeugumgebung erzeugt werden und auf Veränderungen in dieser Fahrzeugumgebung reagiert werden. Durch die fortschreitende Entwicklung im Bereich der autonom und teilautonom fahrenden Fahrzeuge werden der Einfluss und der Wirkungsbereich solcher Fahrerassistenzsysteme (Advanced Driver Assistance Systems, ADAS) immer größer. Durch die Entwicklung immer präziserer Sensoren ist es möglich, die Umgebung und den Verkehr zu erfassen und einzelne Funktionen des Kraftfahrzeugs vollständig oder teilweise ohne Eingriff des Fahrers zu kontrollieren. Fahrerassistenzsysteme können dabei insbesondere zur Erhöhung der Sicherheit im Verkehr sowie zur Verbesserung des Fahrkomforts beitragen.Modern vehicles (cars, vans, trucks, motorcycles, etc.) comprise a large number of systems that provide the driver with information and control individual functions of the motor vehicle in a partially or fully automated manner. The surroundings of the motor vehicle and other road users are recorded via sensors. Based on the recorded data, a model of the vehicle environment can be generated and changes in this vehicle environment can be reacted to. As a result of the advancing development in the field of autonomous and semi-autonomous vehicles, the influence and scope of such driver assistance systems (Advanced Driver Assistance Systems, ADAS) are increasing. With the development of ever more precise sensors, it is possible to record the environment and the traffic and to control individual functions of the motor vehicle completely or partially without the intervention of the driver. Driver assistance systems can contribute in particular to increasing traffic safety and improving driving comfort.

Für die Datenauswertung und Weiterverarbeitung sind in diesem Zusammenhang insbesondere künstliche neuronale Netzwerke relevant. Anwendungen liegen beispielsweise im Bereich der Objekterkennung basierend auf Kamera- und anderen Sensordaten und in der Ableitung relevanter Erkenntnisse und Handlungsempfehlungen. Eine Herausforderung liegt dabei darin, dass zum Trainieren eines neuronalen Netzwerks eine große Menge an Trainingsdaten erforderlich ist. Diese Trainingsdaten sind zumeist manuell annotiert, um eine Zuordnung zwischen Sensordaten als Eingabe-Trainingsdaten und entsprechenden Objekten als Ausgabe-Trainingsdaten bzw. eine korrekte Klassifizierung zu ermöglichen. Zudem besteht eine Herausforderung darin, geeignete Eingangsdaten zu verwenden, auf deren Basis eine adäquate und angemessene Reaktion eines autonomen oder teilautonomen Fahrzeugsteuerungssystems ermittelt werden kann.In this context, artificial neural networks are particularly relevant for data evaluation and further processing. Applications are, for example, in the area of object recognition based on camera and other sensor data and in the derivation of relevant findings and recommendations for action. One challenge is that a large amount of training data is required to train a neural network. These training data are mostly annotated manually in order to enable an association between sensor data as input training data and corresponding objects as output training data or a correct classification. In addition, there is a challenge in using suitable input data on the basis of which an adequate and appropriate reaction of an autonomous or semi-autonomous vehicle control system can be determined.

In diesem Zusammenhang wird in der DE 10 2018 117 380 A1 ein Ansatz zur Bremsvorhersage und zu einem Bremseingriff offenbart. Eine Rechenvorrichtung in einem Fahrzeug ist dazu programmiert, ein Kollisionsrisiko durch Vergleichen eines erlangten Insassengesichtsausdrucks mit einer Vielzahl von gespeicherten Insassengesichtsausdrücken vorherzusagen und ein Fahrzeug auf der Grundlage des Kollisionsrisikos zu bremsen.In this context, the DE 10 2018 117 380 A1 discloses an approach to braking prediction and braking intervention. A computing device in a vehicle is programmed to predict a collision risk by comparing an acquired occupant facial expression with a plurality of stored occupant facial expressions and to brake a vehicle based on the collision risk.

Eine relevante Problemstellung liegt darin, bei der Ableitung einer adäquaten Fahrzeugreaktion eine hohe Zuverlässigkeit zu erreichen. Das autonome oder teilautonome Fahrzeug soll mit möglichst hoher Zuverlässigkeit eine Reaktion auf eine erkannte Situation ausführen, die der erkannten Situation angemessen ist und möglichst einer Reaktion eines menschlichen Fahrers entspricht.A relevant problem is to achieve a high level of reliability when deriving an adequate vehicle reaction. The autonomous or semi-autonomous vehicle is intended to carry out a reaction to a recognized situation with the highest possible reliability, which is appropriate to the recognized situation and, as far as possible, corresponds to a reaction of a human driver.

Ausgehend hiervon stellt sich der vorliegenden Erfindung die Aufgabe, bei einem autonomen oder teilautonomen Betrieb eines Fahrzeugs eine möglichst situationsadäquate Reaktion des Fahrzeugs auf eine Situation sicherzustellen. Insbesondere soll die Sicherheit des eigenen Fahrzeugs und der Insassen sowie anderer Verkehrsteilnehmer gewährleistet werden.On the basis of this, the present invention has the task of ensuring a reaction of the vehicle to a situation that is as appropriate as possible to the situation in the case of an autonomous or partially autonomous operation of a vehicle. In particular, the safety of one's own vehicle and the occupants as well as other road users should be guaranteed.

Zum Lösen dieser Aufgabe betrifft die vorliegende Erfindung in einem ersten Aspekt eine Vorrichtung zum autonomen oder teilautonomen Betreiben eines Fahrzeugs, mit:

  • einer Eingangsschnittstelle zum Empfangen von Kameradaten eines Kamerasensors, wobei die Kameradaten Informationen zu Objekten in einer Umgebung des Fahrzeugs umfassen;
  • einer Auswerteeinheit zum Ermitteln einer Fahrzeugreaktion basierend auf einer Auswertung der Kameradaten in einem vortrainierten künstlichen neuronalen Netzwerk; und
  • einer Steuereinheit zum Ermitteln eines Steuersignals für einen Aktor des Fahrzeugs zum Ausführen der Fahrzeugreaktion, wobei
  • das künstliche neuronale Netzwerk basierend auf Umfeld-Beobachtungsdaten mit Informationen zu Objekten in einem Sichtfeld des Fahrers, simultanen Fahrer-Beobachtungsdaten mit Informationen zu einer Blickrichtung des Fahrers innerhalb des Sichtfelds des Fahrers und Reaktionsdaten mit Informationen zu einer Aktion des Fahrers vortrainiert ist.
To achieve this object, the present invention relates in a first aspect to a device for the autonomous or semi-autonomous operation of a vehicle, with:
  • an input interface for receiving camera data from a camera sensor, the camera data including information on objects in the vicinity of the vehicle;
  • an evaluation unit for determining a vehicle reaction based on an evaluation of the camera data in a pre-trained artificial neural network; and
  • a control unit for determining a control signal for an actuator of the vehicle for executing the vehicle reaction, wherein
  • the artificial neural network is pre-trained based on environment observation data with information on objects in a driver's field of vision, simultaneous driver observation data with information on a direction of view of the driver within the driver's field of vision and reaction data with information on an action by the driver.

In einem weiteren Aspekt betrifft die Erfindung ein System zum autonomen oder teilautonomen Betreiben eines Fahrzeugs, mit:

  • einem Kamerasensor; und
  • einer Vorrichtung wie zuvor beschrieben.
In a further aspect, the invention relates to a system for the autonomous or semi-autonomous operation of a vehicle, with:
  • a camera sensor; and
  • a device as described above.

In einem weiteren Aspekt betrifft die Erfindung eine Trainingsvorrichtung eines künstlichen neuronalen Netzwerks, mit:

  • einer Eingangsschnittstelle zum Empfangen von Umfeld-Beobachtungsdaten mit Informationen zu Objekten in einem Sichtfeld eines Fahrers eines Fahrzeugs, simultanen Fahrer-Beobachtungsdaten mit Informationen zu einer Blickrichtung des Fahrers innerhalb des Sichtfelds des Fahrers und Reaktionsdaten mit Informationen zu einer Aktion des Fahrers;
  • einer Trainingseinheit zum Eingeben der Umfeld-Beobachtungsdaten und der Fahrer-Beobachtungsdaten als Eingabe-Trainingsdaten sowie der Reaktionsdaten als Ausgabe-Trainingsdaten in ein künstliches neuronales Netzwerk.
In a further aspect, the invention relates to a training device of an artificial neural network, with:
  • an input interface for receiving environment observation data with information on objects in a field of vision of a driver of a vehicle, simultaneous driver observation data with information on a direction of view of the driver within the field of vision of the driver and reaction data with information on an action of the driver;
  • a training unit for inputting the environment observation data and the driver observation data as input training data and the reaction data as output training data into an artificial neural network.

Weitere Aspekte der Erfindung betreffen entsprechend der Vorrichtungen ausgebildete Verfahren und ein Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte der Verfahren, wenn der Programmcode auf einem Computer ausgeführt wird sowie ein Speichermedium, auf dem ein Computerprogramm gespeichert ist, das, wenn es auf einem Computer ausgeführt wird, eine Ausführung der hierin beschriebenen Verfahren bewirkt.Further aspects of the invention relate to methods embodied in accordance with the devices and a computer program product with program code for performing the steps of the method when the program code is executed on a computer and a storage medium on which a computer program is stored that when it is executed on a computer , causes the methods described herein to be carried out.

Bevorzugte Ausgestaltungen der Erfindung werden in den abhängigen Ansprüchen beschrieben. Es versteht sich, dass das System und das Verfahren zum autonomen oder teilautonomen Betreiben des Kraftfahrzeugs sowie die Trainingsvorrichtung und das Trainingsverfahren des künstlichen neuronalen Netzwerks sowie das Computerprogrammprodukt entsprechend der für die Vorrichtung zum autonomen oder teilautonomen Betreiben des Fahrzeugs definierten Ausgestaltungen ausgeführt sein können.Preferred embodiments of the invention are described in the dependent claims. It goes without saying that the system and the method for autonomous or semi-autonomous operation of the motor vehicle as well as the training device and the training method of the artificial neural network and the computer program product can be designed in accordance with the configurations defined for the device for autonomous or semi-autonomous operation of the vehicle.

Es ist vorgesehen, dass über eine Eingangsstelle Kameradaten empfangen werden. Diese Kameradaten werden ausgewertet, um darauf basierend eine Fahrzeugreaktion zu ermitteln. Die Fahrzeugreaktion entspricht dabei einem Fahrmanöver, das vom Fahrzeug ausgeführt werden soll, um ausgehend von einer aktuellen Situation möglichst eine Gefährdung des eigenen Fahrzeugs oder eines anderen Verkehrsteilnehmers zu vermeiden. Hierzu wird in einer Steuereinheit basierend auf der ermittelten Fahrzeugreaktion ein Steuersignal ermittelt. Mittels dieses Steuersignals kann ein Aktor des Fahrzeugs angesteuert werden, um eine Ausführung der Fahrzeugreaktion zu bewirken. Die Fahrzeugreaktion wird mittels eines künstlichen neuronalen Netzwerks ermittelt, das basierend auf Umfeld-Beobachtungsdaten, simultanen Fahrer-Beobachtungsdaten sowie Reaktionsdaten vortrainiert ist. Diese Daten sind dabei insbesondere über einen langen Zeitraum gesammelt worden und in einer Trainingsphase im künstlichen neuronalen Netzwerk verarbeitet worden.Provision is made for camera data to be received via an input point. This camera data is evaluated in order to determine a vehicle reaction based on it. The vehicle reaction corresponds to a driving maneuver that is to be carried out by the vehicle in order, based on a current situation, to avoid endangering the own vehicle or another road user as much as possible. For this purpose, a control signal is determined in a control unit based on the determined vehicle reaction. An actuator of the vehicle can be controlled by means of this control signal in order to cause the vehicle reaction to be carried out. The vehicle reaction is determined by means of an artificial neural network that is pre-trained based on environment observation data, simultaneous driver observation data and reaction data. In particular, these data have been collected over a long period of time and processed in a training phase in the artificial neural network.

Bei bisherigen Ansätzen wurde vorgeschlagen, die Blickrichtung des Fahrers als Eingangssignal für ein künstliches neuronales Netzwerk zum Ermitteln einer Fahrzeugreaktion zu verwenden. Demgegenüber sieht der beschriebene Ansatz vor, derartige Fahrer-Beobachtungsdaten nur für das Training des künstlichen neuronalen Netzwerks, nicht jedoch während des eigentlichen Betriebs des Fahrzeugs zu verwenden. Für die Entscheidung bezüglich der Fahrzeugreaktion im (späteren) Betrieb wird lediglich auf Kameradaten zurückgegriffen. In dieser Situation kann dann im Betrieb insoweit also eine Reaktion ausgelöst werden, auch wenn der Fahrer die Gefahr in diesem Fall nicht erkennt. Ebenfalls ist es möglich, keine Reaktion auszulösen, wenn der Fahrer aus anderen Gründen einen bestimmten Bereich beobachtet. Es ergibt sich eine höhere Zuverlässigkeit bei der Ermittlung der angepassten Fahrzeugreaktion auf eine aktuelle Situation.In previous approaches, it was proposed to use the driver's line of sight as an input signal for an artificial neural network to determine a vehicle reaction. In contrast, the approach described provides for such driver observation data to be used only for training the artificial neural network, but not during the actual operation of the vehicle. For the decision regarding the vehicle reaction in (later) operation, only camera data is used. In this situation, a reaction can be triggered during operation, even if the driver does not recognize the danger in this case. It is also possible not to trigger a reaction if the driver observes a certain area for other reasons. The result is greater reliability when determining the adapted vehicle reaction to a current situation.

In der Trainingsphase werden in einer erfindungsgemäßen Trainingsvorrichtung eines künstlichen neuronalen Netzwerks sowohl Umfeld-Beobachtungsdaten als auch simultan aufgenommene Fahrer-Beobachtungsdaten als Eingabe-Trainingsdaten verwendet. Als Ausgabe-Trainingsdaten werden die Aktionen des Fahrers in Reaktion auf das Umfeld des Fahrzeugs verwendet. Dadurch, dass die Umfeld-Beobachtungsdaten und die Fahrer-Beobachtungsdaten für das Training benutzt werden, kann eine Information über einen für die ausgeführte Aktion des Fahrers relevanten Bildbereich miteinbezogen werden. Insbesondere kann ein relevantes Objekt identifiziert werden. In anderen Worten kann das künstliche neuronale Netzwerk darauf hintrainiert werden, zu erkennen, welche Objekte in welchem Kontext eine bestimmte Reaktion bedingen bzw. erfordern. Durch den erfindungsgemäßen Ansatz kann insoweit die Zuverlässigkeit bei der Bestimmung einer geeigneten Fahrzeugreaktion verbessert werden. Zudem können Kosten für das manuelle Annotieren von Daten eingespart werden, sodass ein effizienteres Trainieren eines künstlichen neuronalen Netzwerks ermöglicht wird. Hierdurch können einerseits Kosten reduziert, andererseits die Datenmenge der Trainingsdaten erhöht werden.In the training phase, both environment observation data and simultaneously recorded driver observation data are used as input training data in a training device of an artificial neural network according to the invention. The driver's actions in response to the surroundings of the vehicle are used as output training data. Because the environment observation data and the driver observation data are used for the training, information about an image area relevant to the action carried out by the driver can be included. In particular, a relevant object can be identified. In other words, the artificial neural network can be trained to recognize which objects cause or require a specific reaction in which context. The approach according to the invention can in this respect improve the reliability when determining a suitable vehicle reaction. In addition, costs for manually annotating data can be saved, so that more efficient training of an artificial neural network is made possible. In this way, costs can be reduced on the one hand, and the volume of training data can be increased on the other.

In einer bevorzugten Ausgestaltung ist die Eingangsschnittstelle der Vorrichtung zum Empfangen der Kameradaten von einer auf eine geplante Trajektorie des Fahrzeugs gerichteten Kamera ausgebildet. Insbesondere ist derjenige Bereich relevant, den das Fahrzeug in nächster Zeit durchqueren will. Objekte innerhalb dieses Bereichs sind relevant. Eine Kamera observiert den Bereich, in den sich das Fahrzeug in nächster Zeit bewegen wird. Basierend auf den gewonnenen Daten kann dann eine Fahrzeugreaktion ermittelt und ein Steuersignal für einen Aktor des Fahrzeugs erzeugt werden.In a preferred embodiment, the input interface of the device is designed to receive the camera data from a camera aimed at a planned trajectory of the vehicle. The area that the vehicle intends to cross in the near future is particularly relevant. Objects within this area are relevant. A camera observes the area in which the vehicle will move in the near future. Based on the data obtained, a vehicle reaction can then be determined and a control signal can be generated for an actuator of the vehicle.

In einer bevorzugten Ausgestaltung umfassen die Umfeld-Beobachtungsdaten Bilddaten einer auf das Umfeld des Fahrzeugs gerichteten Umfeld-Beobachtungskamera. Zusätzlich oder alternativ umfassen die Fahrer-Beobachtungdaten Bilddaten eines auf den Fahrer gerichteten Fahrer-Beobachtungskamerasensors. Weiter zusätzlich oder alternativ umfassen die Reaktionsdaten Sensordaten eines Sensors des Fahrzeugs und/oder Betriebsdaten eines Aktors des Fahrzeugs. Die Umfeld-Beobachtungdaten sind insbesondere Daten einer Umfeldkamera, die am Fahrzeug angebracht ist. Die Fahrer-Beobachtungsdaten sind insbesondere Daten einer Kamera, die auf den Fahrer und insbesondere dessen Augen gerichtet ist. Die Reaktionsdaten können sowohl Informationen eines Aktors bezüglich dessen Ansteuerung als auch Informationen eines Sensors, beispielsweise eines Inertialsensors oder eines direkt in einem Aktor des Fahrzeugs angebrachten Sensors sein. Es ergibt sich eine zuverlässige Ermittlung einer adäquaten Fahrzeugreaktion.In a preferred embodiment, the environment observation data include image data of a surrounding area directed towards the environment of the vehicle. Observation camera. Additionally or alternatively, the driver observation data comprise image data of a driver observation camera sensor directed at the driver. Furthermore, additionally or alternatively, the reaction data include sensor data of a sensor of the vehicle and / or operating data of an actuator of the vehicle. The environment observation data are, in particular, data from an environment camera that is attached to the vehicle. The driver observation data are, in particular, data from a camera that is directed at the driver and, in particular, his eyes. The reaction data can be information from an actuator with regard to its activation as well as information from a sensor, for example an inertial sensor or a sensor attached directly to an actuator of the vehicle. A reliable determination of an adequate vehicle reaction results.

In einer bevorzugten Ausgestaltung ist die Steuereinheit zum Ansteuern des Aktors mit dem ermittelten Steuersignal ausgebildet. Insbesondere ist es möglich, dass über die Steuereinheit direkt ein Aktor angesteuert wird. Die Steuereinheit trifft insoweit eine Entscheidung, welche Aktion ausgelöst wird. Beispielsweise kann eine Druckeinheit eines Bremszylinders angesteuert werden, um einen Druck im Bremszylinder vorsorglich zu erhöhen. Ebenfalls ist es möglich, dass der Druck so weit erhöht wird, dass direkt eine Bremsung ausgelöst wird. Die Bremskraft kann dabei der Situation angemessen sein. Weiterhin können beispielsweise eine Lenkung oder auch eine Beschleunigungseinheit eines Fahrzeugs direkt angesteuert werden.In a preferred embodiment, the control unit is designed to control the actuator with the determined control signal. In particular, it is possible for an actuator to be controlled directly via the control unit. In this respect, the control unit makes a decision as to which action is triggered. For example, a pressure unit of a brake cylinder can be activated in order to increase a pressure in the brake cylinder as a precaution. It is also possible for the pressure to be increased to such an extent that braking is triggered directly. The braking force can be appropriate for the situation. Furthermore, for example, a steering or an acceleration unit of a vehicle can be controlled directly.

In einer bevorzugten Ausgestaltung ist die Auswerteeinheit zum Ermitteln der Fahrzeugreaktion ohne Berücksichtigung von aktuellen Fahrer-Beobachtungsdaten mit Informationen zu einer Blickrichtung des Fahrers innerhalb eines Sichtfelds des Fahrers als Eingangsdaten in dem vortrainierten künstlichen neuronalen Netzwerk ausgebildet. Das künstliche neuronale Netzwerk wurde basierend auf zuvor gesammelten Fahrer-Beobachtungsdaten vortrainiert. Die aktuellen Fahrer-Beobachtungsdaten werden bei der Ermittlung der Fahrzeugreaktion nicht berücksichtigt. Hierdurch kann die Zuverlässigkeit bei der Ermittlung der adäquaten Reaktion weiter erhöht werden. Der Fahrer kann abgelenkt oder unaufmerksam sein. Das System erkennt die notwendige Reaktion des Fahrzeugs auf das Umfeld ohne die aktuelle Blickrichtung des Fahrers zu berücksichtigen.In a preferred embodiment, the evaluation unit is designed to determine the vehicle reaction without taking into account current driver observation data with information on a direction of view of the driver within a field of vision of the driver as input data in the pre-trained artificial neural network. The artificial neural network was pre-trained based on previously collected driver observation data. The current driver observation data are not taken into account when determining the vehicle reaction. This can further increase the reliability in determining the adequate response. The driver may be distracted or inattentive. The system recognizes the necessary reaction of the vehicle to the surroundings without taking into account the current direction of view of the driver.

Ein Sichtfeld bzw. ein Sichtbereich eines Kamerasensors oder auch eines Fahrers entspricht einem vom Kamerasensor oder vom Fahrer einsehbaren Bereich. Insbesondere ist das Sichtfeld durch eine Angabe eines Winkels in Vertikalrichtung und eines Winkels in Horizontalrichtung festgelegt. Eine Fahrzeugreaktion kann insbesondere einer Kombination aus einem Brems-, Lenk- und Beschleunigungsvorgang entsprechen. Die Umfeld-Beobachtungsdaten und die Fahrer-Beobachtungsdaten werden simultan aufgenommen. Insbesondere findet eine entsprechende Koordinatentransformation statt, um die Blickrichtung des Fahrers in den Umfeld-Beobachtungsdaten abzubilden. Durch eine solche Koordinatentransformation wird es möglich, eine Blickrichtung einer Position innerhalb eines Bildes bzw. innerhalb der Fahrer-Beobachtungsdaten zuzuordnen. Die Reaktionsdaten entsprechen insbesondere Informationen über vom Fahrer durchgeführte Brems-, Lenk- und Beschleunigungsvorgänge in unmittelbarer Folge der Umfeld-Beobachtungsdaten und der Fahrer-Beobachtungsdaten. Die Reaktionsdaten bilden insoweit eine Reaktion des Fahrers auf einen Zustand des Umfelds ab. Das Training des künstlichen neuronalen Netzwerks erfolgt insbesondere vor dem Betrieb der Vorrichtung zum autonomen oder teilautonomen Betreiben des Fahrzeugs.A field of view or a field of view of a camera sensor or also of a driver corresponds to an area that can be seen by the camera sensor or by the driver. In particular, the field of view is defined by specifying an angle in the vertical direction and an angle in the horizontal direction. A vehicle reaction can in particular correspond to a combination of braking, steering and acceleration processes. The environment observation data and the driver observation data are recorded simultaneously. In particular, a corresponding coordinate transformation takes place in order to map the direction of view of the driver in the environment observation data. Such a coordinate transformation makes it possible to assign a viewing direction to a position within an image or within the driver observation data. The reaction data correspond in particular to information about braking, steering and acceleration processes carried out by the driver as a direct result of the environment observation data and the driver observation data. In this respect, the reaction data depict a reaction of the driver to a state of the surroundings. The artificial neural network is trained in particular before the device for autonomous or semi-autonomous operation of the vehicle is operated.

Die Erfindung wird nachfolgend anhand einiger ausgewählter Ausführungsbeispiele im Zusammenhang mit den beiliegenden Zeichnungen näher beschrieben und erläutert. Es zeigen:

  • 1 eine schematische Darstellung eines Fahrzeugs mit einem erfindungsgemäßen System;
  • 2 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zum autonomen oder teilautonomen Betreiben eines Fahrzeugs;
  • 3 eine schematische Darstellung eines Fahrzeugs mit einer Trainingsvorrichtung eines künstlichen neuronalen Netzwerks;
  • 4 eine Trainingsvorrichtung eines künstlichen neuronalen Netzwerks;
  • 5 eine Fahrsituation aus der Perspektive eines Fahrzeugs bzw. eines Fahrers des Fahrzeugs; und
  • 6 eine schematische Darstellung eines erfindungsgemäßen Verfahrens.
The invention is described and explained in more detail below with the aid of a few selected exemplary embodiments in connection with the accompanying drawings. Show it:
  • 1 a schematic representation of a vehicle with a system according to the invention;
  • 2 a schematic representation of a device according to the invention for autonomous or partially autonomous operation of a vehicle;
  • 3 a schematic representation of a vehicle with a training device of an artificial neural network;
  • 4th an artificial neural network training device;
  • 5 a driving situation from the perspective of a vehicle or a driver of the vehicle; and
  • 6th a schematic representation of a method according to the invention.

In der 1 ist schematisch ein erfindungsgemäßes System 10 in einem Fahrzeug 12 dargestellt. Die Darstellung ist als schematische seitliche Schnittansicht zu verstehen. Das System 10 umfasst dabei einen Kamerasensor 14 sowie eine Vorrichtung 16 zum autonomen oder teilautonomen Betreiben des Fahrzeugs 12. Mit dem Kamerasensor 14 wird ein Objekt 18 innerhalb eines Sichtfelds 19 des Kamerasensors 14 in der Umgebung des Fahrzeugs 12 erfasst. Mittels eines vortrainierten künstlichen neuronalen Netzwerks wird in der Vorrichtung 16 eine angepasste Fahrzeugreaktion auf das Objekt 18 bzw. die Situation in der Umgebung des Fahrzeugs 12 ermittelt. Um die ermittelte Fahrzeugreaktion des Fahrzeugs 12 auszuführen, umfasst das Fahrzeug 12 insbesondere einen Aktor 20, beispielweise einen Bremszylinder oder auch eine Beschleunigungseinheit etc.In the 1 is schematically a system according to the invention 10 in a vehicle 12th shown. The representation is to be understood as a schematic lateral sectional view. The system 10 includes a camera sensor 14th as well as a device 16 for autonomous or semi-autonomous operation of the vehicle 12th . With the camera sensor 14th becomes an object 18th within a field of view 19th of the camera sensor 14th in the vicinity of the vehicle 12th recorded. A pre-trained artificial neural network is used in the device 16 an adapted vehicle reaction to the object 18th or the situation in the vicinity of the vehicle 12th determined. To the determined vehicle reaction of the vehicle 12th perform includes the vehicle 12th in particular an actuator 20th , for example a brake cylinder or an acceleration unit etc.

Im dargestellten Ausführungsbeispiel sind der Kamerasensor 14, die Vorrichtung 16 sowie der Aktor 20 in das Fahrzeug 12 integriert. Ebenfalls ist es möglich, dass die Vorrichtung 16 und/oder der Kamerasensor 14 separat ausgeführt sind. Beispielsweise können die Vorrichtung 16 und/oder der Kamerasensor 14 auch in ein Mobilgerät integriert sein.In the illustrated embodiment, the camera sensor 14th , the device 16 as well as the actuator 20th in the vehicle 12th integrated. It is also possible that the device 16 and / or the camera sensor 14th are carried out separately. For example, the device 16 and / or the camera sensor 14th can also be integrated into a mobile device.

Hierin wird vorgeschlagen, zum Ermitteln einer Fahrzeugreaktion auf eine Situation in der Umgebung eines autonomen oder teilautonomen Fahrzeugs Kameradaten in einem vortrainierten künstlichen neuronalen Netzwerk auszuwerten. Das künstliche neuronale Netzwerk ist dabei basierend auf zuvor gesammelten Umfeld-Beobachtungsdaten, die Informationen zu Objekten in einem Sichtfeld des Fahrers umfassen, simultan aufgezeichneten Fahrer-Beobachtungsdaten mit Informationen zu einer Blickrichtung des Fahrers innerhalb des Sichtfelds des Fahrers sowie Reaktionsdaten mit Informationen zu einer Aktion des Fahrers vortrainiert. Insoweit ist zuvor ein Training des neuronalen Netzwerks erfolgt, bei dem einerseits Kameradaten der Umgebung (Umfeld-Beobachtungsdaten) und andererseits Informationen zu einer Blickrichtung des Fahrers (Fahrer-Beobachtungsdaten) verwendet wurden. Zum Erlernen der angemessenen Reaktion wurde die vom Fahrer in Reaktion auf die Situation ausgeführte Aktion miteinbezogen. Das neuronale Netzwerk ist insoweit basierend auf der Blickrichtung des Fahrers vortrainiert. Die Blickrichtung des Fahrers wird dann jedoch während des Betriebs nicht mehr verwendet, um die Fahrzeugreaktion zu ermitteln.It is proposed here to evaluate camera data in a pre-trained artificial neural network in order to determine a vehicle reaction to a situation in the vicinity of an autonomous or partially autonomous vehicle. The artificial neural network is based on previously collected environment observation data, which includes information on objects in the driver's field of vision, simultaneously recorded driver observation data with information on a direction of view of the driver within the driver's field of vision and reaction data with information on an action of the Driver pre-trained. In this respect, the neural network has previously been trained in which, on the one hand, camera data of the environment (surroundings observation data) and, on the other hand, information on a direction of view of the driver (driver observation data) were used. In order to learn the appropriate reaction, the action taken by the driver in response to the situation was taken into account. In this respect, the neural network is pre-trained based on the direction in which the driver is looking. However, the driver's line of sight is then no longer used during operation to determine the vehicle reaction.

In der 2 ist schematisch eine erfindungsgemäße Vorrichtung 16 zum autonomen oder teilautonomen Betreiben eines Fahrzeugs dargestellt. Die Vorrichtung 16 umfasst eine Eingangsschnittstelle 22, eine Auswerteeinheit 24 sowie eine Steuereinheit 26. Die verschiedenen Einheiten und Schnittstellen können dabei separat oder kombiniert in Hard- und/oder in Software ausgeführt sein. Insbesondere ist es möglich, dass die Vorrichtung in Software implementiert ist, die auf einem Steuergerät eines Fahrzeugs ausgeführt wird. Die Vorrichtung 16 kann insbesondere als Teil eines High-Level-Assistenzsystems ausgebildet sein. Bei einem derartigen Assistenzsystem führt ein Fahrer das Fahrzeug, wobei das System über eine Ansteuerung verschiedener Aktoren des Fahrzeugs eingreifen kann.In the 2 is schematically a device according to the invention 16 shown for autonomous or semi-autonomous operation of a vehicle. The device 16 includes an input interface 22nd , an evaluation unit 24 as well as a control unit 26th . The various units and interfaces can be implemented separately or in combination in hardware and / or software. In particular, it is possible for the device to be implemented in software that is executed on a control unit of a vehicle. The device 16 can in particular be designed as part of a high-level assistance system. In such an assistance system, a driver guides the vehicle, and the system can intervene by activating various actuators of the vehicle.

Über die Eingangsschnittstelle 22 werden Kameradaten bzw. ein Bildsignal eines Kamerasensors empfangen. Zum Empfangen der Kameradaten kann die Eingangsschnittstelle 22 insbesondere an ein Bussystem des Fahrzeugs angebunden sein und über dieses Bussystem mit dem Kamerasensor verbunden sein. Insbesondere können Kameradaten eines Kamerasensors empfangen werden, der am Fahrzeug angebracht ist. Der Kamerasensor kann dabei beispielsweise einer Kamera entsprechen, die im Bereich einer Stoßstange des Fahrzeugs befestigt ist. Die Kameradaten entsprechen insbesondere Bilddaten eines Bereichs vor dem Fahrzeug. Insbesondere kann dieser Bereich eine geplante Trajektorie des Fahrzeugs umfassen. Die geplante Trajektorie ist dabei der Weg, den das Fahrzeug in der unmittelbaren Zukunft zurücklegen wird. Insbesondere ist die Fahrbahn vor dem Fahrzeug im Blickfeld der Kamera. Üblicherweise umfassen die Kameradaten dabei Informationen zu mehreren Objekten. Insbesondere sind mehrere Objekte im aufgezeichneten Bildsignal vorhanden.Via the input interface 22nd camera data or an image signal from a camera sensor are received. The input interface 22nd be tied in particular to a bus system of the vehicle and connected to the camera sensor via this bus system. In particular, camera data from a camera sensor that is attached to the vehicle can be received. The camera sensor can correspond, for example, to a camera that is fastened in the area of a bumper of the vehicle. The camera data correspond in particular to image data of an area in front of the vehicle. In particular, this area can include a planned trajectory of the vehicle. The planned trajectory is the path that the vehicle will cover in the immediate future. In particular, the lane in front of the vehicle is in the field of view of the camera. The camera data usually include information on several objects. In particular, there are several objects in the recorded image signal.

In der Auswerteeinheit 24 wird basierend auf den Kameradaten eine Fahrzeugreaktion ermittelt. Hierzu wird ein vortrainiertes künstliches neuronales Netzwerk verwendet. Die Ermittlung der Fahrzeugreaktion kann dabei insbesondere eine Ermittlung einer notwendigen Brems-, Beschleunigungs- und/oder Lenkbewegung des Fahrzeugs umfassen. Eine Fahrzeugreaktion entspricht insoweit insbesondere einem Fahrmanöver, das in Reaktion auf die Objekte in der Umgebung des Fahrzeugs, wie sie vom Kamerasensor erkannt wurden, ausgeführt werden soll. Mittels des vortrainierten künstlichen neuronalen Netzwerks wird in der Auswerteeinheit eine adäquate Reaktion des Fahrzeugs auf die Situation in seiner Umgebung ermittelt. Das künstliche neuronale Netzwerk ist dabei basierend auf Umfeld-Beobachtungsdaten und simultanen Fahrer-Beobachtungsdaten einerseits sowie Reaktionsdaten mit Informationen zu einer Aktion des Fahrers andererseits vortrainiert. Die Trainingsdaten wurden zu einem früheren Zeitpunkt gesammelt. Im Betrieb erfolgt die Ermittlung der Fahrzeugreaktion lediglich basierend auf den aktuellen Kameradaten.In the evaluation unit 24 a vehicle reaction is determined based on the camera data. A pre-trained artificial neural network is used for this. The determination of the vehicle reaction can in particular include a determination of a necessary braking, acceleration and / or steering movement of the vehicle. In this respect, a vehicle reaction corresponds in particular to a driving maneuver that is intended to be carried out in response to the objects in the vicinity of the vehicle as recognized by the camera sensor. An adequate reaction of the vehicle to the situation in its surroundings is determined in the evaluation unit by means of the pre-trained artificial neural network. The artificial neural network is pre-trained based on environment observation data and simultaneous driver observation data on the one hand and reaction data with information on an action by the driver on the other hand. The training data was collected earlier. During operation, the vehicle reaction is only determined based on the current camera data.

In der Steuereinheit 26 wird ausgehend von der ermittelten Fahrzeugreaktion ein Steuersignal für einen Aktor des Fahrzeugs ermittelt. Mittels des Steuersignals kann der Aktor des Fahrzeugs, also beispielsweise eine Lenkung, eine Bremseinheit oder auch eine Beschleunigungseinheit angesteuert werden. Hierzu kann die Steuereinheit 26 direkt mit dem entsprechenden Aktor verbunden sein. Ebenfalls ist es möglich, dass in der Steuereinheit lediglich das Steuersignal für den Aktor ermittelt wird, sodass dieses vor dem Anlegen an den entsprechenden Aktor erneut überprüft und gegebenenfalls weiterverarbeitet werden kann. Insbesondere kann über die Steuereinheit ein Steuersignal für eine Druckeinheit zum Erhöhen eines Drucks in einem Bremszylinder des Fahrzeugs ausgegeben werden.In the control unit 26th a control signal for an actuator of the vehicle is determined on the basis of the determined vehicle reaction. The actuator of the vehicle, for example a steering system, a braking unit or also an acceleration unit, can be controlled by means of the control signal. The control unit 26th be connected directly to the corresponding actuator. It is also possible that only the control signal for the actuator is determined in the control unit, so that this can be checked again before being applied to the corresponding actuator and, if necessary, further processed. In particular, a control signal for a pressure unit for increasing a pressure in a brake cylinder of the vehicle can be output via the control unit.

Für das Training des künstlichen neuronalen Netzwerks wird eine Trainingsvorrichtung 28 verwendet. In der 3 ist ein Fahrzeug 12' dargestellt, das eine Trainingsvorrichtung 28 umfasst. Einerseits werden Umfeld-Beobachtungsdaten aufgezeichnet und als Eingabe-Trainingsdaten verwendet. Andererseits werden simultan Fahrer-Beobachtungsdaten aufgezeichnet und als Eingabe-Trainingsdaten verwendet. Weiterhin werden Reaktionsdaten als Ausgabe-Trainingsdaten verwendet. Die Umfeld-Beobachtungsdaten werden dabei insbesondere in Form von Kameradaten einer Umfeld-Beobachtungskamera 29 am Fahrzeug 12' aufgezeichnet. Die Fahrer-Beobachtungsdaten werden insbesondere mittels einer auf den Fahrer 31 gerichteten Fahrer-Beobachtungskamera 30 aufgezeichnet. Die Aktion des Fahrers wird über einen entsprechenden Sensor 32 ermittelt. Als Sensor 32 kann beispielsweise ein Drucksensor in einem Bremszylinder oder auch ein Beschleunigungssensor etc. verwendet werden. Die Umfeld-Beobachtungskamera 29, die Fahrer-Beobachtungskamera 30 sowie der Sensor 32 zeichnen dabei simultan Daten auf. Ausgehend von den Fahrer-Beobachtungsdaten kann eine Blickrichtung des Fahrers bestimmt werden. Es versteht sich, dass zum Verbinden mit den Umfeld-Beobachtungsdaten eine entsprechende Koordinatentransformation durchgeführt werden muss. Das neuronale Netzwerk versucht dann zu einem Zeitpunkt t+1 eine Aktion des Fahrers (auch als Fahrerwunsch bezeichnet) in einem darauffolgenden Zeitpunkt t2 vorherzusagen. Als Feedback wird dem neuronalen Netzwerk in der Trainingsphase die Aktion des Fahrers in Form der Reaktionsdaten mitgeteilt. Ausgehend hiervon kann die Trainingsvorrichtung 28 dann über die Zeit lernen, Szenarien basierend auf den Umfeld-Beobachtungsdaten und den Fahrer-Beobachtungsdaten mit durchzuführenden Aktionen zu verbinden. Durch ein derartiges kontinuierliches Labeln relevanter Bildbereiche basierend auf der Blickrichtung des Fahrers können Verhaltensmuster erlernt werden. Es ist dabei möglich, dass das System bereits während der Trainingsphase unterstützend zur Verfügung steht. Vorteilhafterweise wird dann sowohl für die Trainingsvorrichtung 28 als auch für die Vorrichtung 16 ein gemeinsamer Kamerasensor verwendet.A training device is used for training the artificial neural network 28 used. In the 3 is a vehicle 12 ' shown that is a training device 28 includes. On the one hand, environment observation data are recorded and used as input training data. On the other hand, driver observation data are simultaneously recorded and used as input training data. Furthermore, reaction data are used as output training data. The environment observation data are in particular in the form of camera data from an environment observation camera 29 at the vehicle 12 ' recorded. The driver observation data are in particular sent to the driver by means of a 31 directional driver observation camera 30th recorded. The driver's action is monitored by a corresponding sensor 32 determined. As a sensor 32 For example, a pressure sensor in a brake cylinder or an acceleration sensor, etc. can be used. The environment observation camera 29 who have favourited Driver Observation Camera 30th as well as the sensor 32 record data simultaneously. A direction of view of the driver can be determined on the basis of the driver observation data. It goes without saying that a corresponding coordinate transformation must be carried out in order to connect to the environment observation data. At a point in time t + 1, the neural network then tries to predict an action by the driver (also referred to as a driver's request) at a subsequent point in time t2. The action of the driver in the form of reaction data is communicated to the neural network as feedback during the training phase. Based on this, the training device 28 then learn over time to link scenarios based on the environment observation data and the driver observation data with actions to be carried out. Such a continuous labeling of relevant image areas based on the direction of view of the driver enables behavioral patterns to be learned. It is possible that the system is already available to support you during the training phase. It is then advantageous for both the training device 28 as well as for the device 16 a common camera sensor is used.

In der 4 ist schematisch eine erfindungsgemäße Trainingsvorrichtung 28 zum Trainieren eines künstlichen neuronalen Netzwerks dargestellt. Die Trainingsvorrichtung 28 umfasst eine Eingangsschnittstelle 34 sowie eine Trainingseinheit 36. Die Einheiten und Schnittstellen können wiederum separat oder kombiniert in Hard- und/oder in Software ausgeführt sein. Insbesondere ist es möglich, dass die Trainingsvorrichtung 28 und die Vorrichtung 16 zum autonomen oder teilautonomen Betreiben des Fahrzeugs kombiniert ausgeführt sind und insoweit beide Funktionen zur Verfügung stellen.In the 4th is schematically a training device according to the invention 28 for training an artificial neural network. The training device 28 includes an input interface 34 as well as a training session 36 . The units and interfaces can in turn be implemented separately or in combination in hardware and / or software. In particular, it is possible that the training device 28 and the device 16 are designed to be combined for autonomous or semi-autonomous operation of the vehicle and, in this respect, provide both functions.

In der 5 ist schematisch ein Einsatzszenario einer erfindungsgemäßen Trainingsvorrichtung 28 dargestellt. Die Darstellung der 5 ist dabei als Situationsdarstellung aus einer Fahrerperspektive des Fahrers des Fahrzeugs 12' zu verstehen. Der Fahrer nimmt neben der Fahrbahn 38 vor dem Fahrzeug 12' ein Objekt 18 am Straßenrand wahr. Bei dem Objekt kann es sich beispielsweise um ein Reh handeln. Das Reh befindet sich am Straßenrand und das Fahrzeug 12' fährt auf das Reh zu. Der Fahrer kann die Situation gut einschätzen und bremst das Fahrzeug bzw. weicht dem Tier aus. In der Trainingsphase kann das neuronale Netzwerk dann ausgehend von der Blickrichtung des Fahrzeugs eine Einschätzung der Situation erreichen. Während des Betriebs zu einem späteren Zeitpunkt kann der Fahrer dann in ähnlichen Situationen unterstützt werden. Beispielsweise kann ein Druck in einem Bremsdruckbehälter erhöht werden, damit eine Bremsung schneller durchgeführt werden kann. Durch die zusätzliche Berücksichtigung der Blickrichtung des Fahrers kann im neuronalen Netzwerk abgebildet werden, dass dieser Bildausschnitt relevante Informationen bezüglich einer Aktion des Fahrers umfasst. Wenn sich beispielsweise der Fahrer für eine Bremsung entscheidet, nachdem sich das Tier umgedreht hat, kann das künstliche neuronale Netzwerk eine Verknüpfung zwischen der Bewegung des Tieres zu der Aktion Bremsung erlernen.In the 5 is a schematic of a usage scenario of a training device according to the invention 28 shown. The representation of the 5 is a situation representation from a driver's perspective of the driver of the vehicle 12 ' to understand. The driver takes off the road 38 in front of the vehicle 12 ' an object 18th true at the roadside. The object can be a deer, for example. The deer is on the side of the road and the vehicle 12 ' drives towards the deer. The driver can assess the situation well and brakes the vehicle or evades the animal. In the training phase, the neural network can then estimate the situation based on the direction in which the vehicle is looking. During operation at a later point in time, the driver can then be supported in similar situations. For example, a pressure in a brake pressure tank can be increased so that braking can be carried out more quickly. By additionally taking into account the direction of view of the driver, it can be mapped in the neural network that this image section contains relevant information regarding an action by the driver. For example, if the driver decides to brake after the animal has turned around, the artificial neural network can learn a link between the movement of the animal and the braking action.

In der 5 ist schematisch ein erfindungsgemäßes Verfahren zum autonomen oder teilautonomen Betreiben eines Fahrzeugs dargestellt. Das Verfahren umfasst Schritte des Empfangens S10 von Kameradaten, des Ermittelns S12 einer Fahrzeugreaktion und des Ermittelns S14 eines Steuersignals. Das Verfahren kann insbesondere in Software implementiert sein, die auf einem Fahrzeugsteuergerät eines Fahrzeugs ausgeführt wird. Insbesondere kann es sich um Software handeln, die in einem Fahrerassistenzsystem umgesetzt wird.In the 5 a method according to the invention for autonomous or partially autonomous operation of a vehicle is shown schematically. The method comprises the steps of receiving S10 camera data, determining S12 a vehicle reaction and determining S14 a control signal. The method can in particular be implemented in software that is executed on a vehicle control device of a vehicle. In particular, it can be software that is implemented in a driver assistance system.

Die Erfindung wurde anhand der Zeichnungen und der Beschreibung umfassend beschrieben und erklärt. Die Beschreibung und Erklärung sind als Beispiel und nicht einschränkend zu verstehen. Die Erfindung ist nicht auf die offenbarten Ausführungsformen beschränkt. Andere Ausführungsformen oder Variationen ergeben sich für den Fachmann bei der Verwendung der vorliegenden Erfindung sowie bei einer genauen Analyse der Zeichnungen, der Offenbarung und der nachfolgenden Patentansprüche.The invention has been comprehensively described and explained with reference to the drawings and the description. The description and explanation are to be understood as an example and not restrictive. The invention is not limited to the disclosed embodiments. Other embodiments or variations will become apparent to those skilled in the art using the present invention and a careful analysis of the drawings, the disclosure, and the following claims.

In den Patentansprüchen schließen die Wörter „umfassen“ und „mit“ nicht das Vorhandensein weiterer Elemente oder Schritte aus. Der undefinierte Artikel „ein“ oder „eine“ schließt nicht das Vorhandensein einer Mehrzahl aus. Ein einzelnes Element oder eine einzelne Einheit kann die Funktionen mehrerer der in den Patentansprüchen genannten Einheiten ausführen. Ein Element, eine Einheit, eine Schnittstelle, eine Vorrichtung und ein System können teilweise oder vollständig in Hard- und/oder in Software umgesetzt sein. Die bloße Nennung einiger Maßnahmen in mehreren verschiedenen abhängigen Patentansprüchen ist nicht dahingehend zu verstehen, dass eine Kombination dieser Maßnahmen nicht ebenfalls vorteilhaft verwendet werden kann. Ein Computerprogramm kann auf einem nichtflüchtigen Datenträger gespeichert/vertrieben werden, beispielsweise auf einem optischen Speicher oder auf einem Halbleiterlaufwerk (SSD). Ein Computerprogramm kann zusammen mit Hardware und/oder als Teil einer Hardware vertrieben werden, beispielsweise mittels des Internets oder mittels drahtgebundener oder drahtloser Kommunikationssysteme. Bezugszeichen in den Patentansprüchen sind nicht einschränkend zu verstehen.In the claims, the words “comprising” and “having” do not exclude the presence of further elements or steps. The undefined article “a” or “an” does not exclude the presence of a plural. A single element or a single unit can perform the functions of several of the units mentioned in the patent claims carry out. An element, a unit, an interface, a device and a system can be implemented partially or completely in hardware and / or in software. The mere mention of some measures in several different dependent patent claims should not be understood to mean that a combination of these measures cannot also be used advantageously. A computer program can be stored / distributed on a non-volatile data carrier, for example on an optical memory or on a semiconductor drive (SSD). A computer program can be distributed together with hardware and / or as part of hardware, for example by means of the Internet or by means of wired or wireless communication systems. Reference signs in the patent claims are not to be understood as restrictive.

BezugszeichenlisteList of reference symbols

1010
Systemsystem
12, 12'12, 12 '
Fahrzeugvehicle
1414th
KamerasensorCamera sensor
1616
Vorrichtungcontraption
1818th
Objektobject
1919th
SichtfeldField of view
2020th
AktorActuator
2222nd
EingangsschnittstelleInput interface
2424
AuswerteeinheitEvaluation unit
2626th
SteuereinheitControl unit
2828
TrainingsvorrichtungExercise device
2929
Umfeld-BeobachtungskameraEnvironment observation camera
3030th
Fahrer-BeobachtungskameraDriver observation camera
3131
Fahrerdriver
3232
Sensorsensor
3434
EingangsschnittstelleInput interface
3636
TrainingseinheitTraining session
3838
Fahrbahnroadway

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 102018117380 A1 [0004]DE 102018117380 A1 [0004]

Claims (11)

Vorrichtung (16) zum autonomen oder teilautonomen Betreiben eines Fahrzeugs (12), mit: einer Eingangsschnittstelle (22) zum Empfangen von Kameradaten eines Kamerasensors (14), wobei die Kameradaten Informationen zu Objekten (18) in einer Umgebung des Fahrzeugs (12) umfassen; einer Auswerteeinheit (24) zum Ermitteln einer Fahrzeugreaktion basierend auf einer Auswertung der Kameradaten in einem vortrainierten künstlichen neuronalen Netzwerk; und einer Steuereinheit (26) zum Ermitteln eines Steuersignals für einen Aktor (20) des Fahrzeugs (12) zum Ausführen der Fahrzeugreaktion, wobei das künstliche neuronale Netzwerk basierend auf Umfeld-Beobachtungsdaten mit Informationen zu Objekten (18) in einem Sichtfeld des Fahrers (31), simultanen Fahrer-Beobachtungsdaten mit Informationen zu einer Blickrichtung des Fahrers (31) innerhalb des Sichtfelds des Fahrers (31) und Reaktionsdaten mit Informationen zu einer Aktion des Fahrers (31) vortrainiert ist.Device (16) for the autonomous or semi-autonomous operation of a vehicle (12), with: an input interface (22) for receiving camera data from a camera sensor (14), the camera data including information on objects (18) in the vicinity of the vehicle (12); an evaluation unit (24) for determining a vehicle reaction based on an evaluation of the camera data in a pre-trained artificial neural network; and a control unit (26) for determining a control signal for an actuator (20) of the vehicle (12) for executing the vehicle reaction, wherein the artificial neural network based on environment observation data with information on objects (18) in a field of vision of the driver (31), simultaneous driver observation data with information on a direction of view of the driver (31) within the field of vision of the driver (31) and reaction data Information on an action by the driver (31) is pre-trained. Vorrichtung (16) nach Anspruch 1, wobei die Eingangsschnittstelle (22) zum Empfangen der Kameradaten von einer auf eine geplante Trajektorie des Fahrzeugs (12) gerichteten Kamera ausgebildet ist.Device (16) after Claim 1 wherein the input interface (22) is designed to receive the camera data from a camera aimed at a planned trajectory of the vehicle (12). Vorrichtung (16) nach einem der vorstehenden Ansprüche, wobei die Umfeld-Beobachtungsdaten Bilddaten einer auf das Umfeld des Fahrzeugs (12) gerichteten Umfeld-Beobachtungskamera (29) umfassen; die Fahrer-Beobachtungsdaten Bilddaten einer auf den Fahrer (31) gerichteten Fahrer-Beobachtungskamera (30) umfassen; und/oder die Reaktionsdaten Sensordaten eines Sensors des Fahrzeugs (12) und/oder Betriebsdaten eines Aktors (20) des Fahrzeugs (12) umfassen.Device (16) according to one of the preceding claims, wherein the environment observation data comprise image data of an environment observation camera (29) aimed at the environment of the vehicle (12); the driver observation data comprise image data of a driver observation camera (30) directed at the driver (31); and or the reaction data include sensor data of a sensor of the vehicle (12) and / or operating data of an actuator (20) of the vehicle (12). Vorrichtung (16) nach einem der vorstehenden Ansprüche, wobei die Steuereinheit (26) zum Ansteuern des Aktors (20) mit dem ermittelten Steuersignal ausgebildet ist.Device (16) according to one of the preceding claims, wherein the control unit (26) is designed to control the actuator (20) with the determined control signal. Vorrichtung (16) nach einem der vorstehenden Ansprüche, wobei die Steuereinheit (26) zum Ermitteln eines Steuersignals für einen Druckaktor zum Erhöhen eines Drucks in einem Bremszylinder des Fahrzeugs (12) ausgebildet ist.Device (16) according to one of the preceding claims, wherein the control unit (26) is designed to determine a control signal for a pressure actuator for increasing a pressure in a brake cylinder of the vehicle (12). Vorrichtung (16) nach einem der vorstehenden Ansprüche, wobei die Auswerteeinheit (24) zum Ermitteln der Fahrzeugreaktion ohne Berücksichtigung von aktuellen Fahrer-Beobachtungsdaten mit Informationen zu einer Blickrichtung des Fahrers (31) innerhalb eines Sichtfelds des Fahrers (31) als Eingangsdaten in dem vortrainierten künstlichen neuronalen Netzwerk ausgebildet ist.Device (16) according to one of the preceding claims, wherein the evaluation unit (24) for determining the vehicle reaction without taking into account current driver observation data with information on a direction of view of the driver (31) within a field of view of the driver (31) as input data in the pre-trained artificial neural network is formed. System (10) zum autonomen oder teilautonomen Betreiben eines Fahrzeugs (12), mit: einem Kamerasensor (14); einer Vorrichtung (16) nach einem der Ansprüche 1 bis 6.System (10) for autonomous or semi-autonomous operation of a vehicle (12), comprising: a camera sensor (14); a device (16) according to one of the Claims 1 until 6th . Verfahren zum autonomen oder teilautonomen Betreiben eines Fahrzeugs (12), mit den Schritten: Empfangen (S10) von Kameradaten eines Kamerasensors (14), wobei die Kameradaten Informationen zu Objekten (18) in einer Umgebung des Fahrzeugs (12) umfassen; Ermitteln (S12) einer Fahrzeugreaktion basierend auf einer Auswertung der Kameradaten in einem vortrainierten künstlichen neuronalen Netzwerk; und Ermitteln (S14) eines Steuersignals für einen Aktor (20) des Fahrzeugs (12) zum Ausführen der Fahrzeugreaktion, wobei das künstliche neuronale Netzwerk basierend auf Umfeld-Beobachtungsdaten mit Informationen zu Objekten (18) in einem Sichtfeld des Fahrers (31), simultanen Fahrer-Beobachtungsdaten mit Informationen zu einer Blickrichtung des Fahrers (31) innerhalb des Sichtfelds des Fahrers (31) und Reaktionsdaten mit Informationen zu einer Aktion des Fahrers (31) vortrainiert ist.Method for the autonomous or semi-autonomous operation of a vehicle (12), with the steps: Receiving (S10) camera data from a camera sensor (14), the camera data including information on objects (18) in the vicinity of the vehicle (12); Determining (S12) a vehicle reaction based on an evaluation of the camera data in a pre-trained artificial neural network; and Determination (S14) of a control signal for an actuator (20) of the vehicle (12) for executing the vehicle reaction, wherein the artificial neural network based on environment observation data with information on objects (18) in a field of vision of the driver (31), simultaneous driver observation data with information on a direction of view of the driver (31) within the field of vision of the driver (31) and reaction data Information on an action by the driver (31) is pre-trained. Trainingsvorrichtung (28) eines künstlichen neuronalen Netzwerks, mit: einer Eingangsschnittstelle (34) zum Empfangen von Umfeld-Beobachtungsdaten mit Informationen zu Objekten (18) in einem Sichtfeld eines Fahrers (31) eines Fahrzeugs (12'), simultanen Fahrer-Beobachtungsdaten mit Informationen zu einer Blickrichtung des Fahrers (31) innerhalb des Sichtfelds des Fahrers (31) und Reaktionsdaten mit Informationen zu einer Aktion des Fahrers (31); einer Trainingseinheit (36) zum Eingeben der Umfeld-Beobachtungsdaten und der Fahrer-Beobachtungsdaten als Eingabe-Trainingsdaten sowie der Reaktionsdaten als Ausgabe-Trainingsdaten in ein künstliches neuronales Netzwerk.Training device (28) of an artificial neural network, comprising: an input interface (34) for receiving environment observation data with information on objects (18) in a field of vision of a driver (31) of a vehicle (12 '), simultaneous driver observation data with information on a direction of view of the driver (31) within the field of vision of the driver (31) and reaction data with information on an action by the driver (31); a training unit (36) for inputting the environment observation data and the driver observation data as input training data and the reaction data as output training data into an artificial neural network. Trainingsverfahren eines künstlichen neuronalen Netzwerks, mit den Schritten: Empfangen von Umfeld-Beobachtungsdaten mit Informationen zu Objekten (18) in einem Sichtfeld eines Fahrers (31) eines Fahrzeugs (12), simultanen Fahrer-Beobachtungsdaten mit Informationen zu einer Blickrichtung des Fahrers (31) innerhalb des Sichtfelds des Fahrers (31) und Reaktionsdaten mit Informationen zu einer Aktion des Fahrers (31); Eingeben der Umfeld-Beobachtungsdaten und der Fahrer-Beobachtungsdaten als Eingabe-Trainingsdaten sowie der Reaktionsdaten als Ausgabe-Trainingsdaten in ein künstliches neuronales Netzwerk.Training method of an artificial neural network, with the steps: Receiving environment observation data with information on objects (18) in a field of vision of a driver (31) of a vehicle (12), simultaneous driver observation data with information on a direction of view of the driver (31) within the field of vision of the driver (31) and reaction data with information on an action by the driver (31); Inputting the environment observation data and the driver observation data as input training data and the reaction data as output training data into an artificial neural network. Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte eines der Verfahren nach Ansprüchen 8 und 10, wenn der Programmcode auf einem Computer ausgeführt wird.Computer program product with program code for performing the steps of one of the Procedure according to Claims 8 and 10 when the program code is executed on a computer.
DE102020203814.7A 2020-03-24 2020-03-24 Training an artificial neural network Pending DE102020203814A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020203814.7A DE102020203814A1 (en) 2020-03-24 2020-03-24 Training an artificial neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020203814.7A DE102020203814A1 (en) 2020-03-24 2020-03-24 Training an artificial neural network

Publications (1)

Publication Number Publication Date
DE102020203814A1 true DE102020203814A1 (en) 2021-09-30

Family

ID=77658880

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020203814.7A Pending DE102020203814A1 (en) 2020-03-24 2020-03-24 Training an artificial neural network

Country Status (1)

Country Link
DE (1) DE102020203814A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025059991A1 (en) * 2023-09-21 2025-03-27 深圳引望智能技术有限公司 Key information collection method and apparatus, and intelligent driving device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018117380A1 (en) 2017-07-19 2019-01-24 Ford Global Technologies, Llc BRAKE FORECAST AND INTERVENTION

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018117380A1 (en) 2017-07-19 2019-01-24 Ford Global Technologies, Llc BRAKE FORECAST AND INTERVENTION

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025059991A1 (en) * 2023-09-21 2025-03-27 深圳引望智能技术有限公司 Key information collection method and apparatus, and intelligent driving device

Similar Documents

Publication Publication Date Title
DE102009006336A1 (en) Method of monitoring a parking operation
DE102015015021A1 (en) Method for assisting a driver in driving a vehicle
DE102020113611A1 (en) Method and safety system for securing an automated vehicle function and motor vehicle
DE102016007899A1 (en) Method for operating a device for traffic situation analysis, motor vehicle and data processing device
DE102017206264A1 (en) Method and device for outputting haptic information to the driver of a motor vehicle via the brake pedal
DE102021004191A1 (en) Method for recognizing an intention to overtake and / or predicting vehicle maneuvers in front of an ego vehicle
DE102017208728A1 (en) Method for determining a driving instruction
DE102015107391A1 (en) Method for controlling a functional device of a motor vehicle on the basis of fused sensor data, control device, driver assistance system and motor vehicle
WO2019120709A1 (en) Method and control unit for controlling a function of a vehicle driven at least partially in an automated manner
DE102020214031A1 (en) Method and device for controlling a safety device of a vehicle and safety system for a vehicle
DE102007052093B4 (en) Detection of spontaneous changes in movement of pedestrians
DE102021200467A1 (en) Computer-implemented method, control unit and computer program for regulating and/or controlling a driving function of a vehicle that can be operated automatically and for setting up a warning cascade for triggering the driving function and automatic emergency braking and/or emergency steering module for a vehicle that can be operated automatically, comprising such a control unit
DE102018212266A1 (en) Adaptation of an evaluable scanning range of sensors and adapted evaluation of sensor data
DE102018206743A1 (en) A method of operating a driver assistance system of an ego vehicle having at least one environment sensor for detecting an environment of the ego vehicle, computer-readable medium, system, and vehicle
DE102022133563A1 (en) Method and vehicle control system for monitoring a target lane before a lane change and/or during a lane change of an ego vehicle
DE102020203814A1 (en) Training an artificial neural network
WO2019201580A1 (en) Testing a vehicle with simulated road users
DE102018211726A1 (en) Method for automatic machine training of an electronic vehicle guidance system, and motor vehicle
DE102016209902B4 (en) Method for controlling a personal protection device of a vehicle and control unit
DE102021207456A1 (en) Method for at least partially automated driving of a motor vehicle
DE102023211070B4 (en) Method for longitudinal guidance of a vehicle in relation to a preceding vehicle by means of an electronic distance control system and a distance control system for a vehicle
DE102022202002B4 (en) Method, computer program, and device for adjusting the operating parameters of a means of transportation, as well as means of transportation
DE102023113922A1 (en) driver assistance system for a vehicle
DE102021204399A1 (en) Method and device for detecting hazards in road traffic
DE102019004075A1 (en) Method for determining a relevance of an object in an environment of a motor vehicle by means of a driver assistance system and driver assistance system

Legal Events

Date Code Title Description
R012 Request for examination validly filed