DE102020203814A1 - Training an artificial neural network - Google Patents
Training an artificial neural network Download PDFInfo
- Publication number
- DE102020203814A1 DE102020203814A1 DE102020203814.7A DE102020203814A DE102020203814A1 DE 102020203814 A1 DE102020203814 A1 DE 102020203814A1 DE 102020203814 A DE102020203814 A DE 102020203814A DE 102020203814 A1 DE102020203814 A1 DE 102020203814A1
- Authority
- DE
- Germany
- Prior art keywords
- driver
- data
- vehicle
- information
- reaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 52
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 47
- 230000009471 action Effects 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims abstract description 18
- 238000011156 evaluation Methods 0.000 claims abstract description 13
- 238000004590 computer program Methods 0.000 claims description 6
- 230000001133 acceleration Effects 0.000 description 7
- 238000013459 approach Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 241000282994 Cervidae Species 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 1
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011157 data evaluation Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/04—Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18163—Lane change; Overtaking manoeuvres
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/227—Position in the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/229—Attention level, e.g. attentive to driving, reading or sleeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
Landscapes
- Engineering & Computer Science (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Human Computer Interaction (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
Abstract
Die vorliegende Erfindung betrifft eine Vorrichtung (16) zum autonomen oder teilautonomen Betreiben eines Fahrzeugs (12), mit: einer Eingangsschnittstelle (22) zum Empfangen von Kameradaten eines Kamerasensors (14), wobei die Kameradaten Informationen zu Objekten (18) in einer Umgebung des Fahrzeugs (12) umfassen; einer Auswerteeinheit (24) zum Ermitteln einer Fahrzeugreaktion basierend auf einer Auswertung der Kameradaten in einem vortrainierten künstlichen neuronalen Netzwerk; und einer Steuereinheit (26) zum Ermitteln eines Steuersignals für einen Aktor (20) des Fahrzeugs (12) zum Ausführen der Fahrzeugreaktion, wobei das künstliche neuronale Netzwerk basierend auf Umfeld-Beobachtungsdaten mit Informationen zu Objekten (18) in einem Sichtfeld des Fahrers (31), simultanen Fahrer-Beobachtungsdaten mit Informationen zu einer Blickrichtung des Fahrers (31) innerhalb des Sichtfelds des Fahrers (31) und Reaktionsdaten mit Informationen zu einer Aktion des Fahrers (31) vortrainiert ist. Die vorliegende Erfindung betrifft weiterhin ein System (10) und ein Verfahren zum autonomen oder teilautonomen Betreiben eines Fahrzeugs (12) sowie eine Trainingsvorrichtung (28) und ein Trainingsverfahren.The present invention relates to a device (16) for autonomous or semi-autonomous operation of a vehicle (12), having: an input interface (22) for receiving camera data from a camera sensor (14), the camera data providing information on objects (18) in the vicinity of the Vehicle (12) include; an evaluation unit (24) for determining a vehicle reaction based on an evaluation of the camera data in a pre-trained artificial neural network; and a control unit (26) for determining a control signal for an actuator (20) of the vehicle (12) for executing the vehicle reaction, wherein the artificial neural network is based on environment observation data with information about objects (18) in a field of view of the driver (31 ), simultaneous driver observation data with information on a direction of view of the driver (31) within the field of view of the driver (31) and reaction data with information on an action of the driver (31) is pre-trained. The present invention also relates to a system (10) and a method for autonomous or semi-autonomous operation of a vehicle (12) as well as a training device (28) and a training method.
Description
Die vorliegende Erfindung betrifft eine Vorrichtung zum autonomen Betreiben eines Fahrzeugs. Die Erfindung betrifft weiterhin ein Verfahren und ein System zum autonomen Betreiben eines Fahrzeugs sowie eine Trainingsvorrichtung und ein Trainingsverfahren eines künstlichen neuronalen Netzwerks.The present invention relates to a device for the autonomous operation of a vehicle. The invention further relates to a method and a system for autonomous operation of a vehicle, as well as a training device and a training method for an artificial neural network.
Moderne Fahrzeuge (Autos, Transporter, Lastwagen, Motorräder etc.) umfassen eine Vielzahl an Systemen, die dem Fahrer Informationen zur Verfügung stellen und einzelne Funktionen des Kraftfahrzeugs teil- oder vollautomatisiert steuern. Über Sensoren werden die Umgebung des Kraftfahrzeugs sowie andere Verkehrsteilnehmer erfasst. Basierend auf den erfassten Daten kann ein Modell der Fahrzeugumgebung erzeugt werden und auf Veränderungen in dieser Fahrzeugumgebung reagiert werden. Durch die fortschreitende Entwicklung im Bereich der autonom und teilautonom fahrenden Fahrzeuge werden der Einfluss und der Wirkungsbereich solcher Fahrerassistenzsysteme (Advanced Driver Assistance Systems, ADAS) immer größer. Durch die Entwicklung immer präziserer Sensoren ist es möglich, die Umgebung und den Verkehr zu erfassen und einzelne Funktionen des Kraftfahrzeugs vollständig oder teilweise ohne Eingriff des Fahrers zu kontrollieren. Fahrerassistenzsysteme können dabei insbesondere zur Erhöhung der Sicherheit im Verkehr sowie zur Verbesserung des Fahrkomforts beitragen.Modern vehicles (cars, vans, trucks, motorcycles, etc.) comprise a large number of systems that provide the driver with information and control individual functions of the motor vehicle in a partially or fully automated manner. The surroundings of the motor vehicle and other road users are recorded via sensors. Based on the recorded data, a model of the vehicle environment can be generated and changes in this vehicle environment can be reacted to. As a result of the advancing development in the field of autonomous and semi-autonomous vehicles, the influence and scope of such driver assistance systems (Advanced Driver Assistance Systems, ADAS) are increasing. With the development of ever more precise sensors, it is possible to record the environment and the traffic and to control individual functions of the motor vehicle completely or partially without the intervention of the driver. Driver assistance systems can contribute in particular to increasing traffic safety and improving driving comfort.
Für die Datenauswertung und Weiterverarbeitung sind in diesem Zusammenhang insbesondere künstliche neuronale Netzwerke relevant. Anwendungen liegen beispielsweise im Bereich der Objekterkennung basierend auf Kamera- und anderen Sensordaten und in der Ableitung relevanter Erkenntnisse und Handlungsempfehlungen. Eine Herausforderung liegt dabei darin, dass zum Trainieren eines neuronalen Netzwerks eine große Menge an Trainingsdaten erforderlich ist. Diese Trainingsdaten sind zumeist manuell annotiert, um eine Zuordnung zwischen Sensordaten als Eingabe-Trainingsdaten und entsprechenden Objekten als Ausgabe-Trainingsdaten bzw. eine korrekte Klassifizierung zu ermöglichen. Zudem besteht eine Herausforderung darin, geeignete Eingangsdaten zu verwenden, auf deren Basis eine adäquate und angemessene Reaktion eines autonomen oder teilautonomen Fahrzeugsteuerungssystems ermittelt werden kann.In this context, artificial neural networks are particularly relevant for data evaluation and further processing. Applications are, for example, in the area of object recognition based on camera and other sensor data and in the derivation of relevant findings and recommendations for action. One challenge is that a large amount of training data is required to train a neural network. These training data are mostly annotated manually in order to enable an association between sensor data as input training data and corresponding objects as output training data or a correct classification. In addition, there is a challenge in using suitable input data on the basis of which an adequate and appropriate reaction of an autonomous or semi-autonomous vehicle control system can be determined.
In diesem Zusammenhang wird in der
Eine relevante Problemstellung liegt darin, bei der Ableitung einer adäquaten Fahrzeugreaktion eine hohe Zuverlässigkeit zu erreichen. Das autonome oder teilautonome Fahrzeug soll mit möglichst hoher Zuverlässigkeit eine Reaktion auf eine erkannte Situation ausführen, die der erkannten Situation angemessen ist und möglichst einer Reaktion eines menschlichen Fahrers entspricht.A relevant problem is to achieve a high level of reliability when deriving an adequate vehicle reaction. The autonomous or semi-autonomous vehicle is intended to carry out a reaction to a recognized situation with the highest possible reliability, which is appropriate to the recognized situation and, as far as possible, corresponds to a reaction of a human driver.
Ausgehend hiervon stellt sich der vorliegenden Erfindung die Aufgabe, bei einem autonomen oder teilautonomen Betrieb eines Fahrzeugs eine möglichst situationsadäquate Reaktion des Fahrzeugs auf eine Situation sicherzustellen. Insbesondere soll die Sicherheit des eigenen Fahrzeugs und der Insassen sowie anderer Verkehrsteilnehmer gewährleistet werden.On the basis of this, the present invention has the task of ensuring a reaction of the vehicle to a situation that is as appropriate as possible to the situation in the case of an autonomous or partially autonomous operation of a vehicle. In particular, the safety of one's own vehicle and the occupants as well as other road users should be guaranteed.
Zum Lösen dieser Aufgabe betrifft die vorliegende Erfindung in einem ersten Aspekt eine Vorrichtung zum autonomen oder teilautonomen Betreiben eines Fahrzeugs, mit:
- einer Eingangsschnittstelle zum Empfangen von Kameradaten eines Kamerasensors, wobei die Kameradaten Informationen zu Objekten in einer Umgebung des Fahrzeugs umfassen;
- einer Auswerteeinheit zum Ermitteln einer Fahrzeugreaktion basierend auf einer Auswertung der Kameradaten in einem vortrainierten künstlichen neuronalen Netzwerk; und
- einer Steuereinheit zum Ermitteln eines Steuersignals für einen Aktor des Fahrzeugs zum Ausführen der Fahrzeugreaktion, wobei
- das künstliche neuronale Netzwerk basierend auf Umfeld-Beobachtungsdaten mit Informationen zu Objekten in einem Sichtfeld des Fahrers, simultanen Fahrer-Beobachtungsdaten mit Informationen zu einer Blickrichtung des Fahrers innerhalb des Sichtfelds des Fahrers und Reaktionsdaten mit Informationen zu einer Aktion des Fahrers vortrainiert ist.
- an input interface for receiving camera data from a camera sensor, the camera data including information on objects in the vicinity of the vehicle;
- an evaluation unit for determining a vehicle reaction based on an evaluation of the camera data in a pre-trained artificial neural network; and
- a control unit for determining a control signal for an actuator of the vehicle for executing the vehicle reaction, wherein
- the artificial neural network is pre-trained based on environment observation data with information on objects in a driver's field of vision, simultaneous driver observation data with information on a direction of view of the driver within the driver's field of vision and reaction data with information on an action by the driver.
In einem weiteren Aspekt betrifft die Erfindung ein System zum autonomen oder teilautonomen Betreiben eines Fahrzeugs, mit:
- einem Kamerasensor; und
- einer Vorrichtung wie zuvor beschrieben.
- a camera sensor; and
- a device as described above.
In einem weiteren Aspekt betrifft die Erfindung eine Trainingsvorrichtung eines künstlichen neuronalen Netzwerks, mit:
- einer Eingangsschnittstelle zum Empfangen von Umfeld-Beobachtungsdaten mit Informationen zu Objekten in einem Sichtfeld eines Fahrers eines Fahrzeugs, simultanen Fahrer-Beobachtungsdaten mit Informationen zu einer Blickrichtung des Fahrers innerhalb des Sichtfelds des Fahrers und Reaktionsdaten mit Informationen zu einer Aktion des Fahrers;
- einer Trainingseinheit zum Eingeben der Umfeld-Beobachtungsdaten und der Fahrer-Beobachtungsdaten als Eingabe-Trainingsdaten sowie der Reaktionsdaten als Ausgabe-Trainingsdaten in ein künstliches neuronales Netzwerk.
- an input interface for receiving environment observation data with information on objects in a field of vision of a driver of a vehicle, simultaneous driver observation data with information on a direction of view of the driver within the field of vision of the driver and reaction data with information on an action of the driver;
- a training unit for inputting the environment observation data and the driver observation data as input training data and the reaction data as output training data into an artificial neural network.
Weitere Aspekte der Erfindung betreffen entsprechend der Vorrichtungen ausgebildete Verfahren und ein Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte der Verfahren, wenn der Programmcode auf einem Computer ausgeführt wird sowie ein Speichermedium, auf dem ein Computerprogramm gespeichert ist, das, wenn es auf einem Computer ausgeführt wird, eine Ausführung der hierin beschriebenen Verfahren bewirkt.Further aspects of the invention relate to methods embodied in accordance with the devices and a computer program product with program code for performing the steps of the method when the program code is executed on a computer and a storage medium on which a computer program is stored that when it is executed on a computer , causes the methods described herein to be carried out.
Bevorzugte Ausgestaltungen der Erfindung werden in den abhängigen Ansprüchen beschrieben. Es versteht sich, dass das System und das Verfahren zum autonomen oder teilautonomen Betreiben des Kraftfahrzeugs sowie die Trainingsvorrichtung und das Trainingsverfahren des künstlichen neuronalen Netzwerks sowie das Computerprogrammprodukt entsprechend der für die Vorrichtung zum autonomen oder teilautonomen Betreiben des Fahrzeugs definierten Ausgestaltungen ausgeführt sein können.Preferred embodiments of the invention are described in the dependent claims. It goes without saying that the system and the method for autonomous or semi-autonomous operation of the motor vehicle as well as the training device and the training method of the artificial neural network and the computer program product can be designed in accordance with the configurations defined for the device for autonomous or semi-autonomous operation of the vehicle.
Es ist vorgesehen, dass über eine Eingangsstelle Kameradaten empfangen werden. Diese Kameradaten werden ausgewertet, um darauf basierend eine Fahrzeugreaktion zu ermitteln. Die Fahrzeugreaktion entspricht dabei einem Fahrmanöver, das vom Fahrzeug ausgeführt werden soll, um ausgehend von einer aktuellen Situation möglichst eine Gefährdung des eigenen Fahrzeugs oder eines anderen Verkehrsteilnehmers zu vermeiden. Hierzu wird in einer Steuereinheit basierend auf der ermittelten Fahrzeugreaktion ein Steuersignal ermittelt. Mittels dieses Steuersignals kann ein Aktor des Fahrzeugs angesteuert werden, um eine Ausführung der Fahrzeugreaktion zu bewirken. Die Fahrzeugreaktion wird mittels eines künstlichen neuronalen Netzwerks ermittelt, das basierend auf Umfeld-Beobachtungsdaten, simultanen Fahrer-Beobachtungsdaten sowie Reaktionsdaten vortrainiert ist. Diese Daten sind dabei insbesondere über einen langen Zeitraum gesammelt worden und in einer Trainingsphase im künstlichen neuronalen Netzwerk verarbeitet worden.Provision is made for camera data to be received via an input point. This camera data is evaluated in order to determine a vehicle reaction based on it. The vehicle reaction corresponds to a driving maneuver that is to be carried out by the vehicle in order, based on a current situation, to avoid endangering the own vehicle or another road user as much as possible. For this purpose, a control signal is determined in a control unit based on the determined vehicle reaction. An actuator of the vehicle can be controlled by means of this control signal in order to cause the vehicle reaction to be carried out. The vehicle reaction is determined by means of an artificial neural network that is pre-trained based on environment observation data, simultaneous driver observation data and reaction data. In particular, these data have been collected over a long period of time and processed in a training phase in the artificial neural network.
Bei bisherigen Ansätzen wurde vorgeschlagen, die Blickrichtung des Fahrers als Eingangssignal für ein künstliches neuronales Netzwerk zum Ermitteln einer Fahrzeugreaktion zu verwenden. Demgegenüber sieht der beschriebene Ansatz vor, derartige Fahrer-Beobachtungsdaten nur für das Training des künstlichen neuronalen Netzwerks, nicht jedoch während des eigentlichen Betriebs des Fahrzeugs zu verwenden. Für die Entscheidung bezüglich der Fahrzeugreaktion im (späteren) Betrieb wird lediglich auf Kameradaten zurückgegriffen. In dieser Situation kann dann im Betrieb insoweit also eine Reaktion ausgelöst werden, auch wenn der Fahrer die Gefahr in diesem Fall nicht erkennt. Ebenfalls ist es möglich, keine Reaktion auszulösen, wenn der Fahrer aus anderen Gründen einen bestimmten Bereich beobachtet. Es ergibt sich eine höhere Zuverlässigkeit bei der Ermittlung der angepassten Fahrzeugreaktion auf eine aktuelle Situation.In previous approaches, it was proposed to use the driver's line of sight as an input signal for an artificial neural network to determine a vehicle reaction. In contrast, the approach described provides for such driver observation data to be used only for training the artificial neural network, but not during the actual operation of the vehicle. For the decision regarding the vehicle reaction in (later) operation, only camera data is used. In this situation, a reaction can be triggered during operation, even if the driver does not recognize the danger in this case. It is also possible not to trigger a reaction if the driver observes a certain area for other reasons. The result is greater reliability when determining the adapted vehicle reaction to a current situation.
In der Trainingsphase werden in einer erfindungsgemäßen Trainingsvorrichtung eines künstlichen neuronalen Netzwerks sowohl Umfeld-Beobachtungsdaten als auch simultan aufgenommene Fahrer-Beobachtungsdaten als Eingabe-Trainingsdaten verwendet. Als Ausgabe-Trainingsdaten werden die Aktionen des Fahrers in Reaktion auf das Umfeld des Fahrzeugs verwendet. Dadurch, dass die Umfeld-Beobachtungsdaten und die Fahrer-Beobachtungsdaten für das Training benutzt werden, kann eine Information über einen für die ausgeführte Aktion des Fahrers relevanten Bildbereich miteinbezogen werden. Insbesondere kann ein relevantes Objekt identifiziert werden. In anderen Worten kann das künstliche neuronale Netzwerk darauf hintrainiert werden, zu erkennen, welche Objekte in welchem Kontext eine bestimmte Reaktion bedingen bzw. erfordern. Durch den erfindungsgemäßen Ansatz kann insoweit die Zuverlässigkeit bei der Bestimmung einer geeigneten Fahrzeugreaktion verbessert werden. Zudem können Kosten für das manuelle Annotieren von Daten eingespart werden, sodass ein effizienteres Trainieren eines künstlichen neuronalen Netzwerks ermöglicht wird. Hierdurch können einerseits Kosten reduziert, andererseits die Datenmenge der Trainingsdaten erhöht werden.In the training phase, both environment observation data and simultaneously recorded driver observation data are used as input training data in a training device of an artificial neural network according to the invention. The driver's actions in response to the surroundings of the vehicle are used as output training data. Because the environment observation data and the driver observation data are used for the training, information about an image area relevant to the action carried out by the driver can be included. In particular, a relevant object can be identified. In other words, the artificial neural network can be trained to recognize which objects cause or require a specific reaction in which context. The approach according to the invention can in this respect improve the reliability when determining a suitable vehicle reaction. In addition, costs for manually annotating data can be saved, so that more efficient training of an artificial neural network is made possible. In this way, costs can be reduced on the one hand, and the volume of training data can be increased on the other.
In einer bevorzugten Ausgestaltung ist die Eingangsschnittstelle der Vorrichtung zum Empfangen der Kameradaten von einer auf eine geplante Trajektorie des Fahrzeugs gerichteten Kamera ausgebildet. Insbesondere ist derjenige Bereich relevant, den das Fahrzeug in nächster Zeit durchqueren will. Objekte innerhalb dieses Bereichs sind relevant. Eine Kamera observiert den Bereich, in den sich das Fahrzeug in nächster Zeit bewegen wird. Basierend auf den gewonnenen Daten kann dann eine Fahrzeugreaktion ermittelt und ein Steuersignal für einen Aktor des Fahrzeugs erzeugt werden.In a preferred embodiment, the input interface of the device is designed to receive the camera data from a camera aimed at a planned trajectory of the vehicle. The area that the vehicle intends to cross in the near future is particularly relevant. Objects within this area are relevant. A camera observes the area in which the vehicle will move in the near future. Based on the data obtained, a vehicle reaction can then be determined and a control signal can be generated for an actuator of the vehicle.
In einer bevorzugten Ausgestaltung umfassen die Umfeld-Beobachtungsdaten Bilddaten einer auf das Umfeld des Fahrzeugs gerichteten Umfeld-Beobachtungskamera. Zusätzlich oder alternativ umfassen die Fahrer-Beobachtungdaten Bilddaten eines auf den Fahrer gerichteten Fahrer-Beobachtungskamerasensors. Weiter zusätzlich oder alternativ umfassen die Reaktionsdaten Sensordaten eines Sensors des Fahrzeugs und/oder Betriebsdaten eines Aktors des Fahrzeugs. Die Umfeld-Beobachtungdaten sind insbesondere Daten einer Umfeldkamera, die am Fahrzeug angebracht ist. Die Fahrer-Beobachtungsdaten sind insbesondere Daten einer Kamera, die auf den Fahrer und insbesondere dessen Augen gerichtet ist. Die Reaktionsdaten können sowohl Informationen eines Aktors bezüglich dessen Ansteuerung als auch Informationen eines Sensors, beispielsweise eines Inertialsensors oder eines direkt in einem Aktor des Fahrzeugs angebrachten Sensors sein. Es ergibt sich eine zuverlässige Ermittlung einer adäquaten Fahrzeugreaktion.In a preferred embodiment, the environment observation data include image data of a surrounding area directed towards the environment of the vehicle. Observation camera. Additionally or alternatively, the driver observation data comprise image data of a driver observation camera sensor directed at the driver. Furthermore, additionally or alternatively, the reaction data include sensor data of a sensor of the vehicle and / or operating data of an actuator of the vehicle. The environment observation data are, in particular, data from an environment camera that is attached to the vehicle. The driver observation data are, in particular, data from a camera that is directed at the driver and, in particular, his eyes. The reaction data can be information from an actuator with regard to its activation as well as information from a sensor, for example an inertial sensor or a sensor attached directly to an actuator of the vehicle. A reliable determination of an adequate vehicle reaction results.
In einer bevorzugten Ausgestaltung ist die Steuereinheit zum Ansteuern des Aktors mit dem ermittelten Steuersignal ausgebildet. Insbesondere ist es möglich, dass über die Steuereinheit direkt ein Aktor angesteuert wird. Die Steuereinheit trifft insoweit eine Entscheidung, welche Aktion ausgelöst wird. Beispielsweise kann eine Druckeinheit eines Bremszylinders angesteuert werden, um einen Druck im Bremszylinder vorsorglich zu erhöhen. Ebenfalls ist es möglich, dass der Druck so weit erhöht wird, dass direkt eine Bremsung ausgelöst wird. Die Bremskraft kann dabei der Situation angemessen sein. Weiterhin können beispielsweise eine Lenkung oder auch eine Beschleunigungseinheit eines Fahrzeugs direkt angesteuert werden.In a preferred embodiment, the control unit is designed to control the actuator with the determined control signal. In particular, it is possible for an actuator to be controlled directly via the control unit. In this respect, the control unit makes a decision as to which action is triggered. For example, a pressure unit of a brake cylinder can be activated in order to increase a pressure in the brake cylinder as a precaution. It is also possible for the pressure to be increased to such an extent that braking is triggered directly. The braking force can be appropriate for the situation. Furthermore, for example, a steering or an acceleration unit of a vehicle can be controlled directly.
In einer bevorzugten Ausgestaltung ist die Auswerteeinheit zum Ermitteln der Fahrzeugreaktion ohne Berücksichtigung von aktuellen Fahrer-Beobachtungsdaten mit Informationen zu einer Blickrichtung des Fahrers innerhalb eines Sichtfelds des Fahrers als Eingangsdaten in dem vortrainierten künstlichen neuronalen Netzwerk ausgebildet. Das künstliche neuronale Netzwerk wurde basierend auf zuvor gesammelten Fahrer-Beobachtungsdaten vortrainiert. Die aktuellen Fahrer-Beobachtungsdaten werden bei der Ermittlung der Fahrzeugreaktion nicht berücksichtigt. Hierdurch kann die Zuverlässigkeit bei der Ermittlung der adäquaten Reaktion weiter erhöht werden. Der Fahrer kann abgelenkt oder unaufmerksam sein. Das System erkennt die notwendige Reaktion des Fahrzeugs auf das Umfeld ohne die aktuelle Blickrichtung des Fahrers zu berücksichtigen.In a preferred embodiment, the evaluation unit is designed to determine the vehicle reaction without taking into account current driver observation data with information on a direction of view of the driver within a field of vision of the driver as input data in the pre-trained artificial neural network. The artificial neural network was pre-trained based on previously collected driver observation data. The current driver observation data are not taken into account when determining the vehicle reaction. This can further increase the reliability in determining the adequate response. The driver may be distracted or inattentive. The system recognizes the necessary reaction of the vehicle to the surroundings without taking into account the current direction of view of the driver.
Ein Sichtfeld bzw. ein Sichtbereich eines Kamerasensors oder auch eines Fahrers entspricht einem vom Kamerasensor oder vom Fahrer einsehbaren Bereich. Insbesondere ist das Sichtfeld durch eine Angabe eines Winkels in Vertikalrichtung und eines Winkels in Horizontalrichtung festgelegt. Eine Fahrzeugreaktion kann insbesondere einer Kombination aus einem Brems-, Lenk- und Beschleunigungsvorgang entsprechen. Die Umfeld-Beobachtungsdaten und die Fahrer-Beobachtungsdaten werden simultan aufgenommen. Insbesondere findet eine entsprechende Koordinatentransformation statt, um die Blickrichtung des Fahrers in den Umfeld-Beobachtungsdaten abzubilden. Durch eine solche Koordinatentransformation wird es möglich, eine Blickrichtung einer Position innerhalb eines Bildes bzw. innerhalb der Fahrer-Beobachtungsdaten zuzuordnen. Die Reaktionsdaten entsprechen insbesondere Informationen über vom Fahrer durchgeführte Brems-, Lenk- und Beschleunigungsvorgänge in unmittelbarer Folge der Umfeld-Beobachtungsdaten und der Fahrer-Beobachtungsdaten. Die Reaktionsdaten bilden insoweit eine Reaktion des Fahrers auf einen Zustand des Umfelds ab. Das Training des künstlichen neuronalen Netzwerks erfolgt insbesondere vor dem Betrieb der Vorrichtung zum autonomen oder teilautonomen Betreiben des Fahrzeugs.A field of view or a field of view of a camera sensor or also of a driver corresponds to an area that can be seen by the camera sensor or by the driver. In particular, the field of view is defined by specifying an angle in the vertical direction and an angle in the horizontal direction. A vehicle reaction can in particular correspond to a combination of braking, steering and acceleration processes. The environment observation data and the driver observation data are recorded simultaneously. In particular, a corresponding coordinate transformation takes place in order to map the direction of view of the driver in the environment observation data. Such a coordinate transformation makes it possible to assign a viewing direction to a position within an image or within the driver observation data. The reaction data correspond in particular to information about braking, steering and acceleration processes carried out by the driver as a direct result of the environment observation data and the driver observation data. In this respect, the reaction data depict a reaction of the driver to a state of the surroundings. The artificial neural network is trained in particular before the device for autonomous or semi-autonomous operation of the vehicle is operated.
Die Erfindung wird nachfolgend anhand einiger ausgewählter Ausführungsbeispiele im Zusammenhang mit den beiliegenden Zeichnungen näher beschrieben und erläutert. Es zeigen:
-
1 eine schematische Darstellung eines Fahrzeugs mit einem erfindungsgemäßen System; -
2 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zum autonomen oder teilautonomen Betreiben eines Fahrzeugs; -
3 eine schematische Darstellung eines Fahrzeugs mit einer Trainingsvorrichtung eines künstlichen neuronalen Netzwerks; -
4 eine Trainingsvorrichtung eines künstlichen neuronalen Netzwerks; -
5 eine Fahrsituation aus der Perspektive eines Fahrzeugs bzw. eines Fahrers des Fahrzeugs; und -
6 eine schematische Darstellung eines erfindungsgemäßen Verfahrens.
-
1 a schematic representation of a vehicle with a system according to the invention; -
2 a schematic representation of a device according to the invention for autonomous or partially autonomous operation of a vehicle; -
3 a schematic representation of a vehicle with a training device of an artificial neural network; -
4th an artificial neural network training device; -
5 a driving situation from the perspective of a vehicle or a driver of the vehicle; and -
6th a schematic representation of a method according to the invention.
In der
Im dargestellten Ausführungsbeispiel sind der Kamerasensor
Hierin wird vorgeschlagen, zum Ermitteln einer Fahrzeugreaktion auf eine Situation in der Umgebung eines autonomen oder teilautonomen Fahrzeugs Kameradaten in einem vortrainierten künstlichen neuronalen Netzwerk auszuwerten. Das künstliche neuronale Netzwerk ist dabei basierend auf zuvor gesammelten Umfeld-Beobachtungsdaten, die Informationen zu Objekten in einem Sichtfeld des Fahrers umfassen, simultan aufgezeichneten Fahrer-Beobachtungsdaten mit Informationen zu einer Blickrichtung des Fahrers innerhalb des Sichtfelds des Fahrers sowie Reaktionsdaten mit Informationen zu einer Aktion des Fahrers vortrainiert. Insoweit ist zuvor ein Training des neuronalen Netzwerks erfolgt, bei dem einerseits Kameradaten der Umgebung (Umfeld-Beobachtungsdaten) und andererseits Informationen zu einer Blickrichtung des Fahrers (Fahrer-Beobachtungsdaten) verwendet wurden. Zum Erlernen der angemessenen Reaktion wurde die vom Fahrer in Reaktion auf die Situation ausgeführte Aktion miteinbezogen. Das neuronale Netzwerk ist insoweit basierend auf der Blickrichtung des Fahrers vortrainiert. Die Blickrichtung des Fahrers wird dann jedoch während des Betriebs nicht mehr verwendet, um die Fahrzeugreaktion zu ermitteln.It is proposed here to evaluate camera data in a pre-trained artificial neural network in order to determine a vehicle reaction to a situation in the vicinity of an autonomous or partially autonomous vehicle. The artificial neural network is based on previously collected environment observation data, which includes information on objects in the driver's field of vision, simultaneously recorded driver observation data with information on a direction of view of the driver within the driver's field of vision and reaction data with information on an action of the Driver pre-trained. In this respect, the neural network has previously been trained in which, on the one hand, camera data of the environment (surroundings observation data) and, on the other hand, information on a direction of view of the driver (driver observation data) were used. In order to learn the appropriate reaction, the action taken by the driver in response to the situation was taken into account. In this respect, the neural network is pre-trained based on the direction in which the driver is looking. However, the driver's line of sight is then no longer used during operation to determine the vehicle reaction.
In der
Über die Eingangsschnittstelle
In der Auswerteeinheit
In der Steuereinheit
Für das Training des künstlichen neuronalen Netzwerks wird eine Trainingsvorrichtung
In der
In der
In der
Die Erfindung wurde anhand der Zeichnungen und der Beschreibung umfassend beschrieben und erklärt. Die Beschreibung und Erklärung sind als Beispiel und nicht einschränkend zu verstehen. Die Erfindung ist nicht auf die offenbarten Ausführungsformen beschränkt. Andere Ausführungsformen oder Variationen ergeben sich für den Fachmann bei der Verwendung der vorliegenden Erfindung sowie bei einer genauen Analyse der Zeichnungen, der Offenbarung und der nachfolgenden Patentansprüche.The invention has been comprehensively described and explained with reference to the drawings and the description. The description and explanation are to be understood as an example and not restrictive. The invention is not limited to the disclosed embodiments. Other embodiments or variations will become apparent to those skilled in the art using the present invention and a careful analysis of the drawings, the disclosure, and the following claims.
In den Patentansprüchen schließen die Wörter „umfassen“ und „mit“ nicht das Vorhandensein weiterer Elemente oder Schritte aus. Der undefinierte Artikel „ein“ oder „eine“ schließt nicht das Vorhandensein einer Mehrzahl aus. Ein einzelnes Element oder eine einzelne Einheit kann die Funktionen mehrerer der in den Patentansprüchen genannten Einheiten ausführen. Ein Element, eine Einheit, eine Schnittstelle, eine Vorrichtung und ein System können teilweise oder vollständig in Hard- und/oder in Software umgesetzt sein. Die bloße Nennung einiger Maßnahmen in mehreren verschiedenen abhängigen Patentansprüchen ist nicht dahingehend zu verstehen, dass eine Kombination dieser Maßnahmen nicht ebenfalls vorteilhaft verwendet werden kann. Ein Computerprogramm kann auf einem nichtflüchtigen Datenträger gespeichert/vertrieben werden, beispielsweise auf einem optischen Speicher oder auf einem Halbleiterlaufwerk (SSD). Ein Computerprogramm kann zusammen mit Hardware und/oder als Teil einer Hardware vertrieben werden, beispielsweise mittels des Internets oder mittels drahtgebundener oder drahtloser Kommunikationssysteme. Bezugszeichen in den Patentansprüchen sind nicht einschränkend zu verstehen.In the claims, the words “comprising” and “having” do not exclude the presence of further elements or steps. The undefined article “a” or “an” does not exclude the presence of a plural. A single element or a single unit can perform the functions of several of the units mentioned in the patent claims carry out. An element, a unit, an interface, a device and a system can be implemented partially or completely in hardware and / or in software. The mere mention of some measures in several different dependent patent claims should not be understood to mean that a combination of these measures cannot also be used advantageously. A computer program can be stored / distributed on a non-volatile data carrier, for example on an optical memory or on a semiconductor drive (SSD). A computer program can be distributed together with hardware and / or as part of hardware, for example by means of the Internet or by means of wired or wireless communication systems. Reference signs in the patent claims are not to be understood as restrictive.
BezugszeichenlisteList of reference symbols
- 1010
- Systemsystem
- 12, 12'12, 12 '
- Fahrzeugvehicle
- 1414th
- KamerasensorCamera sensor
- 1616
- Vorrichtungcontraption
- 1818th
- Objektobject
- 1919th
- SichtfeldField of view
- 2020th
- AktorActuator
- 2222nd
- EingangsschnittstelleInput interface
- 2424
- AuswerteeinheitEvaluation unit
- 2626th
- SteuereinheitControl unit
- 2828
- TrainingsvorrichtungExercise device
- 2929
- Umfeld-BeobachtungskameraEnvironment observation camera
- 3030th
- Fahrer-BeobachtungskameraDriver observation camera
- 3131
- Fahrerdriver
- 3232
- Sensorsensor
- 3434
- EingangsschnittstelleInput interface
- 3636
- TrainingseinheitTraining session
- 3838
- Fahrbahnroadway
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 102018117380 A1 [0004]DE 102018117380 A1 [0004]
Claims (11)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102020203814.7A DE102020203814A1 (en) | 2020-03-24 | 2020-03-24 | Training an artificial neural network |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102020203814.7A DE102020203814A1 (en) | 2020-03-24 | 2020-03-24 | Training an artificial neural network |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102020203814A1 true DE102020203814A1 (en) | 2021-09-30 |
Family
ID=77658880
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102020203814.7A Pending DE102020203814A1 (en) | 2020-03-24 | 2020-03-24 | Training an artificial neural network |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102020203814A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025059991A1 (en) * | 2023-09-21 | 2025-03-27 | 深圳引望智能技术有限公司 | Key information collection method and apparatus, and intelligent driving device |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102018117380A1 (en) | 2017-07-19 | 2019-01-24 | Ford Global Technologies, Llc | BRAKE FORECAST AND INTERVENTION |
-
2020
- 2020-03-24 DE DE102020203814.7A patent/DE102020203814A1/en active Pending
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102018117380A1 (en) | 2017-07-19 | 2019-01-24 | Ford Global Technologies, Llc | BRAKE FORECAST AND INTERVENTION |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025059991A1 (en) * | 2023-09-21 | 2025-03-27 | 深圳引望智能技术有限公司 | Key information collection method and apparatus, and intelligent driving device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102009006336A1 (en) | Method of monitoring a parking operation | |
| DE102015015021A1 (en) | Method for assisting a driver in driving a vehicle | |
| DE102020113611A1 (en) | Method and safety system for securing an automated vehicle function and motor vehicle | |
| DE102016007899A1 (en) | Method for operating a device for traffic situation analysis, motor vehicle and data processing device | |
| DE102017206264A1 (en) | Method and device for outputting haptic information to the driver of a motor vehicle via the brake pedal | |
| DE102021004191A1 (en) | Method for recognizing an intention to overtake and / or predicting vehicle maneuvers in front of an ego vehicle | |
| DE102017208728A1 (en) | Method for determining a driving instruction | |
| DE102015107391A1 (en) | Method for controlling a functional device of a motor vehicle on the basis of fused sensor data, control device, driver assistance system and motor vehicle | |
| WO2019120709A1 (en) | Method and control unit for controlling a function of a vehicle driven at least partially in an automated manner | |
| DE102020214031A1 (en) | Method and device for controlling a safety device of a vehicle and safety system for a vehicle | |
| DE102007052093B4 (en) | Detection of spontaneous changes in movement of pedestrians | |
| DE102021200467A1 (en) | Computer-implemented method, control unit and computer program for regulating and/or controlling a driving function of a vehicle that can be operated automatically and for setting up a warning cascade for triggering the driving function and automatic emergency braking and/or emergency steering module for a vehicle that can be operated automatically, comprising such a control unit | |
| DE102018212266A1 (en) | Adaptation of an evaluable scanning range of sensors and adapted evaluation of sensor data | |
| DE102018206743A1 (en) | A method of operating a driver assistance system of an ego vehicle having at least one environment sensor for detecting an environment of the ego vehicle, computer-readable medium, system, and vehicle | |
| DE102022133563A1 (en) | Method and vehicle control system for monitoring a target lane before a lane change and/or during a lane change of an ego vehicle | |
| DE102020203814A1 (en) | Training an artificial neural network | |
| WO2019201580A1 (en) | Testing a vehicle with simulated road users | |
| DE102018211726A1 (en) | Method for automatic machine training of an electronic vehicle guidance system, and motor vehicle | |
| DE102016209902B4 (en) | Method for controlling a personal protection device of a vehicle and control unit | |
| DE102021207456A1 (en) | Method for at least partially automated driving of a motor vehicle | |
| DE102023211070B4 (en) | Method for longitudinal guidance of a vehicle in relation to a preceding vehicle by means of an electronic distance control system and a distance control system for a vehicle | |
| DE102022202002B4 (en) | Method, computer program, and device for adjusting the operating parameters of a means of transportation, as well as means of transportation | |
| DE102023113922A1 (en) | driver assistance system for a vehicle | |
| DE102021204399A1 (en) | Method and device for detecting hazards in road traffic | |
| DE102019004075A1 (en) | Method for determining a relevance of an object in an environment of a motor vehicle by means of a driver assistance system and driver assistance system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R012 | Request for examination validly filed |