[go: up one dir, main page]

DE102024207833A1 - Method for controlling at least a partially autonomous vehicle using voice input - Google Patents

Method for controlling at least a partially autonomous vehicle using voice input

Info

Publication number
DE102024207833A1
DE102024207833A1 DE102024207833.6A DE102024207833A DE102024207833A1 DE 102024207833 A1 DE102024207833 A1 DE 102024207833A1 DE 102024207833 A DE102024207833 A DE 102024207833A DE 102024207833 A1 DE102024207833 A1 DE 102024207833A1
Authority
DE
Germany
Prior art keywords
driver
instruction
unit
list
autonomous vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102024207833.6A
Other languages
German (de)
Inventor
Gerhard Dochow
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aumovio Germany De GmbH
Original Assignee
Continental Automotive Technologies GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive Technologies GmbH filed Critical Continental Automotive Technologies GmbH
Publication of DE102024207833A1 publication Critical patent/DE102024207833A1/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/26Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
    • B60K35/265Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/148Instrument input by voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/01Occupants other than the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/043Identity of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/045Occupant permissions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/10Accelerator pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/215Selection or confirmation of options
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/26Incapacity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Combustion & Propulsion (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Alarm Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Steuern eines zumindest teilautonomen Fahrzeugs durch einen Fahrer (100) mittels sprachlicher Eingabe. Das Verfahren weist folgende Schritte auf:
Erfassen, mittels eines Mikrofons (303), der sprachlichen Eingabe des Fahrers (100);
Bestimmen, mittels einer Spracherkennungseinheit (140), einer potentiellen Fahranweisung aus der sprachlichen Eingabe des Fahrers (100);
Vergleichen der potentiellen Fahranweisung mit einer Liste von möglichen Fahranweisungen, wobei die Liste der möglichen Fahranweisungen eine Funktion von möglichen Fahranweisungen einer zumindest teilautonomen Fahrzeugsteuerungseinheit (190) ist;
Wenn die potentielle Fahranweisung in der Liste der möglichen Fahranweisungen enthalten ist:
Ausgeben, mittels eines Lautsprechers (103), einer Handlungsanweisung an den Fahrer (100), wobei die Handlungsanweisung eine Funktion der Fahranweisung ist;
Prüfen, mittels der Verifizierungseinheit (150), einer Reaktion des Fahrers (100) auf das Ausgeben der Handlungsanweisung; und
Wenn, mittels der Verifizierungseinheit (150), die Reaktion des Fahrers (100) als korrekt beurteilt wird, verwenden der potentiellen Fahranweisung als Aktoranweisung zum Steuern der Aktoren (200) des Fahrzeugs mittels der zumindest teilautonomen Fahrzeugsteuerungseinheit (190).
The invention relates to a method for controlling an at least partially autonomous vehicle by a driver (100) using voice input. The method comprises the following steps:
Capture, by means of a microphone (303), the driver's voice input (100);
Determine, using a speech recognition unit (140), a potential driving instruction from the driver's speech input (100);
Comparing the potential driving instruction with a list of possible driving instructions, wherein the list of possible driving instructions is a function of possible driving instructions of an at least semi-autonomous vehicle control unit (190);
If the potential driving instruction is included in the list of possible driving instructions:
Output, by means of a loudspeaker (103), an instruction to the driver (100), wherein the instruction is a function of the driving instruction;
Verification unit (150) checks the driver's (100) response to the output of the instruction; and
If, by means of the verification unit (150), the driver's response (100) is judged to be correct, the potential driving instruction is used as an actuator instruction to control the actuators (200) of the vehicle by means of the at least semi-autonomous vehicle control unit (190).

Description

Gebiet der ErfindungField of invention

Die Erfindung betrifft ein Verfahren zum Steuern eines zumindest teilautonomen Fahrzeugs durch einen Fahrer, insbesondere mittels sprachlicher Eingabe. Weiterhin betrifft die Erfindung eine Vorrichtung, ein Fahrzeug, eine Verwendung und ein nicht-volatiles, computerlesbares Speichermedium.The invention relates to a method for controlling an at least partially autonomous vehicle by a driver, in particular by means of voice input. The invention further relates to a device, a vehicle, a use, and a non-volatile, computer-readable storage medium.

Hintergrundbackground

Im Stand der Technik existieren Spracheingabesysteme in Fahrzeugen, die es erlauben, eine Vielzahl von nicht sicherheitskritischen Fahrzeugfunktionen zu steuern. Es wäre aber eine Entlastung für den Fahrer, wenn ein zumindest teilautonom fahrendes Fahrzeug auch für sicherheitskritische Fahrzeugfunktionen mittels sprachlicher Eingabe gesteuert werden könnte. Dies erfordert aber Maßnahmen, mittels derer die sprachliche Eingabe geprüft werden kann.Current technology includes voice input systems in vehicles that allow for the control of a variety of non-safety-critical vehicle functions. However, it would be a significant relief for the driver if a partially autonomous vehicle could also be controlled via voice input for safety-critical functions. This requires measures to verify the voice input.

ZusammenfassungSummary

Es ist Aufgabe der Erfindung, ein Verfahren zur Verfügung zu stellen, mittels dessen eine sprachliche Eingabe eines Fahrers geprüft werden kann. Diese Aufgabe wird durch den Gegenstand der unabhängigen Patentansprüche gelöst. Weiterbildungen der Erfindung ergeben sich aus den Unteransprüchen und der folgenden Beschreibung.The object of the invention is to provide a method by which a driver's voice input can be verified. This object is achieved by the subject matter of the independent claims. Further developments of the invention are described in the dependent claims and the following description.

Ein Aspekt betrifft ein Verfahren zum Steuern eines zumindest teilautonomen Fahrzeugs durch einen Fahrer mittels sprachlicher Eingabe, mit den Schritten: erfassen, mittels eines Mikrofons, der sprachlichen Eingabe des Fahrers; bestimmen, mittels einer Spracherkennungseinheit, einer potentiellen Fahranweisung aus der sprachlichen Eingabe des Fahrers; vergleichen der potentiellen Fahranweisung mit einer Liste von möglichen Fahranweisungen, wobei die Liste der möglichen Fahranweisungen eine Funktion von möglichen Fahranweisungen einer zumindest teilautonomen Fahrzeugsteuerungseinheit ist;wenn die potentielle Fahranweisung in der Liste der möglichen Fahranweisungen enthalten ist:

  • ausgeben, mittels eines Lautsprechers, einer Handlungsanweisung an den Fahrer, wobei die Handlungsanweisung eine Funktion der Fahranweisung ist;
  • prüfen, mittels der Verifizierungseinheit, einer Reaktion des Fahrers auf das Ausgeben der Handlungsanweisung;
  • wenn, mittels der Verifizierungseinheit, die Reaktion des Fahrers als korrekt beurteilt wird, verwenden der potentiellen Fahranweisung als Aktoranweisung zum Steuern der Aktoren des Fahrzeugs mittels der zumindest teilautonomen Fahrzeugsteuerungseinheit.
One aspect concerns a method for controlling an at least partially autonomous vehicle by a driver using speech input, comprising the steps of: capturing, by means of a microphone, the driver's speech input; determining, by means of a speech recognition unit, a potential driving instruction from the driver's speech input; comparing the potential driving instruction with a list of possible driving instructions, wherein the list of possible driving instructions is a function of possible driving instructions of an at least partially autonomous vehicle control unit; if the potential driving instruction is included in the list of possible driving instructions:
  • issue, by means of a loudspeaker, an instruction to the driver, the instruction being a function of the driving instructions;
  • to check, using the verification unit, a reaction of the driver to the output of the instruction;
  • If, by means of the verification unit, the driver's reaction is judged to be correct, the potential driving instruction is used as an actuator instruction to control the vehicle's actuators by means of the at least semi-autonomous vehicle control unit.

Ein Fahrzeug kann ein straßengebundenes Fahrzeug sein, wie beispielsweise ein Personenwagen, ein Lastwagen, oder ein Spezialfahrzeug. Das Fahrzeug kann z.B. auch ein Boot sein. Das Fahrzeug ist ein zumindest teilautonom fahrendes Fahrzeug, d.h. ein Fahrzeug mindestens der Stufe 1 gemäß der SAE Norm J3016. Die sprachliche Eingabe ist eine natursprachliche Eingabe, d.h. es kann in zumindest einigen Ausführungsformen zulässig sein, dass nicht nur genau ein Begriff als Anweisung an Aktoren des Fahrzeugs - bzw. an die Fahrzeugsteuerungseinheit, welche die Aktoren zumindest teilautonom ansteuert - verstanden wird, sondern es kann eine Vielzahl von Begriffen zulässig sein. So können zum Beispiel statt nur „verlangsamen“ auch Begriffe wie „langsamer“, „nicht so schnell“, etc. als Aktoranweisung, d.h. als eine potentielle Fahranweisung, gelten. Auch komplexe Fahrmanöver, wie das Überholen eines vorausfahrenden Fahrzeugs oder das Anhalten des Fahrzeugs auf dem nächsten Parkplatz, können in diesem Zusammenhang als eine mögliche Aktoranweisung an die zumindest teilautonome Fahrzeugsteuerungseinheit gelten.A vehicle can be a road-bound vehicle, such as a passenger car, a truck, or a special-purpose vehicle. The vehicle can also be, for example, a boat. The vehicle is at least a partially autonomous vehicle, i.e., a vehicle of at least Level 1 according to SAE standard J3016. The speech input is natural language input, meaning that in at least some embodiments, it may be permissible for not just one term to be understood as an instruction to the vehicle's actuators—or to the vehicle control unit, which controls the actuators at least partially autonomously—but rather for a multitude of terms to be permissible. For example, instead of just "slow down," terms such as "slower," "not so fast," etc., can also be considered actuator instructions, i.e., potential driving instructions. Even complex driving maneuvers, such as overtaking a vehicle in front or stopping the vehicle in the next parking space, can be considered a possible actuator instruction to the at least partially autonomous vehicle control unit in this context.

Das Erfassen der sprachlichen Eingabe des Fahrers erfolgt mittels eines Mikrofons. Das Mikrofon kann z.B. ein dynamisches Mikrofon, Kondensatormikrofon, Elektret-Kondensatormikrofon, Piezomikrofon und/oder ein anderer Typ von Mikrofon sein. Das Mikrofon kann als eine Vielzahl von Mikrofonen ausgeführt sein, z.B. als Mikrofon-Feld oder Mikrofon-Array. Das Mikrofon kann Maßnahmen zur Verbesserung der Sprachqualität umfassen, insbesondere unter Nutzung der Vielzahl von Mikrofonen. Ein Mikrofon wird als besonders geeignet für dieses Verfahren angesehen, wenn es in der Lage ist, die Fahrerstimme und weiterhin Schall aus einem Lautsprecher, wie unten beschrieben, deutlich zu erfassen.The driver's voice input is captured using a microphone. The microphone can be, for example, a dynamic microphone, condenser microphone, electret condenser microphone, piezoelectric microphone, and/or another type of microphone. The microphone can be configured as a multiple microphone array, for example, as a microphone field or microphone array. The microphone can be used to improve the This includes speech quality, particularly when utilizing multiple microphones. A microphone is considered particularly suitable for this procedure if it is able to clearly capture the driver's voice and also sound from a loudspeaker, as described below.

Die Spracherkennungseinheit kann das Signal von dem Mikrofon verwenden, um zu erkennen, ob die sprachliche Eingabe eine potentiellen Fahranweisung ist, die sich an Aktoren des Fahrzeugs richtet. Dazu kann die Spracherkennungseinheit nicht nur über eine Fähigkeit verfügen, aus der sprachlichen Eingabe Worte zu erkennen, sondern die Spracherkennungseinheit kann darüber hinaus eine Liste oder Datenbank umfassen, in der zulässige Aktoranweisungen und deren jeweilige Bedeutungen gespeichert sind. Um das obige Beispiel zu verwenden: Die Spracherkennungseinheit erkennt z.B. die Worte „verlangsamen“, „langsamer“, „nicht so schnell“ (a) als zulässig, d.h. als potentielle Fahranweisung, und (b) weist all diesen Worten die eine Bedeutung „verlangsamen“ zu. Weitere Beispiele für Aktoranweisungen können sein: „links“, „rechts“, „überholen“, „beschleunigen“, etc. Wenn die Worte nicht als Aktoranweisung erkannt werden, kann die sprachliche Eingabe beispielsweise ignoriert werden. Jedenfalls werden Worte, die nicht als Aktoranweisung bzw. als potentielle Fahranweisung erkannt werden, nicht an die Aktoren des Fahrzeugs (bzw. an die Fahrzeugsteuerungseinheit) weitergeleitet. Die Aktoren des Fahrzeugs können z.B. Antriebsstrang, Bremsen und Lenkung umfassen.The speech recognition unit can use the signal from the microphone to determine whether the voice input is a potential driving instruction directed at the vehicle's actuators. To do this, the speech recognition unit may not only be able to recognize words from the voice input, but it may also include a list or database containing permissible actuator instructions and their respective meanings. Using the example above, the speech recognition unit recognizes the words "slow down," "slower," and "not so fast" (a) as permissible, i.e., as potential driving instructions, and (b) assigns the meaning "slow down" to all of these words. Other examples of actuator instructions might be: "left," "right," "overtake," "accelerate," etc. If the words are not recognized as actuator instructions, the voice input can, for example, be ignored. In any case, words that are not recognized as actuator instructions or potential driving instructions are not forwarded to the vehicle's actuators (or to the vehicle control unit). The vehicle's actuators can include, for example, the drivetrain, brakes, and steering.

Wenn die sprachliche Eingabe als potentielle Fahranweisung erkannt wurde, wird die potentielle Fahranweisung mit einer Liste von möglichen Fahranweisungen verglichen. Die Liste der möglichen Fahranweisungen ist eine Funktion von möglichen Fahranweisungen einer zumindest teilautonomen Fahrzeugsteuerungseinheit. Mit anderen Worten: Die Liste der möglichen Fahranweisungen enthält diejenigen Fahranweisungen, die von der Fahrzeugsteuerungseinheit realisiert werden können. Der Vergleich der potentiellen Fahranweisung mit der Liste von möglichen Fahranweisungen kann besonders einfach sein, weil die Spracherkennungseinheit eine standardisierte „Bedeutung“ ausgeben kann (im obigen Beispiel „verlangsamen“). Dies kann mit in analoger Weise standardisierten Begriffen der möglichen Fahranweisungen recht einfach verglichen werden. Die Liste der möglichen Fahranweisungen kann von dem Autonomielevel der Fahrzeugsteuerungseinheit abhängig sein. Beispielsweise kann eine potentielle Fahranweisung „verlangsamen“ von den meisten Fahrzeugsteuerungseinheiten realisiert werden, und daher in deren Liste von möglichen Fahranweisungen enthalten sein. Als anderes Beispiel kann eine potentielle Fahranweisung „überholen“ nur von Fahrzeugsteuerungseinheiten mit einem höheren Autonomielevel realisiert werden, und daher nur in deren Liste von möglichen Fahranweisungen enthalten sein, in den Listen anderer Fahrzeugsteuerungseinheiten jedoch nicht. Wenn eine potentielle Fahranweisung nicht in der Liste von möglichen Fahranweisungen enthalten ist, wird diese Fahranweisung, bzw. die sprachliche Eingabe, ignoriert. Gegebenenfalls kann eine Fehlermeldung ausgegeben werden.If the voice input is recognized as a potential driving instruction, the potential driving instruction is compared with a list of possible driving instructions. This list is a function of the possible driving instructions of an at least semi-autonomous vehicle control unit. In other words, the list of possible driving instructions contains those driving instructions that can be implemented by the vehicle control unit. Comparing the potential driving instruction with the list of possible driving instructions can be particularly easy because the speech recognition unit can output a standardized "meaning" (in the example above, "slow down"). This can be easily compared with similarly standardized terms from the list of possible driving instructions. The list of possible driving instructions may depend on the autonomy level of the vehicle control unit. For example, a potential driving instruction "slow down" can be implemented by most vehicle control units and is therefore included in their list of possible driving instructions. As another example, a potential driving instruction "overtake" can only be implemented by vehicle control units with a higher level of autonomy and therefore only be included in their list of possible driving instructions, but not in the lists of other vehicle control units. If a potential driving instruction is not included in the list of possible driving instructions, this driving instruction, or the voice input, is ignored. An error message may be displayed.

In einigen Ausführungsformen kann die Liste von möglichen Fahranweisungen attributiert sein. Die Attribute können wiedergeben, dass die Liste der möglichen Fahranweisungen nicht nur von dem Autonomielevel der Fahrzeugsteuerungseinheit, sondern auch von einer aktuellen Situation des Fahrzeugs abhängig sein kann. Ein Beispiel für eine Abhängigkeit von der aktuellen Situation des Fahrzeugs kann sein, dass die potentielle Fahranweisung „überholen“ von Fahrzeugsteuerungseinheiten eines bestimmten Autonomielevels nur auf einer Autobahn realisiert werden kann (oder nur dort realisiert werden darf, gemäß gesetzlicher Bestimmungen), nicht jedoch auf anderen Straßen. Wenn eine potentielle Fahranweisung nicht in der attributierten Liste von möglichen Fahranweisungen enthalten ist und/oder in der aktuellen Situation des Fahrzeugs nicht realisiert werden kann, wird diese Fahranweisung, bzw. die sprachliche Eingabe, ignoriert. Gegebenenfalls kann eine Fehlermeldung ausgegeben werden.In some implementations, the list of possible driving instructions can be attributed. These attributes can indicate that the list of possible driving instructions depends not only on the autonomy level of the vehicle control unit but also on the current vehicle situation. An example of a dependency on the current vehicle situation is that the potential driving instruction "overtake" can only be implemented (or may only be implemented, according to legal regulations) on a highway by vehicle control units of a certain autonomy level, but not on other roads. If a potential driving instruction is not included in the attributed list of possible driving instructions and/or cannot be implemented in the current vehicle situation, this driving instruction, or the corresponding voice input, is ignored. An error message may be displayed.

Wenn die sprachliche Eingabe in der Liste der möglichen Fahranweisungen enthalten ist, kann eine Handlungsanweisung an den Fahrer ausgegeben werden. Die Handlungsanweisung kann z.B. sein „Bestätigen Sie das Verlangsamen durch Drücken des Knopfes A“, oder „Bestätigen Sie das Verlangsamen durch Kopfnicken“. Das Ausgeben kann mittels eines Lautsprechers erfolgen. Der Lautsprecher kann z.B. als dynamischer, elektrostatischer, piezo-elektrischer Lautsprecher und/oder als ein anderer Typ von Schallwandlern ausgeführt sein. Der Lautsprecher kann als ein oder mehrere Lautsprecher ausgeführt sein, beispielsweise auch mittels getrennter Lautsprecher, wobei ein oder mehrere Lautsprecher jeweils einen Frequenzbereich wiedergeben. Beispielsweise kann ein piezo-elektrischer Lautsprecher dazu eingerichtet sein, einen Frequenzbereich über 22 kHz wiederzugeben, und ein dynamischer Lautsprecher kann dazu eingerichtet sein, einen Frequenzbereich von unter 22 kHz wiederzugeben. Der Lautsprecher kann vorzugsweise in der Nähe des Kopfes bzw. der Ohren des Fahrers angeordnet sein, z.B. in einer Kopfstütze des Fahrzeugs.If voice input is included in the list of possible driving instructions, an instruction can be issued to the driver. The instruction could be, for example, "Confirm the deceleration by pressing button A" or "Confirm the deceleration by nodding your head." The output can be via a loudspeaker. The loudspeaker can be, for example, a dynamic, electrostatic, piezoelectric loudspeaker, and/or another type of transducer. The loudspeaker can consist of one or more speakers, including separate speakers, each reproducing a specific frequency range. For example, a piezoelectric loudspeaker can be configured to reproduce a frequency range above 22 kHz, and a dynamic loudspeaker can be configured to reproduce a frequency range below 22 kHz. The loudspeaker is preferably located near the driver's head or ears, for example, in a headrest.

Der Fahrer kann auf das Ausgeben der ersten Handlungsanweisung eine Reaktion zeigen. Eine Reaktion auf die obigen Beispiele kann z.B. ein Drücken des Knopfes A sein, oder ein Kopfnicken. Die Verifizierungseinheit kann diese Reaktion des Fahrers als korrekt beurteilen. Dazu kann die Verifizierungseinheit einen oder mehrere Sensoren abfragen. Beispielsweise kann das Drücken des Knopfes A mittels eines Haptiksensors - z.B. mittels eines Tasters - festgestellt werden. Oder das Kopfnicken kann mittels einer Innenraumkamera festgestellt werden, die zum Erfassen (mindestens) dieser vordefinierten Bewegung des Fahrers eingerichtet ist, zusammen mit einer Bilderkennungseinheit, die zum Auswerten der von der Innenraumkamera erfassten Bewegung des Fahrers eingerichtet ist, so dass das Kopfnicken des Fahrers von der Verifizierungseinheit als „Kopfnicken“ erkannt wird. Wenn eine andere Reaktion des Fahrers, oder keine Reaktion des Fahrers, festgestellt wird, dann wird dies nicht als korrekt beurteilt. Es kann ein Zeitfenster definiert werden, innerhalb dessen die Reaktion des Fahrers als korrekt beurteilt wird. Das Zeitfenster kann z.B. einige Sekunden nach dem Ausgeben der ersten Handlungsanweisung umfassen. Wenn die korrekte Reaktion des Fahrers nicht innerhalb dieses Zeitfenster festgestellt wird, dann wird diese Reaktion ebenfalls nicht als korrekt beurteilt. Um sicherzustellen, dass nicht eine bestimmte Reaktion „gewohnheitsmäßig“ erfolgt, kann die erste Handlungsanweisung von Fall zu Fall variiert werden.The driver can react to the initial instruction. A reaction to the examples above could be, for instance, pressing button A or nodding the head. The verification unit can then assess this reaction as correct. To do this, the verification unit can query one or more sensors. For example, pressing button A can be detected using a haptic sensor – such as a push button. Alternatively, a head nod can be detected using an interior camera configured to capture (at least) this predefined movement of the driver, along with an image recognition unit designed to analyze the movement captured by the camera, so that the verification unit recognizes the driver's head nod as such. If a different reaction from the driver, or no reaction at all, is detected, it will not be assessed as correct. A time window can be defined within which the driver's reaction is considered correct. This time window could, for example, encompass a few seconds after the initial instruction is issued. If the driver's correct reaction is not observed within this time window, then that reaction will also not be considered correct. To ensure that a particular reaction does not become "habitual," the initial instruction can be varied from case to case.

Wenn, mittels der Verifizierungseinheit, die Reaktion des Fahrers als korrekt beurteilt wird, kann die Aktoranweisung zum Steuern der Aktoren des Fahrzeugs verwendet werden bzw. an die zumindest teilautonome Fahrzeugsteuerungseinheit weitergeleitet werden.If the driver's reaction is judged to be correct by the verification unit, the actuator instruction can be used to control the vehicle's actuators or forwarded to the at least semi-autonomous vehicle control unit.

Es wird damit ein Verfahren zur Verfügung gestellt, mittels dessen eine sprachliche Eingabe des Fahrers geprüft werden kann. Damit kann geprüft werden - und in zumindest einigen Fällen auch sichergestellt werden -, dass die sprachliche Eingabe des Fahrers auch tatsächlich als eine Aktoranweisung gemeint war. Darüber hinaus können bereits bei der Prüfung der sprachlichen Eingabe die Möglichkeiten der zumindest teilautonomen Fahrzeugsteuerungseinheit berücksichtigt werden. Dies kann zu einer besonders konsistenten Erscheinung der Mensch-Maschinen-Schnittstelle des Fahrzeugs dem Fahrer gegenüber beitragen. Weiterhin kann dies zur Entlastung der Fahrzeugsteuerungseinheit beitragen, weil die Fahrzeugsteuerungseinheit von Anfragen oder Fahranweisungen entlastet wird, die diese ohnehin nicht realisieren kann.This provides a method for verifying driver voice input. This allows verification—and in at least some cases, confirmation—that the driver's voice input was indeed intended as an actuator command. Furthermore, the capabilities of the at least partially autonomous vehicle control unit can be considered during the voice input verification process. This can contribute to a particularly consistent user experience for the vehicle's human-machine interface. Additionally, this can reduce the load on the vehicle control unit, as it is relieved of requests or driving instructions that it cannot execute anyway.

Durch das Prüfen der sprachlichen Eingabe des Fahrers können insbesondere mögliche Missverständnisse - z.B. Anweisungen, die von der Spracherkennungseinheit falsch interpretiert wurden - deutlich reduziert oder sogar eliminiert werden. Außerdem können Fehlerursachen reduziert werden, die beispielsweise durch eine falsche Spracheinstellung (z.B. Japanisch, statt Deutsch) verursacht werden können. Außerdem kann die Gefahr reduziert werden, dass der Fahrer die Handlungsanweisung falsch versteht, z.B. durch eine Beeinträchtigung des Gehörs des Fahrers (z.B. nach einem lauten Konzert) und/oder durch zu laute Umgebungsgeräusche (z.B. in einer Baustelle).By checking the driver's voice input, potential misunderstandings—such as instructions misinterpreted by the speech recognition unit—can be significantly reduced or even eliminated. Furthermore, errors caused by incorrect language settings (e.g., Japanese instead of German) can be minimized. Additionally, the risk of the driver misunderstanding instructions, for example, due to hearing impairment (e.g., after a loud concert) and/or excessive ambient noise (e.g., in a construction zone), can be reduced.

In einigen Ausführungsformen weist das Verfahren folgenden weiteren Schritt auf: Nach dem Ausgeben der Handlungsanweisung, authentifizieren des Fahrers, mittels einer Fahrerauthentifizierungseinheit. Die Fahrerauthentifizierungseinheit kann z.B. eine Iriserkennung umfassen. Diese kann beispielsweise mittels einer Innenraumkamera - gegebenenfalls zusammen mit einer Datenbank zulässiger Fahrer - realisiert sein. Alternativ oder zusätzlich kann das Authentifizieren des Fahrers mittels einer Stimmerkennung realisiert sein. In einer Ausführungsform kann bei Nichtauthentifizierung eine weitere Handlungsanweisung an den Fahrer ausgegeben werden, die z.B. mittels einer haptischen Eingabe bestätigt werden kann.In some embodiments, the method includes the following additional step: After issuing the instruction, the driver is authenticated using a driver authentication unit. The driver authentication unit can, for example, include iris recognition. This can be implemented, for instance, using an interior camera – possibly in conjunction with a database of authorized drivers. Alternatively or additionally, driver authentication can be achieved using voice recognition. In one embodiment, if authentication is not successful, a further instruction can be issued to the driver, which can be confirmed, for example, by haptic input.

In einigen Ausführungsformen weist das Verfahren folgenden weiteren Schritt auf: Nach dem Ausgeben der Handlungsanweisung, prüfen einer Fahrtüchtigkeit des Fahrers, mittels einer Fahrtüchtigkeitserkennungseinheit. Die Fahrtüchtigkeit kann zum Beispiel anhand von Mikrofonsignalen und/oder anhand von Bilddaten der Innenraumkamera beurteilt werden. Bei erkannter Müdigkeit des Fahrers kann die Ausgabe und Ausführung einer Fahranweisung des Fahrers verhindert werden. Statt der Fahreranweisung kann dann z.B. ein Weg zu einem sicheren Haltepunkt (z.B. nächster Rastplatz) dem Fahrer vorgeschlagen werden.In some embodiments, the method includes the following additional step: After issuing the driving instruction, the driver's fitness to drive is checked using a fitness-to-drive detection unit. Fitness to drive can be assessed, for example, using microphone signals and/or image data from the interior camera. If driver fatigue is detected, the issuance and execution of the driving instruction can be prevented. Instead of the driving instruction, the driver can then be offered, for example, a route to a safe stopping point (e.g., the next rest area).

In einigen Ausführungsformen weist das Verfahren folgenden weiteren Schritt auf: Nach dem Ausgeben der Handlungsanweisung, prüfen einer Aufmerksamkeit des Fahrers, mittels eines Näherungssensors. Der Näherungssensor kann z.B. mittels eines kapazitiven Sensors und/oder eines IR-Sensors (IR: Infrarot) realisiert sein. Der Näherungssensor kann z.B. in der Kopfstütze und/oder in einem Bereich des Dachhimmels angeordnet sein, an den sich der Kopf des Fahrers üblicherweise befindet. Wenn sich der Kopf des Fahrers von der Kopfstütze weiter als eine vordefinierte Distanz entfernt, kann angenommen werden, dass der Fahrer nach unten oder zur Seite schaut und daher nicht aufmerksam ist. Optional kann in dieser Situation eine Bestätigung, z.B. mittels einer haptischen Eingabe, verlangt werden.In some embodiments, the method includes the following additional step: After issuing the instruction, the driver's attention is checked using a proximity sensor. The proximity sensor can be implemented, for example, using a capacitive sensor and/or an IR sensor (IR: infrared). The proximity sensor can be located, for example, in the headrest and/or in an area of the headliner where the driver's head is typically positioned. If the driver's head moves further than a predefined distance from the headrest, it can be assumed that the driver is looking down or to the side and is therefore not paying attention. Optionally, confirmation, for example, via haptic input, can be requested in this situation.

In einigen Ausführungsformen weist das Verfahren folgende weitere Schritte auf:

  • Ausgeben, mittels des Lautsprechers, eines Kontrollsignals;
  • Erfassen, mittels des Mikrofons, des Kontrollsignals;
  • Wenn, mittels der Verifizierungseinheit, das Kontrollsignal als korrekt beurteilt wird, verwenden der Aktoranweisung zum Steuern der Aktoren des Fahrzeugs.
In some embodiments, the method includes the following additional steps:
  • Output, via the loudspeaker, a control signal;
  • Capture the control signal using the microphone;
  • If the control signal is judged to be correct by the verification unit, the actuator instruction is used to control the vehicle's actuators.

Das Kontrollsignal kann z.B. ein menschlich nicht wahrnehmbares Audiosignal mit einer charakteristischen Modulation sein. Das Audiosignal z.B. modulierter naher Ultraschall, z.B. in einem Bereich zwischen 25 - 30 kHz, sein. Die Modulation kann z.B. eine vordefinierte Signalfolge sein. Wenn dann beispielsweise dieses Audiosignal mit der charakteristischen Modulation erkannt wird, kann die Verifizierungseinheit das Kontrollsignal als korrekt beurteilen. Wenn dieses Audiosignal nicht erkannt wird, kann die Aktoranweisung ignoriert werden. Das Audiosignal kann beispielsweise dann nicht erkannt werden, wenn ein Verhältnis des Schalldrucks des Audiosignals zum Umgebungsgeräusch einen vordefinierten Wert unterschreitet. In diesem Fall kann das Umgebungsgeräusch so laut sein, dass die Spracherkennungseinheit zu fehlerhaft arbeitet für das Steuern des Fahrzeugs mittels sprachlicher Eingabe.The control signal can be, for example, an inaudible audio signal with a characteristic modulation. This audio signal could be, for instance, modulated near-ultrasound, e.g., in the 25-30 kHz range. The modulation could be, for example, a predefined signal sequence. If this audio signal with the characteristic modulation is detected, the verification unit can assess the control signal as correct. If this audio signal is not detected, the actuator instruction can be ignored. The audio signal might not be detected, for example, if the ratio of the audio signal's sound pressure level to the ambient noise falls below a predefined value. In this case, the ambient noise might be so loud that the speech recognition unit would be too unreliable for controlling the vehicle via voice input.

In einigen Ausführungsformen ist eine haptische Eingabe des Fahrers die Reaktion des Fahrers auf das Ausgeben der Handlungsanweisung. Die haptische Eingabe kann mittels eines Haptiksensors bestimmt werden. Der Haptiksensor kann z.B. als Taster, Schalter, Drehsteller, Drucksensor, Näherungssensor, und/oder als kapazitiver Berührungssensor eines Bildschirms oder eines Eingabefeldes ausgeführt sein. Der Haptiksensor kann z.B. am Lenkrad oder im Bereich einer Mittelkonsole angeordnet sein. Dies kann eine besonders intuitive Eingabemöglichkeit sein, weil viele Fahrzeuge Haptiksensoren am Lenkrad oder im Bereich der Mittelkonsole für zahlreiche Arten von Eingaben nutzen.In some embodiments, haptic input from the driver is the driver's reaction to the output of the instruction. Haptic input can be determined by a haptic sensor. The haptic sensor can be, for example, a button, switch, rotary knob, pressure sensor, proximity sensor, and/or a capacitive touch sensor on a screen or input field. The haptic sensor can be located, for example, on the steering wheel or in the area of a center console. This can be a particularly intuitive input method because many vehicles use haptic sensors on the steering wheel or in the area of the center console for numerous types of input.

In einigen Ausführungsformen ist eine vordefinierte Bewegung des Fahrers die Reaktion des Fahrers auf das Ausgeben der Handlungsanweisung. Die vordefinierte Bewegung kann z.B. eine Geste, wie Winken oder Nicken, umfassen.In some embodiments, a predefined movement of the driver is the driver's reaction to the issuance of the instruction. The predefined movement can, for example, include a gesture such as waving or nodding.

In einigen Ausführungsformen ist eine Bewegung eines Lenkrads durch den Fahrer die Reaktion des Fahrers auf das Ausgeben der Handlungsanweisung. Die Bewegung des Lenkrads kann als Einwand des Fahrers gegen die Aktoranweisung aufgefasst werden, beispielsweise wenn der Fahrer selbst lenken will und das Lenken gerade nicht an die zumindest teilautonome Fahrzeugsteuerungseinheit übergeben will. Die Reaktion des Fahrers wird also dann als korrekt beurteilt, wenn der Fahrer das Lenkrad nicht bewegt.In some embodiments, a movement of the steering wheel by the driver is the driver's reaction to the output of the instruction. The movement of the steering wheel can be interpreted as an objection by the driver to the actuator instruction, for example, if the driver wants to steer manually and does not want to transfer the steering to the at least partially autonomous vehicle control unit. The driver's reaction is therefore considered correct if the driver does not move the steering wheel.

In einigen Ausführungsformen ist eine Bewegung eines Pedals durch den Fahrer die Reaktion des Fahrers auf das Ausgeben der Handlungsanweisung. Das Pedal kann z.B. ein Brems- oder Gaspedal sein, gegebenenfalls ein Kupplungspedal. Auch die Bewegung des Pedals kann als Einwand des Fahrers gegen die Aktoranweisung aufgefasst werden, beispielsweise wenn der Fahrer selbst bremsen oder beschleunigen will. Die Reaktion des Fahrers wird also dann als korrekt beurteilt, wenn der Fahrer das Pedal nicht bewegt.In some embodiments, the driver's movement of a pedal is their response to the output of the instruction. The pedal could be, for example, a brake or accelerator pedal, or possibly a clutch pedal. The movement of the pedal can also be interpreted as the driver's objection to the actuator instruction, for instance, if the driver intends to brake or accelerate themselves. The driver's response is therefore considered correct if the driver does not move the pedal.

Ein Aspekt betrifft eine Vorrichtung zum Steuern eines Fahrzeugs durch einen Fahrer mittels sprachlicher Eingabe. Die Vorrichtung weist auf:

  • Eine Schnittstelle zu einem Mikrofon, das zum Erfassen der sprachlichen Eingabe des Fahrers eingerichtet ist;
  • Eine Spracherkennungseinheit, die zum Erkennen, ob die sprachliche Eingabe eine potentielle Fahranweisung ist, eingerichtet ist;
  • Eine Schnittstelle zu einer Liste von möglichen Fahranweisungen, wobei die Liste der möglichen Fahranweisungen eine Funktion von möglichen Fahranweisungen einer zumindest teilautonomen Fahrzeugsteuerungseinheit ist;
  • Eine Schnittstelle zu einem Lautsprecher, der zum Ausgeben einer Handlungsanweisung an den Fahrer eingerichtet ist, wenn die sprachliche Eingabe in der Liste der möglichen Fahranweisungen enthalten ist;
  • Eine Verifizierungseinheit, eingerichtet zum Prüfen einer Reaktion des Fahrers auf das Ausgeben der Handlungsanweisung mittels eines Sensors; und Eine Schnittstelle zu einer zumindest teilautonomen Fahrzeugsteuerungseinheit, eingerichtet zum Steuern der Aktoren des Fahrzeugs auf Basis der der potentiellen Fahranweisung als Aktoranweisung, wenn die Verifizierungseinheit die Reaktion des Fahrers als korrekt beurteilt.
One aspect concerns a device for controlling a vehicle by a driver using voice input. The device features:
  • An interface to a microphone designed to capture the driver's voice input;
  • A speech recognition unit designed to detect whether the spoken input is a potential driving instruction;
  • An interface to a list of possible driving instructions, wherein the list of possible driving instructions is a function of possible driving instructions of an at least partially autonomous vehicle control unit;
  • An interface to a loudspeaker that is set up to issue an instruction to the driver when the voice input is included in the list of possible driving instructions;
  • A verification unit, equipped to check the driver's response to the output of the instruction by means of a sensor; and an interface to an at least semi-autonomous vehicle control unit, equipped to control the vehicle's actuators based on the potential driving instruction as an actuator instruction, if the verification unit judges the driver's response to be correct.

Die Vorrichtung kann dadurch vorteilhafterweise auf existierenden Schnittstellen aufsetzen, die bereits in vielen Fahrzeugen vorhanden sind. Dadurch kann die Realisierung des Steuerns eines Fahrzeugs mittels sprachlicher Eingabe deutlich vereinfacht und/oder kostengünstiger werden.The device can therefore advantageously build upon existing interfaces already present in many vehicles. This can significantly simplify and/or reduce the cost of controlling a vehicle via voice input.

In einigen Ausführungsformen ist der Lautsprecher weiterhin zur Ausgabe eines Kontrollsignals eingerichtet, das Mikrofon ist weiterhin zum Erfassen des Kontrollsignals von dem Lautsprecher eingerichtet, und die Fahrzeugsteuerungseinheit ist weiterhin zum Steuern der Aktoren des Fahrzeugs auf Basis der Aktoranweisung eingerichtet. Dies setzt jedoch voraus, dass die Verifizierungseinheit das Kontrollsignal von dem Mikrofon als korrekt beurteilt. In Fällen, in denen das Kontrollsignal niedrigen Ultraschall verwendet, kann der Lautsprecher z.B. als zusätzlicher Piezo-Schallwandler ausgeführt sein.In some embodiments, the loudspeaker is still configured to output a control signal, the microphone is still configured to receive the control signal from the loudspeaker, and the vehicle control unit is still configured to control the vehicle's actuators based on the actuator command. However, this requires that the verification unit evaluates the control signal from the microphone as correct. In cases where the control signal uses low-frequency ultrasound, the loudspeaker can, for example, be implemented as an additional piezoelectric transducer.

In einigen Ausführungsformen ist der Sensor als mindestens eines der folgenden Geräte ausgeführt:

  • als ein Haptiksensor, der zum Erfassen einer haptischen Eingabe des Fahrers eingerichtet ist, wobei der Haptiksensor als Taster, Schalter, Drehsteller, Drucksensor, Näherungssensor, und/oder als kapazitiver Berührungssensor eines Bildschirms oder eines Eingabefeldes ausgeführt ist; und/oder
  • als eine Innenraumkamera, die zum Erfassen einer vordefinierten Bewegung des Fahrers eingerichtet ist, und
  • eine Bilderkennungseinheit, die zum Auswerten der von der Innenraumkamera erfassten Bewegung des Fahrers eingerichtet ist; und/oder
  • als ein Lenkradbewegungssensor, der zum Erfassen einer Bewegung eines Lenkrads durch den Fahrer eingerichtet ist; und/oder
  • als ein Pedalbewegungssensor, der zum Erfassen einer Bewegung eines Pedals durch den Fahrer eingerichtet ist.
In some embodiments, the sensor is designed as at least one of the following devices:
  • as a haptic sensor designed to detect haptic input from the driver, wherein the haptic sensor is designed as a button, switch, rotary knob, pressure sensor, proximity sensor, and/or as a capacitive touch sensor of a screen or input field; and/or
  • as an interior camera designed to capture a predefined movement of the driver, and
  • an image recognition unit designed to evaluate the driver's movements captured by the interior camera; and/or
  • as a steering wheel motion sensor designed to detect movement of a steering wheel by the driver; and/or
  • as a pedal motion sensor designed to detect movement of a pedal by the driver.

In einigen Ausführungsformen weist die Vorrichtung weiterhin auf mindestens eines der Folgenden auf:

  • eine Schnittstelle zu einer Fahrerauthentifizierungseinheit;
  • eine Schnittstelle zu einer Fahrtüchtigkeitserkennungseinheit; und/oder
  • eine Schnittstelle zu einem Näherungssensor.
In some embodiments, the device further comprises at least one of the following:
  • an interface to a driver authentication unit;
  • an interface to a fitness-to-drive assessment unit; and/or
  • an interface to a proximity sensor.

Ein Aspekt betrifft ein Fahrzeug mit einer Vorrichtung wie oben und/oder nachfolgend beschrieben.One aspect concerns a vehicle with a device as described above and/or below.

Ein Aspekt betrifft eine Verwendung einer Vorrichtung wie oben und/oder nachfolgend beschrieben zum sicheren Steuern eines Fahrzeugs durch einen Fahrer mittels sprachlicher Eingabe.One aspect concerns the use of a device as described above and/or below for the safe control of a vehicle by a driver using voice input.

Ein Aspekt betrifft ein nicht-volatiles, computerlesbares Speichermedium mit einem darin gespeicherten Programm, das, wenn es auf einem Prozessor einer Vorrichtung wie oben und/oder nachfolgend beschrieben ausgeführt wird, die Vorrichtung anweist, die Schritte wie oben und/oder nachfolgend beschrieben auszuführen.One aspect concerns a non-volatile, computer-readable storage medium containing a program which, when executed on a processor of a device as described above and/or below, instructs the device to perform the steps as described above and/or below.

Zur weiteren Verdeutlichung wird die Erfindung anhand von in den Figuren abgebildeten Ausführungsformen beschrieben. Diese Ausführungsformen sind nur als Beispiel, nicht aber als Einschränkung zu verstehen.For further clarification, the invention is described with reference to embodiments illustrated in the figures. These embodiments are to be understood as examples only, and not as limitations.

Kurze Beschreibung der FigurenBrief description of the characters

Dabei zeigt:

  • 1 schematisch eine Vorrichtung zum Steuern eines Fahrzeugs gemäß einer Ausführungsform;
  • 2 schematisch ein System zum Steuern eines Fahrzeugs gemäß einer weiteren Ausführungsform;
  • 3 ein Flussdiagramm mit einem Verfahren gemäß einer Ausführungsform.
This shows:
  • 1 schematically a device for controlling a vehicle according to one embodiment;
  • 2 schematically a system for controlling a vehicle according to a further embodiment;
  • 3 a flowchart with a method according to one embodiment.

Detaillierte Beschreibung von AusführungsformenDetailed description of embodiments

1 zeigt schematisch eine Vorrichtung zum Steuern eines Fahrzeugs gemäß einer Ausführungsform. Es wird ein Fahrer 100 gezeigt, der ein Mikrofon 303 nutzt, um das zumindest teilautonome Fahrzeug mittels sprachlicher Eingabe zu steuern. Das Mikrofon 303 kann als Einzelmikrofon ausgeführt sein; in der Regel ist das Mikrofon 303 als eine Vielzahl von Mikrofonen ausgeführt sein, z.B. als Mikrofon-Feld oder Mikrofon-Array. Das Mikrofon 303 kann - z.B. realisiert mittels eines Mikrokontrollers - Maßnahmen zur Verbesserung der Sprachqualität umfassen, insbesondere unter Nutzung der Vielzahl von Mikrofonen. Das Mikrofon 303 kann ein Mikrofon sein, das in dem Fahrzeug „ohnehin vorhanden“ ist (z.B. zur Realisierung einer Freisprechanlage), so dass nur eine Schnittstelle zu dem Mikrofon 303 zur Verfügung gestellt zu werden braucht, welche das - gegebenenfalls optimierte - Mikrofonsignal Ma liefert. Die sprachliche Eingabe (d.h. in Form des Mikrofonsignals Ma) wird an eine Spracherkennungseinheit 140 geleitet, die erkennen kann, ob die sprachliche Eingabe eine Aktoranweisung ist. Dazu kann die Spracherkennungseinheit 140 nicht nur über eine Fähigkeit verfügen, aus der sprachlichen Eingabe Worte zu erkennen, sondern die Spracherkennungseinheit kann darüber hinaus eine Liste oder Datenbank (nicht dargestellt) umfassen, in der zulässige Aktoranweisungen und deren jeweilige Bedeutungen gespeichert sind. Die Aktoranweisung Ft wird an eine Verifizierungseinheit 150 geleitet. 1 Figure 1 schematically shows a device for controlling a vehicle according to one embodiment. A driver 100 is shown, who uses a microphone 303 to control the at least partially autonomous vehicle by means of voice input. The microphone 303 can be configured as a single microphone; more typically, the microphone 303 is configured as a plurality of microphones, e.g., as a microphone field or microphone array. The microphone 303 can include measures for improving speech quality, particularly by utilizing the plurality of microphones, e.g., implemented by means of a microcontroller. The microphone 303 can be a microphone that is "already present" in the vehicle (e.g., for implementing a hands-free system), so that only an interface to the microphone 303 needs to be provided, which supplies the microphone signal Ma, possibly optimized. The voice input (i.e., in the form of the microphone signal Ma) is directed to a speech recognition unit 140, which can recognize whether the voice input is an actuator instruction. The speech recognition unit 140 can not only recognize words from the spoken input, but it can also include a list or database (not shown) in which permissible actuator instructions and their respective meanings are stored. The actuator instruction Ft is then sent to a verification unit 150.

Die Verifizierungseinheit 150 verfügt über eine Schnittstelle Lf zu der zumindest teilautonomen Fahrzeugsteuerungseinheit 190. Die Fahrzeugsteuerungseinheit 190 umfasst eine Liste von möglichen Fahranweisungen, die mittels der Fahrzeugsteuerungseinheit und/oder mittels der Aktoren 200 realisiert werden können. Die Liste der möglichen Fahranweisungen kann kompatibel sein zu den Begriffen, die von der Spracherkennungseinheit 140 ausgegeben werden.The verification unit 150 has an interface Lf to the at least partially autonomous vehicle control unit 190. The vehicle control unit 190 includes a list of possible driving instructions that can be implemented by the vehicle control unit and/or by means of the actuators 200. The list of possible driving instructions can be compatible with the terms output by the speech recognition unit 140.

Die Verifizierungseinheit 150 kann optional weitere Schnittstellen aufweisen. So ist in 1 eine Schnittstelle zu einer Fahrerauthentifizierungseinheit 170 dargestellt. Die Fahrerauthentifizierungseinheit 170 kann z.B. eine Iriserkennung umfassen. Diese kann beispielsweise mittels der Innenraumkamera 120 realisiert sein. Die Fahrerauthentifizierungseinheit 170 kann auch eine Datenbank zulässiger Fahrer (nicht dargestellt) umfassen, zum Beispiel um das Ergebnis der Iriserkennung mit einem Fahrerprofil abzugleichen. 1 zeigt weiterhin eine Schnittstelle zu einer Fahrtüchtigkeitserkennungseinheit 160. Die Fahrtüchtigkeit kann zum Beispiel anhand von Signalen von dem Mikrofon 303 und/oder anhand von Bilddaten der Innenraumkamera 120 beurteilt werden. 1 zeigt ferner eine Schnittstelle zu einem Näherungssensor 165. Der Näherungssensor 165 kann z.B. mittels eines kapazitiven Sensors und/oder eines IR-Sensors (IR: Infrarot) realisiert werden. Der Näherungssensor kann z.B. in der Kopfstütze und/oder in einem Bereich des Dachhimmels angeordnet sein, an den sich der Kopf des Fahrers 100 üblicherweise befindet.The verification unit 150 can optionally have additional interfaces. For example, in 1 An interface to a driver authentication unit 170 is shown. The driver authentication unit 170 can, for example, include iris recognition. This can be implemented, for instance, using the interior camera 120. The driver authentication unit 170 can also include a database of authorized drivers (not shown), for example, to compare the result of the iris recognition with a driver profile. 1 It also shows an interface to a fitness-to-drive assessment unit 160. Fitness to drive can be assessed, for example, based on signals from the microphone 303 and/or on image data from the interior camera 120. 1 Figure 165 further shows an interface to a proximity sensor 165. The proximity sensor 165 can be implemented, for example, using a capacitive sensor and/or an IR sensor (IR: infrared). The proximity sensor can be located, for example, in the headrest and/or in an area of the headliner where the driver's head 100 is usually located.

Die Verifizierungseinheit 150 verfügt weiterhin über eine Schnittstelle Sa zu einem Lautsprecher 103, der zum Ausgeben einer ersten Handlungsanweisung an den Fahrer 100 genutzt werden kann. Die erste Handlungsanweisung wird nur dann ausgegeben, wenn die sprachliche Eingabe als Aktoranweisung erkannt ist. Die erste Handlungsanweisung kann z.B. sein „Bestätigen Sie die Aktoranweisung durch Drücken des Knopfes A“, oder „Bestätigen Sie die Aktoranweisung durch Kopfnicken“. Das Drücken des Knopfes A kann z.B. mittels eines haptischen Eingabeinstrument festgestellt werden, z.B. mit einem Taster, der an einem Lenkrad 110 angeordnet ist. Das Kopfnicken kann mittels einer Innenraumkamera 120 festgestellt werden, die zum Erfassen von Bewegungen des Fahrers eingerichtet ist, zusammen mit einer Bilderkennungseinheit (nicht dargestellt), die zum Auswerten der von der Innenraumkamera erfassten Bewegungen des Fahrers eingerichtet ist und ein Signal K liefert. Auf diese Weise kann das Kopfnicken des Fahrers von der Verifizierungseinheit 150 als „Kopfnicken“ erkannt werden. Die Verifizierungseinheit 150 kann weiterhin prüfen, ob Signale P von den Pedalen 112 oder ob Signale L von dem Lenkrad 110 vorhanden sind. Die Signale P können von einem Pedalsensor 113 bestimmt werden. Die Signale L von dem Lenkrad 110 können von einem Lenkradsensor 114 bestimmt werden. Die Bewegung des Lenkrads 110 und/oder von einem der Pedale 112 kann als Einwand des Fahrers gegen die Aktoranweisung aufgefasst werden, beispielsweise wenn der Fahrer selbst lenken, bremsen und/oder beschleunigen will und diese Aktionen gerade nicht an eine zumindest teilautonome Fahrzeug-steuerungseinheit übergeben will.The verification unit 150 also has an interface Sa to a loudspeaker 103, which can be used to issue an initial instruction to the driver 100. This initial instruction is only issued if the voice input is recognized as an actuator instruction. The initial instruction could be, for example, "Confirm the actuator instruction by pressing button A" or "Confirm the actuator instruction by nodding your head." Pressing button A can be detected, for example, by means of a haptic input device, such as a button located on a steering wheel 110. A head nod can be detected by means of an interior camera 120, which is configured to capture the driver's movements, together with an image recognition unit (not shown) that is configured to evaluate the driver's movements captured by the interior camera and provides a signal K. In this way, the driver's head nod can be recognized by the verification unit 150 as a "head nod." The verification unit 150 can further check whether signals P are present from the pedals 112 or whether signals L are present from the steering wheel 110. The signals P can be determined by a pedal sensor 113. The signals L from the steering wheel 110 can be determined by a steering wheel sensor 114. The movement of the steering wheel 110 and/or one of the pedals 112 can be interpreted as an objection by the driver to the actuator instruction, for example, if the driver wants to steer, brake, and/or accelerate themselves and does not want to transfer these actions to at least a partially autonomous vehicle control unit.

Die Verifizierungseinheit 150 prüft die Reaktion des Fahrers 100 auf das Ausgeben der Handlungsanweisung mittels eines der genannten Sensoren. Wenn die Verifizierungseinheit 150 die Reaktion des Fahrers 100 als korrekt beurteilt, wird die Aktoranweisung über die Schnittstelle Af an die zumindest teilautonome Fahrzeugsteuerungseinheit 190 geleitet, welche die Aktoren 200 des Fahrzeugs über die Schnittstelle Ak steuert.The verification unit 150 checks the driver's 100 response to the output of the instruction using one of the aforementioned sensors. If the verification unit 150 assesses the driver's 100 response as correct, the actuator instruction is transmitted via interface Af to the at least semi-autonomous vehicle control unit 190, which controls the vehicle's actuators 200 via interface Ak.

2 zeigt schematisch ein System zum Steuern eines Fahrzeugs gemäß einer weiteren Ausführungsform. Gleiche Bezugszeichen bezeichnen gleiche oder ähnliche Elemente wie in 1. In 2 ist eine Person 100 dargestellt - im Weiteren „Fahrer“ 100 genannt -, der in einem Fahrersitz 101 sitzt. Das Lenkrad 110 weist für den Fahrer 100 einfach erreichbare, haptische Eingabeinstrumente 114 auf, die über verschiedene Eingabemöglichkeiten z.B. Eingabeknöpfe oder Eingabefelder verfügen. Die Signale B der haptischen Eingabeinstrumente 114 und Signale L von dem Lenkrad 110 werden an eine Benutzersteuerung 180 geleitet. Das System weist eine Innenraumkamera 120 auf. Diese kann zur Erkennung von Fahrerreaktionen auf Handlungsaufforderungen Fa, die sich inhaltlich auch auf von der Verfiziereinheit 150 zugeordnete Fahranweisungen beziehen können, dienen. Die Handlungsaufforderungen Fa werden über eine Sprachausgabe 130 zu einem oder mehreren Lautsprechern 103 geleitet, die vorteilhafterweise in Fahrerkopfnähe, z.B. in einer Kopfstütze, angeordnet sind. Das System weist ein Mikrofon-Feld auf, das mehrere Mikrofonen 303, 304 umfasst, die im Fahrzeug so angebracht sind, so dass sie möglichst optimal eine sprachliche Eingabe des Fahrers 100 und Audiosignale des Lautsprechers 103 aufzunehmen. 2 Figure 1 schematically shows a system for controlling a vehicle according to a further embodiment. Identical reference numerals denote identical or similar elements as in Figure 2. 1 In 2 A person 100 is depicted – hereinafter referred to as the “driver” 100 – sitting in a driver’s seat 101. The steering wheel 110 has easily accessible haptic input instruments 114 for the driver 100, which offer various input options, e.g., input buttons or input fields. The signals B from the haptic input instruments 114 and signals L from the steering wheel 110 are transmitted to a user control unit 180. The system includes an interior camera 120. This can be used to detect driver reactions to action prompts Fa, which may also relate to driving instructions assigned by the verification unit 150. The action prompts Fa are transmitted via a voice output 130 to one or more loudspeakers 103, which are advantageously located near the driver’s head, e.g., in a headrest. The system has a microphone array comprising several microphones 303, 304, which are positioned in the vehicle in such a way as to optimally capture speech input from the driver 100 and audio signals from the loudspeaker 103.

Es kann eine Schallauswertungseinheit 302 zur Verarbeitung der Signale von den Mikrofonen 303, 304 vorgesehen sein. Die Schallauswertungseinheit 302 kann die sprachliche Eingabe des Fahrers 100 und Audiosignale des Lautsprechers 103 voneinander trennen und kann die Mikrofonsignale von 303, 304 so kombinieren, z.B. filtern und/oder verzögern, dass diese die sprachliche Eingabe und die Lautsprecher verstärken und andere Schallquellen innerhalb und außerhalb des Fahrzeugs dämpfen und das so kombinierte Mikrofonsignal Ma an eine Audioausgabeeinheit 130, an eine Spracherkennung 140 und optional an eine Fahrtüchtigkeitserkennungseinheit 160 und Fahrerauthentifizierungseinheit 170 ausgeben. Die Audioausgabeeinheit 130 erzeugt das Audiosignal Sa. Außerdem kann diese, Handlungsaufforderungen Fa von der Verifizierungseinheit 150 empfangen und gegebenenfalls an die Benutzersteuerung 180 weiterleiten. In 2 sind beide Signalwege nur mit einer „Fa“ Bezeichnung erläutert. Des Weiteren kann sie ein Audiosignal so erzeugen, dass z.B. anhand einer menschlich nicht wahrnehmbaren, charakteristischen Modulation aus dem Mikrofonsignal Ma festgestellt werden kann, dass das ausgegebene akustische Signal Sa die sprachliche Wiedergabe eines digitalen Ausgangssignales Fa der sicheren Verifizierungseinheit 150 ist, z.B. einer Handlungsaufforderung. Außerdem kann in der Audioausgabeeinheit 130 ein Verhältnis SN eines störenden Umgebungsgeräusches im Verhältnis zum Nutzsignal Sa aus dem Vergleich des Mikrofonsignals Ma mit dem Eingangssignal Fa berechnet werden. Wenn der Störabstand SN zum Umgebungsgeräusch zu gering ist oder nicht bestätigt werden kann, dass das ausgegebene akustische Signal Sa die sprachliche Wiedergabe eines digitalen Ausgangssignals Fa der sicheren Verifizierungseinheit 150 ist, kann die Weiterleitung einer Handlungsaufforderung Fa an die Benutzersteuerung 180 durch die Audioausgabeeinheit 130 unterdrückt oder die Ausgabe von Fa an die Benutzersteuerung 180 durch eine Fehlermeldung ersetzt werden, da die Handlungsaufforderung Fa und die möglicherweise mitenthaltene Fahreranweisung durch eine technische Fehlfunktion (z.B. des Lautsprechers 301 oder der Audioausgabe 130) nicht übertragen wird oder vom Fahrer 100 durch zu hohes Umgebungsgeräusch nicht verstanden werden kann.A sound evaluation unit 302 can be provided for processing the signals from microphones 303 and 304. The sound evaluation unit 302 can separate the driver's voice input 100 from the audio signals of the loudspeaker 103 and can combine the microphone signals from 303 and 304, e.g., by filtering and/or delaying them, so that they amplify the voice input and the loudspeaker signals while attenuating other sound sources inside and outside the vehicle. The combined microphone signal Ma is then output to an audio output unit 130, a speech recognition unit 140, and optionally to a driver fitness detection unit 160 and a driver authentication unit 170. The audio output unit 130 generates the audio signal Sa. It can also receive action prompts Fa from the verification unit 150 and, if necessary, forward them to the user control unit 180. 2 Both signal paths are only described with the designation "Fa". Furthermore, it can generate an audio signal such that, for example, based on a characteristic modulation from the microphone signal Ma that is imperceptible to humans, it can be determined that the output acoustic signal Sa is the speech reproduction of a digital output signal Fa from the secure verification unit 150, e.g., a call to action. Additionally, the audio output unit 130 can calculate the ratio SN of a disturbing ambient noise to the desired signal Sa by comparing the microphone signal Ma with the input signal Fa. If the signal-to-noise ratio SN is too low or it cannot be confirmed that the emitted acoustic signal Sa is the speech reproduction of a digital output signal Fa of the secure verification unit 150, the forwarding of an action request Fa to the user control 180 by the audio output unit 130 can be suppressed or the output of Fa to the user control 180 can be replaced by an error message, because the action request Fa and the possibly contained driver instruction are not transmitted due to a technical malfunction (e.g. of the loudspeaker 301 or the audio output 130) or cannot be understood by the driver 100 due to excessive ambient noise.

Weiterhin weist das System eine Spracherkennung 140 auf, die Anweisungen des Fahrers Ft im kombinierten Mikrofonsignal Ma erkennt. Die Anweisungen werden an die Verifizierungseinheit 150 weitergegeben. Die Verifizierungseinheit 150 schließt aus der erkannten Sprachanweisung des Fahrers Ft bei eindeutiger Zuordnungsmöglichkeit von einer von der autonomen Fahrzeugsteuerungseinheit 190 vorgegebenen Liste Lf von möglichen Fahranweisungen auf eine bestimmte Handlungsaufforderung Fa passend zu einer bestimmten Fahranweisung aus der Liste Lf. Diese Handlungsaufforderung Fa wird an die Audioausgabeeinheit 130 gesendet. Wenn diese Handlungsaufforderung für die Fahranweisung nach der Audioausgabe durch die Auswertung der kombinierten Mikrofonsignale Ma von der Audioausgabeeinheit bestätigt wird, wird diese an die Benutzersteuerung 180 weitergeleitet. Diese sendet dann eine zu der entsprechenden Fahranweisung Fa passende Aktoranweisung Af an die zumindest teilautonomen Fahrzeugsteuerungseinheit 190. Diese kann daraus die nötigen Steuersignale Ak zur Ausführung der Aktoranweisung Af erzeugen. Die zumindest teilautonome Fahrzeugsteuerungseinheit 190 steuert mit Hilfe von Fahrzeugsensoren 192 (z.B. Ultraschallsensoren, Radarsensoren, LiDAR- und Außenkamerasensoren) zur Erfassung der Fahrzeugumgebung die Aktorik 200, z.B. Antriebe („power train“), Bremsen und Lenkung des Fahrzeugs über Steuersignale Ak.Furthermore, the system features a speech recognition unit 140, which recognizes the driver's instructions Ft in the combined microphone signal Ma. These instructions are then forwarded to the verification unit 150. Based on the recognized voice instruction from the driver Ft, and if a clear match can be found in a list Lf of possible driving instructions provided by the autonomous vehicle control unit 190, the verification unit 150 deduces a specific action request Fa corresponding to a particular driving instruction from the list Lf. This action request Fa is then sent to the audio output unit 130. If this action request for the driving instruction is confirmed by the audio output unit through the evaluation of the combined microphone signals Ma, it is forwarded to the user control unit 180. This unit then sends an actuator instruction Af, corresponding to the driving instruction Fa, to the at least partially autonomous vehicle control unit 190. The vehicle control unit can then generate the necessary control signals Ak to execute the actuator instruction Af. The at least semi-autonomous vehicle control unit 190 uses vehicle sensors 192 (e.g. ultrasonic sensors, radar sensors, LiDAR and external camera sensors) to detect the vehicle environment to control the actuators 200, e.g. drives ("power train"), brakes and steering of the vehicle via control signals Ak.

2 zeigt weiterhin eine optionale Fahrerauthentifizierungseinheit 170, die z.B. basierend aus Iriserkennung mit einer Innenraumkamera, und/oder einer Stimmerkennung, und einer Liste von Fahrern bzw. von Fahrerprofilen realisiert sein kann. Bei Nichtauthentifizierung, z.B. der Fahrerstimme über das Signal Na, kann z.B. eine haptische Bedienungsalternative vorgeschlagen werden. 2 zeigt ferner eine optionale Fahrtüchtigkeitserkennungseinheit 160, die z.B. die Fahrtüchtigkeit anhand der Mikrofonsignale Ma und Innenraumkamerabilddaten Kd beurteilt, und z.B. bei erkannter Müdigkeit die Ausgabe und Ausführung einer Fahranweisung des Fahrers verhindert und z.B. anstelle der Fahreranweisung einen Weg zu einem sicheren Haltepunkt vorschlägt, z.B. zu einem nächsten Rastplatz, z.B. über das Signal Sh. 2 zeigt auch eine optionale Funktion der Benutzersteuerung 180. Diese kann bei richtig im Audiosignal erkannten Fahranweisungsdaten Fa überprüfen, ob sich der Fahrerkopf in der Nähe der Kopfstütze befindet. Wenn nicht, kann angenommen werden, dass der Fahrer abgelenkt ist, z.B. auf den Boden blickt. In diesem Fall kann die sprachliche Eingabe ignoriert werden und optional eine Fehlermeldung ausgegeben werden. 2 The diagram also shows an optional driver authentication unit 170, which can be implemented, for example, based on iris recognition with an interior camera, and/or voice recognition, and a list of drivers or driver profiles. If authentication fails, for example, the driver's voice is not recognized via the "Na" signal, a haptic operating alternative can be suggested. 2 Furthermore, an optional fitness-to-drive detection unit 160 is shown, which, for example, assesses fitness to drive based on microphone signals Ma and interior camera image data Kd, and, for example, if fatigue is detected, prevents the issuance and execution of a driving instruction from the driver and, for example, instead of the driver instruction, suggests a route to a safe suggests a stopping point, e.g. to the next rest area, e.g. via the Sh signal. 2 This also shows an optional function of user control 180. If the driving instruction data (Fa) is correctly recognized in the audio signal, this function can check whether the driver's head is near the headrest. If not, it can be assumed that the driver is distracted, e.g., looking at the ground. In this case, the voice input can be ignored and an error message can optionally be displayed.

3 zeigt ein Flussdiagramm 400 mit einem Verfahren gemäß einer Ausführungsform. In einem Schritt 402 wird, mittels eines Mikrofons 303 (siehe z.B. 1), eine sprachliche Eingabe eines Fahrers 100 erfasst. In einem Schritt 404 wird, mittels einer Spracherkennungseinheit 140 eine potentielle Fahranweisung aus der sprachlichen Eingabe des Fahrers 100 bestimmt. In einem Schritt 406 wird die potentielle Fahranweisung mit einer Liste von möglichen Fahranweisungen verglichen. Die Liste der möglichen Fahranweisungen ist dabei eine Funktion von möglichen Fahranweisungen einer zumindest teilautonomen Fahrzeugsteuerungseinheit 190. Wenn die potentielle Fahranweisung in der Liste der möglichen Fahranweisungen enthalten ist, wird in einem Schritt 410 mittels eines Lautsprechers 103, eine Handlungsanweisung an den Fahrer 100 ausgegeben. Dabei ist die Handlungsanweisung eine Funktion der Fahranweisung. In einem Schritt 412 wird, mittels der Verifizierungseinheit 150, eine Reaktion des Fahrers 100 auf das Ausgeben der Handlungsanweisung geprüft. 3 Figure 400 shows a flowchart illustrating a method according to one embodiment. In step 402, a microphone 303 (see, for example, Figure 402) is used to measure the temperature of a device. 1 In step 404, a speech input from driver 100 is captured. A potential driving instruction is determined from this input by a speech recognition unit 140. In step 406, the potential driving instruction is compared with a list of possible driving instructions. This list is a function of possible driving instructions from an at least partially autonomous vehicle control unit 190. If the potential driving instruction is included in the list, an action instruction is issued to driver 100 via a loudspeaker 103 in step 410. This action instruction is a function of the driving instruction. In step 412, the verification unit 150 checks for a response from driver 100 to the output of the action instruction.

In einem optionalen Schritt 414 wird, mittels einer Fahrerauthentifizierungseinheit 170, der Fahrer 100 authentifiziert. Bei einem nicht-korrekten Ergebnis des Authentifizierens wird in einem Schritt 416 die sprachliche Eingabe ignoriert und das Verfahren für diese sprachliche Eingabe beendet. In einem optionalen Schritt 418 wird, mittels einer Fahrtüchtigkeitserkennungseinheit 160, eine Fahrtüchtigkeit des Fahrers 100 geprüft. Bei einem nicht-korrekten Ergebnis der Fahrtüchtigkeit wird in einem Schritt 420 die sprachliche Eingabe ignoriert und das Verfahren für diese sprachliche Eingabe beendet. In einem optionalen Schritt 422 wird, mittels eines Näherungssensors 165, eine Aufmerksamkeit des Fahrers 100 geprüft. Bei einem nicht-korrekten Ergebnis der Aufmerksamkeitsprüfung wird in einem Schritt 424 die sprachliche Eingabe ignoriert und das Verfahren für diese sprachliche Eingabe beendet.In an optional step 414, driver 100 is authenticated using a driver authentication unit 170. If the authentication is unsuccessful, the voice input is ignored in step 416, and the procedure for that voice input is terminated. In an optional step 418, driver 100's fitness to drive is checked using a driving ability detection unit 160. If the fitness-to-drive assessment is incorrect, the voice input is ignored in step 420, and the procedure for that voice input is terminated. In an optional step 422, driver 100's attention is checked using a proximity sensor 165. If the attention check is incorrect, the voice input is ignored in step 424, and the procedure for that voice input is terminated.

In einem Schritt 426 wird über die Reaktion des Fahrers 100 entschieden. Wenn die Reaktion des Fahrers 100 nicht als korrekt beurteilt wird, wird in einem Schritt 428 die sprachliche Eingabe ignoriert und das Verfahren für diese sprachliche Eingabe beendet. Wenn die Reaktion des Fahrers 100 als korrekt beurteilt wird, wird in einem Schritt 430 potentiellen Fahranweisung als Aktoranweisung zum Steuern der Aktoren 200 des Fahrzeugs mittels der zumindest teilautonomen Fahrzeugsteuerungseinheit verwendet.In step 426, the driver's reaction 100 is determined. If the driver's reaction 100 is not judged to be correct, the speech input is ignored in step 428, and the procedure for this speech input is terminated. If the driver's reaction 100 is judged to be correct, in step 430, the potential driving instruction is used as an actuator instruction to control the vehicle's actuators 200 by means of the at least partially autonomous vehicle control unit.

Claims (15)

Verfahren zum Steuern eines zumindest teilautonomen Fahrzeugs durch einen Fahrer (100) mittels sprachlicher Eingabe, mit den Schritten: erfassen, mittels eines Mikrofons (303), der sprachlichen Eingabe des Fahrers (100); bestimmen, mittels einer Spracherkennungseinheit (140), einer potentiellen Fahranweisung aus der sprachlichen Eingabe des Fahrers (100); vergleichen der potentiellen Fahranweisung mit einer Liste von möglichen Fahranweisungen, wobei die Liste der möglichen Fahranweisungen eine Funktion von möglichen Fahranweisungen einer zumindest teilautonomen Fahrzeugsteuerungseinheit (190) ist; wenn die potentielle Fahranweisung in der Liste der möglichen Fahranweisungen enthalten ist: ausgeben, mittels eines Lautsprechers (103), einer Handlungsanweisung an den Fahrer (100), wobei die Handlungsanweisung eine Funktion der Fahranweisung ist; prüfen, mittels der Verifizierungseinheit (150), einer Reaktion des Fahrers (100) auf das Ausgeben der Handlungsanweisung; und wenn, mittels der Verifizierungseinheit (150), die Reaktion des Fahrers (100) als korrekt beurteilt wird, verwenden der potentiellen Fahranweisung als Aktoranweisung zum Steuern der Aktoren (200) des Fahrzeugs mittels der zumindest teilautonomen Fahrzeugsteuerungseinheit (190).Method for controlling at least a semi-autonomous vehicle by a driver (100) using speech input, comprising the steps of: detecting, by means of a microphone (303), the speech input of the driver (100); determining, by means of a speech recognition unit (140), a potential driving instruction from the speech input of the driver (100); comparing the potential driving instruction with a list of possible driving instructions, wherein the list of possible driving instructions is a function of possible driving instructions of an at least semi-autonomous vehicle control unit (190); if the potential driving instruction is included in the list of possible driving instructions: outputting, by means of a loudspeaker (103), an instruction to the driver (100), wherein the instruction is a function of the driving instruction; verifying, by means of the verification unit (150), a response of the driver (100) to the output of the instruction; and if, by means of the verification unit (150), the driver's response (100) is judged to be correct, use the potential driving instruction as an actuator instruction to control the actuators (200) of the vehicle by means of the at least semi-autonomous vehicle control unit (190). Verfahren nach Anspruch 1, wobei die Liste der möglichen Fahranweisungen attributiert ist, wobei das Attribut eine Beschränkung der möglichen Fahranweisungen enthält.Procedure according to Claim 1 , where the list of possible driving instructions is attributed, where the attribute contains a restriction of the possible driving instructions. Verfahren nach einem der vorhergehenden Ansprüche, mit dem weiteren Schritt: nach dem Ausgeben der Handlungsanweisung, authentifizieren des Fahrers (100), mittels einer Fahrerauthentifizierungseinheit (170).Method according to one of the preceding claims, comprising the further step: after issuing the instruction, authenticating the driver (100) by means of a driver authentication unit (170). Verfahren nach einem der vorhergehenden Ansprüche, mit dem weiteren Schritt: nach dem Ausgeben der Handlungsanweisung, prüfen einer Fahrtüchtigkeit des Fahrers (100), mittels einer Fahrtüchtigkeitserkennungseinheit (160).Method according to one of the preceding claims, comprising the further step: after issuing the instruction, checking the driver's fitness to drive (100) by means of a fitness-to-drive detection unit (160). Verfahren nach einem der vorhergehenden Ansprüche, mit dem weiteren Schritt: nach dem Ausgeben der Handlungsanweisung, prüfen einer Aufmerksamkeit des Fahrers (100), mittels eines Näherungssensors (165).Method according to one of the preceding claims, comprising the further step: after issuing the instruction, checking the driver's attention (100) by means of a proximity sensor (165). Verfahren nach einem der vorhergehenden Ansprüche, mit den weiteren Schritten: ausgeben, mittels des Lautsprechers (103), eines Kontrollsignals; erfassen, mittels des Mikrofons (303), des Kontrollsignals; und wenn, mittels der Verifizierungseinheit (150), das Kontrollsignal als korrekt beurteilt wird, verwenden der potentiellen Fahranweisung als Aktoranweisung zum Steuern der Aktoren (200) des Fahrzeugs mittels der zumindest teilautonomen Fahrzeugsteuerungseinheit (190).A method according to any of the preceding claims, comprising the further steps of: outputting a control signal by means of the loudspeaker (103); detecting the control signal by means of the microphone (303); and if, by means of the verification unit (150), the control signal is judged to be correct, using the potential driving instruction as an actuator instruction to control the actuators (200) of the vehicle by means of the at least semi-autonomous vehicle control unit (190). Verfahren nach einem der vorhergehenden Ansprüche, wobei eine haptische Eingabe des Fahrers (100) die Reaktion des Fahrers (100) auf das Ausgeben der Handlungsanweisung ist.Method according to one of the preceding claims, whereby a haptic input of the driver (100) is the driver's (100) reaction to the output of the instruction. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine vordefinierte Bewegung des Fahrers (100) die Reaktion des Fahrers (100) auf das Ausgeben der Handlungsanweisung ist.Method according to one of the preceding claims, wherein a predefined movement of the driver (100) is the driver's (100) reaction to the issuance of the instruction. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Bewegung eines Lenkrads (110) und/oder eine Bewegung eines Pedals (112) durch den Fahrer (100) die Reaktion des Fahrers (100) auf das Ausgeben der Handlungsanweisung ist.Method according to one of the preceding claims, wherein a movement of a steering wheel (110) and/or a movement of a pedal (112) by the driver (100) is the driver's (100) reaction to the issuance of the instruction. Vorrichtung zum Steuern eines zumindest teilautonomen Fahrzeugs durch einen Fahrer (100) mittels sprachlicher Eingabe, die Vorrichtung aufweisend: eine Schnittstelle zu einem Mikrofon, das zum Erfassen der sprachlichen Eingabe des Fahrers (100) eingerichtet ist; eine Spracherkennungseinheit (140), die zum Erkennen, ob die sprachliche Eingabe eine potentielle Fahranweisung ist, eingerichtet ist; eine Schnittstelle zu einer Liste von möglichen Fahranweisungen, wobei die Liste der möglichen Fahranweisungen eine Funktion von möglichen Fahranweisungen einer zumindest teilautonomen Fahrzeugsteuerungseinheit (190) ist; eine Schnittstelle zu einem Lautsprecher (103), der zum Ausgeben einer Handlungsanweisung an den Fahrer (100) eingerichtet ist, wenn die sprachliche Eingabe in der Liste der möglichen Fahranweisungen enthalten ist; eine Verifizierungseinheit (150), eingerichtet zum Prüfen einer Reaktion des Fahrers (100) auf das Ausgeben der Handlungsanweisung mittels eines Sensors; und eine Schnittstelle zu einer zumindest teilautonomen Fahrzeugsteuerungseinheit (190), eingerichtet zum Steuern der Aktoren (200) des Fahrzeugs auf Basis der der potentiellen Fahranweisung als Aktoranweisung, wenn die Verifizierungseinheit (150) die Reaktion des Fahrers (100) als korrekt beurteilt.Device for controlling an at least partially autonomous vehicle by a driver (100) by means of speech input, the device comprising: an interface to a microphone configured to capture the speech input of the driver (100); a speech recognition unit (140) configured to recognize whether the speech input is a potential driving instruction; an interface to a list of possible driving instructions, wherein the list of possible driving instructions is a function of possible driving instructions of an at least partially autonomous vehicle control unit (190); an interface to a loudspeaker (103) configured to output an instruction to the driver (100) when the speech input is included in the list of possible driving instructions; a verification unit (150) configured to check a response by the driver (100) to the output of the instruction by means of a sensor; and an interface to at least a semi-autonomous vehicle control unit (190), set up to control the actuators (200) of the vehicle on the basis of the potential driving instruction as an actuator instruction, if the verification unit (150) judges the driver's (100) response to be correct. Vorrichtung nach Anspruch 10, wobei der Sensor als mindestens eines der folgenden Geräte ausgeführt ist: als ein Haptiksensor (114), der zum Erfassen einer haptischen Eingabe des Fahrers (100) eingerichtet ist, wobei der Haptiksensor (114) als Taster, Schalter, Drehsteller, Drucksensor, Näherungssensor, und/oder als kapazitiver Berührungssensor eines Bildschirms oder eines Eingabefeldes ausgeführt ist; und/oder als eine Innenraumkamera Funktion der, die zum Erfassen einer vordefinierten Bewegung des Fahrers (100) eingerichtet ist, und eine Bilderkennungseinheit, die zum Auswerten der von der Innenraumkamera erfassten Bewegung des Fahrers (100) eingerichtet ist; und/oder als ein Lenkradbewegungssensor (111), der zum Erfassen einer Bewegung eines Lenkrads (110) durch den Fahrer (100) eingerichtet ist; und/oder als ein Pedalbewegungssensor (113), der zum Erfassen einer Bewegung eines Pedals (112) durch den Fahrer (100) eingerichtet ist.Device according to Claim 10 , wherein the sensor is configured as at least one of the following devices: as a haptic sensor (114) configured to detect haptic input from the driver (100), wherein the haptic sensor (114) is configured as a button, switch, rotary control, pressure sensor, proximity sensor, and/or as a capacitive touch sensor of a screen or input field; and/or as an interior camera function configured to detect a predefined movement of the driver (100), and an image recognition unit configured to evaluate the movement of the driver (100) detected by the interior camera; and/or as a steering wheel motion sensor (111) configured to detect movement of a steering wheel (110) by the driver (100); and/or as a pedal motion sensor (113) configured to detect movement of a pedal (112) by the driver (100). Vorrichtung nach Anspruch 10 oder 11, weiterhin aufweisend mindestens eines von: eine Schnittstelle zu einer Fahrerauthentifizierungseinheit (170); eine Schnittstelle zu einer Fahrtüchtigkeitserkennungseinheit (160); und/oder eine Schnittstelle zu einem Näherungssensor (165).Device according to Claim 10 or 11 , furthermore comprising at least one of: an interface to a driver authentication unit (170); an interface to a fitness-to-drive detection unit (160); and/or an interface to a proximity sensor (165). Fahrzeug mit einer Vorrichtung nach Anspruch 10 oder 11.Vehicle with a device according to Claim 10 or 11 . Verwendung einer Vorrichtung nach Anspruch 10 oder 11 zum sicheren Steuern eines Fahrzeugs durch einen Fahrer (100) mittels sprachlicher Eingabe.Use of a device according to Claim 10 or 11 for the safe control of a vehicle by a driver (100) using voice input. Nicht-volatiles, computerlesbares Speichermedium mit einem darin gespeicherten Programm, das, wenn es auf einem Prozessor einer Vorrichtung nach einem der Ansprüche 10-12 ausgeführt wird, die Vorrichtung anweist, die Schritte gemäß einem der Ansprüche 1-9 auszuführen.Non-volatile, computer-readable storage medium containing a program that, when placed on a processor of a device according to one of the Claims 10 - 12 is executed, instructs the device to perform the steps according to one of the Claims 1 - 9 to execute.
DE102024207833.6A 2024-07-09 2024-08-16 Method for controlling at least a partially autonomous vehicle using voice input Pending DE102024207833A1 (en)

Applications Claiming Priority (28)

Application Number Priority Date Filing Date Title
DE102024206472 2024-07-09
DE102024206471.8 2024-07-09
DE102024206473 2024-07-09
DE102024206473.4 2024-07-09
DE102024206466.1 2024-07-09
DE102024206466 2024-07-09
DE102024206475.0 2024-07-09
DE102024206465.3 2024-07-09
DE102024206476.9 2024-07-09
DE102024206471 2024-07-09
DE102024206475 2024-07-09
DE102024206465 2024-07-09
DE102024206476 2024-07-09
DE102024206472.6 2024-07-09
DE102024206817.9 2024-07-19
DE102024206821.7 2024-07-19
DE102024206813.6 2024-07-19
DE102024206816 2024-07-19
DE102024206816.0 2024-07-19
DE102024206820.9 2024-07-19
DE102024206820 2024-07-19
DE102024206819.5 2024-07-19
DE102024206813 2024-07-19
DE102024206817 2024-07-19
DE102024206821 2024-07-19
DE102024206819 2024-07-19
DE102024206959.0 2024-07-24
DE102024206959 2024-07-24

Publications (1)

Publication Number Publication Date
DE102024207833A1 true DE102024207833A1 (en) 2026-01-15

Family

ID=96500108

Family Applications (7)

Application Number Title Priority Date Filing Date
DE102024207837.9A Granted DE102024207837A1 (en) 2024-07-09 2024-08-16 SYSTEM AND METHOD FOR VALIDATING THE FUNCTIONAL SAFETY OF AN AUDIO MESSAGE OUTPUT IN THE INTERIOR OF A VEHICLE
DE102024207839.5A Pending DE102024207839A1 (en) 2024-07-09 2024-08-16 Emergency call unit for an eCALL system with infotainment system
DE102024207838.7A Pending DE102024207838A1 (en) 2024-07-09 2024-08-16 EMERGENCY CALL UNIT FOR AN eCALL SYSTEM
DE102024207833.6A Pending DE102024207833A1 (en) 2024-07-09 2024-08-16 Method for controlling at least a partially autonomous vehicle using voice input
DE102024207835.2A Pending DE102024207835A1 (en) 2024-07-09 2024-08-16 Procedures for controlling a vehicle
DE102024207834.4A Granted DE102024207834A1 (en) 2024-07-09 2024-08-16 SYSTEM AND METHOD FOR VALIDATING THE FUNCTIONAL SAFETY OF AN AUDIO MESSAGE OUTPUT IN THE INTERIOR OF A VEHICLE
DE102024207836.0A Pending DE102024207836A1 (en) 2024-07-09 2024-08-16 METHOD FOR OPERATING A (PARTIALLY) AUTONOMOUSLY OPERATING CONTROL UNIT OF A VEHICLE, VEHICLE CONTROL SYSTEM AND VEHICLE

Family Applications Before (3)

Application Number Title Priority Date Filing Date
DE102024207837.9A Granted DE102024207837A1 (en) 2024-07-09 2024-08-16 SYSTEM AND METHOD FOR VALIDATING THE FUNCTIONAL SAFETY OF AN AUDIO MESSAGE OUTPUT IN THE INTERIOR OF A VEHICLE
DE102024207839.5A Pending DE102024207839A1 (en) 2024-07-09 2024-08-16 Emergency call unit for an eCALL system with infotainment system
DE102024207838.7A Pending DE102024207838A1 (en) 2024-07-09 2024-08-16 EMERGENCY CALL UNIT FOR AN eCALL SYSTEM

Family Applications After (3)

Application Number Title Priority Date Filing Date
DE102024207835.2A Pending DE102024207835A1 (en) 2024-07-09 2024-08-16 Procedures for controlling a vehicle
DE102024207834.4A Granted DE102024207834A1 (en) 2024-07-09 2024-08-16 SYSTEM AND METHOD FOR VALIDATING THE FUNCTIONAL SAFETY OF AN AUDIO MESSAGE OUTPUT IN THE INTERIOR OF A VEHICLE
DE102024207836.0A Pending DE102024207836A1 (en) 2024-07-09 2024-08-16 METHOD FOR OPERATING A (PARTIALLY) AUTONOMOUSLY OPERATING CONTROL UNIT OF A VEHICLE, VEHICLE CONTROL SYSTEM AND VEHICLE

Country Status (2)

Country Link
DE (7) DE102024207837A1 (en)
WO (7) WO2026013008A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10006008A1 (en) 2000-02-11 2001-08-02 Audi Ag Speed control device and method for controlling the speed of a vehicle
DE102014225383A1 (en) 2014-12-10 2016-06-16 Robert Bosch Gmbh Method for operating a motor vehicle, motor vehicle
DE102020003102A1 (en) 2020-05-22 2020-07-09 Daimler Ag Method for verifying a gesture command and / or a voice command of a vehicle user
DE102019133780A1 (en) 2019-12-10 2021-06-10 Bayerische Motoren Werke Aktiengesellschaft Driving system and method for exiting an automated driving mode by voice
EP3944232A1 (en) 2020-07-25 2022-01-26 Nxp B.V. Voice control for autonomous vehicles
DE102020126434A1 (en) 2020-10-08 2022-04-14 Bayerische Motoren Werke Aktiengesellschaft DRIVING SYSTEM FOR AUTOMATED DRIVING WITH ACOUSTIC INFORMATION OUTPUT AND A MICROPHONE, RELEVANT PROCEDURE AND RELEVANT SOFTWARE
US20230311944A1 (en) 2022-03-31 2023-10-05 Plusai, Inc. Methods and apparatus for causing a lane change maneuver of an autonomous vehicle

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6496107B1 (en) * 1999-07-23 2002-12-17 Richard B. Himmelstein Voice-controlled vehicle control system
DE19957190A1 (en) * 1999-11-27 2001-05-31 Volkswagen Ag Emergency call device for vehicles
JP2002012100A (en) * 2000-06-29 2002-01-15 Jatco Transtechnology Ltd Vehicle control device
US20090325534A1 (en) * 2008-06-27 2009-12-31 Kennelly Thomas J Self-test method for a vehicular telematics unit
DE102013013539A1 (en) * 2013-08-14 2015-02-19 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Driver assistance system and method for operating a driver assistance system
DE102016220365B4 (en) * 2016-10-18 2022-02-17 Audi Ag Method for operating an audio output device, audio output device for a motor vehicle and motor vehicle
US10266182B2 (en) * 2017-01-10 2019-04-23 Ford Global Technologies, Llc Autonomous-vehicle-control system and method incorporating occupant preferences
US10496362B2 (en) * 2017-05-20 2019-12-03 Chian Chiu Li Autonomous driving under user instructions
CN108682419A (en) * 2018-03-30 2018-10-19 京东方科技集团股份有限公司 Sound control method and equipment, computer readable storage medium and equipment
JP7087919B2 (en) * 2018-10-31 2022-06-21 トヨタ自動車株式会社 Driving Assistance Equipment, Vehicles, Driving Assistance Methods and Programs
EP3793179A1 (en) * 2019-09-10 2021-03-17 Peiker Acustic GmbH Hands-free speech communication device
DE102019214346A1 (en) * 2019-09-11 2021-03-11 Continental Automotive Gmbh Method for operating a functionally safe audio output system
JP7243567B2 (en) * 2019-10-18 2023-03-22 トヨタ自動車株式会社 Change operation support device
CN114762296B (en) * 2019-12-16 2023-07-14 华为技术有限公司 An emergency call method, device and system
KR20220085077A (en) * 2020-12-14 2022-06-22 현대자동차주식회사 Method of direct control of autonomous vehicle
DE102021206932B4 (en) * 2021-07-01 2023-09-07 Volkswagen Aktiengesellschaft Method for operating an assistance system, computer program product and assistance system
JP7735958B2 (en) 2022-08-09 2025-09-09 トヨタ自動車株式会社 Driving assistance devices
JP2024024266A (en) * 2022-08-09 2024-02-22 トヨタ自動車株式会社 Driving support device
JP7722295B2 (en) * 2022-08-09 2025-08-13 トヨタ自動車株式会社 Driving assistance devices
EP4325893A1 (en) 2022-08-16 2024-02-21 Aptiv Technologies Limited Monitoring of audio playback for automotive applications
US20240406693A1 (en) * 2023-05-31 2024-12-05 GM Global Technology Operations LLC Communication system and method for a vehicle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10006008A1 (en) 2000-02-11 2001-08-02 Audi Ag Speed control device and method for controlling the speed of a vehicle
DE102014225383A1 (en) 2014-12-10 2016-06-16 Robert Bosch Gmbh Method for operating a motor vehicle, motor vehicle
DE102019133780A1 (en) 2019-12-10 2021-06-10 Bayerische Motoren Werke Aktiengesellschaft Driving system and method for exiting an automated driving mode by voice
DE102020003102A1 (en) 2020-05-22 2020-07-09 Daimler Ag Method for verifying a gesture command and / or a voice command of a vehicle user
EP3944232A1 (en) 2020-07-25 2022-01-26 Nxp B.V. Voice control for autonomous vehicles
DE102020126434A1 (en) 2020-10-08 2022-04-14 Bayerische Motoren Werke Aktiengesellschaft DRIVING SYSTEM FOR AUTOMATED DRIVING WITH ACOUSTIC INFORMATION OUTPUT AND A MICROPHONE, RELEVANT PROCEDURE AND RELEVANT SOFTWARE
US20230311944A1 (en) 2022-03-31 2023-10-05 Plusai, Inc. Methods and apparatus for causing a lane change maneuver of an autonomous vehicle

Also Published As

Publication number Publication date
WO2026013005A1 (en) 2026-01-15
WO2026013008A1 (en) 2026-01-15
WO2026013022A1 (en) 2026-01-15
WO2026013021A1 (en) 2026-01-15
DE102024207835A1 (en) 2026-01-15
WO2026013006A1 (en) 2026-01-15
WO2026013024A1 (en) 2026-01-15
WO2026013010A1 (en) 2026-01-15
DE102024207838A1 (en) 2026-01-15
DE102024207837A1 (en) 2026-01-15
DE102024207834A1 (en) 2026-01-15
DE102024207839A1 (en) 2026-01-15
DE102024207836A1 (en) 2026-01-15

Similar Documents

Publication Publication Date Title
EP3752401B1 (en) Method for selecting a driving profile of a motor car, driving assistance system and motor vehicle
DE102016212647B4 (en) Method for operating a voice control system in an indoor space and voice control system
EP3423328B1 (en) Device for controlling longitudinal guidance of a vehicle designed to be driven in an at least partly automated manner
EP1658200B1 (en) Vehicle system
CN109263645A (en) Method and system for adjusting operating parameters of a motor vehicle and motor vehicle
EP3094533A2 (en) Operation of a vehicle in accordance with the desire of a vehicle occupant
DE102017211378A1 (en) User interface for a means of transport and means of transport containing a user interface
DE102017213252B4 (en) Method, device and computer program for varying audio content to be output in a vehicle
DE102018221122A1 (en) Vehicle and method of issuing information therefor
DE102019105490A1 (en) Method, device and computer program for operating a vehicle using a mobile user device
DE10008226A1 (en) Voice control device and voice control method
DE102019133780A1 (en) Driving system and method for exiting an automated driving mode by voice
DE102018217634A1 (en) Method for operating a vehicle and vehicle
DE102017100271A1 (en) Fuel control regulator system with acoustic flexibility
DE102022125547B4 (en) Motor vehicle and method for summarizing a conversation in a motor vehicle
DE102017111443A1 (en) Autiosystem and method for selecting a content selection and / or setting a sound setting
DE102024207833A1 (en) Method for controlling at least a partially autonomous vehicle using voice input
DE102015206021B4 (en) Computer system for a vehicle
DE112016006824T5 (en) A vehicle-mounted information processing apparatus, vehicle-mounted apparatus, and vehicle-mounted information processing method
WO2024193837A1 (en) Device and method for operating a vehicle
DE102022102504B9 (en) Method for operating an interface device in a vehicle, and interface device and vehicle
DE102022213306A1 (en) VOICE RECOGNITION SYSTEM AND METHOD OF PROVIDING A VOICE RECOGNITION SERVICE
WO2023025358A1 (en) Intelligent communication system for controlling the output of information to a vehicle occupant
DE102013207019A1 (en) Generic functional networking of driver assistance and infotainment systems
DE102020200273B4 (en) Method for operating a vehicle component of an at least partially autonomously operated motor vehicle using a voice command, and assistance system

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: AUMOVIO GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE TECHNOLOGIES GMBH, 30175 HANNOVER, DE