[go: up one dir, main page]

DE102017216837A1 - Gesture and facial expression control for a vehicle - Google Patents

Gesture and facial expression control for a vehicle Download PDF

Info

Publication number
DE102017216837A1
DE102017216837A1 DE102017216837.4A DE102017216837A DE102017216837A1 DE 102017216837 A1 DE102017216837 A1 DE 102017216837A1 DE 102017216837 A DE102017216837 A DE 102017216837A DE 102017216837 A1 DE102017216837 A1 DE 102017216837A1
Authority
DE
Germany
Prior art keywords
vehicle
occupant
facial expression
function
hand movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017216837.4A
Other languages
German (de)
Inventor
Anil Thurimella
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102017216837.4A priority Critical patent/DE102017216837A1/en
Priority to US16/137,073 priority patent/US10710457B2/en
Priority to CN201811107674.6A priority patent/CN109552340B/en
Publication of DE102017216837A1 publication Critical patent/DE102017216837A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/85Arrangements for transferring vehicle- or driver-related data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Automation & Control Theory (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Fahrzeug mit einer Mehrzahl von Geräten und einer Mensch-Maschine-Schnittstelle (Human Machine Interface, HMI) zum mimischen und/oder gestischen Betätigen einer Funktion eines Geräts des Fahrzeugs, welche eine Kamera zum Erfassen eines bestimmten Insassen des Fahrzeugs und eine mit der Kamera verbundene Steuerungseinheit umfasst.The present invention relates to a vehicle having a plurality of devices and a human-machine interface (HMI) for mimicking and / or gesturing a function of a device of the vehicle, comprising a camera for detecting a specific occupant of the vehicle and a control unit connected to the camera.

Description

Die vorliegende Erfindung betrifft ein Fahrzeug mit einer Mehrzahl von Geräten und einer Mensch-Maschine-Schnittstelle (Human Machine Interface, HMI) zum mimischen und/oder gestischen Betätigen einer Funktion eines Geräts des Fahrzeugs, welche eine Kamera zum Erfassen eines bestimmten Insassen des Fahrzeugs und eine mit der Kamera verbundene Steuerungseinheit umfasst. Ferner betrifft die vorliegende Erfindung ein Verfahren zum Betätigen einer Funktion eines Geräts eines Fahrzeugs mittels einer Mimik und einer Gestik eines bestimmten Insassen des Fahrzeugs.The present invention relates to a vehicle having a plurality of devices and a human-machine interface (HMI) for mimicking and / or gesturing a function of a device of the vehicle, comprising a camera for detecting a specific occupant of the vehicle and a control unit connected to the camera. Furthermore, the present invention relates to a method for actuating a function of a device of a vehicle by means of a facial expression and a gesture of a specific occupant of the vehicle.

Moderne Fahrzeuge weisen gewöhnlich eine Vielzahl unterschiedlicher Funktionen auf, die teilweise weit über ein bloßes Steuern des Fahrzeugs hinausgehen. Entsprechend werden Fahrzeuge mit dem Ziel entwickelt, insbesondere dem Fahrer eines Fahrzeugs ein möglichst einfaches Betätigen und Überwachen aller vorgesehenen Fahrzeugfunktionen zu ermöglichen. Dazu werden dem Fahrer die einzelnen Funktionen des Fahrzeugs im Allgemeinen über eine oder mehrere Mensch-Maschinen-Schnittstellen zugänglich gemacht.Modern vehicles usually have a variety of different functions, some of which go far beyond merely controlling the vehicle. Accordingly, vehicles are being developed with the aim of enabling, in particular, the driver of a vehicle to operate and monitor all intended vehicle functions as simply as possible. For this purpose, the individual functions of the vehicle are generally made accessible to the driver via one or more man-machine interfaces.

Jede Mensch-Maschinen-Schnittstelle erlaubt also ein zumeist bidirektionales Interagieren des Fahrers oder weiterer Insassen des Fahrzeugs mit dem Fahrzeug und kann in ihrer einfachsten Form beispielsweise einen Hebel, einen Drehknopf, einen Kippschalter, einen Tastschalter oder ein Pedal sowie eine analoge oder digitale Anzeige, eine Kontroll- oder eine Warnleuchte umfassen.Each man-machine interface thus allows a mostly bidirectional interaction of the driver or other occupants of the vehicle with the vehicle and in its simplest form, for example, a lever, a knob, a toggle switch, a push button or a pedal and an analog or digital display, include a control or warning light.

Zunehmend werden Fahrzeuge mit sogenannten Fahrerassistenzsystemen ausgestattet, welche den Fahrer beim Steuern eines Fahrzeugs unterstützen und/oder entlasten und dadurch ein Unfallrisiko für das Fahrzeug verringern oder die Sicherheit der Fahrzeuginsassen erhöhen. Beispielsweise sind Einparkhilfen zum Unterstützen des Fahrers beim Parken des Fahrzeugs erhältlich, die von einfachen Abstandssensoren mit Warnfunktion über Rückraumkameras mit bequem beobachtbaren Bildschirmen bis hin zu vollautomatischen Einparkassistenten reichen, welche ein Fahrzeug ohne Eingreifen des Fahrers selbständig rückwärts einparken.Increasingly, vehicles are being equipped with so-called driver assistance systems which assist and / or relieve the driver when controlling a vehicle and thereby reduce the risk of an accident for the vehicle or increase the safety of the vehicle occupants. For example, parking aids are available to assist the driver in parking the vehicle, ranging from simple warning distance sensors to rearview cameras with conveniently observable screens, to fully automated parking assistants, which autonomously reverse a vehicle without driver intervention.

Ein weiteres Beispiel für fortgeschrittene Fahrerassistenzsysteme stellen sogenannte Bremsassistenten dar, welche den Raum vor einem fahrenden Fahrzeug überwachen und das Fahrzeug automatisch abbremsen, wenn sich der Abstand des Fahrzeugs zu einem vorausfahrenden Fahrzeug, anderen Verkehrsteilnehmern, wie Fahrradfahrern oder Fußgängern, oder einem sonstigen Hindernis unter einen bestimmten von der Geschwindigkeit des Fahrzeugs abhängigen Wert verringert.Another example of advanced driver assistance systems are so-called brake assistants, which monitor the space in front of a moving vehicle and automatically decelerate the vehicle when the distance of the vehicle to a preceding vehicle, other road users, such as cyclists or pedestrians, or any other obstacle under one reduced depending on the speed of the vehicle dependent value.

Viele Verkehrsunfälle von Fahrzeugen gehen auf eine Unaufmerksamkeit der jeweiligen Fahrer zurück. Zu einer Unaufmerksamkeit eines Fahrers kann es infolge einer Ablenkung, einer mangelnden Konzentration, einer Müdigkeit oder eines Sekundenschlafs kommen. Ein Fahrerassistenzsystem zum Erkennen einer Unaufmerksamkeit des Fahrers erfordert entsprechend eine hochspezialisierte Mensch-Maschine-Schnittstelle.Many traffic accidents of vehicles are due to an inattention of the respective driver. Driver inattention may be due to distraction, lack of concentration, tiredness or a microsleep. A driver assistance system for detecting an inattentiveness of the driver accordingly requires a highly specialized human-machine interface.

So offenbart die DE 10 2015 011 522 A1 eine Fahrerassistenzvorrichtung für ein Fahrzeug, welche eine Bilderfassungsvorrichtung mit einer in das Lenkrad des Fahrzeugs integrierten Kamera umfasst. Die Kamera ist im Wesentlichen auf den Kopf des Fahrers ausgerichtet, um für die Unaufmerksamkeit bzw. Müdigkeit des Fahrers relevante Parameter, wie einen Augenlidschlag, einen Augenlidschluss, einen Blickwinkel, eine Kopfneigung und/oder Kopfbewegungen des Fahrers, zu erfassen. Bei Erkennen einer Unaufmerksamkeit bzw. einer Müdigkeit des Fahrers kann eine entsprechende Warnung ausgelöst werden.So revealed the DE 10 2015 011 522 A1 a driver assistance device for a vehicle, which comprises an image capture device with a camera integrated into the steering wheel of the vehicle. The camera is substantially aligned with the driver's head to capture parameters that are relevant to the driver's inattention or fatigue, such as a blink of the eye, an eyelid, a view, a head tilt, and / or head movements of the driver. Upon detection of inattention or fatigue of the driver, a corresponding warning can be triggered.

Aus der US 2011/0235919 A1 ist eine ähnliche Vorrichtung bekannt, welche zum Erkennen geöffneter/geschlossener Augen eine Kamera und eine Steuerungseinheit umfasst und in einem Fahrzeug verwendet werden kann, um einen Sekundenschlaf des Fahrers festzustellen. Die Vorrichtung analysiert neben dem Öffnungsgrad der Augen auch den gesamten Gesichtsausdruck des Fahrers, um bei Gesichtsausdrücken des Fahrers, welche geschlossene oder nahezu geschlossene Augen im Wachzustand aufweisen, eine fehlerhafte Feststellung eines Sekundenschlafs zu vermeiden.From the US 2011/0235919 A1 For example, a similar device is known, which includes a camera and a control unit for detecting open / closed eyes and can be used in a vehicle to detect a driver's microsleep. The device also analyzes, in addition to the degree of opening of the eyes, the entire facial expression of the driver in order to avoid erroneous detection of instantaneous sleep in the driver's facial expressions, which have closed or nearly closed eyes when awake.

Es sind demgegenüber auch Fahrerassistenzsysteme bekannt, welche in erster Linie darauf abzielen, ein Betätigen der Funktionen eines Fahrzeugs an sich sowohl einheitlicher und intuitiver zu gestalten als auch neben dem Fahrer mindestens teilweise weiteren Fahrzeuginsassen zu gestatten. Beispielsweise könnte den weiteren Fahrzeuginsassen durch ein entsprechendes Assistenzsystem ein bequemes Bedienen eines Unterhaltungssystems, wie eines in dem Fahrzeug verbauten Radios oder einer Musikanlage, ermöglicht werden. Derartige Fahrerassistenzsysteme erfordern naturgemäß entsprechend komplex ausgebildete Mensch-Maschine-Schnittstellen.On the other hand, driver assistance systems are also known which primarily aim at making operation of the functions of a vehicle more uniform and intuitive as well as at least partially allowing additional vehicle occupants in addition to the driver. For example, the additional vehicle occupants could be enabled by a corresponding assistance system to comfortably operate an entertainment system, such as a radio or a music system installed in the vehicle. Such driver assistance systems naturally require correspondingly complex human-machine interfaces.

Die DE 10 2014 218 457 A1 offenbart eine transportable Speichereinheit mit einem Prozessor zum Verbinden mit einer Datenschnittstelle eines Sensors eines Fahrerassistenzsystems eines Fahrzeugs. Die Speichereinheit ist mit verschiedenen Sensoren des Fahrerassistenzsystems verbindbar und umfasst zur Interaktion mit Fahrzeuginsassen eine Mensch-Maschine-Schnittstelle, welche eine Kamera zum optischen Überwachen eines Fahrzeugraums, eine Lichtquelle zum Beleuchten des Fahrzeugraums oder zum Abgeben von Lichtsignalen, ein Mikrofon zum akustischen Überwachen des Fahrzeugraums, einen Lautsprecher zum Abgeben akustischer Signale und/oder einen Radarsensor zum Erfassen von Fahrzeuginsassen in dem Fahrzeugraum bei Dunkelheit aufweist. Mit der Kamera kann die Gestik oder Mimik eines bestimmten Fahrzeuginsassen erfasst werden, um eine zu betätigende Funktion des Fahrzeugs zu ermitteln. Dazu muss die Gestik- oder Mimikerfassung von dem bestimmten Fahrzeuginsassen per Sprachbefehl aktiviert werden. Wenn die transportable Speichereinheit in einen Schlüssel eines Fahrzeugs integriert ist, kann zudem vorgesehen sein, ein Starten des Fahrzeugs erst nach einer erfolgreichen Authentifikation des Fahrers mittels Spracherkennung und/oder Gesichtserkennung zu erlauben.The DE 10 2014 218 457 A1 discloses a portable memory unit having a processor for connecting to a data interface of a sensor of a driver assistance system of a vehicle. The memory unit can be connected to various sensors of the driver assistance system and, for interacting with vehicle occupants, comprises a human-machine interface, which has a A camera for optically monitoring a vehicle compartment, a light source for illuminating the vehicle compartment or for outputting light signals, a microphone for acoustically monitoring the vehicle compartment, a speaker for emitting acoustic signals and / or a radar sensor for detecting vehicle occupants in the vehicle compartment in the dark. With the camera, the gesture or facial expressions of a particular vehicle occupant can be detected to determine an actuated function of the vehicle. For this purpose, the Gestik- or Mimikerfassung must be activated by the particular vehicle occupant by voice command. If the transportable storage unit is integrated in a key of a vehicle, it may also be provided to allow starting of the vehicle only after a successful authentication of the driver by means of speech recognition and / or face recognition.

Allerdings ist es bislang nicht möglich, dass verschiedene Fahrzeuginsassen, d. h. der Fahrer und mindestens der Beifahrer oder ein weiterer Mitfahrer, gleichzeitig oder zeitlich überlappend über eine gemeinsame Mensch-Maschine-Schnittstelle mit einem Fahrzeug interagieren.However, it is not yet possible that various vehicle occupants, d. H. the driver and at least the passenger or another passenger, simultaneously or temporally overlapping interact with a vehicle via a common human-machine interface.

Der Erfindung liegt daher die Aufgabe zugrunde, ein Fahrzeug mit einer verbesserten Mensch-Maschine-Schnittstelle zur Verfügung zu stellen, welche die beschriebenen Nachteile vermeidet und ein gleichzeitiges oder zeitlich überlappendes Interagieren verschiedener Fahrzeuginsassen mit dem Fahrzeug ermöglicht. Darüber hinaus ist es eine Aufgabe der Erfindung, ein Verfahren zum gleichzeitigen oder zeitlich überlappenden Betätigen von Funktionen eines Fahrzeugs durch verschiedene Fahrzeuginsassen anzugeben.The invention is therefore based on the object to provide a vehicle with an improved man-machine interface, which avoids the disadvantages described and allows a simultaneous or temporally overlapping interacting of various vehicle occupants with the vehicle. In addition, it is an object of the invention to provide a method for simultaneously or temporally overlapping actuation of functions of a vehicle by different vehicle occupants.

Ein Gegenstand der Erfindung ist ein Fahrzeug mit einer Mehrzahl von funktionalen Geräten und einer Mensch-Maschine-Schnittstelle (Human Machine Interface, HMI) zum mimischen und gestischen Betätigen einer Funktion eines Geräts des Fahrzeugs. Die Mensch-Maschine-Schnittstelle umfasst eine Kamera zum Erfassen eines bestimmten Insassen des Fahrzeugs und eine mit der Kamera verbundene Steuerungseinheit.An object of the invention is a vehicle having a plurality of functional devices and a human-machine interface (HMI) for mimicking and gesturing a function of a device of the vehicle. The man-machine interface comprises a camera for detecting a specific occupant of the vehicle and a control unit connected to the camera.

Bei einer Ausführungsform ist die Steuerungseinheit konfiguriert, aus von der Kamera erfassten Bildsequenzen des Insassen einen Gesichtsausdruck und eine Handbewegung des Insassen zu extrahieren und den extrahierten Gesichtsausdruck und die extrahierte Handbewegung des bestimmten Insassen miteinander zu kombinieren, um eine zu betätigende Funktion des Fahrzeugs zu ermitteln. Wenn das Fahrzeug bereits eine Kamera zum Erfassen eines Fahrzeugraums und eine Steuerungseinheit aufweist, ist zum Schaffen eines erfindungsgemäßen Fahrzeugs lediglich eine Installation spezieller Software-Module in der Steuerungseinheit des Fahrzeugs erforderlich. Die Software-Module können ein Bildverarbeitungsmodul, ein Betätigungsmodul und ein Lernmodul (Machine Learning Engine) umfassen, die über jeweils korrespondierende Schnittstellen miteinander interagieren. Zudem können in der Steuerungseinheit Datenspeicher vorgesehen sein, auf die das Lernmodul lesend und/oder schreibend zugreifen kann.In one embodiment, the control unit is configured to extract an occupant's facial expression and hand gesture from camera-captured image sequences of the occupant and to combine the extracted facial expression and the extracted hand gesture of the particular occupant to determine an operable function of the vehicle. If the vehicle already has a camera for detecting a vehicle compartment and a control unit, to create a vehicle according to the invention, only installation of special software modules in the control unit of the vehicle is required. The software modules may include an image processing module, an actuation module, and a machine learning engine that interact with one another via corresponding interfaces, respectively. In addition, data storage may be provided in the control unit, which can be read and / or written by the learning module.

Eine Kombination von Mimik und Gestik erweitert gegenüber Mimik oder Gestik jeweils für sich genommen die Ausdrucksmöglichkeiten des Insassen und erlaubt einen höheren Differenzierungsgrad sowie eine geringere Fehlerrate beim Interagieren mit Geräten des Fahrzeugs. Insbesondere kann sich die erfindungsgemäße Mensch-Maschine-Schnittstelle auch für Gehörlose eignen. Die differenzierten Ausdrucksmöglichkeiten von deren Gebärdensprache beruhen auf einer Kombination von mimischen und gestischen Äußerungen.A combination of facial expressions and gestures extends facial expressions in comparison to facial expressions or gestures, and allows a greater degree of differentiation and a lower error rate when interacting with devices of the vehicle. In particular, the human-machine interface according to the invention can also be suitable for the deaf. The differentiated expressions of their sign language are based on a combination of mimic and gestural utterances.

Zudem lassen sich mehrere Insassen eines Fahrzeugs anhand einer Kombination von Mimik und Gestik gut unterscheiden, um eine ungestörte Interaktion eines bestimmten Insassen, wie beispielsweise des Fahrers mit dem Fahrzeug, auch dann sicherzustellen, wenn gleichzeitig oder zeitlich überlappend weitere Fahrzeuginsassen gestisch mit dem Fahrzeug interagieren.In addition, multiple occupants of a vehicle can be well distinguished by a combination of facial expressions and gestures to ensure an undisturbed interaction of a particular occupant, such as the driver with the vehicle, even if overlapping at the same time or overlapping other vehicle occupants interact gesturally with the vehicle.

In einer Ausführungsform ist die Mensch-Maschine-Schnittstelle konfiguriert, den Insassen anhand des Gesichtsausdrucks des Insassen und eine zu betätigende Funktion eines Geräts anhand des Gesichtsausdrucks und/oder der Handbewegung des Insassen zu erkennen. Gesichtsausdrücke eignen sich besonders gut zur Authentifikation eines bestimmten Insassen, d. h. zu dessen Identifikation, während Handbewegungen ein intuitives funktionelles Interagieren mit dem Fahrzeug erlauben. Die funktionelle Interaktion mit dem Fahrzeug kann dadurch weiter differenziert und verbessert werden, dass Gesichtsausdrücke und Handbewegungen miteinander kombiniert werden.In one embodiment, the man-machine interface is configured to recognize the occupant based on the occupant's facial expression and a device's actuated function based on the occupant's facial expression and / or hand movement. Facial expressions are particularly well suited to authenticate a particular occupant, d. H. to identify it, while hand movements allow intuitive functional interaction with the vehicle. The functional interaction with the vehicle can be further differentiated and improved by combining facial expressions and hand movements.

In einer Ausführungsform umfasst die Mensch-Maschine-Schnittstelle einen Datenspeicher zum Speichern eines Interaktionsprofils des bestimmten Insassen, welches eine Mehrzahl von Zuordnungen jeweils einer Kombination eines erkannten Gesichtsausdrucks und einer erkannten Handbewegung des Insassen zu einer Funktion eines Geräts umfasst. Mittels eines Datenspeichers lässt sich eine Lernfunktion der Mensch-Maschine-Schnittstelle realisieren. Während der Interaktion des bestimmten Insassen mit dem Fahrzeug speichert die Mensch-Maschinen-Schnittstelle typische Gesichtsausdrücke und Handbewegungen des bestimmten Insassen in dem Datenspeicher ab. Aufgrund der gespeicherten Mimik- und Gestikdaten lässt sich das Risiko für Fehlsteuerungen durch den bestimmten Insassen deutlich verringern. Kombinierte Mimik- und Gestikdaten jedes Fahrzeuginsassen können zusammen mit zu betätigenden Funktionen von Geräten in einem individuellen Interaktionsprofil zusammengefasst werden. Dabei kann dem bestimmten Insassen der Gesichtsausdruck und/oder die Handbewegung freigestellt sein, mit denen er eine bestimmte Funktion eines bestimmten Geräts des Fahrzeugs betätigen möchte.In one embodiment, the man-machine interface comprises a data store for storing an interaction profile of the particular occupant, comprising a plurality of associations each of a combination of a recognized facial expression and a detected hand gesture of the occupant to a function of a device. By means of a data memory, a learning function of the human-machine interface can be realized. During interaction of the particular occupant with the vehicle, the man-machine interface stores typical facial expressions and hand movements of the particular occupant from the data store. The stored facial expressions and gesture data significantly reduce the risk of misdirection by the particular occupant. Combined facial expressions and gestures data of each vehicle occupant can be summarized together with to be operated functions of devices in an individual interaction profile. In this case, the particular occupant of the facial expression and / or the hand movement may be free, with which he wants to operate a certain function of a particular device of the vehicle.

In einer bevorzugten Ausführungsform weist das Fahrzeug eine mit der Steuerungseinheit verbundene Kommunikationseinheit auf, welche zum drahtlosen Kommunizieren mit einem außerhalb des Fahrzeugs angeordneten Server (Automotive Backend) ausgebildet ist, um ein in einem Datenspeicher des Servers gespeichertes Interaktionsprofil eines Insassen des Fahrzeugs, insbesondere mit dessen Zustimmung, in die Steuerungseinheit zu laden oder ein Interaktionsprofil eines Insassen des Fahrzeugs, insbesondere mit dessen Zustimmung, in dem Datenspeicher des Servers zu speichern. Mit anderen Worten muss ein Fahrzeuginsasse, der verschiedene Fahrzeuge nutzt, nicht jede Mensch-Maschine-Schnittstelle erneut darauf trainieren, individuelle Eigenheiten seiner mimischen oder gestischen Äußerungen zu erlernen. Infolgedessen kann ein Fahrzeuginsasse auf sein durch Training der Mensch-Maschine-Schnittstelle erzeugtes Interaktionsprofil beispielsweise ohne Weiteres aus sämtlichen Fahrzeugen einer Fahrzeugflotte zugreifen. Dies kann in größeren Unternehmen, aber auch im Rahmen des Car Sharings von Nutzen sein. Ein Server im Sinne dieser Erfindung ist auch ein Computerzentrum, ein verteiltes Computerzentrum, eine Cloud oder ein Computercluster.In a preferred embodiment, the vehicle has a communication unit connected to the control unit, which is designed for wireless communication with a server (automotive backend) arranged outside the vehicle in order to store an interaction profile of an occupant of the vehicle stored in a data memory of the server, in particular with the latter Consent to load into the control unit or store an interaction profile of an occupant of the vehicle, in particular with his consent, in the data memory of the server. In other words, a vehicle occupant using different vehicles need not re-train every man-machine interface to learn individual peculiarities of his mimetic or gestural utterances. As a result, a vehicle occupant may, for example, readily access his interaction profile generated by training the man-machine interface from all vehicles of a vehicle fleet. This can be useful in larger companies, but also in the context of car sharing. A server in the sense of this invention is also a computer center, a distributed computer center, a cloud or a computer cluster.

Bei einer Ausführungsform der Mensch-Maschine-Schnittstelle ist der bestimmte Insasse der Fahrer des Fahrzeugs und/oder ein Mitfahrer in dem Fahrzeug. Das Steuern herkömmlicher Fahrzeuge erfordert eine umfangreiche Interaktion des Fahrers mit dem Fahrzeug. In solchen Fahrzeugen profitiert daher der Fahrer am meisten von der erfindungsgemäßen Mensch-Maschine-Schnittstelle. Dennoch ermöglicht die Mensch-Maschine-Schnittstelle beispielsweise dem Beifahrer oder einem weiteren Mitfahrer des Fahrzeugs ein Betätigen von Unterhaltungsgeräten des Fahrzeugs, während der Fahrer gleichzeitig sicherheitsrelevante Geräte des Fahrzeugs betätigt. Fahrzeuge mit hochautomatischer oder vollautomatischer Selbstfahrfunktion verringern das Interaktionserfordernis für den Fahrer, so dass in solchen Fahrzeugen die Interaktion weiterer Insassen des Fahrzeugs relativ zu der Fahrerinteraktion eine größere Bedeutung erhält.In one embodiment of the man-machine interface, the particular occupant is the driver of the vehicle and / or a passenger in the vehicle. The control of conventional vehicles requires extensive interaction of the driver with the vehicle. In such vehicles, therefore, the driver benefits most from the human-machine interface according to the invention. Nevertheless, for example, the man-machine interface allows the passenger or another passenger of the vehicle to operate entertainment devices of the vehicle, while the driver simultaneously operates safety-relevant devices of the vehicle. Vehicles with a highly automatic or fully automatic self-drive function reduce the interaction requirement for the driver, so that in such vehicles, the interaction of other occupants of the vehicle relative to the driver interaction receives more importance.

Ein weiterer Gegenstand der Erfindung ist ein Verfahren zum mimischen und gestischen Betätigen einer Funktion eines Geräts eines Fahrzeugs durch einen bestimmten Insassen des Fahrzeugs, insbesondere mittels einer erfindungsgemäßen Mensch-Maschine-Schnittstelle.Another object of the invention is a method for mimic and gestural actuation of a function of a device of a vehicle by a specific occupant of the vehicle, in particular by means of a human-machine interface according to the invention.

Bei dem erfindungsgemäßen Verfahren werden Bildsequenzen des bestimmten Insassen mittels einer Kamera kontinuierlich in Echtzeit aufgenommen. Dazu wird von der Kamera ein Innenraum des Fahrzeugs erfasst, in dem sich ein Fahrer und ggf. weitere Insassen des Fahrzeugs aufhalten. Die aufgenommenen Bildsequenzen werden analysiert und Gesichtsausdrücke und Handbewegungen des bestimmten Insassen aus den Echtzeitbildern mittels in dem Fahrzeug installierter Software-Module jeweils separat extrahiert. Dabei werden die in den Echtzeitbildern erfassten Gesichtsausdrücke und Handbewegungen aufgrund der relativen räumlichen Anordnung in den Echtzeitbildern dem Insassen des Fahrzeugs zugeordnet.In the method according to the invention, image sequences of the particular occupant are recorded continuously in real time by means of a camera. For this purpose, the camera detects an interior of the vehicle in which a driver and possibly other occupants of the vehicle are present. The captured image sequences are analyzed and facial expressions and hand movements of the particular occupant from the real-time images are separately extracted by means of software modules installed in the vehicle, respectively. In this case, the facial expressions and hand movements detected in the real-time images are assigned to the occupant of the vehicle because of the relative spatial arrangement in the real-time images.

Erfindungsgemäß werden die extrahierten Gesichtsausdrücke und Handbewegungen des Insassen miteinander kombiniert, um die zu betätigende Funktion des Fahrzeugs zu ermitteln. Das Kombinieren mimischer und gestischer Äußerungen kann das Risiko einer Fehlbetätigung verringern. Abgesehen davon lassen sich in einer Kombination mimische und gestische Äußerungen unterschiedlicher Insassen des Fahrzeugs gut auseinanderhalten.According to the invention, the extracted facial expressions and hand movements of the occupant are combined with each other to determine the operation of the vehicle to be operated. Combining mimic and gestural utterances can reduce the risk of misoperation. Apart from that, in a combination mimic and gestural remarks of different occupants of the vehicle can be well distinguished.

Dann wird die ermittelte Funktion des Fahrzeugs betätigt. Mit anderen Worten interpretiert die Mensch-Maschine-Schnittstelle eine Kombination eines erkannten Gesichtsausdrucks und einer erkannten Handbewegung eines bestimmten Insassen des Fahrzeugs als Befehl an das Fahrzeug und betätigt automatisch eine entsprechende Funktionen eines Geräts des Fahrzeugs.Then the determined function of the vehicle is actuated. In other words, the man-machine interface interprets a combination of a recognized facial expression and a detected hand movement of a particular occupant of the vehicle as a command to the vehicle and automatically actuates a corresponding functions of a device of the vehicle.

Bei einer Ausführungsform des Verfahrens wird der Insasse an dem Gesichtsausdruck und die zu betätigende Funktion des Fahrzeugs anhand der Handbewegung des Insassen erkannt. Gesichtsausdrücke eignen sich besonders gut zur Authentifikation eines bestimmten Insassen, d. h. zu dessen Identifikation, während Handbewegungen dem bestimmten Insassen ein intuitives funktionelles Interagieren mit dem Fahrzeug erlauben und eher die zu betätigende Fahrzeugfunktion adressieren. Aber auch abweichende Gewichtungen von Gesichtsausdrücken und Handbewegungen verlassen nicht den Schutzbereich der vorliegenden Erfindung.In one embodiment of the method, the occupant is recognized by the facial expression and the function of the vehicle to be actuated based on the hand movement of the occupant. Facial expressions are particularly well suited to authenticate a particular occupant, d. H. to identify it, while hand movements allow the particular occupant to interact intuitively with the vehicle and more likely to address the vehicle function to be operated. But also different weights of facial expressions and hand movements do not leave the scope of the present invention.

Bei einer bevorzugten Ausführungsform des Verfahrens erfolgt das separate Extrahieren der Gesichtsausdrücke und Handbewegungen aufgrund von zu einem Gesicht und einer Hand korrespondierenden sichtbaren und räumlich getrennten Hautbereichen des Insassen. Sichtbare Hautbereiche lassen sich anhand ihrer Farbe meist gut von bekleideten Körperbereichen unterscheiden. Im Allgemeinen stellen Gesicht und Hände die einzigen sichtbaren Hautbereiche eines Fahrzeuginsassen dar, während andere Körperbereiche von Kleidung bedeckt sind. Entsprechend können Farbkontraste zwischen Haut und Kleidung zum Erkennen und Extrahieren eines Gesichtsausdrucks und einer Hand herangezogen werden.In a preferred embodiment of the method, the separate extraction of the facial expressions and hand movements occurs due to a face and a hand corresponding visible and spatially separated skin areas of the occupant. Visible areas of the skin can usually be distinguished well from their body areas by their color. Generally, the face and hands are the only visible skin areas of a vehicle occupant while other areas of the body are covered by clothing. Accordingly, color contrasts between skin and clothing can be used to detect and extract a facial expression and a hand.

Bei einer weiteren Ausführungsform des Verfahrens werden die Gesichtsausdrücke mittels eines Mimikerkennungsalgorithmus und/oder die Handbewegungen mittels eines Gestikerkennungsalgorithmus ermittelt. Derartige Algorithmen zum Erkennen einer Mimik und/oder einer Gestik können von einem Software-Modul umfasst sein und Gesichtsproportionen bzw. -ausdrücke und/oder Handstellungen bzw. -bewegungen aus den Echtzeitbildern ermitteln und einander zuordnen.In a further embodiment of the method, the facial expressions are determined by means of a facial expression recognition algorithm and / or the hand movements by means of a gesture recognition algorithm. Such algorithms for recognizing facial expressions and / or gestures may be comprised by a software module and determine and associate facial proportions and / or hand positions or movements from the real-time images.

Bei einer Ausführungsform des Verfahrens werden die Gesichtsausdrücke und Handbewegungen des Insassen mittels eines Algorithmus zum maschinellen Lernen verarbeitet, um den bestimmten Insassen anhand von Gesichtsausdrücken und/oder Handbewegungen besser zu erkennen. Ein derartiger Algorithmus kann von einem Software-Modul umfasst sein. Mittels maschinellen Lernens können die mimischen und gestischen Äußerungen eines Insassen trotz einer unvermeidlichen natürlichen Variabilität zuverlässig ermittelt und ein Insasse des Fahrzeugs anhand der erkannten mimischen und gestischen Äußerungen sicher bestimmt werden.In one embodiment of the method, the facial expressions and hand movements of the occupant are processed by a machine learning algorithm to better recognize the particular occupant based on facial expressions and / or hand movements. Such an algorithm may be included in a software module. By means of machine learning, the mimic and gestural utterances of an occupant can be reliably determined despite an inevitable natural variability and an occupant of the vehicle can be determined with certainty on the basis of the recognized mimic and gestural utterances.

Bei einer Ausführungsform des Verfahrens wird eine Mehrzahl von Zuordnungen jeweils einer Kombination eines erkannten Gesichtsausdrucks und einer erkannten Handbewegung des Insassen zu einer Funktion eines Geräts des Fahrzeugs in einem Interaktionsprofil zusammengefasst. Ein derartiges Interaktionsprofil wird dem bestimmten Insassen zugeordnet und umfasst typische Gesichtsausdrücke und Handbewegungen des bestimmten Insassen sowie damit zu betätigende Gerätefunktionen.In one embodiment of the method, a plurality of associations, each of a combination of a recognized facial expression and a recognized hand movement of the occupant to a function of a device of the vehicle is summarized in an interaction profile. Such an interaction profile is associated with the particular occupant and includes typical facial expressions and hand movements of the particular occupant as well as device functions to be actuated therewith.

Bei einer weiteren Ausführungsform des Verfahrens wird das Interaktionsprofil nach Zustimmung des bestimmten Insassen mittels einer in dem Fahrzeug vorgesehenen Kommunikationseinheit in einem außerhalb des Fahrzeugs angeordneten Datenspeicher gespeichert und/oder aus einem außerhalb des Fahrzeugs angeordneten Datenspeicher geladen. Wenn das Interaktionsprofil außerhalb des Fahrzeugs gespeichert wird, kann es von dem bestimmten Insassen in unterschiedlichen Fahrzeugen verwendet werden. Ein mehrfaches Trainieren der Mensch-Maschine-Schnittstelle jeweils in unterschiedlichen Fahrzeugen kann infolgedessen entfallen. In dem Interaktionsprofil können ggf. auch andere Daten des bestimmten Insassen zur Verwendung in unterschiedlichen Fahrzeugen gespeichert werden. Mit anderen Worten wird durch diese Ausführungsform ein insassenzentriertes Verfahren zum Betätigen von Fahrzeugfunktionen geschaffen, welches beispielsweise für Flotten von Fahrzeugen, die von mehreren Mitarbeitern eines Unternehmens gemeinschaftlich genutzt werden, gegenüber fahrzeugzentrierten Verfahren von Vorteil ist.In a further embodiment of the method, the interaction profile is stored after approval of the particular occupant by means of a provided in the vehicle communication unit in a data store located outside the vehicle and / or loaded from a data store located outside the vehicle. When the interaction profile is stored outside the vehicle, it may be used by the particular occupant in different vehicles. A multiple training of the human-machine interface in each case in different vehicles can be omitted as a result. In the interaction profile, other data of the particular occupant may also be stored for use in different vehicles. In other words, this embodiment provides an occupant-centered method of operating vehicle functions that is advantageous over vehicle-centric methods, for example, for fleets of vehicles that are shared by multiple employees of a company.

Die Erfindung ist anhand jeweils einer Ausführungsform des Fahrzeugs und des Verfahrens in den Zeichnungen schematisch dargestellt und wird unter Bezugnahme auf die Zeichnungen weiter beschrieben. Es zeigt:

  • 1 in einer schematischen Darstellung eine Ausführungsform eines erfindungsgemäßen Fahrzeugs,
  • 2 in einem Blockschaltbild eine Ausführungsform einer Steuerungseinheit eines erfindungsgemäßen Fahrzeugs und
  • 3 in einem Flussdiagramm eine Ausführungsform des erfindungsgemäßen Verfahrens.
The invention is illustrated schematically by means of an embodiment of the vehicle and the method in the drawings and will be further described with reference to the drawings. It shows:
  • 1 in a schematic representation of an embodiment of a vehicle according to the invention,
  • 2 in a block diagram of an embodiment of a control unit of a vehicle according to the invention and
  • 3 in a flowchart an embodiment of the method according to the invention.

Die 1 zeigt in einer schematischen Darstellung eine Ausführungsform eines erfindungsgemäßen Fahrzeugs 10. Das Fahrzeug 10 umfasst eine Mehrzahl von Geräten 11, 12, 13, von denen zugunsten der Übersichtlichkeit lediglich drei dargestellt sind. Bei den Geräten 11, 12, 13 kann es sich um eine Fahrzeugbeleuchtung, eine Scheibenwischanlage, eine Klimaanlage, ein Navigationsgerät, ein Unterhaltungsgerät oder dergleichen handeln.The 1 shows a schematic representation of an embodiment of a vehicle according to the invention 10 , The vehicle 10 includes a plurality of devices 11 . 12 . 13 of which only three are shown for the sake of clarity. At the devices 11 . 12 . 13 it may be a vehicle lighting, a windshield wiper system, an air conditioner, a navigation device, an entertainment device or the like.

Ferner weist das Fahrzeug 10 eine Mensch-Maschine-Schnittstelle 30 (Human Machine Interface, HMI) auf. Die Mensch-Maschine-Schnittstelle 30 umfasst zwei Kameras 31, 32, welche in den Fahrzeugraum gerichtet sind, um bestimmte Insassen 20, 21 des Fahrzeugs 10 zu erfassen. Bei den dargestellten bestimmten Insassen 20, 21 handelt es sich um den Fahrer 20 des Fahrzeugs 10 und einen Mitfahrer 21, beispielsweise den Beifahrer in dem Fahrzeug 10. Die Mensch-Maschine-Schnittstelle 30 kann aber auch derart ausgebildet sein, dass sie nur den Fahrer 20, nur einen bestimmten Mitfahrer 21 oder auch zusätzlich weitere nicht dargestellte Mitfahrer erfasst. Ferner umfasst die Mensch-Maschine-Schnittstelle 30 eine Anzeigeeinheit 33, auf der den bestimmten Insassen 20, 21 beispielsweise Betriebszustände der Geräte 11, 12, 13 angezeigt werden.Further, the vehicle points 10 a man-machine interface 30 (Human Machine Interface, HMI). The man-machine interface 30 includes two cameras 31 . 32 , which are directed into the vehicle compartment to certain occupants 20 . 21 of the vehicle 10 capture. In the illustrated certain occupants 20 . 21 it is the driver 20 of the vehicle 10 and a passenger 21 For example, the passenger in the vehicle 10 , The man-machine interface 30 but can also be designed so that they only the driver 20 , only one particular passenger 21 or additionally also other unrepresented riders recorded. Furthermore, the man-machine interface includes 30 a display unit 33 on the particular inmates 20 . 21 For example, operating states of the devices 11 . 12 . 13 are displayed.

Die Mensch-Maschine-Schnittstelle 30 umfasst weiterhin eine Steuerungseinheit 40. Die Steuerungseinheit 40 ist mit den Kameras 31, 32 und der Anzeigeeinheit 33 verbunden und konfiguriert, um den bestimmten Insassen 20, 21 ein auch gleichzeitiges mimisches und/oder gestisches Betätigen von Funktionen der Geräte 11, 12, 13 zu ermöglichen.The man-machine interface 30 further comprises a control unit 40 , The control unit 40 is with the cameras 31 . 32 and the display unit 33 connected and configured to the specific occupant 20 . 21 one too Simultaneous mimic and / or gestural actuation of functions of the devices 11 . 12 . 13 to enable.

Das Fahrzeug 10 weist zudem eine mit der Steuerungseinheit 40 verbundene Kommunikationseinheit 14 auf. Die Kommunikationseinheit 14 ist zum drahtlosen Kommunizieren mit einem Server 50 (Automotive Backend) ausgebildet, um auf einem Datenspeicher 51 des Servers 50 Daten zu speichern oder von einem Datenspeicher 51 des Servers 50 Daten zu laden. Der Server 50 ist außerhalb des Fahrzeugs 10 angeordnet und kann beispielsweise zentral bei dem Hersteller des Fahrzeugs 10 oder in einer Zentrale eines Unternehmens mit einer Flotte von Fahrzeugen 10 angeordnet sein.The vehicle 10 also has one with the control unit 40 connected communication unit 14 on. The communication unit 14 is for wirelessly communicating with a server 50 (Automotive backend) trained to work on a data store 51 of the server 50 To store data or from a data store 51 of the server 50 Load data. The server 50 is outside the vehicle 10 arranged and, for example, centrally with the manufacturer of the vehicle 10 or in a corporate headquarters with a fleet of vehicles 10 be arranged.

Die 2 zeigt in einem Blockschaltbild eine Ausführungsform einer Steuerungseinheit 40 eines erfindungsgemäßen Fahrzeugs 10. In der Steuerungseinheit 40 ist ein Bildverarbeitungsmodul 41 installiert. Das Bildverarbeitungsmodul 41 umfasst einen Mimikerkennungsalgorithmus und einen Gestikerkennungsalgorithmus und ist konfiguriert, aus von den Kameras 31, 32 erfassten Bildsequenzen basierend auf zu einem Gesicht und einer Hand korrespondierenden sichtbaren und räumlich getrennten Hautbereichen eines bestimmten Insassen 20, 21 einen Gesichtsausdruck und eine Handbewegung des Insassen 20, 21 zu extrahieren.The 2 shows a block diagram of an embodiment of a control unit 40 a vehicle according to the invention 10 , In the control unit 40 is an image processing module 41 Installed. The image processing module 41 includes a facial expressions recognition algorithm and a gesture recognition algorithm and is configured to be from the cameras 31 . 32 captured image sequences based on a face and a hand corresponding visible and spatially separated skin areas of a particular occupant 20 . 21 a facial expression and a hand movement of the occupant 20 . 21 to extract.

In der Steuerungseinheit 40 ist zudem ein Betätigungsmodul 42 installiert. Das Betätigungsmodul 42 ist konfiguriert, aus einer Kombination eines extrahierten Gesichtsausdrucks und einer extrahierten Handbewegung eine zu betätigende Funktion eines Geräts 11, 12, 13 zu ermitteln, die Funktion des Geräts 11, 12, 13 zu betätigen und den Betriebszustand des betätigten Geräts 11, 12, 13 auf der Anzeigeeinheit 33 anzuzeigen.In the control unit 40 is also an actuation module 42 Installed. The actuation module 42 is configured to perform a function of a device to be operated from a combination of an extracted facial expression and an extracted hand movement 11 . 12 . 13 to determine the function of the device 11 . 12 . 13 to operate and the operating state of the operated device 11 . 12 . 13 on the display unit 33 display.

Ferner ist in der Steuerungseinheit 40 ein Lernmodul 43 (Machine Learning Engine) installiert. Das Lernmodul 43 umfasst einen Algorithmus zum maschinellen Lernen und ist konfiguriert, extrahierte Gesichtsausdrücke und extrahierte Handbewegungen zu erkennen, zu erlernen und einem bestimmten Insassen 20, 21 zuzuordnen. Die Kombination eines erkannten Gesichtsausdrucks mit einer erkannten Handbewegung eines bestimmten Insassen 20, 21 dient einem differenzierten und zuverlässigen Ermitteln einer von dem Insassen 20, 21 gewünschten zu betätigenden Funktion eines Geräts 11, 12, 13 des Fahrzeugs 10. Dabei erkennt das Lernmodul 43 einen bestimmten Insassen 20, 21 anhand des Gesichtsausdrucks, während sie eine zu betätigende Funktion eines Geräts 11, 12, 13 des Fahrzeugs 10 an dem Gesichtsausdruck und der Handbewegung des Insassen 20, 21 erkennt.Further, in the control unit 40 a learning module 43 (Machine Learning Engine) installed. The learning module 43 includes a machine learning algorithm and is configured to recognize extracted facial expressions and extracted hand movements, to learn and to a particular occupant 20 . 21 assigned. The combination of a recognized facial expression with a detected hand movement of a particular occupant 20 . 21 serves a differentiated and reliable determination of one of the occupant 20 . 21 desired function of a device to be operated 11 . 12 . 13 of the vehicle 10 , The learning module recognizes this 43 a certain occupant 20 . 21 based on the facial expression while performing a function of a device to be operated 11 . 12 . 13 of the vehicle 10 on the facial expression and the hand movement of the occupant 20 . 21 recognizes.

Ferner umfasst die Steuerungseinheit 40 einen ersten Datenspeicher 44, der zum Speichern und/oder Lesen eines Interaktionsprofils eines bestimmten Insassen 20, 21 konfiguriert ist. Ein Interaktionsprofil eines Insassen 20, 21 umfasst eine Mehrzahl von Zuordnungen jeweils einer Kombination eines erkannten Gesichtsausdrucks und einer erkannten Handbewegung des Insassen 20, 21 zu einer Funktion eines Geräts 11, 12, 13 des Fahrzeugs 10. Das Lernmodul 43 kann auf den ersten Datenspeicher 44 zugreifen, um darin gespeicherte Interaktionsprofile von Insassen 20, 21 des Fahrzeugs 10 anzulegen und aktuell zu halten. Alternativ oder zusätzlich können in dem ersten Datenspeicher 44 von dem Datenspeicher 51 des Servers 50 geladene Interaktionsprofile lokal gespeichert und aktualisiert werden.Furthermore, the control unit comprises 40 a first data store 44 which is for storing and / or reading an interaction profile of a particular occupant 20 . 21 is configured. An interaction profile of an occupant 20 . 21 includes a plurality of assignments each of a combination of a recognized facial expression and a detected hand movement of the occupant 20 . 21 to a function of a device 11 . 12 . 13 of the vehicle 10 , The learning module 43 can on the first data store 44 access to stored in it interaction profiles of inmates 20 . 21 of the vehicle 10 create and keep up to date. Alternatively or additionally, in the first data memory 44 from the data store 51 of the server 50 loaded interaction profiles are saved and updated locally.

Die Steuerungseinheit 40 umfasst weiterhin einen zweiten Datenspeicher 45, der konfiguriert ist, dem Lernmodul 43 Referenzdaten zu Gesichtsausdrücken und Handbewegungen bereitzustellen. Die Referenzdaten stammen von einer großen Vielzahl von Personen und bilden eine Datenbasis zu Vergleichszwecken. Aufgrund der Referenzdaten des zweiten Datenspeichers 45 ist das Erkennen von extrahierten Gesichtsausdrücken und Handbewegungen für das Lernmodul 43 erleichtert.The control unit 40 further includes a second data store 45 that is configured to the learning module 43 Provide reference data on facial expressions and hand movements. The reference data comes from a large number of people and forms a database for comparison purposes. Based on the reference data of the second data memory 45 is the recognition of extracted facial expressions and hand movements for the learning module 43 facilitated.

Die 3 zeigt in einem Flussdiagramm eine Ausführungsform eines erfindungsgemäßen Verfahrens 100. Während des Betriebs der Mensch-Maschine-Schnittstelle 30 werden Bildsequenzen der bestimmten Insassen 20, 21 mittels der Kameras 31, 32 kontinuierlich in Echtzeit aufgenommen. Die aufgenommenen Bildsequenzen werden von dem Bildverarbeitungsmodul 41 fortlaufend analysiert. Infolge der Analyse werden Gesichtsausdrücke und Handbewegungen des bestimmten Insassen 20, 21 aus den Echtzeitbildern jeweils separat extrahiert 110.The 3 shows in a flow chart an embodiment of a method according to the invention 100 , During operation of the man-machine interface 30 become image sequences of the particular occupants 20 . 21 by means of the cameras 31 . 32 continuously recorded in real time. The captured image sequences are taken by the image processing module 41 analyzed on an ongoing basis. As a result of the analysis, facial expressions and hand movements of the particular occupant become 20 . 21 extracted separately from the real-time images 110 ,

Das separate Extrahieren 110 eines Gesichtsausdrucks und einer Handbewegung erfolgt auf der Basis von zu einem Gesicht und einer Hand korrespondierenden sichtbaren und räumlich getrennten Hautbereichen des jeweiligen Insassen 20, 21. Dabei werden der Gesichtsausdruck mittels des von dem Bildverarbeitungsmodul 41 umfassten Mimikerkennungsalgorithmus und die Handbewegung mittels des von dem Bildverarbeitungsmodul 41 umfassten Gestikerkennungsalgorithmus extrahiert.The separate extract 110 a facial expression and a hand movement takes place on the basis of corresponding to a face and a hand visible and spatially separated skin areas of the respective occupant 20 . 21 , In this case, the facial expression by means of the image processing module 41 included facial expression recognition algorithm and hand movement by means of the image processing module 41 extracted gesture recognition algorithm.

Anhand des extrahierten Gesichtsausdrucks wird der bestimmte Insasse 20, 21 erkannt 120. Eine zu betätigende Funktion eines Geräts 11, 12, 13 wird zunächst jeweils unabhängig anhand des extrahierten Gesichtsausdrucks erkannt 130 und anhand der extrahierten Handbewegung erkannt 140. Für ein differenzierteres und/oder zuverlässigeres Erkennen einer zu betätigenden Funktion eines Geräts 11, 12, 13 werden dann der erkannte Gesichtsausdruck und die erkannte Handbewegung miteinander kombiniert 150. Anschließend wird automatisch die von dem Insassen 20, 21 gewünschte Funktion des Geräts 11, 12, 13 betätigt 160.Based on the extracted facial expression becomes the particular occupant 20 . 21 recognized 120 , A function to be operated on a device 11 . 12 . 13 is first recognized independently on the basis of the extracted facial expression 130 and detected by the extracted hand movement 140 , For a more differentiated and / or more reliable recognition of a function of a device to be actuated 11 . 12 . 13 then become the recognized facial expression and the recognized hand movement combined 150 , Subsequently, the car is automatically taken by the passenger 20 . 21 desired function of the device 11 . 12 . 13 actuated 160.

Die Gesichtsausdrücke und Handbewegungen des Insassen 20, 21 werden mittels des in dem Lernmodul 43 implementierten Algorithmus zum maschinellen Lernen verarbeitet. Dadurch wird es der Mensch-Maschine-Schnittstelle 30 möglich, Gesichtsausdrücke und/oder Handbewegungen eines bestimmten Insassen 20, 21 zu erlernen, die jeweils zu betätigende Funktion eines Geräts 11, 12, 13 des Fahrzeugs 10 nach entsprechendem Training immer zuverlässiger zu erkennen und dabei eine unvermeidliche natürliche Variabilität der Mimik und der Gestik des Insassen 20, 21 zu tolerieren.The facial expressions and hand movements of the occupant 20 . 21 be using the in the learning module 43 implemented algorithm for machine learning. This makes it the human-machine interface 30 possible, facial expressions and / or hand movements of a particular occupant 20 . 21 to learn the particular function of a device to be operated 11 . 12 . 13 of the vehicle 10 to recognize more and more reliable after appropriate training and thereby an inevitable natural variability of the facial expressions and gestures of the occupant 20 . 21 to tolerate.

Eine Mehrzahl von Zuordnungen jeweils einer Kombination eines erkannten Gesichtsausdrucks und einer erkannten Handbewegung des bestimmten Insassen 20, 21 zu einer Funktion eines Geräts 11, 12, 13 des Fahrzeugs 10 wird zu einem Interaktionsprofil des Insassen 20, 21 zusammengefasst und in dem ersten Datenspeicher 44 der Steuerungseinheit 40 gespeichert.A plurality of assignments each of a combination of a recognized facial expression and a detected hand movement of the particular occupant 20 . 21 to a function of a device 11 . 12 . 13 of the vehicle 10 becomes an interaction profile of the occupant 20 . 21 summarized and in the first data store 44 the control unit 40 saved.

Jeweils nach Zustimmung des bestimmten Insassen 20, 21 kann ein Interaktionsprofil aus dem ersten Datenspeicher 44 mittels der Kommunikationseinheit 14 in dem Datenspeicher 51 des Servers 50 gespeichert oder aus dem Datenspeicher 51 des Servers 50 in den ersten Datenspeicher 44 geladen werden.In each case after approval of the particular occupant 20 . 21 can be an interaction profile from the first data store 44 by means of the communication unit 14 in the data store 51 of the server 50 stored or from the data store 51 of the server 50 in the first data store 44 getting charged.

Die erfindungsgemäße Mensch-Maschine-Schnittstelle 30 bietet den Insassen 20, 21 eines Fahrzeugs 10 ein vollkommen neues Interaktionserlebnis, indem sie ihnen aus ihrer jeweiligen Sitzposition in dem Fahrzeug 10 heraus ein besonders komfortables, intuitives und zuverlässiges Interagieren mit Geräten 11, 12, 13 des Fahrzeugs 10 erlaubt. Neben dem Fahrer 20 können Mitfahrer 21 - auch gleichzeitig oder zeitlich überlappend mit dem Fahrer 20 - bestimmte Geräte 11, 12, 13 des Fahrzeugs 10 mimisch und gestisch betätigen. Durch die Kombination einer Mimik- und einer Gestiksteuerung lassen sich Fehlzuordnungen von Insassen 20, 21 einerseits und zu betätigenden Funktionen von Geräten 11, 12, 13 andererseits deutlich reduzieren oder sogar völlig ausschließen.The human-machine interface according to the invention 30 offers the inmates 20 . 21 of a vehicle 10 a completely new interaction experience, putting them out of their respective seating position in the vehicle 10 out a particularly comfortable, intuitive and reliable interaction with devices 11 . 12 . 13 of the vehicle 10 allowed. Next to the driver 20 can riders 21 - Also at the same time or overlapping with the driver 20 - certain devices 11 . 12 . 13 of the vehicle 10 mimic and gesticulate. The combination of facial expressions and gesture control allows misallocation of occupants 20 . 21 on the one hand and the functions of devices to be operated 11 . 12 . 13 On the other hand, significantly reduce or even completely exclude.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

1010
Fahrzeugvehicle
1111
Gerätdevice
1212
Gerätdevice
1313
Gerätdevice
1414
Kommunikationseinheitcommunication unit
2020
Insasseinmate
2121
Insasseinmate
3030
Mensch-Maschine-SchnittstelleHuman-machine interface
3131
Kameracamera
3232
Kameracamera
3333
Anzeigeeinheitdisplay unit
4040
Steuerungseinheitcontrol unit
4141
BildverarbeitungsmodulImage processing module
4242
Betätigungsmodulactuation module
4343
Lernmodullearning module
4444
Datenspeicherdata storage
4545
Datenspeicherdata storage
5050
Serverserver
5151
Datenspeicherdata storage
100100
Verfahrenmethod
110110
Separates Extrahieren von Gesichtsausdrücken und HandbewegungenSeparate extraction of facial expressions and hand movements
120120
Erkennen eines Insassen anhand eines GesichtsausdrucksRecognizing an occupant by facial expression
130130
Erkennen einer zu betätigenden Funktion anhand eines GesichtsausdrucksRecognize a function to be operated on the basis of a facial expression
140140
Erkennen einer zu betätigenden Funktion anhand einer Handbewegung Recognizing a function to be operated by means of a hand movement
150150
Erkennen einer zu betätigenden Funktion anhand einer Kombination aus einem Gesichtsausdruck und einer HandbewegungRecognizing a function to be operated based on a combination of a facial expression and a hand movement
160160
Betätigen einer FunktionActuation of a function

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102015011522 A1 [0007]DE 102015011522 A1 [0007]
  • US 2011/0235919 A1 [0008]US 2011/0235919 A1 [0008]
  • DE 102014218457 A1 [0010]DE 102014218457 A1 [0010]

Claims (11)

Fahrzeug (10), welches eine Mehrzahl von funktionalen Geräten (11, 12, 13) und eine Mensch-Maschine-Schnittstelle (30) zum mimischen und/oder gestischen Betätigen einer Funktion eines Geräts (11, 12, 13) aufweist, bei dem die Mensch-Maschine-Schnittstelle (30) eine Kamera (31, 32) zum Erfassen eines bestimmten Insassen (20, 21) des Fahrzeugs (10) und eine mit der Kamera (31, 32) verbundene Steuerungseinheit (40) umfasst, welche konfiguriert ist, aus von der Kamera (31, 32) erfassten Bildsequenzen des Insassen (20, 21) einen Gesichtsausdruck und eine Handbewegung des Insassen (20, 21) zu extrahieren und den extrahierten Gesichtsausdruck und die extrahierte Handbewegung des bestimmten Insassen (20, 21) miteinander zu kombinieren, um eine zu betätigende Funktion eines Geräts (11, 12, 13) zu ermitteln.Vehicle (10) comprising a plurality of functional devices (11, 12, 13) and a man-machine interface (30) for mimic and / or gestural actuation of a function of a device (11, 12, 13), wherein the man-machine interface (30) comprises a camera (31, 32) for detecting a particular occupant (20, 21) of the vehicle (10) and a control unit (40) connected to the camera (31, 32) which configures is to extract a facial expression and a hand movement of the occupant (20, 21) from image sequences of the occupant (20, 21) captured by the camera (31, 32) and extract the extracted facial expression and the extracted hand movement of the particular occupant (20, 21) combine with each other to determine an operable function of a device (11, 12, 13). Fahrzeug nach Anspruch 1, bei dem die Mensch-Maschine-Schnittstelle (30) konfiguriert ist, den Insassen (20, 21) anhand des Gesichtsausdrucks des Insassen (20, 21) und eine zu betätigende Funktion eines Geräts (11, 12, 13) anhand des Gesichtsausdrucks und/oder der Handbewegung des Insassen (20, 21) zu erkennen.Vehicle after Claim 1 in which the man-machine interface (30) is configured to control the occupants (20, 21) based on the facial expression of the occupant (20, 21) and a function to be actuated by a device (11, 12, 13) on the basis of the facial expression and / or the hand movement of the occupant (20, 21) to recognize. Fahrzeug nach einem der Ansprüche 1 oder 2, bei dem die Mensch-Maschine-Schnittstelle (30) einen Datenspeicher (44) zum Speichern eines Interaktionsprofils des bestimmten Insassen (11, 12) umfasst, welches eine Mehrzahl von Zuordnungen jeweils einer Kombination eines erkannten Gesichtsausdrucks und einer erkannten Handbewegung des Insassen (20, 21) zu einer Funktion eines Geräts (11, 12, 13) umfasst.Vehicle after one of the Claims 1 or 2 in that the man-machine interface (30) comprises a data memory (44) for storing an interaction profile of the particular occupant (11, 12) having a plurality of assignments each of a combination of a recognized facial expression and a detected hand movement of the occupant (20 , 21) to a function of a device (11, 12, 13). Fahrzeug nach Anspruch 3, welches eine mit der Steuerungseinheit (40) verbundene Kommunikationseinheit (14) aufweist, welche zum drahtlosen Kommunizieren mit einem außerhalb des Fahrzeugs (10) angeordneten Server (50) ausgebildet ist, um ein in einem Datenspeicher (51) des Servers (50) gespeichertes Interaktionsprofil eines Insassen (20, 21) des Fahrzeugs (10), insbesondere mit dessen Zustimmung, in die Steuerungseinheit (40) zu laden oder ein Interaktionsprofil eines Insassen (20, 21) des Fahrzeugs (10), insbesondere mit dessen Zustimmung, in dem Datenspeicher (51) des Servers (50) zu speichern.Vehicle after Claim 3 comprising a communication unit (14) connected to the control unit (40) and configured to communicate wirelessly with a server (50) located outside the vehicle (10), around a data memory (51) of the server (50) Interaction profile of an occupant (20, 21) of the vehicle (10), in particular with its consent to load in the control unit (40) or an interaction profile of an occupant (20, 21) of the vehicle (10), in particular with its consent, in the Store data memory (51) of the server (50). Fahrzeug nach einem der vorhergehenden Ansprüche, bei welchem der bestimmte Insasse (20, 21) der Fahrer (20) des Fahrzeugs (10) und/oder ein Mitfahrer (21) in dem Fahrzeug (10) ist.A vehicle according to any one of the preceding claims, wherein the particular occupant (20, 21) is the driver (20) of the vehicle (10) and / or a passenger (21) in the vehicle (10). Verfahren (100) zum mimischen und gestischen Betätigen einer Funktion eines Geräts (11, 12, 13) eines Fahrzeugs (10), insbesondere eines Fahrzeugs nach einem der vorhergehenden Ansprüche, durch einen bestimmten Insassen (20, 21) des Fahrzeugs (10), bei dem - Bildsequenzen des bestimmten Insassen (20, 21) mittels einer Kamera (31, 32) kontinuierlich in Echtzeit aufgenommen werden, - die aufgenommenen Bildsequenzen analysiert und aus den Echtzeitbildern mittels einer Steuerungseinheit (40) des Fahrzeugs (10) ein Gesichtsausdruck und eine Handbewegung des bestimmten Insassen (20, 21) jeweils separat extrahiert (110) werden, - die extrahierten Gesichtsausdrücke und Handbewegungen des Insassen (20, 21) miteinander kombiniert (150) werden, um eine zu betätigende Funktion eines Geräts (11, 12, 13) zu ermitteln, und - das Gerät (11, 12, 13) entsprechend der ermittelten Funktion betätigt (160) wird.Method (100) for mimicking and gesturing a function of a device (11, 12, 13) of a vehicle (10), in particular of a vehicle according to one of the preceding claims, by a specific occupant (20, 21) of the vehicle (10), in which Image sequences of the particular occupant (20, 21) are recorded continuously in real time by means of a camera (31, 32), the recorded image sequences are analyzed and from the real-time images by means of a control unit (40) of the vehicle (10) a facial expression and a hand movement of the particular occupant (20, 21) are separately extracted (110), - the extracted facial expressions and hand movements of the occupant (20, 21) are combined (150) to determine a function of a device (11, 12, 13) to be actuated, and - The device (11, 12, 13) according to the determined function is actuated (160). Verfahren nach Anspruch 6, bei dem der Insasse (20, 21) an dem Gesichtsausdruck erkannt (120) wird und/oder eine zu betätigende Funktion eines Geräts (11, 12, 13) anhand des Gesichtsausdrucks und/oder der Handbewegung des Insassen (20, 21) erkannt (130, 140) wird.Method according to Claim 6 in which the occupant (20, 21) is recognized (120) on the facial expression and / or detects a function of a device (11, 12, 13) to be actuated based on the facial expression and / or the hand movement of the occupant (20, 21) (130, 140). Verfahren nach einem der Ansprüche 6 oder 7, bei dem das separate Extrahieren eines Gesichtsausdrucks und einer Handbewegung jeweils aufgrund von zu einem Gesicht und einer Hand korrespondierenden sichtbaren und räumlich getrennten Hautbereichen des Insassen (20, 21) erfolgt und bei dem insbesondere der Gesichtsausdruck mittels eines Mimikerkennungsalgorithmus und/oder die Handbewegung mittels eines Gestikerkennungsalgorithmus erkannt werden.Method according to one of Claims 6 or 7 in which the separate extraction of a facial expression and a hand movement in each case on the basis of corresponding to a face and a hand visible and spatially separated skin areas of the occupant (20, 21) and in which in particular the facial expression by means of a facial expression detection algorithm and / or the hand movement by means of a Gestikerkennungsalgorithmus be recognized. Verfahren nach einem der Ansprüche 6 bis 8, bei dem die Gesichtsausdrücke und Handbewegungen des Insassen (20, 21) mittels eines Lernmoduls (43) verarbeitet werden, um Gesichtsausdrücke und/oder Handbewegungen eines bestimmten Insassen (20, 21) zu erlernen.Method according to one of Claims 6 to 8th in which the facial expressions and hand movements of the occupant (20, 21) are processed by means of a learning module (43) to learn facial expressions and / or hand movements of a particular occupant (20, 21). Verfahren nach einem der Ansprüche 6 bis 9, bei dem eine Mehrzahl von Zuordnungen jeweils einer Kombination eines erkannten Gesichtsausdrucks und einer erkannten Handbewegung des Insassen (20, 21) zu einer Funktion eines Geräts (11, 12, 13) des Fahrzeugs (10) in einem Interaktionsprofil zusammengefasst wird, welches insbesondere mit Zustimmung des bestimmten Insassen (20, 21) mittels einer in dem Fahrzeug vorgesehenen Kommunikationseinheit (14) in einem Datenspeicher (51) eines außerhalb des Fahrzeugs (10) angeordneten Servers (50) gespeichert und/oder aus dem Datenspeicher (51) eines außerhalb des Fahrzeugs (10) angeordneten Servers (50) geladen wird.Method according to one of Claims 6 to 9 in which a plurality of associations each of a combination of a recognized facial expression and a recognized hand movement of the occupant (20, 21) to a function of a device (11, 12, 13) of the vehicle (10) is summarized in an interaction profile, which in particular Consent of the particular occupant (20, 21) stored by means of a provided in the vehicle communication unit (14) in a data memory (51) of a vehicle outside the vehicle (10) server (50) and / or from the data memory (51) one outside the Vehicle (10) arranged server (50) is loaded. Verfahren nach Anspruch 10, bei dem das Interaktionsprofil des bestimmten Insassen (20, 21) in dem Datenspeicher (51) gespeichert und aus dem Datenspeicher (51) zum wahlweisen Verwenden in mehreren verschiedenen Fahrzeugen (10), insbesondere Fahrzeugen (10) einer Fahrzeugflotte eines Unternehmens oder eines Car-Sharing-Pools, geladen wird.Method according to Claim 10 in which the interaction profile of the particular occupant (20, 21) in stored in the data memory (51) and loaded from the data memory (51) for selective use in a plurality of different vehicles (10), in particular vehicles (10) of a vehicle fleet of a company or a car-sharing pool.
DE102017216837.4A 2017-09-22 2017-09-22 Gesture and facial expression control for a vehicle Withdrawn DE102017216837A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102017216837.4A DE102017216837A1 (en) 2017-09-22 2017-09-22 Gesture and facial expression control for a vehicle
US16/137,073 US10710457B2 (en) 2017-09-22 2018-09-20 Gesture and facial expressions control for a vehicle
CN201811107674.6A CN109552340B (en) 2017-09-22 2018-09-21 Gesture and expression control for vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017216837.4A DE102017216837A1 (en) 2017-09-22 2017-09-22 Gesture and facial expression control for a vehicle

Publications (1)

Publication Number Publication Date
DE102017216837A1 true DE102017216837A1 (en) 2019-03-28

Family

ID=65638176

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017216837.4A Withdrawn DE102017216837A1 (en) 2017-09-22 2017-09-22 Gesture and facial expression control for a vehicle

Country Status (3)

Country Link
US (1) US10710457B2 (en)
CN (1) CN109552340B (en)
DE (1) DE102017216837A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020213498A1 (en) 2020-10-27 2022-04-28 Robert Bosch Gesellschaft mit beschränkter Haftung Method for transferring a machine to a safe state using gesture control, a control device, and a machine and computer program
DE102020214556A1 (en) 2020-11-19 2022-05-19 Volkswagen Aktiengesellschaft Communication system for a vehicle for dealing with an occupant's sleep disorder
DE102022211287A1 (en) 2022-10-25 2024-04-25 Stellantis Auto Sas Vehicle function control using facial expressions recognized by mobile device

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170129160A (en) * 2015-03-20 2017-11-24 스미토모 겐키 가부시키가이샤 Shovel
US10860841B2 (en) * 2016-12-29 2020-12-08 Samsung Electronics Co., Ltd. Facial expression image processing method and apparatus
WO2019094618A1 (en) * 2017-11-08 2019-05-16 Signall Technologies Zrt Computer vision based sign language interpreter
KR102479072B1 (en) * 2017-12-22 2022-12-19 삼성전자주식회사 Method for Outputting Contents via Checking Passenger Terminal and Distraction
KR102041965B1 (en) * 2017-12-26 2019-11-27 엘지전자 주식회사 Display device mounted on vehicle
JP7091983B2 (en) * 2018-10-01 2022-06-28 トヨタ自動車株式会社 Equipment control device
KR102807290B1 (en) * 2019-04-19 2025-05-15 후지쯔 가부시끼가이샤 Image processing device, image processing method and image processing program
KR102860507B1 (en) * 2019-08-12 2025-09-17 엘지전자 주식회사 Control Method and Control Device for IVI
CN111516642B (en) * 2020-04-30 2021-11-30 乐清市泰博恒电子科技有限公司 New energy automobile awakening system based on human behavior analysis
CN111645701B (en) * 2020-04-30 2022-12-06 长城汽车股份有限公司 A vehicle control method, device and system
US11590929B2 (en) * 2020-05-05 2023-02-28 Nvidia Corporation Systems and methods for performing commands in a vehicle using speech and image recognition
US20220219644A1 (en) * 2021-01-11 2022-07-14 GM Global Technology Operations LLC Gesture recognition system for a vehicle
US12472869B2 (en) * 2021-11-04 2025-11-18 Joyson Safety Systems Acquisition Llc Systems and methods for driver warnings upon child identification and bypass options based on gesture and posture detection
CN115092163A (en) * 2022-06-21 2022-09-23 重庆长安汽车股份有限公司 Artificial intelligence auxiliary driving method and system and automobile
US12333872B2 (en) 2022-09-23 2025-06-17 The Boeing Company Vehicle control usage monitoring
US12194919B2 (en) * 2023-02-20 2025-01-14 GM Global Technology Operations LLC Method and system for enabling vehicle connected services for hearing-impaired vehicle occupants

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110235919A1 (en) 2008-12-17 2011-09-29 Aisin Seiki Kabushiki Kaisha Eye open/close recognizing apparatus and recording medium
US20130066526A1 (en) * 2011-09-09 2013-03-14 Thales Avionics, Inc. Controlling vehicle entertainment systems responsive to sensed passenger gestures
US20130204457A1 (en) * 2012-02-06 2013-08-08 Ford Global Technologies, Llc Interacting with vehicle controls through gesture recognition
US20150053066A1 (en) * 2013-08-20 2015-02-26 Harman International Industries, Incorporated Driver assistance system
DE102014218457A1 (en) 2014-09-15 2016-03-17 Conti Temic Microelectronic Gmbh TRANSPORTABLE STORAGE UNIT FOR AT LEAST ONE SENSOR OF A DRIVER ASSISTANCE SYSTEM OF A VEHICLE
DE102015011522A1 (en) 2015-09-03 2016-05-12 Daimler Ag Driver assistance device
DE102015008448A1 (en) * 2015-06-30 2017-01-05 Audi Ag Method for detecting a driving situation of a motor vehicle
DE102015221607A1 (en) * 2015-11-04 2017-05-04 Continental Automotive Gmbh Driver assistance system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8751215B2 (en) * 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US20110304541A1 (en) * 2010-06-11 2011-12-15 Navneet Dalal Method and system for detecting gestures
US9493130B2 (en) * 2011-04-22 2016-11-15 Angel A. Penilla Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input
US20170247000A1 (en) * 2012-03-14 2017-08-31 Autoconnect Holdings Llc User interface and virtual personality presentation based on user profile
CN103425238A (en) * 2012-05-21 2013-12-04 刘鸿达 Gesture-based control system cloud system
CN106293383A (en) * 2015-06-19 2017-01-04 奥迪股份公司 For the method controlling the interface device of motor vehicles

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110235919A1 (en) 2008-12-17 2011-09-29 Aisin Seiki Kabushiki Kaisha Eye open/close recognizing apparatus and recording medium
US20130066526A1 (en) * 2011-09-09 2013-03-14 Thales Avionics, Inc. Controlling vehicle entertainment systems responsive to sensed passenger gestures
US20130204457A1 (en) * 2012-02-06 2013-08-08 Ford Global Technologies, Llc Interacting with vehicle controls through gesture recognition
US20150053066A1 (en) * 2013-08-20 2015-02-26 Harman International Industries, Incorporated Driver assistance system
DE102014218457A1 (en) 2014-09-15 2016-03-17 Conti Temic Microelectronic Gmbh TRANSPORTABLE STORAGE UNIT FOR AT LEAST ONE SENSOR OF A DRIVER ASSISTANCE SYSTEM OF A VEHICLE
DE102015008448A1 (en) * 2015-06-30 2017-01-05 Audi Ag Method for detecting a driving situation of a motor vehicle
DE102015011522A1 (en) 2015-09-03 2016-05-12 Daimler Ag Driver assistance device
DE102015221607A1 (en) * 2015-11-04 2017-05-04 Continental Automotive Gmbh Driver assistance system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020213498A1 (en) 2020-10-27 2022-04-28 Robert Bosch Gesellschaft mit beschränkter Haftung Method for transferring a machine to a safe state using gesture control, a control device, and a machine and computer program
DE102020214556A1 (en) 2020-11-19 2022-05-19 Volkswagen Aktiengesellschaft Communication system for a vehicle for dealing with an occupant's sleep disorder
WO2022106176A1 (en) 2020-11-19 2022-05-27 Volkswagen Aktiengesellschaft Communication system for a vehicle for acting in the event of a sleeping disorder with an occupant
DE102022211287A1 (en) 2022-10-25 2024-04-25 Stellantis Auto Sas Vehicle function control using facial expressions recognized by mobile device
WO2024088623A1 (en) 2022-10-25 2024-05-02 Stellantis Auto Sas Vehicle function control by means of facial expression detected by mobile device

Also Published As

Publication number Publication date
US10710457B2 (en) 2020-07-14
US20190092169A1 (en) 2019-03-28
CN109552340A (en) 2019-04-02
CN109552340B (en) 2022-04-19

Similar Documents

Publication Publication Date Title
DE102017216837A1 (en) Gesture and facial expression control for a vehicle
EP2751788B1 (en) Device for setting at least one operating parameter of at least one vehicle system in a motor vehicle
DE102012013503B4 (en) Method and control system for operating a motor vehicle
DE102016001314B4 (en) Operating device and method for receiving a string from a user in a motor vehicle
DE102016211494A1 (en) Control device for a motor vehicle
DE102007023140A1 (en) Method for recognition or identification of driver of motor vehicle, involves capturing movement or movement sequence of driver or person by camera system
EP3254172B1 (en) Determination of a position of a non-vehicle object in a vehicle
DE102016121032A1 (en) Gesture-based interaction between vehicle and user
EP3488320B1 (en) Device and method for assisting a user
DE102013206197A1 (en) Method for controlling a central locking arrangement in a vehicle
DE102016211495A1 (en) Control device for a motor vehicle
DE102017206876B4 (en) Method of operating a voice control system in a motor vehicle and voice control system
DE10140097A1 (en) Method for assisting an operator of a device in finding an operating element
DE102020201235A1 (en) Method and system for controlling motor vehicle functions
DE102017103391A1 (en) Method for improving the user-friendliness of a vehicle
DE102021101978A1 (en) control of a vehicle
DE102022126772A1 (en) User interface, means of transport and method for interacting with a means of transport
DE102022102504B9 (en) Method for operating an interface device in a vehicle, and interface device and vehicle
WO2024083365A1 (en) Method for monitoring a motor vehicle
DE102021128260A1 (en) Voice control on board a vehicle
DE102014004674B4 (en) Lighting device for a motor vehicle and associated method
DE102019127183A1 (en) Display system for displaying an operating instruction for an operating element in a motor vehicle
DE102013013168A1 (en) Method for operating an infotainment system of a motor vehicle and infotainment system for a motor vehicle
DE102024106499A1 (en) Method and system for selectively outputting a welcome staging of a motor vehicle
DE102018206570A1 (en) Holographic display operator and method for operating a holographic display operator

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: RDL PATENTANWAELTE PARTG MBB, DE

Representative=s name: RAIBLE, DEISSLER, LEHMANN PATENTANWAELTE PARTG, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee