[go: up one dir, main page]

DE102017216837A1 - Gestik- und Mimiksteuerung für ein Fahrzeug - Google Patents

Gestik- und Mimiksteuerung für ein Fahrzeug Download PDF

Info

Publication number
DE102017216837A1
DE102017216837A1 DE102017216837.4A DE102017216837A DE102017216837A1 DE 102017216837 A1 DE102017216837 A1 DE 102017216837A1 DE 102017216837 A DE102017216837 A DE 102017216837A DE 102017216837 A1 DE102017216837 A1 DE 102017216837A1
Authority
DE
Germany
Prior art keywords
vehicle
occupant
facial expression
function
hand movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017216837.4A
Other languages
English (en)
Inventor
Anil Thurimella
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102017216837.4A priority Critical patent/DE102017216837A1/de
Priority to US16/137,073 priority patent/US10710457B2/en
Priority to CN201811107674.6A priority patent/CN109552340B/zh
Publication of DE102017216837A1 publication Critical patent/DE102017216837A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/85Arrangements for transferring vehicle- or driver-related data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Automation & Control Theory (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Fahrzeug mit einer Mehrzahl von Geräten und einer Mensch-Maschine-Schnittstelle (Human Machine Interface, HMI) zum mimischen und/oder gestischen Betätigen einer Funktion eines Geräts des Fahrzeugs, welche eine Kamera zum Erfassen eines bestimmten Insassen des Fahrzeugs und eine mit der Kamera verbundene Steuerungseinheit umfasst.

Description

  • Die vorliegende Erfindung betrifft ein Fahrzeug mit einer Mehrzahl von Geräten und einer Mensch-Maschine-Schnittstelle (Human Machine Interface, HMI) zum mimischen und/oder gestischen Betätigen einer Funktion eines Geräts des Fahrzeugs, welche eine Kamera zum Erfassen eines bestimmten Insassen des Fahrzeugs und eine mit der Kamera verbundene Steuerungseinheit umfasst. Ferner betrifft die vorliegende Erfindung ein Verfahren zum Betätigen einer Funktion eines Geräts eines Fahrzeugs mittels einer Mimik und einer Gestik eines bestimmten Insassen des Fahrzeugs.
  • Moderne Fahrzeuge weisen gewöhnlich eine Vielzahl unterschiedlicher Funktionen auf, die teilweise weit über ein bloßes Steuern des Fahrzeugs hinausgehen. Entsprechend werden Fahrzeuge mit dem Ziel entwickelt, insbesondere dem Fahrer eines Fahrzeugs ein möglichst einfaches Betätigen und Überwachen aller vorgesehenen Fahrzeugfunktionen zu ermöglichen. Dazu werden dem Fahrer die einzelnen Funktionen des Fahrzeugs im Allgemeinen über eine oder mehrere Mensch-Maschinen-Schnittstellen zugänglich gemacht.
  • Jede Mensch-Maschinen-Schnittstelle erlaubt also ein zumeist bidirektionales Interagieren des Fahrers oder weiterer Insassen des Fahrzeugs mit dem Fahrzeug und kann in ihrer einfachsten Form beispielsweise einen Hebel, einen Drehknopf, einen Kippschalter, einen Tastschalter oder ein Pedal sowie eine analoge oder digitale Anzeige, eine Kontroll- oder eine Warnleuchte umfassen.
  • Zunehmend werden Fahrzeuge mit sogenannten Fahrerassistenzsystemen ausgestattet, welche den Fahrer beim Steuern eines Fahrzeugs unterstützen und/oder entlasten und dadurch ein Unfallrisiko für das Fahrzeug verringern oder die Sicherheit der Fahrzeuginsassen erhöhen. Beispielsweise sind Einparkhilfen zum Unterstützen des Fahrers beim Parken des Fahrzeugs erhältlich, die von einfachen Abstandssensoren mit Warnfunktion über Rückraumkameras mit bequem beobachtbaren Bildschirmen bis hin zu vollautomatischen Einparkassistenten reichen, welche ein Fahrzeug ohne Eingreifen des Fahrers selbständig rückwärts einparken.
  • Ein weiteres Beispiel für fortgeschrittene Fahrerassistenzsysteme stellen sogenannte Bremsassistenten dar, welche den Raum vor einem fahrenden Fahrzeug überwachen und das Fahrzeug automatisch abbremsen, wenn sich der Abstand des Fahrzeugs zu einem vorausfahrenden Fahrzeug, anderen Verkehrsteilnehmern, wie Fahrradfahrern oder Fußgängern, oder einem sonstigen Hindernis unter einen bestimmten von der Geschwindigkeit des Fahrzeugs abhängigen Wert verringert.
  • Viele Verkehrsunfälle von Fahrzeugen gehen auf eine Unaufmerksamkeit der jeweiligen Fahrer zurück. Zu einer Unaufmerksamkeit eines Fahrers kann es infolge einer Ablenkung, einer mangelnden Konzentration, einer Müdigkeit oder eines Sekundenschlafs kommen. Ein Fahrerassistenzsystem zum Erkennen einer Unaufmerksamkeit des Fahrers erfordert entsprechend eine hochspezialisierte Mensch-Maschine-Schnittstelle.
  • So offenbart die DE 10 2015 011 522 A1 eine Fahrerassistenzvorrichtung für ein Fahrzeug, welche eine Bilderfassungsvorrichtung mit einer in das Lenkrad des Fahrzeugs integrierten Kamera umfasst. Die Kamera ist im Wesentlichen auf den Kopf des Fahrers ausgerichtet, um für die Unaufmerksamkeit bzw. Müdigkeit des Fahrers relevante Parameter, wie einen Augenlidschlag, einen Augenlidschluss, einen Blickwinkel, eine Kopfneigung und/oder Kopfbewegungen des Fahrers, zu erfassen. Bei Erkennen einer Unaufmerksamkeit bzw. einer Müdigkeit des Fahrers kann eine entsprechende Warnung ausgelöst werden.
  • Aus der US 2011/0235919 A1 ist eine ähnliche Vorrichtung bekannt, welche zum Erkennen geöffneter/geschlossener Augen eine Kamera und eine Steuerungseinheit umfasst und in einem Fahrzeug verwendet werden kann, um einen Sekundenschlaf des Fahrers festzustellen. Die Vorrichtung analysiert neben dem Öffnungsgrad der Augen auch den gesamten Gesichtsausdruck des Fahrers, um bei Gesichtsausdrücken des Fahrers, welche geschlossene oder nahezu geschlossene Augen im Wachzustand aufweisen, eine fehlerhafte Feststellung eines Sekundenschlafs zu vermeiden.
  • Es sind demgegenüber auch Fahrerassistenzsysteme bekannt, welche in erster Linie darauf abzielen, ein Betätigen der Funktionen eines Fahrzeugs an sich sowohl einheitlicher und intuitiver zu gestalten als auch neben dem Fahrer mindestens teilweise weiteren Fahrzeuginsassen zu gestatten. Beispielsweise könnte den weiteren Fahrzeuginsassen durch ein entsprechendes Assistenzsystem ein bequemes Bedienen eines Unterhaltungssystems, wie eines in dem Fahrzeug verbauten Radios oder einer Musikanlage, ermöglicht werden. Derartige Fahrerassistenzsysteme erfordern naturgemäß entsprechend komplex ausgebildete Mensch-Maschine-Schnittstellen.
  • Die DE 10 2014 218 457 A1 offenbart eine transportable Speichereinheit mit einem Prozessor zum Verbinden mit einer Datenschnittstelle eines Sensors eines Fahrerassistenzsystems eines Fahrzeugs. Die Speichereinheit ist mit verschiedenen Sensoren des Fahrerassistenzsystems verbindbar und umfasst zur Interaktion mit Fahrzeuginsassen eine Mensch-Maschine-Schnittstelle, welche eine Kamera zum optischen Überwachen eines Fahrzeugraums, eine Lichtquelle zum Beleuchten des Fahrzeugraums oder zum Abgeben von Lichtsignalen, ein Mikrofon zum akustischen Überwachen des Fahrzeugraums, einen Lautsprecher zum Abgeben akustischer Signale und/oder einen Radarsensor zum Erfassen von Fahrzeuginsassen in dem Fahrzeugraum bei Dunkelheit aufweist. Mit der Kamera kann die Gestik oder Mimik eines bestimmten Fahrzeuginsassen erfasst werden, um eine zu betätigende Funktion des Fahrzeugs zu ermitteln. Dazu muss die Gestik- oder Mimikerfassung von dem bestimmten Fahrzeuginsassen per Sprachbefehl aktiviert werden. Wenn die transportable Speichereinheit in einen Schlüssel eines Fahrzeugs integriert ist, kann zudem vorgesehen sein, ein Starten des Fahrzeugs erst nach einer erfolgreichen Authentifikation des Fahrers mittels Spracherkennung und/oder Gesichtserkennung zu erlauben.
  • Allerdings ist es bislang nicht möglich, dass verschiedene Fahrzeuginsassen, d. h. der Fahrer und mindestens der Beifahrer oder ein weiterer Mitfahrer, gleichzeitig oder zeitlich überlappend über eine gemeinsame Mensch-Maschine-Schnittstelle mit einem Fahrzeug interagieren.
  • Der Erfindung liegt daher die Aufgabe zugrunde, ein Fahrzeug mit einer verbesserten Mensch-Maschine-Schnittstelle zur Verfügung zu stellen, welche die beschriebenen Nachteile vermeidet und ein gleichzeitiges oder zeitlich überlappendes Interagieren verschiedener Fahrzeuginsassen mit dem Fahrzeug ermöglicht. Darüber hinaus ist es eine Aufgabe der Erfindung, ein Verfahren zum gleichzeitigen oder zeitlich überlappenden Betätigen von Funktionen eines Fahrzeugs durch verschiedene Fahrzeuginsassen anzugeben.
  • Ein Gegenstand der Erfindung ist ein Fahrzeug mit einer Mehrzahl von funktionalen Geräten und einer Mensch-Maschine-Schnittstelle (Human Machine Interface, HMI) zum mimischen und gestischen Betätigen einer Funktion eines Geräts des Fahrzeugs. Die Mensch-Maschine-Schnittstelle umfasst eine Kamera zum Erfassen eines bestimmten Insassen des Fahrzeugs und eine mit der Kamera verbundene Steuerungseinheit.
  • Bei einer Ausführungsform ist die Steuerungseinheit konfiguriert, aus von der Kamera erfassten Bildsequenzen des Insassen einen Gesichtsausdruck und eine Handbewegung des Insassen zu extrahieren und den extrahierten Gesichtsausdruck und die extrahierte Handbewegung des bestimmten Insassen miteinander zu kombinieren, um eine zu betätigende Funktion des Fahrzeugs zu ermitteln. Wenn das Fahrzeug bereits eine Kamera zum Erfassen eines Fahrzeugraums und eine Steuerungseinheit aufweist, ist zum Schaffen eines erfindungsgemäßen Fahrzeugs lediglich eine Installation spezieller Software-Module in der Steuerungseinheit des Fahrzeugs erforderlich. Die Software-Module können ein Bildverarbeitungsmodul, ein Betätigungsmodul und ein Lernmodul (Machine Learning Engine) umfassen, die über jeweils korrespondierende Schnittstellen miteinander interagieren. Zudem können in der Steuerungseinheit Datenspeicher vorgesehen sein, auf die das Lernmodul lesend und/oder schreibend zugreifen kann.
  • Eine Kombination von Mimik und Gestik erweitert gegenüber Mimik oder Gestik jeweils für sich genommen die Ausdrucksmöglichkeiten des Insassen und erlaubt einen höheren Differenzierungsgrad sowie eine geringere Fehlerrate beim Interagieren mit Geräten des Fahrzeugs. Insbesondere kann sich die erfindungsgemäße Mensch-Maschine-Schnittstelle auch für Gehörlose eignen. Die differenzierten Ausdrucksmöglichkeiten von deren Gebärdensprache beruhen auf einer Kombination von mimischen und gestischen Äußerungen.
  • Zudem lassen sich mehrere Insassen eines Fahrzeugs anhand einer Kombination von Mimik und Gestik gut unterscheiden, um eine ungestörte Interaktion eines bestimmten Insassen, wie beispielsweise des Fahrers mit dem Fahrzeug, auch dann sicherzustellen, wenn gleichzeitig oder zeitlich überlappend weitere Fahrzeuginsassen gestisch mit dem Fahrzeug interagieren.
  • In einer Ausführungsform ist die Mensch-Maschine-Schnittstelle konfiguriert, den Insassen anhand des Gesichtsausdrucks des Insassen und eine zu betätigende Funktion eines Geräts anhand des Gesichtsausdrucks und/oder der Handbewegung des Insassen zu erkennen. Gesichtsausdrücke eignen sich besonders gut zur Authentifikation eines bestimmten Insassen, d. h. zu dessen Identifikation, während Handbewegungen ein intuitives funktionelles Interagieren mit dem Fahrzeug erlauben. Die funktionelle Interaktion mit dem Fahrzeug kann dadurch weiter differenziert und verbessert werden, dass Gesichtsausdrücke und Handbewegungen miteinander kombiniert werden.
  • In einer Ausführungsform umfasst die Mensch-Maschine-Schnittstelle einen Datenspeicher zum Speichern eines Interaktionsprofils des bestimmten Insassen, welches eine Mehrzahl von Zuordnungen jeweils einer Kombination eines erkannten Gesichtsausdrucks und einer erkannten Handbewegung des Insassen zu einer Funktion eines Geräts umfasst. Mittels eines Datenspeichers lässt sich eine Lernfunktion der Mensch-Maschine-Schnittstelle realisieren. Während der Interaktion des bestimmten Insassen mit dem Fahrzeug speichert die Mensch-Maschinen-Schnittstelle typische Gesichtsausdrücke und Handbewegungen des bestimmten Insassen in dem Datenspeicher ab. Aufgrund der gespeicherten Mimik- und Gestikdaten lässt sich das Risiko für Fehlsteuerungen durch den bestimmten Insassen deutlich verringern. Kombinierte Mimik- und Gestikdaten jedes Fahrzeuginsassen können zusammen mit zu betätigenden Funktionen von Geräten in einem individuellen Interaktionsprofil zusammengefasst werden. Dabei kann dem bestimmten Insassen der Gesichtsausdruck und/oder die Handbewegung freigestellt sein, mit denen er eine bestimmte Funktion eines bestimmten Geräts des Fahrzeugs betätigen möchte.
  • In einer bevorzugten Ausführungsform weist das Fahrzeug eine mit der Steuerungseinheit verbundene Kommunikationseinheit auf, welche zum drahtlosen Kommunizieren mit einem außerhalb des Fahrzeugs angeordneten Server (Automotive Backend) ausgebildet ist, um ein in einem Datenspeicher des Servers gespeichertes Interaktionsprofil eines Insassen des Fahrzeugs, insbesondere mit dessen Zustimmung, in die Steuerungseinheit zu laden oder ein Interaktionsprofil eines Insassen des Fahrzeugs, insbesondere mit dessen Zustimmung, in dem Datenspeicher des Servers zu speichern. Mit anderen Worten muss ein Fahrzeuginsasse, der verschiedene Fahrzeuge nutzt, nicht jede Mensch-Maschine-Schnittstelle erneut darauf trainieren, individuelle Eigenheiten seiner mimischen oder gestischen Äußerungen zu erlernen. Infolgedessen kann ein Fahrzeuginsasse auf sein durch Training der Mensch-Maschine-Schnittstelle erzeugtes Interaktionsprofil beispielsweise ohne Weiteres aus sämtlichen Fahrzeugen einer Fahrzeugflotte zugreifen. Dies kann in größeren Unternehmen, aber auch im Rahmen des Car Sharings von Nutzen sein. Ein Server im Sinne dieser Erfindung ist auch ein Computerzentrum, ein verteiltes Computerzentrum, eine Cloud oder ein Computercluster.
  • Bei einer Ausführungsform der Mensch-Maschine-Schnittstelle ist der bestimmte Insasse der Fahrer des Fahrzeugs und/oder ein Mitfahrer in dem Fahrzeug. Das Steuern herkömmlicher Fahrzeuge erfordert eine umfangreiche Interaktion des Fahrers mit dem Fahrzeug. In solchen Fahrzeugen profitiert daher der Fahrer am meisten von der erfindungsgemäßen Mensch-Maschine-Schnittstelle. Dennoch ermöglicht die Mensch-Maschine-Schnittstelle beispielsweise dem Beifahrer oder einem weiteren Mitfahrer des Fahrzeugs ein Betätigen von Unterhaltungsgeräten des Fahrzeugs, während der Fahrer gleichzeitig sicherheitsrelevante Geräte des Fahrzeugs betätigt. Fahrzeuge mit hochautomatischer oder vollautomatischer Selbstfahrfunktion verringern das Interaktionserfordernis für den Fahrer, so dass in solchen Fahrzeugen die Interaktion weiterer Insassen des Fahrzeugs relativ zu der Fahrerinteraktion eine größere Bedeutung erhält.
  • Ein weiterer Gegenstand der Erfindung ist ein Verfahren zum mimischen und gestischen Betätigen einer Funktion eines Geräts eines Fahrzeugs durch einen bestimmten Insassen des Fahrzeugs, insbesondere mittels einer erfindungsgemäßen Mensch-Maschine-Schnittstelle.
  • Bei dem erfindungsgemäßen Verfahren werden Bildsequenzen des bestimmten Insassen mittels einer Kamera kontinuierlich in Echtzeit aufgenommen. Dazu wird von der Kamera ein Innenraum des Fahrzeugs erfasst, in dem sich ein Fahrer und ggf. weitere Insassen des Fahrzeugs aufhalten. Die aufgenommenen Bildsequenzen werden analysiert und Gesichtsausdrücke und Handbewegungen des bestimmten Insassen aus den Echtzeitbildern mittels in dem Fahrzeug installierter Software-Module jeweils separat extrahiert. Dabei werden die in den Echtzeitbildern erfassten Gesichtsausdrücke und Handbewegungen aufgrund der relativen räumlichen Anordnung in den Echtzeitbildern dem Insassen des Fahrzeugs zugeordnet.
  • Erfindungsgemäß werden die extrahierten Gesichtsausdrücke und Handbewegungen des Insassen miteinander kombiniert, um die zu betätigende Funktion des Fahrzeugs zu ermitteln. Das Kombinieren mimischer und gestischer Äußerungen kann das Risiko einer Fehlbetätigung verringern. Abgesehen davon lassen sich in einer Kombination mimische und gestische Äußerungen unterschiedlicher Insassen des Fahrzeugs gut auseinanderhalten.
  • Dann wird die ermittelte Funktion des Fahrzeugs betätigt. Mit anderen Worten interpretiert die Mensch-Maschine-Schnittstelle eine Kombination eines erkannten Gesichtsausdrucks und einer erkannten Handbewegung eines bestimmten Insassen des Fahrzeugs als Befehl an das Fahrzeug und betätigt automatisch eine entsprechende Funktionen eines Geräts des Fahrzeugs.
  • Bei einer Ausführungsform des Verfahrens wird der Insasse an dem Gesichtsausdruck und die zu betätigende Funktion des Fahrzeugs anhand der Handbewegung des Insassen erkannt. Gesichtsausdrücke eignen sich besonders gut zur Authentifikation eines bestimmten Insassen, d. h. zu dessen Identifikation, während Handbewegungen dem bestimmten Insassen ein intuitives funktionelles Interagieren mit dem Fahrzeug erlauben und eher die zu betätigende Fahrzeugfunktion adressieren. Aber auch abweichende Gewichtungen von Gesichtsausdrücken und Handbewegungen verlassen nicht den Schutzbereich der vorliegenden Erfindung.
  • Bei einer bevorzugten Ausführungsform des Verfahrens erfolgt das separate Extrahieren der Gesichtsausdrücke und Handbewegungen aufgrund von zu einem Gesicht und einer Hand korrespondierenden sichtbaren und räumlich getrennten Hautbereichen des Insassen. Sichtbare Hautbereiche lassen sich anhand ihrer Farbe meist gut von bekleideten Körperbereichen unterscheiden. Im Allgemeinen stellen Gesicht und Hände die einzigen sichtbaren Hautbereiche eines Fahrzeuginsassen dar, während andere Körperbereiche von Kleidung bedeckt sind. Entsprechend können Farbkontraste zwischen Haut und Kleidung zum Erkennen und Extrahieren eines Gesichtsausdrucks und einer Hand herangezogen werden.
  • Bei einer weiteren Ausführungsform des Verfahrens werden die Gesichtsausdrücke mittels eines Mimikerkennungsalgorithmus und/oder die Handbewegungen mittels eines Gestikerkennungsalgorithmus ermittelt. Derartige Algorithmen zum Erkennen einer Mimik und/oder einer Gestik können von einem Software-Modul umfasst sein und Gesichtsproportionen bzw. -ausdrücke und/oder Handstellungen bzw. -bewegungen aus den Echtzeitbildern ermitteln und einander zuordnen.
  • Bei einer Ausführungsform des Verfahrens werden die Gesichtsausdrücke und Handbewegungen des Insassen mittels eines Algorithmus zum maschinellen Lernen verarbeitet, um den bestimmten Insassen anhand von Gesichtsausdrücken und/oder Handbewegungen besser zu erkennen. Ein derartiger Algorithmus kann von einem Software-Modul umfasst sein. Mittels maschinellen Lernens können die mimischen und gestischen Äußerungen eines Insassen trotz einer unvermeidlichen natürlichen Variabilität zuverlässig ermittelt und ein Insasse des Fahrzeugs anhand der erkannten mimischen und gestischen Äußerungen sicher bestimmt werden.
  • Bei einer Ausführungsform des Verfahrens wird eine Mehrzahl von Zuordnungen jeweils einer Kombination eines erkannten Gesichtsausdrucks und einer erkannten Handbewegung des Insassen zu einer Funktion eines Geräts des Fahrzeugs in einem Interaktionsprofil zusammengefasst. Ein derartiges Interaktionsprofil wird dem bestimmten Insassen zugeordnet und umfasst typische Gesichtsausdrücke und Handbewegungen des bestimmten Insassen sowie damit zu betätigende Gerätefunktionen.
  • Bei einer weiteren Ausführungsform des Verfahrens wird das Interaktionsprofil nach Zustimmung des bestimmten Insassen mittels einer in dem Fahrzeug vorgesehenen Kommunikationseinheit in einem außerhalb des Fahrzeugs angeordneten Datenspeicher gespeichert und/oder aus einem außerhalb des Fahrzeugs angeordneten Datenspeicher geladen. Wenn das Interaktionsprofil außerhalb des Fahrzeugs gespeichert wird, kann es von dem bestimmten Insassen in unterschiedlichen Fahrzeugen verwendet werden. Ein mehrfaches Trainieren der Mensch-Maschine-Schnittstelle jeweils in unterschiedlichen Fahrzeugen kann infolgedessen entfallen. In dem Interaktionsprofil können ggf. auch andere Daten des bestimmten Insassen zur Verwendung in unterschiedlichen Fahrzeugen gespeichert werden. Mit anderen Worten wird durch diese Ausführungsform ein insassenzentriertes Verfahren zum Betätigen von Fahrzeugfunktionen geschaffen, welches beispielsweise für Flotten von Fahrzeugen, die von mehreren Mitarbeitern eines Unternehmens gemeinschaftlich genutzt werden, gegenüber fahrzeugzentrierten Verfahren von Vorteil ist.
  • Die Erfindung ist anhand jeweils einer Ausführungsform des Fahrzeugs und des Verfahrens in den Zeichnungen schematisch dargestellt und wird unter Bezugnahme auf die Zeichnungen weiter beschrieben. Es zeigt:
    • 1 in einer schematischen Darstellung eine Ausführungsform eines erfindungsgemäßen Fahrzeugs,
    • 2 in einem Blockschaltbild eine Ausführungsform einer Steuerungseinheit eines erfindungsgemäßen Fahrzeugs und
    • 3 in einem Flussdiagramm eine Ausführungsform des erfindungsgemäßen Verfahrens.
  • Die 1 zeigt in einer schematischen Darstellung eine Ausführungsform eines erfindungsgemäßen Fahrzeugs 10. Das Fahrzeug 10 umfasst eine Mehrzahl von Geräten 11, 12, 13, von denen zugunsten der Übersichtlichkeit lediglich drei dargestellt sind. Bei den Geräten 11, 12, 13 kann es sich um eine Fahrzeugbeleuchtung, eine Scheibenwischanlage, eine Klimaanlage, ein Navigationsgerät, ein Unterhaltungsgerät oder dergleichen handeln.
  • Ferner weist das Fahrzeug 10 eine Mensch-Maschine-Schnittstelle 30 (Human Machine Interface, HMI) auf. Die Mensch-Maschine-Schnittstelle 30 umfasst zwei Kameras 31, 32, welche in den Fahrzeugraum gerichtet sind, um bestimmte Insassen 20, 21 des Fahrzeugs 10 zu erfassen. Bei den dargestellten bestimmten Insassen 20, 21 handelt es sich um den Fahrer 20 des Fahrzeugs 10 und einen Mitfahrer 21, beispielsweise den Beifahrer in dem Fahrzeug 10. Die Mensch-Maschine-Schnittstelle 30 kann aber auch derart ausgebildet sein, dass sie nur den Fahrer 20, nur einen bestimmten Mitfahrer 21 oder auch zusätzlich weitere nicht dargestellte Mitfahrer erfasst. Ferner umfasst die Mensch-Maschine-Schnittstelle 30 eine Anzeigeeinheit 33, auf der den bestimmten Insassen 20, 21 beispielsweise Betriebszustände der Geräte 11, 12, 13 angezeigt werden.
  • Die Mensch-Maschine-Schnittstelle 30 umfasst weiterhin eine Steuerungseinheit 40. Die Steuerungseinheit 40 ist mit den Kameras 31, 32 und der Anzeigeeinheit 33 verbunden und konfiguriert, um den bestimmten Insassen 20, 21 ein auch gleichzeitiges mimisches und/oder gestisches Betätigen von Funktionen der Geräte 11, 12, 13 zu ermöglichen.
  • Das Fahrzeug 10 weist zudem eine mit der Steuerungseinheit 40 verbundene Kommunikationseinheit 14 auf. Die Kommunikationseinheit 14 ist zum drahtlosen Kommunizieren mit einem Server 50 (Automotive Backend) ausgebildet, um auf einem Datenspeicher 51 des Servers 50 Daten zu speichern oder von einem Datenspeicher 51 des Servers 50 Daten zu laden. Der Server 50 ist außerhalb des Fahrzeugs 10 angeordnet und kann beispielsweise zentral bei dem Hersteller des Fahrzeugs 10 oder in einer Zentrale eines Unternehmens mit einer Flotte von Fahrzeugen 10 angeordnet sein.
  • Die 2 zeigt in einem Blockschaltbild eine Ausführungsform einer Steuerungseinheit 40 eines erfindungsgemäßen Fahrzeugs 10. In der Steuerungseinheit 40 ist ein Bildverarbeitungsmodul 41 installiert. Das Bildverarbeitungsmodul 41 umfasst einen Mimikerkennungsalgorithmus und einen Gestikerkennungsalgorithmus und ist konfiguriert, aus von den Kameras 31, 32 erfassten Bildsequenzen basierend auf zu einem Gesicht und einer Hand korrespondierenden sichtbaren und räumlich getrennten Hautbereichen eines bestimmten Insassen 20, 21 einen Gesichtsausdruck und eine Handbewegung des Insassen 20, 21 zu extrahieren.
  • In der Steuerungseinheit 40 ist zudem ein Betätigungsmodul 42 installiert. Das Betätigungsmodul 42 ist konfiguriert, aus einer Kombination eines extrahierten Gesichtsausdrucks und einer extrahierten Handbewegung eine zu betätigende Funktion eines Geräts 11, 12, 13 zu ermitteln, die Funktion des Geräts 11, 12, 13 zu betätigen und den Betriebszustand des betätigten Geräts 11, 12, 13 auf der Anzeigeeinheit 33 anzuzeigen.
  • Ferner ist in der Steuerungseinheit 40 ein Lernmodul 43 (Machine Learning Engine) installiert. Das Lernmodul 43 umfasst einen Algorithmus zum maschinellen Lernen und ist konfiguriert, extrahierte Gesichtsausdrücke und extrahierte Handbewegungen zu erkennen, zu erlernen und einem bestimmten Insassen 20, 21 zuzuordnen. Die Kombination eines erkannten Gesichtsausdrucks mit einer erkannten Handbewegung eines bestimmten Insassen 20, 21 dient einem differenzierten und zuverlässigen Ermitteln einer von dem Insassen 20, 21 gewünschten zu betätigenden Funktion eines Geräts 11, 12, 13 des Fahrzeugs 10. Dabei erkennt das Lernmodul 43 einen bestimmten Insassen 20, 21 anhand des Gesichtsausdrucks, während sie eine zu betätigende Funktion eines Geräts 11, 12, 13 des Fahrzeugs 10 an dem Gesichtsausdruck und der Handbewegung des Insassen 20, 21 erkennt.
  • Ferner umfasst die Steuerungseinheit 40 einen ersten Datenspeicher 44, der zum Speichern und/oder Lesen eines Interaktionsprofils eines bestimmten Insassen 20, 21 konfiguriert ist. Ein Interaktionsprofil eines Insassen 20, 21 umfasst eine Mehrzahl von Zuordnungen jeweils einer Kombination eines erkannten Gesichtsausdrucks und einer erkannten Handbewegung des Insassen 20, 21 zu einer Funktion eines Geräts 11, 12, 13 des Fahrzeugs 10. Das Lernmodul 43 kann auf den ersten Datenspeicher 44 zugreifen, um darin gespeicherte Interaktionsprofile von Insassen 20, 21 des Fahrzeugs 10 anzulegen und aktuell zu halten. Alternativ oder zusätzlich können in dem ersten Datenspeicher 44 von dem Datenspeicher 51 des Servers 50 geladene Interaktionsprofile lokal gespeichert und aktualisiert werden.
  • Die Steuerungseinheit 40 umfasst weiterhin einen zweiten Datenspeicher 45, der konfiguriert ist, dem Lernmodul 43 Referenzdaten zu Gesichtsausdrücken und Handbewegungen bereitzustellen. Die Referenzdaten stammen von einer großen Vielzahl von Personen und bilden eine Datenbasis zu Vergleichszwecken. Aufgrund der Referenzdaten des zweiten Datenspeichers 45 ist das Erkennen von extrahierten Gesichtsausdrücken und Handbewegungen für das Lernmodul 43 erleichtert.
  • Die 3 zeigt in einem Flussdiagramm eine Ausführungsform eines erfindungsgemäßen Verfahrens 100. Während des Betriebs der Mensch-Maschine-Schnittstelle 30 werden Bildsequenzen der bestimmten Insassen 20, 21 mittels der Kameras 31, 32 kontinuierlich in Echtzeit aufgenommen. Die aufgenommenen Bildsequenzen werden von dem Bildverarbeitungsmodul 41 fortlaufend analysiert. Infolge der Analyse werden Gesichtsausdrücke und Handbewegungen des bestimmten Insassen 20, 21 aus den Echtzeitbildern jeweils separat extrahiert 110.
  • Das separate Extrahieren 110 eines Gesichtsausdrucks und einer Handbewegung erfolgt auf der Basis von zu einem Gesicht und einer Hand korrespondierenden sichtbaren und räumlich getrennten Hautbereichen des jeweiligen Insassen 20, 21. Dabei werden der Gesichtsausdruck mittels des von dem Bildverarbeitungsmodul 41 umfassten Mimikerkennungsalgorithmus und die Handbewegung mittels des von dem Bildverarbeitungsmodul 41 umfassten Gestikerkennungsalgorithmus extrahiert.
  • Anhand des extrahierten Gesichtsausdrucks wird der bestimmte Insasse 20, 21 erkannt 120. Eine zu betätigende Funktion eines Geräts 11, 12, 13 wird zunächst jeweils unabhängig anhand des extrahierten Gesichtsausdrucks erkannt 130 und anhand der extrahierten Handbewegung erkannt 140. Für ein differenzierteres und/oder zuverlässigeres Erkennen einer zu betätigenden Funktion eines Geräts 11, 12, 13 werden dann der erkannte Gesichtsausdruck und die erkannte Handbewegung miteinander kombiniert 150. Anschließend wird automatisch die von dem Insassen 20, 21 gewünschte Funktion des Geräts 11, 12, 13 betätigt 160.
  • Die Gesichtsausdrücke und Handbewegungen des Insassen 20, 21 werden mittels des in dem Lernmodul 43 implementierten Algorithmus zum maschinellen Lernen verarbeitet. Dadurch wird es der Mensch-Maschine-Schnittstelle 30 möglich, Gesichtsausdrücke und/oder Handbewegungen eines bestimmten Insassen 20, 21 zu erlernen, die jeweils zu betätigende Funktion eines Geräts 11, 12, 13 des Fahrzeugs 10 nach entsprechendem Training immer zuverlässiger zu erkennen und dabei eine unvermeidliche natürliche Variabilität der Mimik und der Gestik des Insassen 20, 21 zu tolerieren.
  • Eine Mehrzahl von Zuordnungen jeweils einer Kombination eines erkannten Gesichtsausdrucks und einer erkannten Handbewegung des bestimmten Insassen 20, 21 zu einer Funktion eines Geräts 11, 12, 13 des Fahrzeugs 10 wird zu einem Interaktionsprofil des Insassen 20, 21 zusammengefasst und in dem ersten Datenspeicher 44 der Steuerungseinheit 40 gespeichert.
  • Jeweils nach Zustimmung des bestimmten Insassen 20, 21 kann ein Interaktionsprofil aus dem ersten Datenspeicher 44 mittels der Kommunikationseinheit 14 in dem Datenspeicher 51 des Servers 50 gespeichert oder aus dem Datenspeicher 51 des Servers 50 in den ersten Datenspeicher 44 geladen werden.
  • Die erfindungsgemäße Mensch-Maschine-Schnittstelle 30 bietet den Insassen 20, 21 eines Fahrzeugs 10 ein vollkommen neues Interaktionserlebnis, indem sie ihnen aus ihrer jeweiligen Sitzposition in dem Fahrzeug 10 heraus ein besonders komfortables, intuitives und zuverlässiges Interagieren mit Geräten 11, 12, 13 des Fahrzeugs 10 erlaubt. Neben dem Fahrer 20 können Mitfahrer 21 - auch gleichzeitig oder zeitlich überlappend mit dem Fahrer 20 - bestimmte Geräte 11, 12, 13 des Fahrzeugs 10 mimisch und gestisch betätigen. Durch die Kombination einer Mimik- und einer Gestiksteuerung lassen sich Fehlzuordnungen von Insassen 20, 21 einerseits und zu betätigenden Funktionen von Geräten 11, 12, 13 andererseits deutlich reduzieren oder sogar völlig ausschließen.
  • Bezugszeichenliste
  • 10
    Fahrzeug
    11
    Gerät
    12
    Gerät
    13
    Gerät
    14
    Kommunikationseinheit
    20
    Insasse
    21
    Insasse
    30
    Mensch-Maschine-Schnittstelle
    31
    Kamera
    32
    Kamera
    33
    Anzeigeeinheit
    40
    Steuerungseinheit
    41
    Bildverarbeitungsmodul
    42
    Betätigungsmodul
    43
    Lernmodul
    44
    Datenspeicher
    45
    Datenspeicher
    50
    Server
    51
    Datenspeicher
    100
    Verfahren
    110
    Separates Extrahieren von Gesichtsausdrücken und Handbewegungen
    120
    Erkennen eines Insassen anhand eines Gesichtsausdrucks
    130
    Erkennen einer zu betätigenden Funktion anhand eines Gesichtsausdrucks
    140
    Erkennen einer zu betätigenden Funktion anhand einer Handbewegung
    150
    Erkennen einer zu betätigenden Funktion anhand einer Kombination aus einem Gesichtsausdruck und einer Handbewegung
    160
    Betätigen einer Funktion
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102015011522 A1 [0007]
    • US 2011/0235919 A1 [0008]
    • DE 102014218457 A1 [0010]

Claims (11)

  1. Fahrzeug (10), welches eine Mehrzahl von funktionalen Geräten (11, 12, 13) und eine Mensch-Maschine-Schnittstelle (30) zum mimischen und/oder gestischen Betätigen einer Funktion eines Geräts (11, 12, 13) aufweist, bei dem die Mensch-Maschine-Schnittstelle (30) eine Kamera (31, 32) zum Erfassen eines bestimmten Insassen (20, 21) des Fahrzeugs (10) und eine mit der Kamera (31, 32) verbundene Steuerungseinheit (40) umfasst, welche konfiguriert ist, aus von der Kamera (31, 32) erfassten Bildsequenzen des Insassen (20, 21) einen Gesichtsausdruck und eine Handbewegung des Insassen (20, 21) zu extrahieren und den extrahierten Gesichtsausdruck und die extrahierte Handbewegung des bestimmten Insassen (20, 21) miteinander zu kombinieren, um eine zu betätigende Funktion eines Geräts (11, 12, 13) zu ermitteln.
  2. Fahrzeug nach Anspruch 1, bei dem die Mensch-Maschine-Schnittstelle (30) konfiguriert ist, den Insassen (20, 21) anhand des Gesichtsausdrucks des Insassen (20, 21) und eine zu betätigende Funktion eines Geräts (11, 12, 13) anhand des Gesichtsausdrucks und/oder der Handbewegung des Insassen (20, 21) zu erkennen.
  3. Fahrzeug nach einem der Ansprüche 1 oder 2, bei dem die Mensch-Maschine-Schnittstelle (30) einen Datenspeicher (44) zum Speichern eines Interaktionsprofils des bestimmten Insassen (11, 12) umfasst, welches eine Mehrzahl von Zuordnungen jeweils einer Kombination eines erkannten Gesichtsausdrucks und einer erkannten Handbewegung des Insassen (20, 21) zu einer Funktion eines Geräts (11, 12, 13) umfasst.
  4. Fahrzeug nach Anspruch 3, welches eine mit der Steuerungseinheit (40) verbundene Kommunikationseinheit (14) aufweist, welche zum drahtlosen Kommunizieren mit einem außerhalb des Fahrzeugs (10) angeordneten Server (50) ausgebildet ist, um ein in einem Datenspeicher (51) des Servers (50) gespeichertes Interaktionsprofil eines Insassen (20, 21) des Fahrzeugs (10), insbesondere mit dessen Zustimmung, in die Steuerungseinheit (40) zu laden oder ein Interaktionsprofil eines Insassen (20, 21) des Fahrzeugs (10), insbesondere mit dessen Zustimmung, in dem Datenspeicher (51) des Servers (50) zu speichern.
  5. Fahrzeug nach einem der vorhergehenden Ansprüche, bei welchem der bestimmte Insasse (20, 21) der Fahrer (20) des Fahrzeugs (10) und/oder ein Mitfahrer (21) in dem Fahrzeug (10) ist.
  6. Verfahren (100) zum mimischen und gestischen Betätigen einer Funktion eines Geräts (11, 12, 13) eines Fahrzeugs (10), insbesondere eines Fahrzeugs nach einem der vorhergehenden Ansprüche, durch einen bestimmten Insassen (20, 21) des Fahrzeugs (10), bei dem - Bildsequenzen des bestimmten Insassen (20, 21) mittels einer Kamera (31, 32) kontinuierlich in Echtzeit aufgenommen werden, - die aufgenommenen Bildsequenzen analysiert und aus den Echtzeitbildern mittels einer Steuerungseinheit (40) des Fahrzeugs (10) ein Gesichtsausdruck und eine Handbewegung des bestimmten Insassen (20, 21) jeweils separat extrahiert (110) werden, - die extrahierten Gesichtsausdrücke und Handbewegungen des Insassen (20, 21) miteinander kombiniert (150) werden, um eine zu betätigende Funktion eines Geräts (11, 12, 13) zu ermitteln, und - das Gerät (11, 12, 13) entsprechend der ermittelten Funktion betätigt (160) wird.
  7. Verfahren nach Anspruch 6, bei dem der Insasse (20, 21) an dem Gesichtsausdruck erkannt (120) wird und/oder eine zu betätigende Funktion eines Geräts (11, 12, 13) anhand des Gesichtsausdrucks und/oder der Handbewegung des Insassen (20, 21) erkannt (130, 140) wird.
  8. Verfahren nach einem der Ansprüche 6 oder 7, bei dem das separate Extrahieren eines Gesichtsausdrucks und einer Handbewegung jeweils aufgrund von zu einem Gesicht und einer Hand korrespondierenden sichtbaren und räumlich getrennten Hautbereichen des Insassen (20, 21) erfolgt und bei dem insbesondere der Gesichtsausdruck mittels eines Mimikerkennungsalgorithmus und/oder die Handbewegung mittels eines Gestikerkennungsalgorithmus erkannt werden.
  9. Verfahren nach einem der Ansprüche 6 bis 8, bei dem die Gesichtsausdrücke und Handbewegungen des Insassen (20, 21) mittels eines Lernmoduls (43) verarbeitet werden, um Gesichtsausdrücke und/oder Handbewegungen eines bestimmten Insassen (20, 21) zu erlernen.
  10. Verfahren nach einem der Ansprüche 6 bis 9, bei dem eine Mehrzahl von Zuordnungen jeweils einer Kombination eines erkannten Gesichtsausdrucks und einer erkannten Handbewegung des Insassen (20, 21) zu einer Funktion eines Geräts (11, 12, 13) des Fahrzeugs (10) in einem Interaktionsprofil zusammengefasst wird, welches insbesondere mit Zustimmung des bestimmten Insassen (20, 21) mittels einer in dem Fahrzeug vorgesehenen Kommunikationseinheit (14) in einem Datenspeicher (51) eines außerhalb des Fahrzeugs (10) angeordneten Servers (50) gespeichert und/oder aus dem Datenspeicher (51) eines außerhalb des Fahrzeugs (10) angeordneten Servers (50) geladen wird.
  11. Verfahren nach Anspruch 10, bei dem das Interaktionsprofil des bestimmten Insassen (20, 21) in dem Datenspeicher (51) gespeichert und aus dem Datenspeicher (51) zum wahlweisen Verwenden in mehreren verschiedenen Fahrzeugen (10), insbesondere Fahrzeugen (10) einer Fahrzeugflotte eines Unternehmens oder eines Car-Sharing-Pools, geladen wird.
DE102017216837.4A 2017-09-22 2017-09-22 Gestik- und Mimiksteuerung für ein Fahrzeug Withdrawn DE102017216837A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102017216837.4A DE102017216837A1 (de) 2017-09-22 2017-09-22 Gestik- und Mimiksteuerung für ein Fahrzeug
US16/137,073 US10710457B2 (en) 2017-09-22 2018-09-20 Gesture and facial expressions control for a vehicle
CN201811107674.6A CN109552340B (zh) 2017-09-22 2018-09-21 用于车辆的手势和表情控制

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017216837.4A DE102017216837A1 (de) 2017-09-22 2017-09-22 Gestik- und Mimiksteuerung für ein Fahrzeug

Publications (1)

Publication Number Publication Date
DE102017216837A1 true DE102017216837A1 (de) 2019-03-28

Family

ID=65638176

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017216837.4A Withdrawn DE102017216837A1 (de) 2017-09-22 2017-09-22 Gestik- und Mimiksteuerung für ein Fahrzeug

Country Status (3)

Country Link
US (1) US10710457B2 (de)
CN (1) CN109552340B (de)
DE (1) DE102017216837A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020213498A1 (de) 2020-10-27 2022-04-28 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Überführen von einer Maschine in einen Sicherungszustand durch Gestensteuerung, Kontrollvorrichtung sowie Maschine und Computerprogramm
DE102020214556A1 (de) 2020-11-19 2022-05-19 Volkswagen Aktiengesellschaft Kommunikationssystem für ein Fahrzeug zum Vorgehen bei einer Schlafstörung eines Insassen
DE102022211287A1 (de) 2022-10-25 2024-04-25 Stellantis Auto Sas Fahrzeugfunktionssteuerung mittels von Mobilgerät erkannter Mimik

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016152700A1 (ja) * 2015-03-20 2016-09-29 住友建機株式会社 ショベル
US10860841B2 (en) * 2016-12-29 2020-12-08 Samsung Electronics Co., Ltd. Facial expression image processing method and apparatus
WO2019094618A1 (en) * 2017-11-08 2019-05-16 Signall Technologies Zrt Computer vision based sign language interpreter
KR102479072B1 (ko) * 2017-12-22 2022-12-19 삼성전자주식회사 탑승자 단말 및 디스트랙션 확인을 통한 컨텐츠 표시 방법
KR102041965B1 (ko) * 2017-12-26 2019-11-27 엘지전자 주식회사 차량에 구비된 디스플레이 장치
JP7091983B2 (ja) * 2018-10-01 2022-06-28 トヨタ自動車株式会社 機器制御装置
WO2020213166A1 (ja) * 2019-04-19 2020-10-22 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
KR102860507B1 (ko) * 2019-08-12 2025-09-17 엘지전자 주식회사 차량용 인포테인먼트의 제어방법 및 제어장치
CN111645701B (zh) * 2020-04-30 2022-12-06 长城汽车股份有限公司 一种车辆控制方法、装置及系统
CN113264009B (zh) * 2020-04-30 2022-08-05 苏州喜全软件科技有限公司 基于人体行为分析的新能源汽车唤醒系统
US11590929B2 (en) * 2020-05-05 2023-02-28 Nvidia Corporation Systems and methods for performing commands in a vehicle using speech and image recognition
US20220219644A1 (en) * 2021-01-11 2022-07-14 GM Global Technology Operations LLC Gesture recognition system for a vehicle
US12472869B2 (en) * 2021-11-04 2025-11-18 Joyson Safety Systems Acquisition Llc Systems and methods for driver warnings upon child identification and bypass options based on gesture and posture detection
CN115092163A (zh) * 2022-06-21 2022-09-23 重庆长安汽车股份有限公司 一种人工智能辅助驾驶方法、系统及汽车
US12333872B2 (en) 2022-09-23 2025-06-17 The Boeing Company Vehicle control usage monitoring
US12194919B2 (en) * 2023-02-20 2025-01-14 GM Global Technology Operations LLC Method and system for enabling vehicle connected services for hearing-impaired vehicle occupants

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110235919A1 (en) 2008-12-17 2011-09-29 Aisin Seiki Kabushiki Kaisha Eye open/close recognizing apparatus and recording medium
US20130066526A1 (en) * 2011-09-09 2013-03-14 Thales Avionics, Inc. Controlling vehicle entertainment systems responsive to sensed passenger gestures
US20130204457A1 (en) * 2012-02-06 2013-08-08 Ford Global Technologies, Llc Interacting with vehicle controls through gesture recognition
US20150053066A1 (en) * 2013-08-20 2015-02-26 Harman International Industries, Incorporated Driver assistance system
DE102014218457A1 (de) 2014-09-15 2016-03-17 Conti Temic Microelectronic Gmbh Transportable speichereinheit für mindestens einen sensor eines fahrerassistenzsystems eines fahrzeuges
DE102015011522A1 (de) 2015-09-03 2016-05-12 Daimler Ag Fahrerassistenzvorrichtung
DE102015008448A1 (de) * 2015-06-30 2017-01-05 Audi Ag Verfahren zum Erfassen einer Fahrtsituation eines Kraftfahrzeugs
DE102015221607A1 (de) * 2015-11-04 2017-05-04 Continental Automotive Gmbh Fahrerassistenzsystem

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8751215B2 (en) * 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US20110304541A1 (en) * 2010-06-11 2011-12-15 Navneet Dalal Method and system for detecting gestures
US9493130B2 (en) * 2011-04-22 2016-11-15 Angel A. Penilla Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input
US20170247000A1 (en) * 2012-03-14 2017-08-31 Autoconnect Holdings Llc User interface and virtual personality presentation based on user profile
CN103425238A (zh) * 2012-05-21 2013-12-04 刘鸿达 以手势为输入的控制系统云端系统
CN106293383A (zh) * 2015-06-19 2017-01-04 奥迪股份公司 用于控制机动车辆的界面装置的方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110235919A1 (en) 2008-12-17 2011-09-29 Aisin Seiki Kabushiki Kaisha Eye open/close recognizing apparatus and recording medium
US20130066526A1 (en) * 2011-09-09 2013-03-14 Thales Avionics, Inc. Controlling vehicle entertainment systems responsive to sensed passenger gestures
US20130204457A1 (en) * 2012-02-06 2013-08-08 Ford Global Technologies, Llc Interacting with vehicle controls through gesture recognition
US20150053066A1 (en) * 2013-08-20 2015-02-26 Harman International Industries, Incorporated Driver assistance system
DE102014218457A1 (de) 2014-09-15 2016-03-17 Conti Temic Microelectronic Gmbh Transportable speichereinheit für mindestens einen sensor eines fahrerassistenzsystems eines fahrzeuges
DE102015008448A1 (de) * 2015-06-30 2017-01-05 Audi Ag Verfahren zum Erfassen einer Fahrtsituation eines Kraftfahrzeugs
DE102015011522A1 (de) 2015-09-03 2016-05-12 Daimler Ag Fahrerassistenzvorrichtung
DE102015221607A1 (de) * 2015-11-04 2017-05-04 Continental Automotive Gmbh Fahrerassistenzsystem

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020213498A1 (de) 2020-10-27 2022-04-28 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Überführen von einer Maschine in einen Sicherungszustand durch Gestensteuerung, Kontrollvorrichtung sowie Maschine und Computerprogramm
DE102020214556A1 (de) 2020-11-19 2022-05-19 Volkswagen Aktiengesellschaft Kommunikationssystem für ein Fahrzeug zum Vorgehen bei einer Schlafstörung eines Insassen
WO2022106176A1 (de) 2020-11-19 2022-05-27 Volkswagen Aktiengesellschaft Kommunikationssystem für ein fahrzeug zum vorgehen bei einer schlafstörung eines insassen
DE102022211287A1 (de) 2022-10-25 2024-04-25 Stellantis Auto Sas Fahrzeugfunktionssteuerung mittels von Mobilgerät erkannter Mimik
WO2024088623A1 (de) 2022-10-25 2024-05-02 Stellantis Auto Sas Fahrzeugfunktionssteuerung mittels von mobilgerät erkannter mimik

Also Published As

Publication number Publication date
US20190092169A1 (en) 2019-03-28
CN109552340B (zh) 2022-04-19
US10710457B2 (en) 2020-07-14
CN109552340A (zh) 2019-04-02

Similar Documents

Publication Publication Date Title
DE102017216837A1 (de) Gestik- und Mimiksteuerung für ein Fahrzeug
EP2751788B1 (de) Vorrichtung zur einstellung wenigstens eines betriebsparameters wenigstens eines fahrzeugsystems eines kraftfahrzeugs
DE102012013503B4 (de) Verfahren und Steuerungssystem zum Betreiben eines Kraftwagens
DE102016001314B4 (de) Bedienvorrichtung und Verfahren zum Empfangen einer Zeichenfolge von einem Benutzer in einem Kraftfahrzeug
DE102016211494A1 (de) Steuerungseinrichtung für ein Kraftfahrzeug
DE102007023140A1 (de) Verfahren zur Erkennung und/oder Identifizierung eines Fahrers eines Kraftfahrzeugs und/oder einer Person im Bereich eines Kraftfahrzeugs sowie zugehöriges Kraftfahrzeug
EP3254172B1 (de) Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug
DE102016121032A1 (de) Gestenbasierte Interaktion zwischen Fahrzeug und Benutzer
EP3488320B1 (de) Vorrichtung und verfahren zur unterstützung eines anwenders
DE102013206197A1 (de) Verfahren zur Steuerung einer Zentralverriegelungsanordnung bei einem Fahrzeug
DE102016211495A1 (de) Steuerungseinrichtung für ein Kraftfahrzeug
DE102017206876B4 (de) Verfahren zum Betreiben eines Sprachsteuerungssystems in einem Kraftfahrzeug undSprachsteuerungssystem
DE10140097A1 (de) Verfahren zur Unterstützung eines Bedieners eines Gerätes beim Auffinden eines Bedienelements
DE102020201235A1 (de) Verfahren und System zur Steuerung von Kraftfahrzeugfunktionen
DE102017103391A1 (de) Verfahren zur Verbesserung der Benutzerfreundlichkeit eines Fahrzeugs
DE102021101978A1 (de) Steuerung eines Fahrzeugs
DE102022126772A1 (de) Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Interaktion mit einem Fortbewegungsmittel
DE102022102504B9 (de) Verfahren zum Betreiben einer Schnittstellenvorrichtung in einem Fahrzeug, sowie Schnittstellenvorrichtung und Fahrzeug
WO2024083365A1 (de) Verfahren zur überwachung eines kraftfahrzeugs
DE102021128260A1 (de) Sprachsteuerung an Bord eines Fahrzeugs
DE102014004674B4 (de) Beleuchtungsvorrichtung für ein Kraftfahrzeug sowie dazugehöriges Verfahren
DE102019127183A1 (de) Anzeigesystem zum Anzeigen eines Bedienhinweises für ein Bedienelement in einem Kraftfahrzeug
DE102013013168A1 (de) Verfahren zum Betreiben eines Infotainment-Systems eines Kraftwagens und Infotainment-System für einen Kraftwagen
DE102024106499A1 (de) Verfahren und System zum selektiven Ausgeben einer Welcome-Inszenierung eines Kraftfahrzeuges
DE102018206570A1 (de) Holografische Anzeige-Bedienvorrichtung und Verfahren für den Betrieb einer holografischen Anzeige-Bedienvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: RDL PATENTANWAELTE PARTG MBB, DE

Representative=s name: RAIBLE, DEISSLER, LEHMANN PATENTANWAELTE PARTG, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee