[go: up one dir, main page]

DE102011011221A1 - Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs - Google Patents

Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs Download PDF

Info

Publication number
DE102011011221A1
DE102011011221A1 DE102011011221A DE102011011221A DE102011011221A1 DE 102011011221 A1 DE102011011221 A1 DE 102011011221A1 DE 102011011221 A DE102011011221 A DE 102011011221A DE 102011011221 A DE102011011221 A DE 102011011221A DE 102011011221 A1 DE102011011221 A1 DE 102011011221A1
Authority
DE
Germany
Prior art keywords
driver
image
attention
head
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102011011221A
Other languages
English (en)
Other versions
DE102011011221B4 (de
Inventor
Mirko Langnickel
Maik Müller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102011011221.9A priority Critical patent/DE102011011221B4/de
Publication of DE102011011221A1 publication Critical patent/DE102011011221A1/de
Application granted granted Critical
Publication of DE102011011221B4 publication Critical patent/DE102011011221B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • B60K28/063Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver preventing starting of vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Bei einem Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Aktivitätssignals für ein Fahrerassistenzsystem werden mittels einer biometrischen Gesichtserkennung durch ein gesichtsbiometrisches Kamerasystem die folgenden Schritte durchgeführt: a) Bestimmen des Vorhandensein des Fahrers, b) Prüfen ob es sich um einen realen Fahrer oder um einen Täuschungsversuch handelt, c) Extrahieren von Gesichtsmerkmale des Fahrers, falls die Schritte a) und b) positiv sind, d) Bestimmen der Fahreraufmerksamkeit aus den extrahierten Merkmalen, und e) Erzeugen eines Aktivitätssignals aus der Fahreraufmerksamkeit.

Description

  • Die Erfindung betrifft ein Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Signals für ein Fahrerassistenzsystem gemäß dem Oberbegriff des Anspruchs 1, sowie eine Verwendung des Verfahrens in einem Fahrerassistenzsystem gemäß dem Oberbegriff des Anspruchs 11.
  • Bisherige Algorithmen zur Erkennung der Fahreraufmerksamkeit, wie beispielsweise über die Betrachtung der Kopfrotation und den Lidschluss, arbeiten im Wesentlichen basierend auf Modellen. Große Probleme gibt es dabei bei Brillenträgern und Bartträgern, die bisher gegen eine Einführung derartiger Algorithmen im Fahrzeug sprechen. Zusätzlich gewährleisten diese Algorithmen keine Lebend- oder Täuschungs-Erkennung, was auch als Fake-Erkennung bezeichnet wird, die für ein autonomes Assistenzsystem notwendig ist, da sonst ein Missbrauch und damit eine Beeinträchtigung der funktionalen Sicherheit nicht ausgeschlossen werden kann.
  • Die Druckschrift DE 10 2007 023 140 A1 zeigt ein Verfahren zur Erkennung und Identifizierung des Fahrers eines Kraftfahrzeugs, wobei mittels eines Kamerasystems wenigstens eine Bewegung und/oder wenigstens ein Bewegungsablauf des Fahrers aufgenommen und zur Erkennung und Identifizierung des Fahrers seitens einer Bildverarbeitungseinheit analysiert wird. Dabei wird die extrahierte Bewegung bzw. der Bewegungsablauf mit einem bereits gespeicherten verglichen. Bei einer Übereinstimmung innerhalb vorgegebener Grenzen ist dann der Fahrer identifiziert und für diese Person gespeicherte Einstellungen können vorgenommen werden. Es wird daher ein biometrisches Identifikationsverfahren eingesetzt.
  • Ferner ist aus der DE 10 2008 031 697 A1 eine Vorrichtung zur Objektidentifikation, insbesondere zur biometrischen Identifikation, bekannt, welche eine Bilderfassungseinheit zur Erfassung eines Bereichs, in dem sich das zu identifizierende Objekt befindet, und eine Auswerteeinheit zur Verarbeitung der von der Bilderfassungseinheit bereitgestellten Bilddaten umfasst. Die Vorrichtung ist in einem ersten Betriebsmodus derart steuerbar, dass die der Auswerteeinheit bereitgestellten Bilddaten in einem ersten Bildbereich und in einem zweiten Bildbereich jeweils einen geringen Kontrastunterschied aufweisen und der erste und der zweite Bildbereich einen großen Kontrastunterschied zueinander aufweisen. Hierdurch hebt sich der erste Bildbereich unter Ausbildung einer Kontur von dem zweiten Bildbereich ab. Die Auswerteeinheit ist in dem ersten Betriebsmodus dazu eingerichtet, die Kontur zu analysieren und anhand deren Verlaufs auf das Vorhandensein des erwarteten Objekts oder auf das Vorhandensein eines Abbilds des Objekts zu schließen. Es wird daher überprüft, ob es sich um ein reales Objekt im Erfassungsbereich der Bilderfassungseinheit oder um einen Täuschungsversuch, beispielsweise mittels einer Fotographie, handelt.
  • Der Erfindung liegt daher die Aufgabe zugrunde, ein verbessertes Verfahren zur Erkennung der Fahreraktivität und dessen Verwendung in einem Fahrerassistenzsystem, beispielsweise einem ACC-System mit Stop&Go-Funktionalität (ACC: Adaptive Cruise Control oder automatische Distanzregelung), anzugeben.
  • Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 sowie durch ein Fahrerassistenzsystem mit den Merkmalen des Anspruchs 11 gelöst. Bevorzugte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.
  • Das erfindungsgemäße Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Aktivitätssignals für ein Fahrerassistenzsystem führt mittels einer biometrischen Gesichtserkennung durch ein gesichtsbiometrisches Kamerasystem die folgenden Schritte durch:
    • a) Aufnehmen eines Fahrerbildes und Bestimmen des Vorhandensein des Fahrers anhand des Fahrerbildes,
    • b) Prüfen ob es sich um einen realen Fahrer oder um einen Täuschungsversuch handelt,
    • c) Extrahieren von Gesichtsmerkmalen des Fahrers aus dem Fahrerbild, falls die Schritte a) und b) positiv sind,
    • d) Bestimmen der Fahreraufmerksamkeit aus den extrahierten Merkmalen, und
    • e) Erzeugen eines Aktivitätssignal aus der in Schritt d) bestimmten Fahreraufmerksamkeit.
  • Vorzugsweise werden zu Fahrtbeginn ein frontales Bild des Fahrers als initiales Fahrerbild und seine extrahierten Merkmale zu Vergleichszwecken gespeichert, um das Verfahren auf einen definierten Ausgangszustand aufsetzen zu können. Dieser Vorgang läuft vorzugsweise automatisch ab und wird beispielsweise mit dem Entriegeln des Fahrzeugs initiiert, da der Vorgang des Entriegelns zumindest eine teilweise Stromversorgung des Fahrzeugs und eine Aktivierung bzw. Initiierung vorgegebener Fahrerassistenzsysteme bewirkt.
  • Vorzugsweise wird der Schritt a), d. h. das Aufnehmen eines Fahrerbildes und die Bestimmung des Vorhandenseins eines Fahrers, durch eine Bestimmung der Gesichtskontur des Fahrers im aufgenommenen Fahrerbild durchgeführt.
  • Weiter bevorzugt wird Schritt b) des Verfahrens durch eine Lebend-Erkennung, eine Täuschungs-Erkennung und eine Fahreridentifizierung durchgeführt.
  • Insbesondere kann die Lebend-Erkennung durch eine laufende Überprüfung intrinsischer Bewegungen des Fahrerkopfes und/oder des Fahrergesichts erfolgen. Intrinsische Bewegungen sind beispielsweise Kopf- und/oder Lidbewegungen über einen vorgegebenen Zeitraum.
  • Die Täuschungserkennung kann durch Überprüfung des Abstandes Fahrerkopf und Kamera, den Einsatz gepulster Nah-Infrarotbeleuchtung und/oder der Helligkeitsverteilung im erkannten Fahrergesicht erfolgen. Die Ergebnisse der Täuschungserkennung können auch zumindest teilweise in die Lebend-Erkennung einfließen.
  • Weiter bevorzugt erfolgt die Fahreridentifizierung anhand des Ähnlichkeitswertes des initial gespeicherten Fahrerbildes und des aktuellen Fahrerbildes, was auch als Matchscore bezeichnet wird.
  • Vorzugsweise werden die Gesichtsmerkmale Kopfrotation, Kopfposition, X- und Y-Koordinaten der Fahreraugen und der Augenöffnungsgrad extrahiert, wobei die Aufzählung nicht abschließend ist. Weitere geeignete Merkmale wie beispielsweise Kopfneigungswinkel oder Mundmerkmale können verwendet werden.
  • Zur Bestimmung der Fahreraktivität wird vorzugsweise ein biometrischer Vergleich der extrahierten aktuellen Gesichtsmerkmale mit den gespeicherten Gesichtmerkmalen des initialen Fahrerbildes durchgeführt.
  • Vorzugsweise wird der Fahrer als aktiv eingeschätzt und ein Aktivitätssignal erzeugt, wenn der biometrische Vergleich eine frontale Kopfrichtung und einen Augenöffnungsgrad, der offenen Augen entspricht, ergibt.
  • Das erfindungsgemäße Fahrerassistenzsystem, welches das im Vorangegangenen erläuterte Verfahrens verwendet, umfasst ein gesichtsbiometrisches Kamerasystem, welches den Fahrer insbesondere während der Standzeit des Kraftfahrzeugs im Stau beobachtet und ein Fahrerbild erzeugt, und ein Steuergerät zur Durchführung der biometrischen Gesichtserkennung. Dabei erfolgt vom Fahrerassistenzsystem dann eine fahrerseitige Anfahrfreigabe, wenn folgende Bedingungen erfüllt sind:
    • i) der Fahrersitz ist belegt sowie Tür und Gurtschloss geschlossen,
    • ii) der Lenkradwinkel liegt zwischen +/–60 Grad,
    • iii) die Gesichtskontur im Fahrerbild ist erkannt,
    • iv) das Fahrergesicht ist ”lebendig”,
    • v) der Fahrerkopf ist für eine vorgegebene Zeit t1 frontal ausgerichtet, und
    • vi) die Augen des Fahrers sind für eine vorgegebene Zeit t2 offen.
  • Als Fahrerassistenzsystems kommen ACC-Fahrerassistenzsysteme mit Stop & Go-Funktionalität oder alle Systeme für autonome oder automatisierte Fahrunterstützung in Betracht, die im stehenden oder fahrenden Zustand Informationen über den Fahrerzustand benötigen.
  • Weiter bevorzugt erfolgt ein Fahrfreigabe für das Kraftfahrzeug dann, wenn neben der fahrerseitigen Freigabe eine Freigabe der Fahrt durch weitere Fahrzeugsensoren erfolgt. Mit anderen Worten, es erfolgt eine Sensorfusion der fahrerseitigen Freigabe mit Ergebnissen anderer Umfeldsensoren wie beispielsweise Radar, Laser und/oder Außenkamera.
  • Die beschriebenen Signale des gesichtsbiometrischen Kamerasystems werden daher neben der klassischen Fahrerpersonalisierung vorrangig für Eingangssignale von Fahrerassistenzsystemen, beispielsweise in einem ACC-Fahrerassistenzsystem, genutzt. Der zusätzliche Vorteil besteht in der Mehrfachnutzung eines Algorithmus auf einem Steuergerät, so dass weitere Softwarevarianten entfallen.
  • Ferner erfolgt nunmehr die Anfahrfreigabe, die derzeit nach einer kurzen Standzeit, beispielsweise in einem Stau, manuell durch eine Betätigung eines Hebels am Lenkstock oder des Beschleunigungspedals, durch die biometrische Gesichtserkennung, wobei zusätzlich mit dem Algorithmus eine sogenannte Lebend- und Täuschungserkennung erfolgt, um beispielsweise das Lesen einer Zeitung im Stau zu detektieren, in welchem Fall keine Anfahrfreigabe erfolgt und damit die funktionale Sicherheit erhöht wird.
  • Eine bevorzugte Ausführungsform der Erfindung wird nachfolgend anhand der Zeichnungen erläutert. Dabei zeigt
  • 1 die Komponenten eines ACC-Stop&Go-Fahrerassistenzsystems,
  • 2 ein biometrischer Erkennungsalgorithmus in schematischer Darstellung, und
  • 3 ein Ablaufdiagramm der fahrerseitigen Freigabe innerhalb eines ACC-Stop&Go-Fahrerassistenzsystems.
  • 1 zeigt die beteiligten Komponenten eines beispielhaften ACC Fahrerassistenzsystems mit Stop&Go-Funktionalität, welches um eine kamerabasierte, biometrische Fahrerbeobachtung erweitert ist. Dabei soll der manuelle Aufwand durch den Fahrer hin zu einer stärkeren Automatisierung und Fahrkomfort erweitert werden. Der Fahrer muss mit dem gesichtsbiometrischen Kamerasystem im Staufall keine manuelle Aktion mehr durchführen, da das System erkennt, ob der Fahrer zum Verkehrsgeschehen schaut oder nicht. Zum Einsatz kommt dabei ein Algorithmus der biometrischen Fahrererkennung.
  • Die für einen Anfahrentscheidung beteiligten Komponenten des ACC-Fahrerassistenzsystems mit Stop&Go-Funktionalität sind das HMI 1 (HMI: Human-Maschine-Interface) mit den Komponenten Beschleunigungspedal 1a, Lenkstock 1b und Kombiinstrument 1c, der Antrieb 2 mit den Komponenten Gang 2a, Verzögerung 2b und Beschleunigung 2c, die Umfeldsensorik 3 mit den Komponenten Videokamera 3a beispielsweise in der Frontscheibe, Radar 3b für den Fernbereich und Ultraschallsensor 3c für den Nahbereich, das biometrische Erkennungssystem 4 sowie die Anfahrentscheidung 7.
  • Das biometrische Erkennungssystem 4 umfasst dabei die beiden Bereiche Fahrerparameter 5 sowie die Fahrerbeobachtung 6. Unter Fahrerparameter 5 werden hier vom Fahrer bewirkte bzw. beeinflusste Parameter oder Zustände verstanden, insbesondere die Sitzbelegung 5a mit den Werten ”belegt, frei”, den Zustand Gurtschloss 5b mit den Werten ”geschlossen oder offen”, den Zustand der Türöffnung 5c mit den Werten ”offen oder zu” sowie den Lenkradwinkel 5d. Im Bereich Fahrerbeobachtung 6 wird mit einer Kamera 6a ein Videobild aufgenommen und in einer Bildverarbeitung 6b verarbeitet. Die extrahierten oder berechneten Signale 6c werden einer Interpretation 6d zugeführt.
  • Aus den entsprechenden Signalen der beteiligten Komponenten HMI 1, Antrieb 2, Umfeldsensorik 3, Fahrerparameter 5 und Fahrerbeobachtung 6 werden dann in der Anfahrentscheidung 7 eine Entscheidung getroffen.
  • Das gesichtsbiometrische Kamerasystem, auch abgekürzt als GBKS bezeichnet, der Fahrerbeobachtung 6, bestehend aus den Komponenten Monokamera, zwei Nah-Infrarotbeleuchtungsmodulen und einem Steuergerät mit dem nachfolgend erläuterten biometrischen Algorithmus, beobachtet den Fahrer während der Standzeit des Fahrzeugs. Das Fahrzeug entscheidet nur dann auf automatische Freigabe, wenn folgende Faktoren erfüllt sind:
    • – der Fahrersitz ist belegt, Tür und Gurtschloss sind geschlossen,
    • – der Lenkradwinkel liegt zwischen –/+60 Grad,
    • – das GBKS erkennt Gesichtskontur des Fahrers im Videobild,
    • – das GBKS erkennt, dass das Gesicht des Fahrers ”lebendig” ist,
    • – das GBKS erkennt, dass der Kopf des Fahrers für eine vorgegebene Zeit t1 frontal ausgerichtet ist, und
    • – das GBKS erkennt, dass die Augen des Fahrers für eine vorgegebene Zeit t2 offen sind.
  • Sind alle Parameter erfüllt, erfolgt von Seiten des gesichtsbiometrisches Kamerasystem eine Anfahrfreigabe für das Teilsystem ”Fahrer”. Eine endgültige Entscheidung für ACC Stop&Go wird über die Fusion mit anderen Fahrzeugsensoren (Radar, Außenkamera, etc.) getroffen.
  • 2 zeigt in schematischer Darstellung einen Algorithmus der biometrischen Gesichtserkennung. Mittels einer Innenraumkamera 11 wird ein Videobild des Fahrers erzeugt und an eine Steuereinrichtung 12 übertragen. In der Steuereinrichtung 12 wird eine Gesichtssuche 13 durchgeführt. Das Bild und die ermittelte Gesichtsposition wird einem Augenfinder 14 zugeführt, der die Koordinaten der Fahreraugen bestimmt. Die ermittelten Daten, d. h. das aktuelle Bild, die Gesichtsposition und die Koordinaten der Augen werden einer Bildqualitätprüfung 15 unterzogen. Es erfolgt im nächsten Block eine Normalisierung des Gesichts und das normalisierte Gesicht wird einer Vorverarbeitung 17 unterzogen. Anschließend wird aus dem vorverarbeiteten Gesicht des Fahrers die gewünschten bzw. notwendigen Merkmale extrahiert und in einem Musterbildner 10 zu einem Mustervektor, dem sogenannten Referenzvektor, zusammengefasst.
  • Die hier verwendeten Werte des Algorithmus sind:
    • – der Match Score, d. h. der Ähnlichkeitswert zwischen einem hinterlegten Frontalbild
    • – des Fahrers und dem aktuellen Gesichtbild des Fahrers, dem sogenannten Livebild,
    • – die X- und Y-Koordinaten der detektierten Augen des Fahrers aus dem aktuellen Bild
    • – der aktuelle Augenöffnungsgrad in Prozent, und
    • – die geschätzte Kopfposition aus den geometrischen Verhältnissen im aktuellen Fahrergesicht.
  • Dabei sind die X- und Y-Koordinaten der Fahreraugen bezogen beispielsweise auf die jeweilige Augenmitte oder Augenecken, um eine konsistente Koordinatendefinition zu erhalten.
  • Zur Erkennung der oben genannten Kopfrotation gelten die folgenden Bedingungen:
    • – der Matchscore ist abhängig von der Kopfrotation,
    • – Ist der Kopf frontal, d. h. die Kopfrotation ist 0 Grad, dann ist der Match Score maximal (100%), d. h. das aktuelle Bild ist zum gespeicherten initialen Bild absolut ähnlich,
    • – dreht der Fahrer den Kopf, dann sinkt der Match Score,
    • – ab etwa 30 Grad hat der Match Score üblicherweise den Wert Null, mit anderen Worten bis zu diesem Winkel ist eine direkte Winkel- und sektorenabhängige Erkennung möglich,
    • – Erkennung der Rotationsrichtung (links/rechts) erfolgt über Symmetrie- und Richtungsberechnung der x- und y-Augenpunkte.
  • Dabei bedeutet der Wert von 30 Grad nicht die Grenze der Funktionsfähigkeit des Systems, sondern der Wert signalisiert nur, dass der Fahrer nicht mehr frontal schaut. Eine Erkennung des Fahrers funktioniert noch über den Wert mittels der Betrachtung der Historie und eine Prognose ist über den Bereich hinaus möglich.
  • 3 zeigt ein Ablaufdiagramm zur Bestimmung der fahrerseitigen Fahrfreigabe eine Fahrerassistenzsystem, insbesondere eines ACC-Systems mit Stop&Go-Funktionalität. Zu Beginn, also nach dem Einstieg des Fahrers, wird im Schritt 20 ein Frontalbild des Fahrers aufgenommen und abgespeichert, welches als initiales Fahrerbild bezeichnet wird. Ferner werden aus dem initialen Bild Merkmale des aktuellen Fahrers extrahiert und ebenfalls gespeichert.
  • Im nächsten Schritt 21 werden notwendige Voraussetzungen abgeprüft, nämlich ob der Fahrer im Fahrzeug sitzt, die Türen geschlossen sind, der oder die Sicherheitsgurte angelegt sind, der Sitz belegt ist, das ACC Stop&Go aktiviert ist und das Fahrzeug still im Stau steht.
  • Nachdem die Voraussetzungen des Schrittes 21 erfüllt sind, wird im Schritt 22 ein aktuelles Fahrerbild, das sog. Livebild, aufgenommen. Danach wird im Schritt 23 untersucht, ob eine Gesichtskontur im Livebild vorhanden ist. Ist dies nicht der Fall, welcher mit ”N” gekennzeichnet ist, so geht das System wieder zum Schritt 22 zurück. Ist ein Gesichtskontur erkannt worden so wird im Schritt 24 untersucht, ob eine Täuschung vorliegt. Trifft dies zu, was mit ”J” gekennzeichnet ist, so geht das System zurück zu Schritt 22. Liegt kein Täuschungsversuch vor, was mit ”N” gekennzeichnet ist, so erfolgt im Schritt 25 eine Merkmalsextraktion aus dem aktuellen Fahrerbild.
  • Im Schritt 26 erfolgt ein biometrischer Vergleich zwischen den im Schritt 25 ermittelten Merkmalen mit den Merkmalen des initialen Bildes des Schritts 20 zur Bestimmung der Kopfrichtung. Fällt dieser Vergleich kleiner aus als ein vorgegebener Grenzwert, so wird im Schritt 27 geschlossen, dass die Kopfrichtung nicht frontal ist (Ausgang ”<”) und das System geht zurück zum Schritt 22. Im mit dem Ausgang ”≥” zu erreichenden Schritt 28 wird auf eine frontale Kopfrichtung geschlossen, was bedeutet, dass der Vergleich größer oder gleich einem vorgegebenen Grenzwert ausgefallen ist.
  • Anschließend wird im nächsten Schritt 29 der Augenöffnungsgrad geprüft. Ist dieser kleiner als ein vorgegebener Grenzwert, so wird im Schritt 30 die Augen des Fahrers als geschlossen betrachtet und das System geht zurück zu Schritt 22. Ist der Augenöffnungsgrad größer oder gleich dem genannten vorgegebenen Grenzwert, so wird auf geöffnete Augen des Fahrers im Schritt 31 geschlossen. Da der Fahrer eine frontale Kopfposition und geöffnete Augen hat, wird im Schritt 32 die fahrerseitige Fahrfreigabe erteilt.
  • Die im Ablaufdiagramm angesprochenen Schritt 23 und 24 führen eine Unterscheidung zwischen lebendigen Objekten, nämlich dem Fahrer selbst und nicht-lebendigen Objekten, m wie Personen auf Zeitungen, Fotos, Puppen, etc., durch. Diese Unterscheidung ist zwingend notwendig. Daneben muss unterschieden werden, ob es sich um den aktuellen Fahrer oder beispielsweise den Beifahrer handelt.
  • Die Täuschungs- und Lebend-Erkennung der bevorzugten Ausführungsform arbeitet wie folgt:
    • – das gesichtsbiometrische Kamerasystem erwartet den Kopf des Fahrers in einer gewissen Entfernung vor der Kamera, dem sog. Erwartungsraum, womit einfache Foto-Täuschungen ermittelt werden können,
    • – der Einsatz von gepulster Nah-Infrarot-Beleuchtung führt zur Aufdeckung von Video-Täuschungen,
    • – es wird eine laufende Prüfung intrinsische Bewegungen (Kopf- und Lidbewegungen über einen Zeitraum), was zur Detektion von Abdeckung von Foto- und Puppen-Täuschungen führt,
    • – mittels der Überprüfung von Helligkeitsverteilungen im erkannten Gesicht durch Abgleich zwischen bekannten Verläufen sowie Abgleich zwischen Sonnensensorrichtung und Helligkeitsverteilung im Gesicht werden Foto- und Videotäuschungen ermittelt, und
    • – eine Unterscheidung zwischen Fahrer und Beifahrer erfolgt über das initial gespeichertes Frontalbild: beugt sich beispielsweise der Beifahrer in die Fahrerzone, dann würde das System einen deutlich geringeren Match Score berechnen und keine Freigabe erteilen, wodurch eine Abdeckung einer absichtlichen Fehlbedienung erreicht wird.
  • Eine Unterscheidung zwischen Fahrer und Beifahrer kann auch über die unterschiedliche Kopfrotation mittels der Auswertung der X- und Y-Augenpunkte erfolgen.
  • Bezugszeichenliste
  • 1
    HMI (Mensch-Maschine-Interface
    1a
    Beschleunigungspedal
    1b
    Lenkstock
    1c
    Kombiinstrument
    2
    Antrieb
    2a
    Gang
    2b
    Verzögerung
    2c
    Beschleunigung
    3
    Umfeldsensorik
    3a
    Videokamera Frontscheibe
    3b
    Radar (Fernbereich)
    3c
    Ultraschall (Nahbereich)
    4
    Biometrisches Erkennungssystem
    5
    Fahrerparameter
    6
    Fahrerbeobachtung
    7
    Anfahrentscheidung
    11
    Innenraumkamera
    12
    Steuergerät
    13
    Gesichtssuche
    14
    Augenfinder
    15
    Bildqualitätsprüfung
    16
    Gesichtsnormalisierung
    17
    Vorbereitung
    18
    Merkmalsextraktion
    19
    Musterbildung
    20
    Speicherung Frontalbild und Merkmalsextraktion aktueller Fahrer
    21
    Voraussetzungen
    22
    Livebild
    23
    Gesichtskontur vorhanden
    24
    Täuschungsversuch
    25
    Merkmalsextraktion aus Livebild
    26
    Biometrischer Vergleich
    27
    Kopfrichtung nicht frontal
    28
    Kopfrichtung frontal
    29
    Augenöffnungsgrad
    30
    Augen geschlossen
    31
    Augen offen
    32
    Freigabe
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102007023140 A1 [0003]
    • DE 102008031697 A1 [0004]

Claims (12)

  1. Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Aktivitätssignals für ein Fahrerassistenzsystem, wobei mittels einer biometrischen Gesichtserkennung durch ein gesichtsbiometrisches Kamerasystem die folgenden Schritte durchgeführt werden: a) Aufnehmen eines Fahrerbildes und Bestimmen des Vorhandensein des Fahrers anhand des Fahrerbildes, b) Prüfen ob es sich um einen realen Fahrer oder um einen Täuschungsversuch handelt, c) Extrahieren von Gesichtsmerkmalen des Fahrers aus dem Fahrerbild, falls die Schritte a) und b) positiv sind, d) Bestimmen der Fahreraufmerksamkeit aus den extrahierten Merkmalen, und e) Erzeugen eines Aktivitätssignals aus der in Schritt d) bestimmten Fahreraufmerksamkeit.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zu Fahrtbeginn ein frontales Bild des Fahrers als initiales Fahrerbild und seine extrahierten Merkmale zu Vergleichszwecken gespeichert werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass Schritt a) durch eine Bestimmung der Gesichtskontur des Fahrers im aufgenommenen Fahrerbild durchgeführt wird.
  4. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass Schritt b) durch eine Lebend-Erkennung, eine Täuschungs-Erkennung und eine Fahreridentifizierung durchgeführt wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Lebend-Erkennung durch eine laufende Überprüfung intrinsischer Bewegungen des Fahrerkopfes und/oder des Fahrergesichts erfolgt.
  6. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Täuschungserkennung durch Überprüfung des Abstandes Fahrerkopf und Kamera, den Einsatz gepulster Nahinfrarotbeleuchtung und/oder der Helligkeitsverteilung im erkannten Fahrergesicht erfolgt.
  7. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Fahreridentifizierung anhand des Ähnlichkeitswertes eines initial gespeicherten Fahrerbildes und des aktuellen Fahrerbildes erfolgt.
  8. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Gesichtsmerkmale Kopfrotation, Kopfposition, X- und Y-Koordinaten der Fahreraugen und der Augenöffnungsgrad extrahiert werden.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass zur Bestimmung der Fahreraktivität ein biometrischer Vergleich der extrahierten aktuellen Gesichtsmerkmale mit den gespeicherten Gesichtmerkmalen des initialen Fahrerbildes durchgeführt wird.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass der Fahrer als aktiv eingeschätzt und ein Aktivitätssignal erzeugt wird, wenn der biometrische Vergleich eine frontale Kopfrichtung und einen Augenöffnungsgrad für offene Augen ergibt.
  11. Fahrerassistenzsystem unter Verwendung des Verfahrens nach einem der vorangegangenen Ansprüche mit einem gesichtsbiometrischen Kamerasystem, welches den Fahrer zumindest während der Standzeit des Kraftfahrzeugs beobachtet und ein Fahrerbild erzeugt, und einem Steuergerät zur Durchführung der biometrischen Gesichtserkennung, wobei eine fahrerseitige Anfahrfreigabe erfolgt, wenn folgende Bedingungen erfüllt sind: i) der Fahrersitz ist belegt sowie Tür und Gurtschloss geschlossen, ii) Lenkradwinkel zwischen +/–60 Grad, iii) Gesichtskontur im Fahrerbild ist erkannt, iv) Fahrergesicht ist ”lebendig”, v) Fahrerkopf ist für eine vorgegebene Zeit t frontal ausgerichtet, und vi) Augen des Fahrers sind für eine vorgegebene Zeit t offen.
  12. Fahrerassistenzsystem nach Anspruch 11, dadurch gekennzeichnet, dass ein Fahrfreigabe für das Kraftfahrzeug erfolgt wenn neben der fahrerseitigen Freigabe eine Freigabe der Fahrt durch weitere Fahrzeugsensoren erfolgt.
DE102011011221.9A 2010-12-30 2011-02-15 Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs Active DE102011011221B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011011221.9A DE102011011221B4 (de) 2010-12-30 2011-02-15 Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102010056483 2010-12-30
DE102010056483.4 2010-12-30
DE102011011221.9A DE102011011221B4 (de) 2010-12-30 2011-02-15 Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs

Publications (2)

Publication Number Publication Date
DE102011011221A1 true DE102011011221A1 (de) 2012-07-05
DE102011011221B4 DE102011011221B4 (de) 2023-11-02

Family

ID=46509326

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011011221.9A Active DE102011011221B4 (de) 2010-12-30 2011-02-15 Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs

Country Status (1)

Country Link
DE (1) DE102011011221B4 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103661095A (zh) * 2012-09-11 2014-03-26 财团法人车辆研究测试中心 驾驶状态的侦测系统
US9351019B2 (en) 2012-12-27 2016-05-24 Automotive Research & Testing Center System for detecting vehicle driving state
DE102017103391A1 (de) 2017-02-20 2018-08-23 Deutsche Telekom Ag Verfahren zur Verbesserung der Benutzerfreundlichkeit eines Fahrzeugs
WO2019238820A1 (de) * 2018-06-13 2019-12-19 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur beeinflussung von systemen zur aufmerksamkeitsüberwachung
CN115063966A (zh) * 2022-05-31 2022-09-16 河南越秀尉许高速公路有限公司 针对acc跟车行驶的高速公路施工区预警系统及其方法
DE102021208997A1 (de) 2021-08-17 2023-02-23 Zf Friedrichshafen Ag Verfahren zum Betreiben eines Fahrerassistenzsystems
DE102021208998A1 (de) 2021-08-17 2023-02-23 Zf Friedrichshafen Ag Verfahren zum Betreiben eines Fahrerassistenzsystems
CN116710980A (zh) * 2021-01-21 2023-09-05 宝马汽车股份有限公司 借助眼睛睁开宽度的频率分布识别乘客的注意力程度
CN116721406A (zh) * 2023-06-02 2023-09-08 北京汇通天下物联科技有限公司 行程信息处理方法、系统、电子设备及可读存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19621435A1 (de) * 1995-06-02 1996-12-05 Siemens Corp Res Inc Verfahren und Vorrichtung zum Überwachen von Augen für die Erfassung eines Schläfrigkeitszustands
DE19936271A1 (de) * 1999-07-31 2001-03-15 Bosch Gmbh Robert Vorrichtung zur benutzerspezifischen Fahrzeugfreigabe
DE10024227A1 (de) * 2000-05-17 2001-12-13 Volkswagen Ag Verfahren und Einrichtung zur elektronischen Überwachung des Aufmerksamkeitsgrades
DE102004005163B3 (de) * 2004-02-02 2005-06-02 Braun, Uwe Peter, Dipl.-Ing. Vorrichtung zur Erfassung der Fahrtüchtigkeit eines Fahrers in einem Fahrzeug
DE10360176A1 (de) * 2003-12-20 2005-07-21 Volkswagen Ag Kraftfahrzeug mit einem Sensor zur Fahrerüberwachung
DE102004044772A1 (de) * 2004-09-16 2006-04-06 Bayerische Motoren Werke Ag Verfahren zum Aufbau einer Datenbank
DE102007023140A1 (de) 2007-05-16 2008-10-02 Audi Ag Verfahren zur Erkennung und/oder Identifizierung eines Fahrers eines Kraftfahrzeugs und/oder einer Person im Bereich eines Kraftfahrzeugs sowie zugehöriges Kraftfahrzeug
DE102008031697A1 (de) 2008-07-04 2010-01-07 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur Objektidentifikation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19621435A1 (de) * 1995-06-02 1996-12-05 Siemens Corp Res Inc Verfahren und Vorrichtung zum Überwachen von Augen für die Erfassung eines Schläfrigkeitszustands
DE19936271A1 (de) * 1999-07-31 2001-03-15 Bosch Gmbh Robert Vorrichtung zur benutzerspezifischen Fahrzeugfreigabe
DE10024227A1 (de) * 2000-05-17 2001-12-13 Volkswagen Ag Verfahren und Einrichtung zur elektronischen Überwachung des Aufmerksamkeitsgrades
DE10360176A1 (de) * 2003-12-20 2005-07-21 Volkswagen Ag Kraftfahrzeug mit einem Sensor zur Fahrerüberwachung
DE102004005163B3 (de) * 2004-02-02 2005-06-02 Braun, Uwe Peter, Dipl.-Ing. Vorrichtung zur Erfassung der Fahrtüchtigkeit eines Fahrers in einem Fahrzeug
DE102004044772A1 (de) * 2004-09-16 2006-04-06 Bayerische Motoren Werke Ag Verfahren zum Aufbau einer Datenbank
DE102007023140A1 (de) 2007-05-16 2008-10-02 Audi Ag Verfahren zur Erkennung und/oder Identifizierung eines Fahrers eines Kraftfahrzeugs und/oder einer Person im Bereich eines Kraftfahrzeugs sowie zugehöriges Kraftfahrzeug
DE102008031697A1 (de) 2008-07-04 2010-01-07 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur Objektidentifikation

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103661095B (zh) * 2012-09-11 2015-12-02 财团法人车辆研究测试中心 驾驶状态的侦测系统
CN103661095A (zh) * 2012-09-11 2014-03-26 财团法人车辆研究测试中心 驾驶状态的侦测系统
US9351019B2 (en) 2012-12-27 2016-05-24 Automotive Research & Testing Center System for detecting vehicle driving state
DE102017103391A1 (de) 2017-02-20 2018-08-23 Deutsche Telekom Ag Verfahren zur Verbesserung der Benutzerfreundlichkeit eines Fahrzeugs
US11587335B2 (en) 2018-06-13 2023-02-21 Bayerische Motoren Werke Aktiengesellschaft Method for influencing systems for monitoring alertness
WO2019238820A1 (de) * 2018-06-13 2019-12-19 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur beeinflussung von systemen zur aufmerksamkeitsüberwachung
DE102018209440A1 (de) * 2018-06-13 2019-12-19 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Beeinflussung von Systemen zur Aufmerksamkeitsüberwachung
CN112041903A (zh) * 2018-06-13 2020-12-04 宝马股份公司 用于影响用于监控注意力的系统的方法
CN112041903B (zh) * 2018-06-13 2022-05-03 宝马股份公司 用于影响用于监控注意力的系统的方法
CN116710980A (zh) * 2021-01-21 2023-09-05 宝马汽车股份有限公司 借助眼睛睁开宽度的频率分布识别乘客的注意力程度
US12528472B2 (en) 2021-01-21 2026-01-20 Bayerische Motoren Werke Aktiengesellschaft Identifying the degree of attentiveness of a vehicle occupant on the basis of the frequency distribution of the eye opening width
DE102021208997A1 (de) 2021-08-17 2023-02-23 Zf Friedrichshafen Ag Verfahren zum Betreiben eines Fahrerassistenzsystems
DE102021208998A1 (de) 2021-08-17 2023-02-23 Zf Friedrichshafen Ag Verfahren zum Betreiben eines Fahrerassistenzsystems
DE102021208998B4 (de) 2021-08-17 2023-11-30 Zf Friedrichshafen Ag Verfahren zum Betreiben eines Fahrzeugs mit einem Fahrerassistenzsystem
US12515685B2 (en) 2021-08-17 2026-01-06 Zf Friedrichshafen Ag Method for operating a driver assistance system including blocking vehicle start-up and altering vehicle control
CN115063966A (zh) * 2022-05-31 2022-09-16 河南越秀尉许高速公路有限公司 针对acc跟车行驶的高速公路施工区预警系统及其方法
CN115063966B (zh) * 2022-05-31 2024-01-26 河南越秀尉许高速公路有限公司 针对acc跟车行驶的高速公路施工区预警系统及其方法
CN116721406A (zh) * 2023-06-02 2023-09-08 北京汇通天下物联科技有限公司 行程信息处理方法、系统、电子设备及可读存储介质

Also Published As

Publication number Publication date
DE102011011221B4 (de) 2023-11-02

Similar Documents

Publication Publication Date Title
DE102011011221A1 (de) Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs
DE102019134141B4 (de) Sicherheitsgurt-Zustandsbestimmungsverfahren
DE102018207977B4 (de) Innenüberwachung für Sicherheitsgurteinstellung
DE102007023140A1 (de) Verfahren zur Erkennung und/oder Identifizierung eines Fahrers eines Kraftfahrzeugs und/oder einer Person im Bereich eines Kraftfahrzeugs sowie zugehöriges Kraftfahrzeug
EP3248179B1 (de) Verfahren und vorrichtung zum erkennen von sekundenschlaf eines fahrers eines fahrzeugs
EP2874854A1 (de) Verfahren zur authentifizierung eines fahrers in einem kraftfahrzeug
EP2543561B1 (de) Verfahren und System zur Überprüfung einer Fahrberechtigung für ein Fahrzeug
EP3083341A1 (de) Verfahren zur authentifizierung eines fahrers in einem kraftfahrzeug
DE102016220979A1 (de) Verfahren und Vorrichtung zum Steuern eines Betriebs eines Seiten- und Hecküberwachungs-Kamerasystems
DE102010038567A1 (de) Bilderkennungsvorrichtung mit mehreren Klassifizierern
DE102020117555A1 (de) Verfahren und vorrichtung zur insassenklassifizierung
DE102016215297A1 (de) Verfahren zur Identifikation eines Fahrerwechsels bei einem Kraftfahrzeug
DE112017007258T5 (de) Vorrichtung zur bestimmung des konzentrationsgrades, verfahren zur bestimmung des konzentrationsgrades und programm zur bestimmung des konzentrationsgrades
DE102022110545A1 (de) Verfahren zur Reaktion auf ein vorgegebenes Tier in einer Fahrzeugumgebung eines parkenden Fahrzeuges sowie Fahrassistenzsystem und Fahrzeug
DE102022132175A1 (de) Verfahren und system zum erkennen von müdigkeit eines fahrers eines fahrzeugs
DE102021200306B4 (de) Verfahren zur Körperhaltungs- und/oder Bewegungsanalyse einer Person
DE102006053328B4 (de) Verfahren zum Authentifizieren eines Fahrers eines Fahrzeugs und zugehörige Vorrichtung
DE102023129111A1 (de) Architektur zur bewertung von biometrischen diensten für ein fahrzeug
DE102020204362A1 (de) Verfahren zum Bewerten einer Geste eines Fahrzeuginsassen in einem Innenraum eines Fahrzeugs, ein Verfahren zum Beleuchten eines Objekts sowie ein Beleuchtungssystem
EP4047499A1 (de) Verfahren zur sprachsteuerung, system zur sprachsteuerung sowie fahrzeug mit einem system zur sprachsteuerung
DE102015010258A1 (de) Verfahren zur Einstellung zumindest eines Parameters eines Fahrzeuges
DE102008031697B4 (de) Vorrichtung und Verfahren zur Objektidentifikation
DE102021120065A1 (de) Fahrzeug-vision-system
DE102008003081B4 (de) Verfahren und Vorrichtung zur Crashklassifikation für ein Fahrzeugsicherheitssystem
DE102020215652A1 (de) Fahrzeug-bildverarbeitungssystem

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final