[go: up one dir, main page]

DE102014201036A1 - Image-based classification of driver status and / or driver behavior - Google Patents

Image-based classification of driver status and / or driver behavior Download PDF

Info

Publication number
DE102014201036A1
DE102014201036A1 DE102014201036.5A DE102014201036A DE102014201036A1 DE 102014201036 A1 DE102014201036 A1 DE 102014201036A1 DE 102014201036 A DE102014201036 A DE 102014201036A DE 102014201036 A1 DE102014201036 A1 DE 102014201036A1
Authority
DE
Germany
Prior art keywords
driver
sectors
vehicle
control unit
viewing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014201036.5A
Other languages
German (de)
Inventor
Christoph John
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102014201036.5A priority Critical patent/DE102014201036A1/en
Publication of DE102014201036A1 publication Critical patent/DE102014201036A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Mathematical Physics (AREA)
  • Psychiatry (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physiology (AREA)
  • Educational Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Social Psychology (AREA)
  • Fuzzy Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Combustion & Propulsion (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine entsprechende Vorrichtung zur Ermittlung des Zustands eines Fahrers eines Fahrzeugs. Es wird eine Steuereinheit (101) für ein Fahrzeug (100) beschrieben. Die Steuereinheit (101) ist eingerichtet, Bilddaten von ein oder mehreren Bildsensoren (103) zu empfangen. Die ein oder mehreren Bildsensoren (103) sind eingerichtet, eine Fahrerposition (102) des Fahrzeugs (100) zu erfassen. Die Steuereinheit (101) ist weiter eingerichtet, anhand der Bilddaten, für eine Sequenz von Zeitpunkten die Blickrichtung eines Fahrers des Fahrzeugs (100) jeweils einem Blicksektor aus einer Vielzahl von Blicksektoren (201, ..., 213) zuzuweisen, und so einen zeitlichen Verlauf s(t) von Blicksektoren als Darstellung einer zeitlichen Entwicklung der Blickrichtung des Fahrers zu ermitteln. Desweiteren ist die Steuereinheit (101) eingerichtet, den zeitlichen Verlauf s(t) von Blicksektoren auszuwerten.The invention relates to a method and a corresponding device for determining the condition of a driver of a vehicle. A control unit (101) for a vehicle (100) is described. The control unit (101) is configured to receive image data from one or more image sensors (103). The one or more image sensors (103) are configured to detect a driver position (102) of the vehicle (100). The control unit (101) is further configured to use the image data to assign the viewing direction of a driver of the vehicle (100) to a viewing sector from a multiplicity of viewing sectors (201,..., 213) for a sequence of times, and thus temporally To determine course s (t) of viewing sectors as a representation of a temporal evolution of the driver's line of sight. Furthermore, the control unit (101) is set up to evaluate the temporal course s (t) of gaze sectors.

Description

Die Erfindung betrifft ein Verfahren und eine entsprechende Vorrichtung zur Ermittlung des Zustands eines Fahrers eines Fahrzeugs.The invention relates to a method and a corresponding device for determining the condition of a driver of a vehicle.

In den Bereichen der intelligenten Fahrerassistenzsysteme (FAS) und/oder des hochautomatisierten Fahrens (HAF) ist es sinnvoll, fahrerrelevante Parameter wie die Aufmerksamkeit des Fahrers, eine Ablenkung des Fahrers von der Fahraufgabe, eine Fahrerabsicht, eine Müdigkeit des Fahrers, eine Schläfrigkeit des Fahrers und/oder eine Übernahmefähigkeit des Fahrers, insbesondere wenn der Fahrer hochautomatisiert gefahren wird, zu ermitteln. Die fahrerrelevanten Parameter können dann mit Übernahmezeiten korreliert werden und die verschiedenen Fahrsysteme (FAS und/oder automatische Fahrsysteme) können adaptiv an den ermittelten Fahrerzustand angepasst werden.In the areas of intelligent driver assistance systems (FAS) and / or highly automated driving (HAF), it makes sense to include driver-relevant parameters such as the driver's attention, distraction of the driver from the driving task, driver intent, tiredness of the driver, and drowsiness of the driver and / or a takeover ability of the driver, in particular if the driver is driven highly automated, to determine. The driver-relevant parameters can then be correlated with takeover times and the various driving systems (FAS and / or automatic driving systems) can be adaptively adapted to the determined driver state.

Heutige Fahrsysteme haben typischerweise eine relativ eingeschränkte Sicht auf den Zustand des Fahrers. Beispielsweise wird teilweise die vereinfachte Annahme zugrunde gelegt, dass der Fahrer aufmerksam auf die Fahraufgabe ist, wenn der Fahrer die Hände am Lenkrad hat. Andererseits kann die Übernahmefähigkeit beim automatisierten Fahren (bspw. bei einem Zugfahrer) mit einem sogenannten „Tote Mann” Schalter überprüft werden, der periodisch vom Fahrer betätigt werden muss, um sicher zu stellen, dass dieser übernahmefähig ist.Today's driving systems typically have a relatively limited view of the driver's condition. For example, the simplified assumption is based in part on the fact that the driver is attentive to the driving task when the driver has his hands on the steering wheel. On the other hand, the ability to take over in automated driving (for example in a train driver) can be checked with a so-called "dead man" switch, which has to be actuated periodically by the driver in order to ensure that it can be taken over.

Die oben beschriebenen Maßnahmen zur Ermittlung des Fahrerzustands sind unzureichend. Zum einen führen vereinfachte Annahmen (wie die Annahme, dass aus der Tatsache, dass der Fahrer die Hände am Lenkrad hat, geschlossen werden kann, dass der Fahrer aufmerksam ist) zu Fehleinschätzungen bzgl. des tatsächlichen Zustands des Fahrers und bzgl. der Fähigkeit des Fahrers den aktiven Fahrbetrieb zu übernehmen. Andererseits führen Überprüfungsroutinen (wie die periodische Betätigung eines „Tote Mann” Schalters) dazu, dass der Fahrer mit einer sekundären Aufgabe konfrontiert wird, die den Fahrer zusätzlich vom Verkehrsgeschehen ablenkt.The measures described above for determining the condition of the driver are insufficient. On the one hand, simplified assumptions (such as the assumption that the driver has his hands on the steering wheel can be closed, that the driver is alert) lead to misjudgements regarding the driver's actual condition and the ability of the driver to take over active driving. On the other hand, verification routines (such as the periodic operation of a "dead man" switch) cause the driver to be confronted with a secondary task that additionally distracts the driver from the traffic.

Das vorliegende Dokument befasst sich mit der technischen Aufgabe den Fahrerzustand und/oder eine Übernahmefähigkeit des Fahrers in zuverlässiger Weise zu ermitteln, ohne dass der Fahrer dabei eine aktive Überprüfungsroutine durchführen muss, die den Fahrer vom Verkehrsgeschehen ablenken würde und/oder durch die der Komfort für den Fahrer reduziert werden würde.The present document is concerned with the technical task of reliably determining the driver's condition and / or a driver's ability to take over, without the driver having to carry out an active checking routine which would distract the driver from the traffic situation and / or the comfort for the driver the driver would be reduced.

Die Aufgabe wird durch die unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen werden u. a. in den abhängigen Ansprüchen beschrieben.The object is solved by the independent claims. Advantageous embodiments are u. a. in the dependent claims.

Gemäß einem Aspekt wird eine Steuereinheit für ein Fahrzeug (z. B. für ein zweispuriges Fahrzeug wie einen Personenkraftwagen oder einen Lastkraftwagen) beschrieben. Die Steuereinheit kann dazu verwendet werden, eine Assistenzfunktion für den Fahrer des Fahrzeugs bereitzustellen. In diesem Zusammenhang kann ein Zustand des Fahrers oder eine Übernahmefähigkeit des Fahrers ermittelt werden. Alternativ oder ergänzend kann in diesem Zusammenhang ermittelt werden, ob ein Fahrer ein Objekt oder ein Hindernis in einem Umfeld des Fahrzeugs wahrgenommen hat oder nicht.In one aspect, a control unit for a vehicle (eg, for a two-lane vehicle such as a passenger car or a lorry) is described. The control unit may be used to provide an assistance function to the driver of the vehicle. In this connection, a driver's condition or a driver's takeover ability can be determined. Alternatively or additionally, it can be determined in this context whether or not a driver has perceived an object or an obstacle in an environment of the vehicle.

Die Steuereinheit ist eingerichtet, Bilddaten von ein oder mehreren Bildsensoren (z. B. Kameras) zu empfangen. Die ein oder mehreren Bildsensoren sind eingerichtet, eine Fahrerposition des Fahrzeugs zu erfassen. Insbesondere können die ein oder mehreren Bildsensoren derart eingerichtet sein, dass aus den erfassten Bilddaten der Blickwinkel des Fahrers des Fahrzeugs in einem vordefinierten Blickwinkelbereich (ggf. bis zu 360 Grad) ermittelt werden kann. Die Bilddaten umfassen zu diesen Zweck typischerweise Informationen über vordefinierte und/oder markante Gesichtsmerkmale (wie z. B. die Augen) und/oder über Gesichtsmimik des Fahrers.The control unit is set up to receive image data from one or more image sensors (eg cameras). The one or more image sensors are configured to detect a driver's position of the vehicle. In particular, the one or more image sensors can be set up in such a way that the angle of vision of the driver of the vehicle in a predefined viewing angle range (possibly up to 360 degrees) can be determined from the acquired image data. The image data for this purpose typically includes information about predefined and / or distinctive facial features (such as the eyes) and / or facial expression of the driver.

Die Steuereinheit ist weiter eingerichtet, anhand der Bilddaten und für eine Sequenz von Zeitpunkten, die Blickrichtung des Fahrers des Fahrzeugs (die sich aus den Bilddaten ergibt) jeweils einem Blicksektor aus einer Vielzahl von Blicksektoren zuzuweisen. Die Blicksektoren der Vielzahl von Blicksektoren können einem Koordinatensystem des Fahrzeugs zugewiesen sein oder können in einem Koordinatensystem des Fahrzeugs definiert sein. Insbesondere können die Blicksektoren der Vielzahl von Blicksektoren jeweils unterschiedliche (definierte) Bereiche eines Frontbereichs und/oder des Seitenbereichs des Fahrzeugs umfassen. Insbesondere können die Blicksektoren Bereiche des Fahrzeugs umfassen, die darauf hindeuten, dass der Fahrer auf den Verkehr konzentriert ist (z. B. einen Blicksektor der eine Windschutzscheibe und/oder Rückspiegel und/oder Seitenspiegel des Fahrzeugs umfasst). Außerdem können andere Blicksektoren Bereiche des Fahrzeugs umfassen, die darauf hindeuten, dass der Fahrer mit Sekundäraufgaben beschäftigt ist (z. B. einen Blicksektor der Bedienelemente des Fahrzeugs umfasst). Der gesamte Blickbereich des Fahrers kann in eine begrenzte Anzahl N von Blicksektoren aufgeteilt sein. Typische Werte für N sind 5, 10, 15 oder 20 Blicksektoren.The control unit is further configured, on the basis of the image data and for a sequence of points in time, to assign the viewing direction of the driver of the vehicle (which results from the image data) to a viewing sector from a plurality of viewing sectors. The gaze sectors of the plurality of gaze sectors may be assigned to a coordinate system of the vehicle or may be defined in a coordinate system of the vehicle. In particular, the viewing sectors of the plurality of viewing sectors may each comprise different (defined) areas of a front area and / or the side area of the vehicle. In particular, the viewing sectors may include areas of the vehicle that indicate the driver is focused on the traffic (eg, a gaze sector comprising a windshield and / or rearview mirror and / or side mirrors of the vehicle). In addition, other gaze sectors may include areas of the vehicle that indicate that the driver is engaged in secondary tasks (eg, includes a gaze sector of the vehicle's controls). The entire driver's field of view may be divided into a limited number N of viewing sectors. Typical values for N are 5, 10, 15 or 20 viewing sectors.

Durch die Zuweisung der Blickrichtung für die Sequenz von Zeitpunkten kann ein zeitlicher Verlauf s(t) von Blicksektoren als Darstellung einer zeitlichen Entwicklung der Blickrichtung des Fahrers ermittelt werden.By assigning the line of sight for the sequence of times, a temporal course s (t) of gaze sectors can be determined as representing a temporal evolution of the driver's line of sight.

Die Steuereinheit kann weiter eingerichtet sein, den zeitlichen Verlauf s(t) von Blicksektoren auszuwerten. Die Auswertung kann insbesondere im Hinblick auf eine bereitgestellte Assistenzfunktion erfolgen. Im Rahmen der Auswertung können Werte für ein oder mehrere statistische Parameter ermittelt werden. Beispielsweise kann die Steuereinheit eingerichtet sein, anhand des zeitlichen Verlaufs s(t) von Blicksektoren, Anteile pi der einzelnen Blicksektoren aus der Vielzahl von Blicksektoren an der Blickrichtung des Fahrers in einem vordefinierten Zeitintervall zu bestimmen. Alternativ oder ergänzend kann die Steuereinheit eingerichtet sein, Häufigkeiten hi für Übergänge zwischen den einzelnen Blicksektoren aus der Vielzahl von Blicksektoren in dem vordefinierten Zeitintervall zu bestimmen. Diese oder andere statistische Parameter können dazu verwendet werden, einen Zustand des Fahrers zu ermitteln. Außerdem kann anhand dieser oder anderer statistischer Parameter ermittelt werden, ob der Fahrer ein bestimmtes Hindernis oder ein Objekt im Umfeld des Fahrzeugs wahrgenommen hat. Dies kann beispielsweise durch einen Abgleich von Daten bzgl. der Blicksektoren (z. B. durch einen Abgleich des zeitlichen Verlaufs s(t) von Blicksektoren) mit einem Umfeldmodell erreicht werden. In dem Umfeldmodell kann ein durch ein Fahrerassistenzsystem (FAS) erkanntes Objekt im Umfeld des Fahrzeugs, etwa ein anderer Verkehrsteilnehmer, räumlich erfasst sein. The control unit can also be set up to evaluate the time profile s (t) of view sectors. The evaluation can be carried out in particular with regard to a provided assistance function. As part of the evaluation, values for one or more statistical parameters can be determined. For example, the control unit may be set up to determine portions p i of the individual view sectors from the plurality of viewing sectors in the driver's line of sight in a predefined time interval on the basis of the time profile s (t) of view sectors. Alternatively or additionally, the control unit may be configured to determine frequencies h i for transitions between the individual view sectors from the plurality of view sectors in the predefined time interval. These or other statistical parameters can be used to determine a condition of the driver. In addition, it can be determined on the basis of these or other statistical parameters whether the driver has perceived a specific obstacle or an object in the vicinity of the vehicle. This can be achieved, for example, by matching data with regard to the viewing sectors (for example, by adjusting the time profile s (t) of view sectors) with an environment model. In the environment model, an object detected by a driver assistance system (FAS) in the surroundings of the vehicle, for example another road user, can be spatially detected.

Wie bereits dargelegt kann die Steuereinheit eingerichtet sein, anhand des zeitlichen Verlaufs s(t) von Blicksektoren einen Zustand des Fahrers zu ermitteln. Zu diesem Zweck kann die Steuereinheit insbesondere eingerichtet sein, für das vordefinierte Zeitintervall, ein oder mehrere aktuelle Parameterwerte für ein oder mehrere statistische Parameter (z. B. für die Anteile pi oder für die Häufigkeiten hi) aus dem zeitlichen Verlauf s(t) von Blicksektoren zu bestimmen. Desweiteren kann die Steuereinheit einen vordefinierten Clusteralgorithmus oder Klassifizierungsalgorithmus bereitstellen, der eingerichtet ist, unterschiedliche Parameterwerte der ein oder mehreren statistischen Parameter unterschiedlichen vordefinierten Zustandsklassen zuzuordnen. Beispiele für Zustandsklassen sind: „Fahrer tätigt einen Spurwechsel”, „Fahrer tätigt eine geregelte Geradeausfahrt”, „Fahrer ist abgelenkt”, und/oder „Fahrer starrt unbewusst”.As already explained, the control unit can be set up to determine a driver's condition on the basis of the time profile s (t) of view sectors. For this purpose, the control unit can be set up, in particular, for the predefined time interval, one or more current parameter values for one or more statistical parameters (eg for the portions p i or for the frequencies h i ) from the time course s (t ) of viewing sectors. Furthermore, the control unit can provide a predefined cluster algorithm or classification algorithm that is set up to assign different parameter values of the one or more statistical parameters to different predefined state classes. Examples of condition classes are: "Driver makes a lane change", "Driver makes a controlled straight-ahead drive", "Driver is distracted", and / or "Driver stares unconsciously".

Die Steuereinheit kann weiter eingerichtet sein, anhand der ein oder mehreren aktuellen Parameterwerte und anhand des vordefinierten Clusteralgorithmus/Klassifizierungsalgorithmus, eine aktuelle Zustandsklasse als Zustand des Fahrers zu ermitteln. Mit anderen Worten, die aktuellen Parameterwerte können dazu verwendet werden, den aktuellen Zustand des Fahrers zu ermitteln.The control unit can also be set up to determine a current condition class as the driver's condition based on the one or more current parameter values and on the basis of the predefined cluster algorithm / classification algorithm. In other words, the current parameter values can be used to determine the current state of the driver.

Die Steuereinheit ist somit eingerichtet den Zustand des Fahrers in zuverlässiger und autonomer Weise zu bestimmen. Insbesondere ist zur Ermittlung des Fahrerzustands keine Aktion des Fahrers erforderlich, durch die der Fahrer vom Fahrbetrieb abgelenkt werden könnte.The control unit is thus set up to determine the condition of the driver in a reliable and autonomous manner. In particular, to determine the driver state, no action of the driver is required by which the driver could be distracted from driving.

Die Steuereinheit kann weiter eingerichtet sein, zu bestimmen, dass eine Zuverlässigkeit des anhand des zeitlichen Verlaufs s(t) von Blicksektoren ermittelten Zustands des Fahrers kleiner als oder gleich wie ein vordefinierter Schwellwert ist. Mit anderen Worten, es kann erkannt werden, dass der Zustand des Fahrers anhand des zeitlichen Verlaufs s(t) von Blicksektoren nicht zuverlässig ermittelt werden kann (z. B. weil der Fahrer eine Sonnenbrille trägt). Die Steuereinheit kann, in Reaktion darauf, veranlassen, dass der Fahrer des Fahrzeugs aufgefordert wird, einen Schalter des Fahrzeugs (ggf. in periodischer Weise) zu betätigen, um den Zustand des Fahrers zu überprüfen. So kann sichergestellt werden, dass auch bei unzureichenden Bilddaten der Zustand des Fahrers zuverlässig bestimmt werden kann.The control unit may be further configured to determine that a reliability of the driver's state determined based on the time course s (t) of gaze sectors is less than or equal to a predefined threshold value. In other words, it can be recognized that the condition of the driver can not be reliably determined from the temporal history s (t) of gaze sectors (for example, because the driver wears sunglasses). The control unit may, in response, cause the driver of the vehicle to be prompted to actuate a switch of the vehicle (possibly periodically) to check the condition of the driver. This ensures that the condition of the driver can be reliably determined even with insufficient image data.

Die Steuereinheit kann eingerichtet sein, Umfelddaten von ein oder mehreren Umfeldsensoren (z. B. eine Kamera und/oder ein Radarsensor) des Fahrzeugs und/oder Positionsdaten von einer Positionierungseinheit (z. B. ein Navigationsgerät) des Fahrzeugs zu empfangen. Anhand der Umfelddaten und/oder der Positionsdaten kann ein Objekt in einem Umfeld des Fahrzeugs detektiert werden. Das detektierte Objekt kann einem Blicksektor aus der Vielzahl von Blicksektoren zugewiesen werden. Alternativ oder ergänzend können die ermittelten Blickrichtungsvektoren des Fahrers direkt zur Intersektionserkennung mit dem erkannten Objekt geschnitten werden, um zu ermitteln, ob das Objekt in einem Umfeld des Fahrzeugs detektiert wurde.The control unit may be configured to receive environment data from one or more environment sensors (eg a camera and / or a radar sensor) of the vehicle and / or position data from a positioning unit (eg a navigation device) of the vehicle. On the basis of the environment data and / or the position data, an object can be detected in an environment of the vehicle. The detected object can be assigned to a gaze sector from the plurality of gaze sectors. Alternatively or additionally, the determined eye direction vectors of the driver can be cut directly to the intersection recognition with the detected object to determine whether the object has been detected in an environment of the vehicle.

Die Größe und/oder Position eines o. g. Objekt-abhängigen Blicksektors kann sich zeitlich (aufgrund der Veränderung der Position des Objekts relativ zum Fahrzeug) verändern. Somit können sich die Blicksektoren der Vielzahl von Blicksektoren dynamisch mit der Zeit verändern. Alternativ oder ergänzend können die Positionen der Objekte im Fahrzeugumfeld aufgrund von Objekt- oder Fahrzeugeigenbewegungen variieren. Aufgrund dessen kann auch die Zuordnung von Objekten im Fahrzeugumfeld zu Blicksektoren dynamisch mit der Zeit variieren.The size and / or position of an o. G. Object dependent gaze sector may change in time (due to the change in the position of the object relative to the vehicle). Thus, the gaze sectors of the plurality of gaze sectors may change dynamically with time. Alternatively or additionally, the positions of the objects in the vehicle environment may vary due to object or vehicle inherent motions. Because of this, the assignment of objects in the vehicle environment to gaze sectors can also vary dynamically over time.

Die Steuereinheit kann eingerichtet sein, das detektierte Objekt bei der Ermittlung des Zustands des Fahrers zu berücksichtigen. Dadurch kann eine Genauigkeit der Ermittlung des Zustands des Fahrers erhöht werden.The control unit may be configured to consider the detected object in determining the driver's condition. Thereby, an accuracy of determining the condition of the driver can be increased.

Alternativ oder ergänzend kann die Steuereinheit eingerichtet sein, anhand des zeitlichen Verlaufs s(t) von Blicksektoren zu bestimmen, dass der Fahrer das detektierte Objekt nicht wahrnimmt. In Reaktion darauf kann die Ausgabe eines Warnhinweises bzgl. des detektierten Objekts an den Fahrer des Fahrzeugs veranlasst werden. So kann die Sicherheit des Fahrzeugs im Straßenverkehr erhöht werden.Alternatively or additionally, the control unit can be set up on the basis of the time History s (t) of Blicksektoren to determine that the driver does not perceive the detected object. In response, issuance of a warning regarding the detected object to the driver of the vehicle may be initiated. Thus, the safety of the vehicle in road traffic can be increased.

Gemäß einem weiteren Aspekt wird ein Verfahren zur Bereitstellung einer Assistenzfunktion in einem Fahrzeug beschrieben. Das Verfahren umfasst das Empfangen von Bilddaten von ein oder mehreren Bildsensoren. Die ein oder mehreren Bildsensoren sind dabei eingerichtet, eine Fahrerposition des Fahrzeugs (insbesondere einen Kopf eines Fahrers des Fahrzeugs) zu erfassen.In another aspect, a method of providing an assistance function in a vehicle is described. The method includes receiving image data from one or more image sensors. The one or more image sensors are configured to detect a driver position of the vehicle (in particular a head of a driver of the vehicle).

Das Verfahren umfasst weiter das Zuweisen, anhand der Bilddaten und für eine Sequenz von Zeitpunkten, der Blickrichtung eines Fahrers des Fahrzeugs zu jeweils einem Blicksektor aus einer Vielzahl von Blicksektoren, um einen zeitlichen Verlauf s(t) von Blicksektoren als Darstellung einer zeitlichen Entwicklung der Blickrichtung des Fahrers zu ermitteln. Desweiteren umfasst das Verfahren das Auswerten des zeitlichen Verlaufs s(t) von Blicksektoren zur Bereitstellung der Assistenzfunktion.The method further comprises assigning, based on the image data and for a sequence of times, the direction of view of a driver of the vehicle to a gaze sector from a plurality of gaze sectors, a temporal course s (t) of gaze sectors representing a temporal evolution of the gaze direction to determine the driver. Furthermore, the method comprises the evaluation of the time profile s (t) of gaze sectors for providing the assistance function.

Gemäß einem weiteren Aspekt wird ein Fahrzeug (z. B. ein Personenkraftwagen, ein Lastkraftwagen oder ein Motorrad) beschrieben, das eine in diesem Dokument beschriebene Steuereinheit umfasst.In another aspect, a vehicle (eg, a passenger car, a truck, or a motorcycle) is described that includes a control unit described in this document.

Gemäß einem weiteren Aspekt wird ein Software (SW) Programm beschrieben. Das SW Programm kann eingerichtet werden, um auf einem Prozessor (z. B. auf einer Steuereinheit) ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.In another aspect, a software (SW) program is described. The SW program may be set up to run on a processor (eg, on a controller) and thereby perform the method described in this document.

Gemäß einem weiteren Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.In another aspect, a storage medium is described. The storage medium may include a SW program that is set up to run on a processor and thereby perform the method described in this document.

Es ist zu beachten, dass die in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systeme sowohl alleine, als auch in Kombination mit anderen in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen verwendet werden können. Desweiteren können jegliche Aspekte der in diesem Dokument beschriebenen Verfahren, Vorrichtung und Systemen in vielfältiger Weise miteinander kombiniert werden. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden.It should be understood that the methods, devices and systems described herein may be used alone as well as in combination with other methods, devices and systems described in this document. Furthermore, any aspects of the methods, apparatus, and systems described herein may be combined in a variety of ways. In particular, the features of the claims can be combined in a variety of ways.

Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigtFurthermore, the invention will be described in more detail with reference to exemplary embodiments. It shows

1 ein Blockdiagram mit beispielhaften Komponenten eines Fahrzeugs; 1 a block diagram with exemplary components of a vehicle;

2 eine beispielhafte Einteilung eines Fahrzeugs in Blicksektoren; und 2 an exemplary classification of a vehicle in view sectors; and

3 ein Flussdiagram eines beispielhaften Verfahrens zur Ermittlung des Zustands eines Fahrers. 3 a flowchart of an exemplary method for determining the state of a driver.

Wie eingangs dargelegt, befasst sich das vorliegende Dokument mit der Ermittlung des Zustands des Fahrers eines Fahrzeugs (z. B. eines Personenkraftwagens oder eines Lastkraftwagens). Dies ist insbesondere bei der Verwendung von Fahrerassistenzsystemen (FAS) oder bei teil- bzw. hochautomatisiertem Fahren von Bedeutung. Durch derartige Assistenzfunktionen wird der Fahrer teilweise oder ganz vom aktiven Fahrbetrieb entlastet. Dennoch sollte gewährleistet sein, dass der Fahrer bei Bedarf den aktiven Fahrbetrieb wieder übernehmen kann. Das vorliegende Dokument beschreibt in diesem Zusammenhang Verfahren und Vorrichtungen zur Ermittlung des Zustands des Fahrers. Aus dem Zustand der Fahrers kann typischerweise auch auf die Fähigkeit des Fahrers geschlossen werden, den aktiven Fahrbetrieb des Fahrzeugs zu übernehmen (die sogenannte Übernahmefähigkeit). Desweiteren kann aus dem Fahrerzustand ein Zeitraum ermittelt werden, den der Fahrer benötigt, um den aktiven Fahrbetrieb zu übernehmen (die sogenannte Übernahmezeit).As set forth above, the present document is concerned with determining the condition of the driver of a vehicle (eg, a passenger car or a truck). This is particularly important when using driver assistance systems (FAS) or in partially or highly automated driving. Through such assistance functions, the driver is partially or completely relieved of active driving. Nevertheless, it should be ensured that the driver can take over active driving again if necessary. The present document describes in this connection methods and devices for determining the condition of the driver. From the condition of the driver can also be typically concluded on the ability of the driver to take over the active driving of the vehicle (the so-called takeover capability). Furthermore, from the driver state, a period can be determined, which the driver needs to take over the active driving operation (the so-called takeover time).

Der Fahrerzustand kann in eine Vielzahl von vordefinierten Zuständen klassifiziert werden. Diese vordefinierten Fahrerzustände können auch als Übernahmefähigkeitslevels bezeichnet werden. Beispielhafte Übernahmefähigkeitslevels sind:

  • • Level 1: Fahrer ist aufmerksam (Fahrer partizipiert aktiv am Verkehrsgeschehen). Der Fahrer kann somit jederzeit und mit einer minimalen Übernahmezeit den aktiven Fahrbetrieb übernehmen.
  • • Level 2: Fahrer ist kurzfristig abgelenkt von der Fahraufgabe (durch sekundäre Aufgaben wie Telefonieren, Bahnplanung, Bedienung von Entertainment- und Komfortfunktionen). Durch die kurzfristige Ablenkung ergibt sich eine erhöhte Übernahmezeit.
  • • Level 3: Fahrer ist müde/erschöpft. Hier ergibt sich eine eingeschränkte Fahrperformance und eine weiter erhöhte Übernahmezeit.
  • • Level 4: Fahrer ist schläfrig (starke Müdigkeitserscheinungen treten auf, z. B. hochfrequenter Liedschlag, Augen fallen zu, keine bewusste Szenenwahrnehmung, Sekundenschlaf). Dies führt zu einer weiter eingeschränkten Fahrperformance und einer weiter erhöhten Übernahmezeit.
  • • Level 5: Fahrer ist nicht übernahmefähig (z. B. eingeschlafen, physisch nicht präsent).
  • • Level 6: Fahrer ist tot.
The driver state can be classified into a variety of predefined states. These predefined driver states can also be referred to as takeover capability levels. Exemplary takeover levels are:
  • • Level 1: driver is attentive (driver participates actively in traffic). The driver can thus take over active driving at any time and with a minimum takeover time.
  • • Level 2: driver is distracted from the driving task at short notice (due to secondary tasks such as telephoning, path planning, operation of entertainment and comfort functions). The short-term distraction results in an increased takeover time.
  • • Level 3: driver is tired / exhausted. This results in a limited driving performance and a further increase takeover time.
  • • Level 4: Driver is sleepy (severe fatigue symptoms occur, eg high frequency song punch, eyes fall, no conscious scene perception, microsleep). this leads to a further limited driving performance and a further increase takeover time.
  • • Level 5: driver is not eligible (eg asleep, physically not present).
  • • Level 6: driver is dead.

Im vorliegenden Dokument wird ein kamerabasiertes System und Verfahren beschrieben, welche dazu eingerichtet sind, eine Klassifikation des Fahrerzustandes durchzuführen, z. B. in die oben angeführten Übernahmefähigkeitslevel. Dabei können unterschiedliche Fahrerverhalten ermittelt werden. Beispielhafte Fahrerverhalten sind:

  • • Spurwechselabsicht, d. h. der Fahrer hat die Absicht eine Fahrspur zu wechseln.
  • • Der Fahrer verhält sich als idealer Regler, der typischerweise durch eine aufmerksame Geradeausfahrt und bewusste Szenenwahrnehmung gekennzeichnet ist.
  • • Der Fahrer ist durch sekundäre Aktivitäten abgelenkt.
  • • Der Fahrer führt ein unbewusstes Starren durch.
In the present document, a camera-based system and method is described, which are adapted to perform a classification of the driver state, for. For example, in the above-mentioned takeover level. Different driver behavior can be determined. Exemplary driver behaviors are:
  • • Lane change intent, ie the driver intends to change lanes.
  • • The driver behaves as an ideal controller, which is typically characterized by attentive straight-ahead driving and deliberate scene perception.
  • • The driver is distracted by secondary activities.
  • • The driver performs an unconscious stare.

Zur Ermittlung des Zustands des Fahrers wird ein System mit einer Vielzahl von Kameras vorgeschlagen, welche derart angeordnet sind, dass zumindest eine der Vielzahl von Kameras bei beliebigen Kopfausrichtungen die Augen des Fahrers erfassen kann, um eine Blickrichtung des Fahrers zu ermitteln. Die ermittelte Blickrichtung kann dann in eine Vielzahl von Blicksektoren unterteilt werden, um eine statistische Auswertung der Blickrichtung über die Zeit durchzuführen. Die statistische Auswertung der Blickrichtung des Fahrers über die Zeit kann Informationen über den Zustand des Fahrers liefern.In order to determine the condition of the driver, a system is proposed with a multiplicity of cameras which are arranged such that at least one of the plurality of cameras can detect the driver's eyes in any desired orientation of the head in order to determine a viewing direction of the driver. The determined viewing direction can then be subdivided into a plurality of viewing sectors in order to carry out a statistical evaluation of the viewing direction over time. The statistical evaluation of the driver's line of sight over time can provide information about the condition of the driver.

1 zeigt ein Blockdiagram von beispielhaften Komponenten eines Fahrzeugs 100. Insbesondere zeigt 1 eine Vielzahl von Bildsensoren 103 (z. B. Kameras), die eingerichtet sind, Bilddaten bzgl. des Fahrers des Fahrzeugs 100 zu erfassen. Die Vielzahl von Bildsensoren 103 ist auf eine Fahrerposition 102 des Fahrzeugs 100 gerichtet. Insbesondere ist die Vielzahl von Bildsensoren 103 derart angeordnet, dass ein Kopf des Fahrers des Fahrzeugs 100 bildlich erfasst werden kann. Desweiteren ist die Vielzahl von Bildsensoren 103 derart im Fahrzeug 100 angeordnet, dass für einen vordefinierten Bereich von Blickwinkeln die Augen des Fahrers jeweils zumindest von einem Bildsensor der Vielzahl von Bildsensoren 103 erfasst werden, um die Blickrichtung des Fahrers zu ermitteln. Der vordefinierte Bereich von Blickwinkeln kann einen Bereich von Azimutwinkeln und/oder einen Bereich von Höhenwinkeln umfassen. 1 shows a block diagram of exemplary components of a vehicle 100 , In particular shows 1 a variety of image sensors 103 (eg, cameras) that are set up image data regarding the driver of the vehicle 100 capture. The variety of image sensors 103 is on a driver's position 102 of the vehicle 100 directed. In particular, the plurality of image sensors 103 arranged such that a head of the driver of the vehicle 100 can be captured. Furthermore, the large number of image sensors 103 such in the vehicle 100 arranged such that for a predefined range of angles the driver's eyes are each at least one image sensor of the plurality of image sensors 103 be detected to determine the driver's line of sight. The predefined range of viewing angles may include a range of azimuth angles and / or a range of elevation angles.

Die Bilddaten der Vielzahl von Bildsensoren 103 können an eine Steuereinheit 101 übermittelt werden. Die Steuereinheit 101 ist eingerichtet, anhand der Bilddaten, an einer Vielzahl von Zeitpunkten den Blickwinkel des Fahrers des Fahrzeugs 100 zu ermitteln. Bei den Bilddaten kann es sich insbesondere um Videodaten mit einer bestimmten Bildrate (z. B. 30 Bilder/Sekunde) handeln. Die Steuereinheit 101 kann eingerichtet sein, den zeitlichen Verlauf des Blickwinkels des Fahrers mit einer zeitlichen Auflösung zu ermitteln, die von der Bildrate der erfassten Bilddaten abhängt. Typischerweise entspricht die zeitliche Auflösung des zeitlichen Verlaufs des Blickwinkels der Bildrate der Bilddaten. Der zeitliche Verlauf des Blickwinkels kann mit

Figure DE102014201036A1_0002
bezeichnet werden, wobei α(t) der zeitliche Verlauf des Azimutwinkels ist und wobei γ(t) der zeitliche Verlauf des Höhenwinkels ist.The image data of the plurality of image sensors 103 can be connected to a control unit 101 be transmitted. The control unit 101 is set up, based on the image data, at a variety of times the perspective of the driver of the vehicle 100 to investigate. The image data may in particular be video data with a specific frame rate (eg 30 frames / second). The control unit 101 can be configured to determine the time course of the driver's angle of view with a temporal resolution that depends on the frame rate of the captured image data. Typically, the temporal resolution of the temporal course of the viewing angle corresponds to the frame rate of the image data. The temporal course of the angle can with
Figure DE102014201036A1_0002
where α (t) is the time course of the azimuth angle and where γ (t) is the time profile of the elevation angle.

Desweiteren kann die Steuereinheit 101 eingerichtet sein, den Blickwinkel B(t) des Fahrers in eine Vielzahl von vordefinierten Blicksektoren zu klassifizieren, wobei S = {si) mit i = 1, ..., N und N > 1 die Menge der vordefinierten Blicksektoren si darstellt. 2 zeigt eine beispielhafte Aufteilung des Frontbereichs des Fahrzeugs 100 in eine Vielzahl von (ggf. statischen) Blicksektoren 201, ..., 213. Die beispielhafte Vielzahl von Blicksektoren 201, ..., 213 umfasst:

  • einen Blicksektor 201 für ein Fahrerseitiges Fenster des Fahrzeugs 100 (ohne Außenspiegel);
  • einen Blicksektor 202 für den Fahrerseitigen Außenspiegel des Fahrzeugs 100;
  • einen Blicksektor 203 für Fahrerseitige seitliche Bedienelemente/Ablagen des Fahrzeugs 100;
  • einen Blicksektor 204 für einen Fahrerseitigen Teil der Windschutzscheibe;
  • einen Blicksektor 205 für ein Lenkrad und ein Armaturenbrett des Fahrzeugs 100;
  • einen Blicksektor 206 für einen Rückspiegel des Fahrzeugs 100;
  • einen Blicksektor 207 für ein Infotainmentsystem des Fahrzeugs 100;
  • einen Blicksektor 208 für einen Gangwahlhebel und/oder eine zentrale Ablage des Fahrzeugs 100;
  • einen Blicksektor 209 für einen Beifahrerseitigen Teil der Windschutzscheibe;
  • einen Blicksektor 210 für ein Handschuhfach des Fahrzeugs 100;
  • einen Blicksektor 211 für eine Beifahrerposition des Fahrzeugs 100;
  • einen Blicksektor 212 für den beifahrerseitigen Außenspiegel des Fahrzeugs 100; und/oder
  • einen Blicksektor 213 für ein Beifahrerseitiges Fenster des Fahrzeugs 100 (ohne Außenspiegel).
Furthermore, the control unit 101 be configured to classify the driver's viewpoint B (t) into a plurality of predefined view sectors, where S = {s i ) where i = 1, ..., N and N> 1 represents the set of predefined view sectors s i . 2 shows an exemplary division of the front portion of the vehicle 100 into a large number of (possibly static) viewing sectors 201 , ..., 213 , The exemplary variety of viewing sectors 201 , ..., 213 includes:
  • • a gaze sector 201 for a driver-side window of the vehicle 100 (without exterior mirrors);
  • • a gaze sector 202 for the driver side exterior mirror of the vehicle 100 ;
  • • a gaze sector 203 for driver side side controls / shelves of the vehicle 100 ;
  • • a gaze sector 204 for a driver side portion of the windshield;
  • • a gaze sector 205 for a steering wheel and a dashboard of the vehicle 100 ;
  • • a gaze sector 206 for a rearview mirror of the vehicle 100 ;
  • • a gaze sector 207 for an infotainment system of the vehicle 100 ;
  • • a gaze sector 208 for a gear selector and / or a central shelf of the vehicle 100 ;
  • • a gaze sector 209 for a passenger-side part of the windshield;
  • • a gaze sector 210 for a glove compartment of the vehicle 100 ;
  • • a gaze sector 211 for a passenger position of the vehicle 100 ;
  • • a gaze sector 212 for the passenger-side exterior mirror of the vehicle 100 ; and or
  • • a gaze sector 213 for a passenger side window of the vehicle 100 (without outside mirror).

Die Steuereinheit 101 kann eingerichtet sein, den ermittelten Blickwinkel B(t) einem der Vielzahl von Blicksektoren si zuzuweisen. So ergibt sich ein zeitlicher Verlauf von Blicksektoren s(t), wobei s(t) Werte aus der Menge S von möglichen Blicksektoren annehmen kann. Alternativ oder ergänzend kann die Steuereinheit 101 eingerichtet sein, den zeitlichen Verlauf von Blicksektoren s(t) direkt aus den erfassten Bilddaten zu ermitteln. Durch die Klassifizierung der Blickwinkel des Fahrers in eine begrenzte Anzahl von Blicksektoren 201, ..., 213 wird eine statistisch relevante Auswertung der Blickwinkel des Fahrers ermöglicht.The control unit 101 may be arranged to assign the determined viewing angle B (t) to one of the plurality of viewing sectors s i . This results in a time course of viewing sectors s (t), where s (t) Can accept values from the set S of possible view sectors. Alternatively or additionally, the control unit 101 be configured to determine the time course of gaze sectors s (t) directly from the captured image data. By classifying the driver's perspective in a limited number of viewing sectors 201 , ..., 213 a statistically relevant evaluation of the driver's perspective is made possible.

Der Fahrerzustand kann nun auf Basis des zeitlichen Verlaufs s(t) von Blicksektoren bestimmt werden. Dazu kann der Verlauf s(t) statistisch ausgewertet werden. Insbesondere kann eine Verteilung der Blickrichtung des Fahrers (d. h. der Blicksektoren) in einem vordefinierten Zeitraum oder Zeitintervall ermittelt werden. Die Verteilung der Blickrichtung kann dann Hinweise auf den Zustand des Fahrers liefern.The driver state can now be determined on the basis of the time course s (t) of view sectors. For this purpose, the course s (t) can be statistically evaluated. In particular, a distribution of the driver's line of sight (i.e., the gaze sectors) may be determined in a predefined time period or time interval. The distribution of the viewing direction can then provide indications of the condition of the driver.

Beispielsweise können zur Fahrverhaltensschätzung zwei-dimensionale (2D) und/oder drei-dimensionale (3D) Balkenhistogramme der Blickverteilungen herangezogen werden. Die Blickverteilung kann das Blickverhalten des Fahrers über gleitende Zeitfenster/Zeitintervalle wiedergeben. Die Zeitfenster können eine konfigurierbare zeitliche Länge aufweisen.For example, two-dimensional (2D) and / or three-dimensional (3D) bar histograms of the visual distributions can be used for driving behavior estimation. The gaze distribution can reflect the gaze behavior of the driver over sliding time windows / time intervals. The time windows may have a configurable time length.

Ein beispielhaftes Balkenhistogramm umfasst auf einer ersten Achse die mögliche Vielzahl von vordefinierten Blicksektoren 201, ..., 213. Auf einer zweiten Achse kann die Zeitdauer (d. h. der zeitliche Anteil des gleitenden Zeitfensters) aufgetragen sein, in der der Fahrer in die jeweiligen Blicksektoren 201, ..., 213 geschaut hat. In einer dritten Dimension kann die Häufigkeit erfasst werden, mit der der Blick in den jeweiligen Blicksektor 201, ..., 213 geschweift ist. Basierend auf den so berechneten dynamischen Blickverteilungshistogrammen können durch Klassifikatoren und/oder durch Templatematching unterschiedliche Fahrerverhaltensweisen klassifiziert werden.An exemplary bar histogram includes on a first axis the possible plurality of predefined view sectors 201 , ..., 213 , On a second axis, the time duration (ie the time proportion of the sliding time window) can be plotted, in which the driver in the respective Blicksektoren 201 , ..., 213 looked. In a third dimension, the frequency with which the view into the respective eye sector can be recorded 201 , ..., 213 is curly. Based on the thus calculated dynamic gaze distribution histograms, classifier and / or template matching can be used to classify different driver behaviors.

Mit anderen Worten, auf Basis des zeitlichen Verlaufs s(t) der ermittelten Blicksektoren 201, ..., 213 kann ein relativer Anteil pi der einzelnen Blicksektoren 201, ..., 213 an der Blickrichtung des Fahrers in einem vordefinierten Zeitfenster ermittelt werden. Insbesondere können Anteile

Figure DE102014201036A1_0003
für die Blicksektoren si, mit i = 1, ..., N, ermittelt werden, wobei T die Zeitdauer des vordefinierten Zeitfensters ist, und wobei Ti die kumulierte Zeitdauer auf dem vordefinierten Zeitfenster ist, in der sich die Blickrichtung des Fahrers in dem entsprechenden Blicksektor si befindet. Die zeitlichen Anteile pi sind ein Indiz dafür, worauf der Fahrer derzeit seine Aufmerksamkeit gerichtet hat.In other words, on the basis of the time course s (t) of the determined viewing sectors 201 , ..., 213 may be a relative proportion p i of the individual view sectors 201 , ..., 213 be determined in the driver's line of sight in a predefined time window. In particular, shares
Figure DE102014201036A1_0003
for the gaze sectors s i , where i = 1, ..., N, where T is the time duration of the predefined time window, and where T i is the accumulated time on the predefined time window in which the driver's line of sight is in the corresponding eye sector s i . The temporal portions p i are an indication of what the driver is currently paying attention to.

Auf Basis des zeitlichen Verlaufs s(t) der ermittelten Blicksektoren 201, ..., 213 kann weiter eine Häufigkeit hi ermittelt werden, mit der der Blick des Fahrers in dem vordefinierten Zeitfenster/Zeitintervall auf den entsprechenden Blicksektor si gerichtet wurde. Die Häufigkeit hi kann z. B. als eine absolute Anzahl Zi von Übergängen der Blickrichtung in den Blicksektor si während des vordefinierten Zeitfensters oder als eine relative Anzahl

Figure DE102014201036A1_0004
von Übergängen der Blickrichtung in den Blicksektor si erfasst werden. Die Häufigkeiten hi können ein Indiz für eine Grad der Konzentration des Fahrers sein.Based on the time course s (t) of the determined viewing sectors 201 , ..., 213 Furthermore, a frequency h i can be determined with which the driver's gaze was directed to the corresponding gaze sector s i in the predefined time window / time interval. The frequency h i can z. B. as an absolute number Z i of transitions of the viewing direction in the gaze sector s i during the predefined time window or as a relative number
Figure DE102014201036A1_0004
be detected by transitions of the viewing direction in the eye sector s i . The frequencies h i can be an indication of a degree of concentration of the driver.

Aus der statistischen Analyse des zeitlichen Verlaufs s(t) der ermittelten Blicksektoren 201, ..., 213, insbesondere aus den Anteilen pi der Blicksektoren und/oder aus den Häufigkeiten hi der Blicksektoren, kann das Fahrverhalten des Fahrers einzelnen Fahrverhaltensklassen zugeordnet werden:

  • • Spurwechselabsicht: Bei einer Spurwechselabsicht erscheinen bei korrektem Fahrverhalten mit hohem Anteil Spiegel- und Schulterblicke (z. B. Blicksektoren 201, 202, 206, 212) sowie Blicke in Fahrtrichtung (z. B. Blicksektor 204). Andererseits sind Blicke auf Bedienteile und/oder auf ein Display typischerweise gering (z. B. Blicksektoren 203, 207).
  • • Idealer Regler: Dies beschreibt eine Person die überwiegend aufmerksam in Fahrtrichtung (d. h. Blicksektor 204) schaut, mit einem geringen Anteil von Spiegelblicken (Blicksektoren 202, 206, 212) und Schulterblicken. Es liegt somit eine bewusste Szenenwahrnehmung vor. Der Anteil von Blicken auf Bedienteile oder Displayanzeigen (z. B. Blicksektoren 203, 207) ist typischerweise gering.
  • • Abgelenkter Fahrer: In diesem Fall blickt der Fahrer für einen hohen prozentualen Anteil der Zeit innerhalb eines gleitenden Zeitfensters auf Bedienteile oder Displayelemente (z. B. Blicksektoren 203 und/oder 207).
  • • Unbewusstes Starren liegt z. B. vor, wenn der Blick des Fahrers auf einen einzelnen Blicksektor fokussiert ist. Eine Streuung der Blickrichtungsvektoren ist dabei typischerweise gering (bspw. liegt eine Varianz von 1° oder weniger vor), wodurch auf Unaufmerksamkeit durch Starren gefolgert werden kann.
From the statistical analysis of the time course s (t) of the identified viewing sectors 201 , ..., 213 , in particular from the portions p i of the gaze sectors and / or from the frequencies h i of the gaze sectors, the driving behavior of the driver can be assigned to individual driving behavior classes:
  • • Lane change intent: In the case of a lane change intention, with correct driving behavior with a high proportion, mirror and shoulder views (eg, view sectors 201 . 202 . 206 . 212 ) and looks in the direction of travel (eg Blicksektor 204 ). On the other hand, glances at keypads and / or on a display are typically low (eg, viewing sectors 203 . 207 ).
  • • Ideal controller: This describes a person's mostly attentive in the direction of travel (ie gaze sector 204 ) looks, with a small proportion of mirror views (Blicksektoren 202 . 206 . 212 ) and shoulder looks. There is thus a conscious scene perception. The proportion of views of keypads or display displays (eg, view sectors 203 . 207 ) is typically low.
  • • Deflected driver: In this case, the driver looks at keypads or display elements (eg, viewing sectors) for a high percentage of the time within a sliding time window 203 and or 207 ).
  • • Unconscious staring is z. For example, when the driver's gaze is focused on a single gaze sector. A scattering of the line of sight vectors is typically low (for example, there is a variance of 1 ° or less), which can lead to inattention by stare.

Somit kann auf Basis des zeitlichen Verlaufs s(t) der ermittelten Blicksektoren 201, ..., 213 ein Zustand der Fahrers bestimmt werden. Zu diesem Zweck können ein oder mehrere statistische Parameter aus dem zeitlichen Verlaufs s(t) der ermittelten Blicksektoren 201, ..., 213 berechnet werden. Insbesondere können ein oder mehrere statistische Parameter über ein (ggf. gleitendes) vordefiniertes Zeitfenster/Zeitintervall ermittelt werden. Beispiele für solche statistischen Parameter sind die Anteile pi der einzelnen Blicksektoren 201, ..., 213 an der Blickrichtung des Fahrers und die Häufigkeiten hi für die Übergänge zwischen den einzelnen Blicksektoren 201, ..., 213.Thus, on the basis of the time course s (t) of the determined viewing sectors 201 , ..., 213 a condition of the driver can be determined. For this purpose, one or more statistical parameters from the time course s (t) of the determined Blicksektoren 201 , ..., 213 be calculated. In particular, one or more statistical parameters can be determined via a (possibly sliding) predefined time window / time interval. Examples of such statistical parameters are the proportions p i of the individual view sectors 201 , ..., 213 in the direction of the driver and the frequencies h i for the transitions between the individual viewing sectors 201 , ..., 213 ,

Die ein oder mehreren statistischen Parameter können dann dazu verwendet werden, den Zustand des Fahrers zu ermitteln. Zu diesem Zweck kann ein Cluster-Algorithmus verwendet werden. Insbesondere können in einer Lernphase eine Vielzahl von zusammenhängenden Paaren von „Werte der ein oder mehreren statistischen Parametern” und „Fahrerzustände” aufgezeichnet werden. Aus dieser Vielzahl von zusammenhängenden Paaren kann dann ein Clusteralgorithmus hergeleitet werden, der Zusammenhänge zwischen den „Werten der ein oder mehreren statistischen Parametern” und den „Fahrerzuständen” erkennt. Insbesondere kann der derart antrainierte Clusteralgorithmus dazu verwendet werden, im Normalbetrieb aus den ermittelten aktuellen Werten der ein oder mehreren statistischen Parametern den aktuellen Fahrerzustand zu bestimmen.The one or more statistical parameters may then be used to determine the driver's condition. For this purpose a cluster algorithm can be used. In particular, in a learning phase, a plurality of contiguous pairs of "values of the one or more statistical parameters" and "driver states" may be recorded. From this multitude of contiguous pairs, a cluster algorithm can then be derived which recognizes relationships between the "values of the one or more statistical parameters" and the "driver states". In particular, the cluster algorithm so trained can be used to determine the current driver state in normal operation from the determined current values of the one or more statistical parameters.

Der Clusteralgorithmus kann auf Basis einer Lerngruppe mit einer Vielzahl von unterschiedlichen Fahrern ermittelt werden (z. B. um eine Grundfunktionalität für ein Neufahrzeug bereitzustellen). Alternativ oder ergänzend kann der Clusteralgorithmus Fahrer-spezifisch antrainiert oder adaptiert werden (z. B. um Fahrerspezifische Gewohnheiten besser berücksichtigen zu können).The clustering algorithm may be determined based on a learning group with a plurality of different drivers (eg, to provide basic functionality for a new vehicle). Alternatively or additionally, the cluster algorithm can be trained or adapted driver-specific (for example, in order better to be able to take into account driver-specific habits).

Eine Erweiterung des Klassifikationsverfahrens, über die Auswertung der Blicksektoren 201, 213 hinaus, kann darin bestehen, zusätzliches Wissen über Objekte im Fahrzeugumfeld zu erfassen und bei der Auswertung des Fahrerverhaltens zu berücksichtigen. Insbesondere kann Wissen über eine 3D Position von Fahrzeugen und/oder Wissen über Personen im Fahrzeugumfeld des Fahrzeugs 100, und/oder Wissen über die Position und Ausrichtung von Fahrspuren berücksichtigt werden.An extension of the classification procedure, via the evaluation of the gaze sectors 201 . 213 In addition, it may be to capture additional knowledge about objects in the vehicle environment and to take into account in the evaluation of driver behavior. In particular, knowledge about a 3D position of vehicles and / or knowledge about persons in the vehicle environment of the vehicle 100 , and / or knowledge about the position and orientation of lanes.

Zu diesem Zweck kann das Fahrzeug 100 ein oder mehrere Umfeldsensoren 105 umfassen, die eingerichtet sein, ein Umfeld des Fahrzeugs 100 zu erfassen. Die ein oder mehreren Umfeldsensoren 105 können z. B. eine Kamera und/oder einen Radarsensor umfassen. Anhand der von den ein oder mehreren Umfeldsensoren 105 bereitgestellten Umfelddaten kann die Steuereinheit 101 beispielsweise das Vorliegen von Objekten und/oder Hindernissen im Umfeld des Fahrzeugs 100 ermitteln.For this purpose, the vehicle 100 one or more environmental sensors 105 include, which are set up, an environment of the vehicle 100 capture. The one or more environment sensors 105 can z. B. include a camera and / or a radar sensor. Based on the one or more environment sensors 105 provided environment data, the control unit 101 For example, the presence of objects and / or obstacles in the environment of the vehicle 100 determine.

Desweiteren kann das Fahrzeug 100 eine Positionierungseinheit 106 umfassen, die eingerichtet ist, Positionsdaten zu ermitteln. Die Positionierungseinheit 106 kann insbesondere ein Navigationssystem mit digitalen Karten des Umfelds des Fahrzeugs 100 umfassen. Anhand der Positionsdaten kann von der Steuereinheit 101 eine absolute Position des Fahrzeugs 100 und/oder eine relative Position des Fahrzeugs 100 relativ zu einem detektierten Objekt im Umfeld des Fahrzeugs 100 ermittelt werden.Furthermore, the vehicle can 100 a positioning unit 106 include, which is adapted to determine position data. The positioning unit 106 In particular, a navigation system with digital maps of the environment of the vehicle 100 include. Based on the position data can from the control unit 101 an absolute position of the vehicle 100 and / or a relative position of the vehicle 100 relative to a detected object in the environment of the vehicle 100 be determined.

Ein detektiertes Objekt kann bei der Auswertung des zeitlichen Verlaufs s(t) der ermittelten Blicksektoren 201, ..., 213 berücksichtigt werden. Insbesondere kann ermittelt und berücksichtigt werden, ob eine Blickrichtung des Fahrers (d. h. ein ermittelter Blicksektor und/oder Blickvektor) mit einer Position des detektierten Objektes korreliert. Alternativ oder ergänzend kann bei Kenntnis des Fahrbahnverlaufs ermittelt werden, ob der Fahrer genau in Fahrrichtung schaut (d. h. in einen Blicksektor der mit dem Fahrbahnverlauf korreliert).A detected object can be used in the evaluation of the time course s (t) of the determined viewing sectors 201 , ..., 213 be taken into account. In particular, it can be determined and taken into account whether a viewing direction of the driver (ie a determined gaze sector and / or eye vector) correlates with a position of the detected object. As an alternative or in addition, it is possible with knowledge of the road course to determine whether the driver is looking in the direction of travel (ie, in a viewing sector that correlates with the course of the road).

Desweiteren können alternativ oder ergänzend zu den Blicksektoren 201, ..., 213 die ein oder mehreren detektierten Objekte und/oder der Straßenverlauf als Klassen für die Zuordnung der Blickrichtung des Fahrers berücksichtigt werden. Insbesondere kann statt oder neben einer Klassifikation in die Blicksektoren 204, 209 der Windschutzscheibe, Informationen über bewusst wahrgenommene Szenenobjekte in den Blickverteilungshistogrammen zur Klassifikation, d. h. in der statistischen Analyse, berücksichtigt werden. Dies verbessert typischerweise die Klassifikationsqualität, da unterschieden werden kann, ob der Fahrer aus dem Fenster in den Himmel schaut (und somit tendenziell unkonzentriert ist) oder ob der Fahrer auf ein relevantes Szenenobjekt schaut.Furthermore, as an alternative or in addition to the Blicksektoren 201 , ..., 213 the one or more detected objects and / or the road course are taken into account as classes for the assignment of the driver's line of sight. In particular, instead of or in addition to a classification in the Blicksektoren 204 . 209 the windshield, information about consciously perceived scene objects in the visual distribution histograms for classification, ie in the statistical analysis, are taken into account. This typically improves the classification quality, since it can be discriminated whether the driver looks out the window (and thus tends to be unfocused) or whether the driver is looking at a relevant scene object.

Zur Berücksichtigung von detektierten Objekten und/oder zur Berücksichtigung des Straßenverlaufs bei der statistischen Analyse können beispielsweise die Histogrammbalken von bestimmten Blicksektoren (z. B. die Blicksektoren 204, 209) durch einen Balken mit der Betrachtungszeit und Betrachtungsfrequenz von ein oder mehreren aktiv wahrgenommenen Szenenobjekten ersetzt werden. Allgemeiner ausgedrückt, können die ein oder mehreren detektierten Objekte und/oder der bekannte Straßenverlauf als (ggf. zusätzliche) Blicksektoren si berücksichtigt werden, wobei sich eine Position und ggf. eine Größe dieser Blicksektoren mit der Zeit verändern kann (z. B. wenn das Fahrzeug 100 an dem detektierten Objekt vorbeifährt). Die statistische Analyse kann dann wie oben dargelegt durchgeführt werden, um einen Zustand des Fahrers zu ermitteln.In order to take into account detected objects and / or to take account of the course of the road in the statistical analysis, for example, the histogram bars of certain viewing sectors (for example the viewing sectors 204 . 209 ) are replaced by a bar with the viewing time and viewing frequency of one or more actively perceived scene objects. More generally, the one or more detected objects and / or the known road course may be taken into account as (possibly additional) view sectors s i , wherein a position and possibly a size of these view sectors may change over time (eg the vehicle 100 passing the detected object). The statistical analysis may then be performed as set forth above to determine a condition of the driver.

Die beschriebenen Objektlisten mit Betrachtungszeiten und Betrachtungshäufigkeiten können alternativ oder ergänzend zu der Klassifikation von Fahrerverhalten in einem Fahrerassistenzsystem zur Warnung vor nicht wahrgenommen Objekten (z. B. Radfahrern, die die Spur kreuzen) verwendet werden. Mit anderen Worten, die in diesem Dokument beschriebene Analyse des zeitlichen Verlaufs s(t) der ermittelten Blicksektoren 201, ..., 213 kann auch dazu verwendet werden, um den Fahrer bzgl. nicht wahrgenommener Objekte zu warnen.The described object lists with viewing times and viewing frequencies can, alternatively or in addition to the classification of Driver behavior in a driver assistance system used to warn of unperceived objects (eg cyclists crossing lanes). In other words, the analysis of the time course s (t) of the determined viewing sectors described in this document 201 , ..., 213 can also be used to warn the driver of unperceived objects.

Um aus dem klassifizierten Fahrerverhalten und/oder aus dem klassifizierten Fahrerzustand einen Übernahmefähigkeitslevel des Fahrers zu bestimmen, können ggf. zusätzliche Informationen analysiert werden:

  • • Level 6: Ob der Fahrer lebt oder tot ist kann beispielsweise über eine bildbasierte Puls schlagerkennung, bei der minimale Hautverfärbungen im Videobild erkannt werden, bestimmt werden. Alternativ oder ergänzend können nichtinvasive Sensoren zur Pulsmessung im Sitz verbaut werden.
  • • Level 5: Die Anwesenheit des Fahrers am Fahrersitz kann über Bildverarbeitung erkannt werden, da der Kopf sich im Fahrzeug innerhalb einer validen Kopfposition befinden sollte. So fällt beispielsweise auf, wenn der Fahrer beim hochautomatisierten Fahren den Fahrersitz verlässt oder eine ungewöhnliche Sitzposition einnimmt. Ob der Fahrer eingeschlafen ist, kann ebenfalls bildbasiert ermittelt werden, da dann die Augen des Fahrers für ein längeres Zeitintervall geschlossen sind.
  • • Level 3/4: Zur Abgrenzung des Levels 3 von Levels 4 können Verhaltensmerkmale der Augen (Liedschlagfrequenz, Geschwindigkeit, Augenöffnungsmaß) analysiert werden.
  • • Level 2: Durch Analyse der beschriebenen statistischen Analyse (z. B. anhand von Blickverteilungshistogrammen) kann dieser Level typischerweise eindeutig festgestellt werden.
  • • Level 1: Durch Analyse der beschriebenen statistischen Analyse (z. B. anhand von Blickverteilungshistogrammen) kann dieser Level typischerweise eindeutig festgestellt werden.
In order to determine from the classified driver behavior and / or from the classified driver state a takeover ability level of the driver, additional information may possibly be analyzed:
  • • Level 6: Whether the driver is alive or dead can be determined, for example, by means of an image-based pulse beat detection, in which minimal skin discoloration in the video image is detected. Alternatively or additionally, non-invasive sensors for pulse measurement in the seat can be installed.
  • • Level 5: The presence of the driver on the driver's seat can be detected by image processing, as the head should be in the vehicle within a valid head position. For example, it is noticeable when the driver leaves the driver's seat in highly automated driving or assumes an unusual seating position. Whether the driver has fallen asleep, can also be determined image-based, since then the eyes of the driver are closed for a longer time interval.
  • • Level 3/4: To level 3 Levels 4, eye behavioral characteristics (song beat frequency, speed, eye opening) can be analyzed.
  • • Level 2: By analyzing the described statistical analysis (eg, using gaze distribution histograms), this level can typically be uniquely determined.
  • • Level 1: By analyzing the described statistical analysis (eg using gaze distribution histograms), this level can typically be uniquely determined.

Für hochautomatisiertes Fahrern kann es sinnvoll sein zwischen den Übernahmefähigkeitslevels 3 und 5 unterscheiden zu können. Zur Adaption von Fahrerassistenzsystemen oder teilautomatisierten Fahren kann insbesondere eine Unterscheidung von Übernahmefähigkeitslevels 1 und 2 realisiert werden. Dabei sollte der Übernahmefähigkeitslevel mit einer hohen Zuverlässigkeit erkannt werden. Um auch in Situationen, in denen ein Kamera-basiertes System ggf. nicht korrekt funktioniert (z. B. Fahrer trägt verspiegelte Brille, Augen sind aufgrund von Verschleierung nicht sichtbar, Optik der Kamera ist beschlagen, etc.), den Fahrerzustand und/oder den Übernahmefähigkeitslevel zuverlässig bestimmen zu können, kann das Fahrzeug 100 einen „Tote Mann” Schalter 104 umfassen, der dann verwendet werden kann, wenn über die Vielzahl von Bildsensoren 103 keine zuverlässigen Verläufe des Blickrichtung des Fahrers ermittelt werden können. Die Steuereinheit 101 kann eingerichtet sein, den Fahrer aufzufordern, den „Tote Mann” Schalter 104 zu betätigen, wenn keine zuverlässigen Verläufe der Blickrichtung des Fahrers ermittelt werden können, oder wenn erkannt wird, dass der Fahrzustand nicht mit ausreichender Zuverlässigkeit ermittelt werden kann. So kann eine hohe Zuverlässigkeit bei gleichzeitig hohem Nutzungskomfort erzielt werden.For highly automated drivers, it may be useful to be able to differentiate between takeover skill levels 3 and 5. For the adaptation of driver assistance systems or partially automated driving, a differentiation of takeover capability levels 1 and 2 can be realized in particular. The acceptance level should be recognized with a high degree of reliability. Also in situations in which a camera-based system may not work properly (eg driver wears mirrored glasses, eyes are not visible due to concealment, optics of the camera is misted, etc.), the driver's condition and / or To be able to reliably determine the takeover level, the vehicle can 100 a "dead man" switch 104 which can then be used when using the plurality of image sensors 103 no reliable gradients of the driver's line of sight can be determined. The control unit 101 can be set up to prompt the driver to switch the "dead man" switch 104 when it is not possible to determine reliable courses of sight of the driver, or when it is recognized that the driving condition can not be detected with sufficient reliability. So a high reliability can be achieved at the same time high comfort of use.

3 zeigt ein Flussdiagram eines beispielhaften Verfahrens 300. Das Verfahren 300 kann insbesondere auf die Bereitstellung einer Assistenzfunktion in einem Fahrzeug 100 (z. B. einer Fahrerassistenzfunktion oder zur Bereitstellung einer teilautomatisierten oder hochautomatisierten Fahrfunktion) ausgelegt sein. Das Verfahren 300 umfasst das Empfangen 301 von Bilddaten von ein oder mehreren Bildsensoren 103. Die ein oder mehreren Bildsensoren 103 sind eingerichtet, eine Fahrerposition 102 des Fahrzeugs 100 zu erfassen. Insbesondere können die ein oder mehreren Bildsensoren 103 derart angeordnet sein, dass unterschiedliche Blickrichtungen des Fahrers (in einem bestimmten Blickwinkelbereich) erfasst und anhand der Bilddaten analysiert werden können. 3 shows a flowchart of an exemplary method 300 , The procedure 300 In particular, the provision of an assistance function in a vehicle 100 (eg a driver assistance function or to provide a partially automated or highly automated driving function). The procedure 300 includes receiving 301 of image data from one or more image sensors 103 , The one or more image sensors 103 are set up, a driver position 102 of the vehicle 100 capture. In particular, the one or more image sensors 103 be arranged so that different viewing directions of the driver (in a certain viewing angle range) can be detected and analyzed based on the image data.

Das Verfahren 300 umfasst weiter das Zuweisen 302, anhand der Bilddaten und für eine Sequenz von Zeitpunkten, der Blickrichtung des Fahrers des Fahrzeugs 100 zu jeweils einem Blicksektor aus einer Vielzahl von Blicksektoren 201, ..., 213. Durch eine derartige Zuweisung für die Sequenz von Zeitpunkten kann ein zeitlicher Verlauf s(t) von Blicksektoren als Darstellung einer zeitlichen Entwicklung der Blickrichtung des Fahrers ermittelt werden.The procedure 300 further comprises assigning 302 based on the image data and for a sequence of times, the line of sight of the driver of the vehicle 100 to one eye sector from a large number of viewing sectors 201 , ..., 213 , By such an assignment for the sequence of times, a temporal course s (t) of gaze sectors can be determined as representing a temporal development of the driver's line of sight.

Das Verfahren 300 umfasst weiter das Auswerten 303 des zeitlichen Verlaufs s(t) von Blicksektoren zur Bereitstellung der Assistenzfunktion. Beispielsweise kann der zeitliche Verlauf s(t) von Blicksektoren im Hinblick auf eine teilautomatisierte oder hochautomatisierte Fahrfunktion zur Ermittlung des Zustands des Fahrers ausgewertet werden. Alternativ oder ergänzend kann der zeitliche Verlauf s(t) von Blicksektoren im Hinblick auf eine Fahrerassistenzfunktion ausgewertet werden, bei der der Fahrer über nicht wahrgenommene Hindernisse oder Objekte in einem Umfeld des Fahrzeugs 100 informiert wird.The procedure 300 includes further evaluation 303 the time course s (t) of viewing sectors to provide the assistance function. For example, the temporal course s (t) of gaze sectors with regard to a partially automated or highly automated driving function can be evaluated to determine the driver's condition. Alternatively or additionally, the time profile s (t) of gaze sectors can be evaluated with regard to a driver assistance function, in which the driver has no perceived obstacles or objects in an environment of the vehicle 100 is informed.

In diesem Dokument wurde ein Klassifikationsverfahren für die zuverlässige Ermittlung des Fahrerzustands beschrieben. Das Klassifikationsverfahren kann ohne expliziten Eingriff, d. h. ohne Ablenkung, des Fahrers erfolgen. Desweiteren ergeben sich aus den zugrundeliegenden Fahrerverhaltensanalysen und den mit Blickzeit und Blickhäufigkeit angereicherten Umfeldobjektlisten, Möglichkeiten zur Umsetzung von verbesserten und neuen Fahrerassistenzfunktionen (insbesondere im Hinblick auf die Warnung des Fahrers vor nicht wahrgenommenen Hindernissen).This document describes a classification procedure for the reliable determination of driver status. The classification method can without explicit intervention, i. H. without distraction, the driver made. Furthermore, the underlying driver behavior analyzes and the environment object lists enriched with eye-sight and frequency of views result in possibilities for implementing improved and new driver assistance functions (in particular with regard to warning the driver against unperceived obstacles).

Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur das Prinzip der vorgeschlagenen Verfahren, Vorrichtungen und Systeme veranschaulichen sollen.The present invention is not limited to the embodiments shown. In particular, it should be noted that the description and figures are intended to illustrate only the principle of the proposed methods, apparatus and systems.

Claims (10)

Steuereinheit (101) für ein Fahrzeug (100), wobei die Steuereinheit (101) eingerichtet ist, – Bilddaten von ein oder mehreren Bildsensoren (103) zu empfangen; wobei die ein oder mehreren Bildsensoren (103) eingerichtet sind, eine Fahrerposition (102) des Fahrzeugs (100) zu erfassen; – anhand der Bilddaten, für eine Sequenz von Zeitpunkten die Blickrichtung eines Fahrers des Fahrzeugs (100) jeweils einem Blicksektor aus einer Vielzahl von Blicksektoren (201, ..., 213) zuzuweisen, und so einen zeitlichen Verlauf s(t) von Blicksektoren als Darstellung einer zeitlichen Entwicklung der Blickrichtung des Fahrers zu ermitteln; und – den zeitlichen Verlauf s(t) von Blicksektoren auszuwerten.Control unit ( 101 ) for a vehicle ( 100 ), the control unit ( 101 ), image data from one or more image sensors ( 103 ) to recieve; wherein the one or more image sensors ( 103 ), a driver position ( 102 ) of the vehicle ( 100 ) capture; On the basis of the image data, for a sequence of times the line of vision of a driver of the vehicle ( 100 ) one eye sector from a large number of view sectors ( 201 , ..., 213 ), and thus to determine a temporal course s (t) of viewing sectors as a representation of a temporal evolution of the driver's line of sight; and - evaluate the time course s (t) of viewing sectors. Steuereinheit (101) gemäß Anspruch 1, wobei die Steuereinheit (101) eingerichtet ist, anhand des zeitlichen Verlaufs s(t) von Blicksektoren einen Zustand des Fahrers zu ermitteln.Control unit ( 101 ) according to claim 1, wherein the control unit ( 101 ) is arranged to determine a state of the driver based on the time course s (t) of gaze sectors. Steuereinheit (101) gemäß Anspruch 2, wobei die Steuereinheit (101) eingerichtet ist, – für ein vordefiniertes Zeitintervall, ein oder mehrere aktuelle Parameterwerte für ein oder mehrere statistische Parameter aus dem zeitlichen Verlauf s(t) von Blicksektoren zu bestimmen; – einen vordefinierten Clusteralgorithmus bereitzustellen, der eingerichtet ist, unterschiedliche Parameterwerte der ein oder mehreren statistischen Parameter unterschiedlichen vordefinierten Zustandsklassen zuzuordnen; und – anhand der ein oder mehreren aktuellen Parameterwerte und anhand des vordefinierten Clusteralgorithmus, eine aktuelle Zustandsklasse als Zustand des Fahrers zu ermitteln.Control unit ( 101 ) according to claim 2, wherein the control unit ( 101 ) is arranged to: - determine, for a predefined time interval, one or more current parameter values for one or more statistical parameters from the time course s (t) of view sectors; To provide a predefined cluster algorithm that is set up to assign different parameter values of the one or more statistical parameters to different predefined state classes; and - based on the one or more current parameter values and on the basis of the predefined cluster algorithm, to determine a current state class as the state of the driver. Steuereinheit (101) gemäß einem der Ansprüche 2 bis 3, wobei die Steuereinheit (101) eingerichtet ist, – zu bestimmen, dass eine Zuverlässigkeit des anhand des zeitlichen Verlaufs s(t) von Blicksektoren ermittelten Zustands des Fahrers kleiner als oder gleich wie ein vordefinierter Schwellwert ist; und – in Reaktion darauf, zu veranlassen, dass der Fahrer des Fahrzeugs (100) aufgefordert wird, einen Schalter (104) des Fahrzeugs (100) zu betätigen, um den Zustand des Fahrers zu überprüfen.Control unit ( 101 ) according to one of claims 2 to 3, wherein the control unit ( 101 ) is arranged to determine that a reliability of the driver's state determined on the basis of the time profile s (t) of gaze sectors is less than or equal to a predefined threshold value; and - in response to causing the driver of the vehicle ( 100 ), a switch ( 104 ) of the vehicle ( 100 ) to check the condition of the driver. Steuereinheit (101) gemäß einem vorhergehenden Anspruch, wobei die Steuereinheit (101) eingerichtet ist, – Umfelddaten von ein oder mehreren Umfeldsensoren (105) des Fahrzeugs (100) und/oder Positionsdaten von einer Positionierungseinheit (106) des Fahrzeugs (100) zu empfangen; – anhand der Umfelddaten und/oder der Positionsdaten ein Objekt in einem Umfeld des Fahrzeugs (100) zu detektieren; und – das detektierte Objekt einem Blicksektor aus der Vielzahl von Blicksektoren (201, ..., 213) zuzuweisen.Control unit ( 101 ) according to any preceding claim, wherein the control unit ( 101 ) environment data from one or more environment sensors ( 105 ) of the vehicle ( 100 ) and / or position data from a positioning unit ( 106 ) of the vehicle ( 100 ) to recieve; On the basis of the environment data and / or the position data, an object in an environment of the vehicle ( 100 ) to detect; and the detected object is a gaze sector from the plurality of gaze sectors ( 201 , ..., 213 ). Steuereinheit (101) gemäß Anspruch 5 mit Bezug auf Ansprüche 2 oder 4, wobei die Steuereinheit (101) eingerichtet ist, das detektierte Objekt bei der Ermittlung des Zustands des Fahrers zu berücksichtigen.Control unit ( 101 ) according to claim 5 with respect to claims 2 or 4, wherein the control unit ( 101 ) is arranged to take into account the detected object in the determination of the driver's condition. Steuereinheit (101) gemäß einem der Ansprüche 5 bis 6, wobei die Steuereinheit (101) eingerichtet ist, – anhand des zeitlichen Verlaufs s(t) von Blicksektoren zu bestimmen, dass der Fahrer das detektierte Objekt nicht wahrnimmt; und – in Reaktion darauf, die Ausgabe eines Warnhinweises bzgl. des detektierten Objekts an den Fahrer des Fahrzeugs (100) zu veranlassen.Control unit ( 101 ) according to one of claims 5 to 6, wherein the control unit ( 101 ) is arranged to - determine on the basis of the time course s (t) of viewing sectors that the driver does not perceive the detected object; and - in response, the issuing of a warning of the detected object to the driver of the vehicle ( 100 ). Steuereinheit (101) gemäß einem vorhergehenden Anspruch, wobei die Steuereinheit (101) eingerichtet ist, – anhand des zeitlichen Verlaufs s(t) von Blicksektoren, Anteile pi der einzelnen Blicksektoren aus der Vielzahl von Blicksektoren (201, ..., 213) an der Blickrichtung des Fahrers in einem vordefinierten Zeitintervall zu bestimmen; und/oder – anhand des zeitlichen Verlaufs s(t) von Blicksektoren, Häufigkeiten hi für Übergänge zwischen den einzelnen Blicksektoren aus der Vielzahl von Blicksektoren (201, ..., 213) in dem vordefinierten Zeitintervall zu bestimmen.Control unit ( 101 ) according to any preceding claim, wherein the control unit ( 101 ) is set up on the basis of the time profile s (t) of viewing sectors, portions p i of the individual view sectors from the plurality of viewing sectors ( 201 , ..., 213 ) in the driver's line of sight at a predefined time interval; and / or on the basis of the time profile s (t) of viewing sectors, frequencies h i for transitions between the individual viewing sectors from the large number of viewing sectors ( 201 , ..., 213 ) in the predefined time interval. Steuereinheit (101) gemäß einem vorhergehenden Anspruch, wobei die Blicksektoren der Vielzahl von Blicksektoren (201, ..., 213) jeweils unterschiedliche Bereiche eines Frontbereichs und/oder eines Seitenbereichs des Fahrzeugs (100) umfassen.Control unit ( 101 ) according to any preceding claim, wherein the view sectors of the plurality of view sectors ( 201 , ..., 213 ) different areas of a front area and / or a side area of the vehicle ( 100 ). Verfahren (300) zur Bereitstellung einer Assistenzfunktion in einem Fahrzeug (100), wobei das Verfahren (300) umfasst, – Empfangen (301) von Bilddaten von ein oder mehreren Bildsensoren (103); wobei die ein oder mehreren Bildsensoren (103) eingerichtet sind, eine Fahrerposition (102) des Fahrzeugs (100) zu erfassen; – Zuweisen (302), anhand der Bilddaten und für eine Sequenz von Zeitpunkten, der Blickrichtung eines Fahrers des Fahrzeugs (100) zu jeweils einem Blicksektor aus einer Vielzahl von Blicksektoren (201, ..., 213), um einen zeitlichen Verlauf s(t) von Blicksektoren als Darstellung einer zeitlichen Entwicklung der Blickrichtung des Fahrers zu ermitteln; und – Auswerten (303) des zeitlichen Verlaufs s(t) von Blicksektoren zur Bereitstellung der Assistenzfunktion.Procedure ( 300 ) for providing an assistance function in a vehicle ( 100 ), the process ( 300 ), - receiving ( 301 ) of image data from one or more image sensors ( 103 ); where the one or several image sensors ( 103 ), a driver position ( 102 ) of the vehicle ( 100 ) capture; - To assign ( 302 ), based on the image data and for a sequence of times, the line of sight of a driver of the vehicle ( 100 ) to one eye sector each from a large number of view sectors ( 201 , ..., 213 ) to determine a time course s (t) of viewing sectors as a representation of a temporal evolution of the driver's line of sight; and - evaluation ( 303 ) of the time course s (t) of view sectors to provide the assistance function.
DE102014201036.5A 2014-01-21 2014-01-21 Image-based classification of driver status and / or driver behavior Pending DE102014201036A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014201036.5A DE102014201036A1 (en) 2014-01-21 2014-01-21 Image-based classification of driver status and / or driver behavior

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014201036.5A DE102014201036A1 (en) 2014-01-21 2014-01-21 Image-based classification of driver status and / or driver behavior

Publications (1)

Publication Number Publication Date
DE102014201036A1 true DE102014201036A1 (en) 2015-07-23

Family

ID=53497831

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014201036.5A Pending DE102014201036A1 (en) 2014-01-21 2014-01-21 Image-based classification of driver status and / or driver behavior

Country Status (1)

Country Link
DE (1) DE102014201036A1 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016223909A1 (en) * 2016-12-01 2018-06-07 Bayerische Motoren Werke Aktiengesellschaft Method and device for sensor-assisted driver condition assessment
DE102017202194A1 (en) 2017-02-13 2018-08-16 Robert Bosch Gmbh Method and device for determining a visual distraction of a driver of a vehicle
DE102017206585A1 (en) * 2017-04-19 2018-10-25 Bayerische Motoren Werke Aktiengesellschaft Occupant assistance procedure, occupant assistance system and vehicle
DE102017208971A1 (en) 2017-05-29 2018-11-29 Volkswagen Aktiengesellschaft METHOD AND DEVICE FOR SUPPORTING A VEHICLE IN A VEHICLE
DE102017210753A1 (en) * 2017-06-27 2018-12-27 Bayerische Motoren Werke Aktiengesellschaft A method, computer readable medium, system and vehicle comprising the system for providing a takeover ready signal during a ride of a vehicle
EP3640109A1 (en) * 2018-10-17 2020-04-22 Volvo Car Corporation System and method for detecting and/or preventing automation expectation mismatch in vehicle
CN111942404A (en) * 2020-06-05 2020-11-17 北京汽车研究总院有限公司 Vehicle and driving method and device thereof
DE102020102404A1 (en) 2020-01-31 2021-08-05 Bartenbach Holding Gmbh Lighting device
DE102020124896A1 (en) 2020-09-24 2022-03-24 Bayerische Motoren Werke Aktiengesellschaft METHOD FOR OPERATING AN ASSISTANCE SYSTEM OF A VEHICLE THAT CAN AT LEAST TEMPORARILY BE OPERATED AUTONOMOUSLY
DE102020213515A1 (en) 2020-10-28 2022-04-28 Volkswagen Aktiengesellschaft Method for generating a warning message for a user of a motor vehicle using an assistance system, and assistance system
DE102021103242A1 (en) 2021-02-11 2022-08-11 Bayerische Motoren Werke Aktiengesellschaft AUTOMATED MOTOR VEHICLE AND METHOD OF CONTROLLING THE AUTOMATED MOTOR VEHICLE
DE102021202504A1 (en) 2021-03-15 2022-09-15 Robert Bosch Gesellschaft mit beschränkter Haftung Method for detecting inattention on the part of a driver of a vehicle
DE102022115531A1 (en) 2022-06-22 2023-12-28 Bayerische Motoren Werke Aktiengesellschaft Method for determining the attention of a user of a motor vehicle, computer program, data processing device and motor vehicle
DE102023123443A1 (en) 2023-08-31 2025-03-06 Bayerische Motoren Werke Aktiengesellschaft Method for a vehicle, computer program and/or computer-readable storage medium, data processing device and vehicle
DE102024106494A1 (en) 2024-03-06 2025-09-11 Bayerische Motoren Werke Aktiengesellschaft Driver assistance system and driver assistance procedure for a vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040239509A1 (en) * 2003-06-02 2004-12-02 Branislav Kisacanin Target awareness determination system and method
US20100033333A1 (en) * 2006-06-11 2010-02-11 Volva Technology Corp Method and apparatus for determining and analyzing a location of visual interest
US20130131905A1 (en) * 2011-11-17 2013-05-23 GM Global Technology Operations LLC System and method for closed-loop driver attention management
GB2500690A (en) * 2012-03-30 2013-10-02 Jaguar Cars Driver monitoring and vehicle control system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040239509A1 (en) * 2003-06-02 2004-12-02 Branislav Kisacanin Target awareness determination system and method
US20100033333A1 (en) * 2006-06-11 2010-02-11 Volva Technology Corp Method and apparatus for determining and analyzing a location of visual interest
US20130131905A1 (en) * 2011-11-17 2013-05-23 GM Global Technology Operations LLC System and method for closed-loop driver attention management
GB2500690A (en) * 2012-03-30 2013-10-02 Jaguar Cars Driver monitoring and vehicle control system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Doshi, A.; Trivedi, M.; Investigating the Relationship between Gaze Patterns, Dynamci Vehicle Surround Analysis and Driver Intentions. In: IEEE Intelligent Vehicle Symposium, pp.887-892, June 2009. *
Fletcher, L.; Zelinsky, A.; Driver Inattention Detection based on Eye Gaze-Road Event Correlation. In: Journal of Robotics Research, Vol.28, No.6, pp.774-801, June 2009. *
Lee, S.J. et al.; Real-Time Gaze Estimator based on Driver's Head Orientation for Forward Collision Warning System. In: IEEE Intelligent Transportation Systems, Vol.12, Issue 1, pp.254-267, January 2011. *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016223909A1 (en) * 2016-12-01 2018-06-07 Bayerische Motoren Werke Aktiengesellschaft Method and device for sensor-assisted driver condition assessment
DE102017202194A1 (en) 2017-02-13 2018-08-16 Robert Bosch Gmbh Method and device for determining a visual distraction of a driver of a vehicle
DE102017206585A1 (en) * 2017-04-19 2018-10-25 Bayerische Motoren Werke Aktiengesellschaft Occupant assistance procedure, occupant assistance system and vehicle
DE102017206585B4 (en) 2017-04-19 2023-05-04 Bayerische Motoren Werke Aktiengesellschaft Occupant support method, occupant support system and vehicle
DE102017208971A1 (en) 2017-05-29 2018-11-29 Volkswagen Aktiengesellschaft METHOD AND DEVICE FOR SUPPORTING A VEHICLE IN A VEHICLE
US10745025B2 (en) 2017-05-29 2020-08-18 Volkswagen Ag Method and device for supporting a vehicle occupant in a vehicle
DE102017210753A1 (en) * 2017-06-27 2018-12-27 Bayerische Motoren Werke Aktiengesellschaft A method, computer readable medium, system and vehicle comprising the system for providing a takeover ready signal during a ride of a vehicle
US11097746B2 (en) 2018-10-17 2021-08-24 Volvo Car Corporation System and method for detecting and/or preventing automation expectation mismatch in vehicle
EP3640109A1 (en) * 2018-10-17 2020-04-22 Volvo Car Corporation System and method for detecting and/or preventing automation expectation mismatch in vehicle
DE102020102404A1 (en) 2020-01-31 2021-08-05 Bartenbach Holding Gmbh Lighting device
CN111942404A (en) * 2020-06-05 2020-11-17 北京汽车研究总院有限公司 Vehicle and driving method and device thereof
CN111942404B (en) * 2020-06-05 2023-09-22 北京汽车研究总院有限公司 Vehicle and driving method and device thereof
DE102020124896A1 (en) 2020-09-24 2022-03-24 Bayerische Motoren Werke Aktiengesellschaft METHOD FOR OPERATING AN ASSISTANCE SYSTEM OF A VEHICLE THAT CAN AT LEAST TEMPORARILY BE OPERATED AUTONOMOUSLY
DE102020213515A1 (en) 2020-10-28 2022-04-28 Volkswagen Aktiengesellschaft Method for generating a warning message for a user of a motor vehicle using an assistance system, and assistance system
DE102021103242A1 (en) 2021-02-11 2022-08-11 Bayerische Motoren Werke Aktiengesellschaft AUTOMATED MOTOR VEHICLE AND METHOD OF CONTROLLING THE AUTOMATED MOTOR VEHICLE
DE102021202504A1 (en) 2021-03-15 2022-09-15 Robert Bosch Gesellschaft mit beschränkter Haftung Method for detecting inattention on the part of a driver of a vehicle
DE102022115531A1 (en) 2022-06-22 2023-12-28 Bayerische Motoren Werke Aktiengesellschaft Method for determining the attention of a user of a motor vehicle, computer program, data processing device and motor vehicle
DE102023123443A1 (en) 2023-08-31 2025-03-06 Bayerische Motoren Werke Aktiengesellschaft Method for a vehicle, computer program and/or computer-readable storage medium, data processing device and vehicle
DE102024106494A1 (en) 2024-03-06 2025-09-11 Bayerische Motoren Werke Aktiengesellschaft Driver assistance system and driver assistance procedure for a vehicle

Similar Documents

Publication Publication Date Title
DE102014201036A1 (en) Image-based classification of driver status and / or driver behavior
DE102017214353B4 (en) DRIVER CONDITION DETECTION SYSTEM, DRIVER CONDITION DETECTION METHOD AND VEHICLE CONTAINING THE SAME
DE102013210050B4 (en) Neurocognitive processing of a driver state
DE102019109505A1 (en) DATA PROCESSING DEVICE, MONITORING SYSTEM, WECKSYSTEM, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM
DE102017211005A1 (en) DRIVER STATE MONITORING USING CORNEAL REFLECTIONS
DE112019007195B4 (en) DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD AND DISPLAY CONTROL PROGRAM
DE112014000591T5 (en) Attention-level detection device and attention-level detection method
WO2014029738A1 (en) Method for supplementing object information assigned to an object and method for selecting objects in surroundings of a vehicle
DE102013013227B4 (en) Motor vehicle with display unit and protection against driver distraction
DE102012109624A1 (en) Vehicle installation and method for assessing and communicating the condition of a driver
DE102019201407A1 (en) Method and device for controlling a driver's attention
DE102014011264A1 (en) Method for calculating a return time
DE102013206739A1 (en) Method for determining whether an occupant of a vehicle notices relevant objects in the vicinity of the vehicle
DE102016121625A1 (en) Apparatus and method for monitoring a concentration of a driver by eye tracking
DE102017000249A1 (en) Driving Assistance System
DE102014204137A1 (en) information terminal
DE102017213177A1 (en) Method for operating a screen of a motor vehicle and motor vehicle
DE102015216813A1 (en) Collision avoidance system using monitoring of a driver's eye during a gearshift
DE112022005813T5 (en) AUTOMATIC CALIBRATION METHOD AND DEVICE FOR THE DISTRACTION ZONE, PASSENGER CARS AND ELECTRONIC DEVICES
DE112017007258T5 (en) DEVICE FOR DETERMINING THE CONCENTRATION LEVEL, METHOD FOR DETERMINING THE CONCENTRATION LEVEL AND PROGRAM FOR DETERMINING THE CONCENTRATION LEVEL
DE102015206209A1 (en) Method for determining a measure of the attention of a driver and device for monitoring the attention of a driver
WO2016067082A1 (en) Method and device for gesture control in a vehicle
DE102019109491A1 (en) DATA PROCESSING DEVICE, MONITORING SYSTEM, WECKSYSTEM, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM
DE102023003826A1 (en) Method for displaying hidden road users and vehicles
DE112019007484T5 (en) INFORMATION PROCESSING DEVICE, PROGRAM AND INFORMATION PROCESSING METHOD

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication