DE102014201036A1 - Image-based classification of driver status and / or driver behavior - Google Patents
Image-based classification of driver status and / or driver behavior Download PDFInfo
- Publication number
- DE102014201036A1 DE102014201036A1 DE102014201036.5A DE102014201036A DE102014201036A1 DE 102014201036 A1 DE102014201036 A1 DE 102014201036A1 DE 102014201036 A DE102014201036 A DE 102014201036A DE 102014201036 A1 DE102014201036 A1 DE 102014201036A1
- Authority
- DE
- Germany
- Prior art keywords
- driver
- sectors
- vehicle
- control unit
- viewing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K28/00—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
- B60K28/02—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
- A61B5/1114—Tracking parts of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/06—Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Mathematical Physics (AREA)
- Psychiatry (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Physiology (AREA)
- Educational Technology (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- Developmental Disabilities (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Social Psychology (AREA)
- Fuzzy Systems (AREA)
- Chemical & Material Sciences (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Combustion & Propulsion (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren und eine entsprechende Vorrichtung zur Ermittlung des Zustands eines Fahrers eines Fahrzeugs. Es wird eine Steuereinheit (101) für ein Fahrzeug (100) beschrieben. Die Steuereinheit (101) ist eingerichtet, Bilddaten von ein oder mehreren Bildsensoren (103) zu empfangen. Die ein oder mehreren Bildsensoren (103) sind eingerichtet, eine Fahrerposition (102) des Fahrzeugs (100) zu erfassen. Die Steuereinheit (101) ist weiter eingerichtet, anhand der Bilddaten, für eine Sequenz von Zeitpunkten die Blickrichtung eines Fahrers des Fahrzeugs (100) jeweils einem Blicksektor aus einer Vielzahl von Blicksektoren (201, ..., 213) zuzuweisen, und so einen zeitlichen Verlauf s(t) von Blicksektoren als Darstellung einer zeitlichen Entwicklung der Blickrichtung des Fahrers zu ermitteln. Desweiteren ist die Steuereinheit (101) eingerichtet, den zeitlichen Verlauf s(t) von Blicksektoren auszuwerten.The invention relates to a method and a corresponding device for determining the condition of a driver of a vehicle. A control unit (101) for a vehicle (100) is described. The control unit (101) is configured to receive image data from one or more image sensors (103). The one or more image sensors (103) are configured to detect a driver position (102) of the vehicle (100). The control unit (101) is further configured to use the image data to assign the viewing direction of a driver of the vehicle (100) to a viewing sector from a multiplicity of viewing sectors (201,..., 213) for a sequence of times, and thus temporally To determine course s (t) of viewing sectors as a representation of a temporal evolution of the driver's line of sight. Furthermore, the control unit (101) is set up to evaluate the temporal course s (t) of gaze sectors.
Description
Die Erfindung betrifft ein Verfahren und eine entsprechende Vorrichtung zur Ermittlung des Zustands eines Fahrers eines Fahrzeugs.The invention relates to a method and a corresponding device for determining the condition of a driver of a vehicle.
In den Bereichen der intelligenten Fahrerassistenzsysteme (FAS) und/oder des hochautomatisierten Fahrens (HAF) ist es sinnvoll, fahrerrelevante Parameter wie die Aufmerksamkeit des Fahrers, eine Ablenkung des Fahrers von der Fahraufgabe, eine Fahrerabsicht, eine Müdigkeit des Fahrers, eine Schläfrigkeit des Fahrers und/oder eine Übernahmefähigkeit des Fahrers, insbesondere wenn der Fahrer hochautomatisiert gefahren wird, zu ermitteln. Die fahrerrelevanten Parameter können dann mit Übernahmezeiten korreliert werden und die verschiedenen Fahrsysteme (FAS und/oder automatische Fahrsysteme) können adaptiv an den ermittelten Fahrerzustand angepasst werden.In the areas of intelligent driver assistance systems (FAS) and / or highly automated driving (HAF), it makes sense to include driver-relevant parameters such as the driver's attention, distraction of the driver from the driving task, driver intent, tiredness of the driver, and drowsiness of the driver and / or a takeover ability of the driver, in particular if the driver is driven highly automated, to determine. The driver-relevant parameters can then be correlated with takeover times and the various driving systems (FAS and / or automatic driving systems) can be adaptively adapted to the determined driver state.
Heutige Fahrsysteme haben typischerweise eine relativ eingeschränkte Sicht auf den Zustand des Fahrers. Beispielsweise wird teilweise die vereinfachte Annahme zugrunde gelegt, dass der Fahrer aufmerksam auf die Fahraufgabe ist, wenn der Fahrer die Hände am Lenkrad hat. Andererseits kann die Übernahmefähigkeit beim automatisierten Fahren (bspw. bei einem Zugfahrer) mit einem sogenannten „Tote Mann” Schalter überprüft werden, der periodisch vom Fahrer betätigt werden muss, um sicher zu stellen, dass dieser übernahmefähig ist.Today's driving systems typically have a relatively limited view of the driver's condition. For example, the simplified assumption is based in part on the fact that the driver is attentive to the driving task when the driver has his hands on the steering wheel. On the other hand, the ability to take over in automated driving (for example in a train driver) can be checked with a so-called "dead man" switch, which has to be actuated periodically by the driver in order to ensure that it can be taken over.
Die oben beschriebenen Maßnahmen zur Ermittlung des Fahrerzustands sind unzureichend. Zum einen führen vereinfachte Annahmen (wie die Annahme, dass aus der Tatsache, dass der Fahrer die Hände am Lenkrad hat, geschlossen werden kann, dass der Fahrer aufmerksam ist) zu Fehleinschätzungen bzgl. des tatsächlichen Zustands des Fahrers und bzgl. der Fähigkeit des Fahrers den aktiven Fahrbetrieb zu übernehmen. Andererseits führen Überprüfungsroutinen (wie die periodische Betätigung eines „Tote Mann” Schalters) dazu, dass der Fahrer mit einer sekundären Aufgabe konfrontiert wird, die den Fahrer zusätzlich vom Verkehrsgeschehen ablenkt.The measures described above for determining the condition of the driver are insufficient. On the one hand, simplified assumptions (such as the assumption that the driver has his hands on the steering wheel can be closed, that the driver is alert) lead to misjudgements regarding the driver's actual condition and the ability of the driver to take over active driving. On the other hand, verification routines (such as the periodic operation of a "dead man" switch) cause the driver to be confronted with a secondary task that additionally distracts the driver from the traffic.
Das vorliegende Dokument befasst sich mit der technischen Aufgabe den Fahrerzustand und/oder eine Übernahmefähigkeit des Fahrers in zuverlässiger Weise zu ermitteln, ohne dass der Fahrer dabei eine aktive Überprüfungsroutine durchführen muss, die den Fahrer vom Verkehrsgeschehen ablenken würde und/oder durch die der Komfort für den Fahrer reduziert werden würde.The present document is concerned with the technical task of reliably determining the driver's condition and / or a driver's ability to take over, without the driver having to carry out an active checking routine which would distract the driver from the traffic situation and / or the comfort for the driver the driver would be reduced.
Die Aufgabe wird durch die unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen werden u. a. in den abhängigen Ansprüchen beschrieben.The object is solved by the independent claims. Advantageous embodiments are u. a. in the dependent claims.
Gemäß einem Aspekt wird eine Steuereinheit für ein Fahrzeug (z. B. für ein zweispuriges Fahrzeug wie einen Personenkraftwagen oder einen Lastkraftwagen) beschrieben. Die Steuereinheit kann dazu verwendet werden, eine Assistenzfunktion für den Fahrer des Fahrzeugs bereitzustellen. In diesem Zusammenhang kann ein Zustand des Fahrers oder eine Übernahmefähigkeit des Fahrers ermittelt werden. Alternativ oder ergänzend kann in diesem Zusammenhang ermittelt werden, ob ein Fahrer ein Objekt oder ein Hindernis in einem Umfeld des Fahrzeugs wahrgenommen hat oder nicht.In one aspect, a control unit for a vehicle (eg, for a two-lane vehicle such as a passenger car or a lorry) is described. The control unit may be used to provide an assistance function to the driver of the vehicle. In this connection, a driver's condition or a driver's takeover ability can be determined. Alternatively or additionally, it can be determined in this context whether or not a driver has perceived an object or an obstacle in an environment of the vehicle.
Die Steuereinheit ist eingerichtet, Bilddaten von ein oder mehreren Bildsensoren (z. B. Kameras) zu empfangen. Die ein oder mehreren Bildsensoren sind eingerichtet, eine Fahrerposition des Fahrzeugs zu erfassen. Insbesondere können die ein oder mehreren Bildsensoren derart eingerichtet sein, dass aus den erfassten Bilddaten der Blickwinkel des Fahrers des Fahrzeugs in einem vordefinierten Blickwinkelbereich (ggf. bis zu 360 Grad) ermittelt werden kann. Die Bilddaten umfassen zu diesen Zweck typischerweise Informationen über vordefinierte und/oder markante Gesichtsmerkmale (wie z. B. die Augen) und/oder über Gesichtsmimik des Fahrers.The control unit is set up to receive image data from one or more image sensors (eg cameras). The one or more image sensors are configured to detect a driver's position of the vehicle. In particular, the one or more image sensors can be set up in such a way that the angle of vision of the driver of the vehicle in a predefined viewing angle range (possibly up to 360 degrees) can be determined from the acquired image data. The image data for this purpose typically includes information about predefined and / or distinctive facial features (such as the eyes) and / or facial expression of the driver.
Die Steuereinheit ist weiter eingerichtet, anhand der Bilddaten und für eine Sequenz von Zeitpunkten, die Blickrichtung des Fahrers des Fahrzeugs (die sich aus den Bilddaten ergibt) jeweils einem Blicksektor aus einer Vielzahl von Blicksektoren zuzuweisen. Die Blicksektoren der Vielzahl von Blicksektoren können einem Koordinatensystem des Fahrzeugs zugewiesen sein oder können in einem Koordinatensystem des Fahrzeugs definiert sein. Insbesondere können die Blicksektoren der Vielzahl von Blicksektoren jeweils unterschiedliche (definierte) Bereiche eines Frontbereichs und/oder des Seitenbereichs des Fahrzeugs umfassen. Insbesondere können die Blicksektoren Bereiche des Fahrzeugs umfassen, die darauf hindeuten, dass der Fahrer auf den Verkehr konzentriert ist (z. B. einen Blicksektor der eine Windschutzscheibe und/oder Rückspiegel und/oder Seitenspiegel des Fahrzeugs umfasst). Außerdem können andere Blicksektoren Bereiche des Fahrzeugs umfassen, die darauf hindeuten, dass der Fahrer mit Sekundäraufgaben beschäftigt ist (z. B. einen Blicksektor der Bedienelemente des Fahrzeugs umfasst). Der gesamte Blickbereich des Fahrers kann in eine begrenzte Anzahl N von Blicksektoren aufgeteilt sein. Typische Werte für N sind 5, 10, 15 oder 20 Blicksektoren.The control unit is further configured, on the basis of the image data and for a sequence of points in time, to assign the viewing direction of the driver of the vehicle (which results from the image data) to a viewing sector from a plurality of viewing sectors. The gaze sectors of the plurality of gaze sectors may be assigned to a coordinate system of the vehicle or may be defined in a coordinate system of the vehicle. In particular, the viewing sectors of the plurality of viewing sectors may each comprise different (defined) areas of a front area and / or the side area of the vehicle. In particular, the viewing sectors may include areas of the vehicle that indicate the driver is focused on the traffic (eg, a gaze sector comprising a windshield and / or rearview mirror and / or side mirrors of the vehicle). In addition, other gaze sectors may include areas of the vehicle that indicate that the driver is engaged in secondary tasks (eg, includes a gaze sector of the vehicle's controls). The entire driver's field of view may be divided into a limited number N of viewing sectors. Typical values for N are 5, 10, 15 or 20 viewing sectors.
Durch die Zuweisung der Blickrichtung für die Sequenz von Zeitpunkten kann ein zeitlicher Verlauf s(t) von Blicksektoren als Darstellung einer zeitlichen Entwicklung der Blickrichtung des Fahrers ermittelt werden.By assigning the line of sight for the sequence of times, a temporal course s (t) of gaze sectors can be determined as representing a temporal evolution of the driver's line of sight.
Die Steuereinheit kann weiter eingerichtet sein, den zeitlichen Verlauf s(t) von Blicksektoren auszuwerten. Die Auswertung kann insbesondere im Hinblick auf eine bereitgestellte Assistenzfunktion erfolgen. Im Rahmen der Auswertung können Werte für ein oder mehrere statistische Parameter ermittelt werden. Beispielsweise kann die Steuereinheit eingerichtet sein, anhand des zeitlichen Verlaufs s(t) von Blicksektoren, Anteile pi der einzelnen Blicksektoren aus der Vielzahl von Blicksektoren an der Blickrichtung des Fahrers in einem vordefinierten Zeitintervall zu bestimmen. Alternativ oder ergänzend kann die Steuereinheit eingerichtet sein, Häufigkeiten hi für Übergänge zwischen den einzelnen Blicksektoren aus der Vielzahl von Blicksektoren in dem vordefinierten Zeitintervall zu bestimmen. Diese oder andere statistische Parameter können dazu verwendet werden, einen Zustand des Fahrers zu ermitteln. Außerdem kann anhand dieser oder anderer statistischer Parameter ermittelt werden, ob der Fahrer ein bestimmtes Hindernis oder ein Objekt im Umfeld des Fahrzeugs wahrgenommen hat. Dies kann beispielsweise durch einen Abgleich von Daten bzgl. der Blicksektoren (z. B. durch einen Abgleich des zeitlichen Verlaufs s(t) von Blicksektoren) mit einem Umfeldmodell erreicht werden. In dem Umfeldmodell kann ein durch ein Fahrerassistenzsystem (FAS) erkanntes Objekt im Umfeld des Fahrzeugs, etwa ein anderer Verkehrsteilnehmer, räumlich erfasst sein. The control unit can also be set up to evaluate the time profile s (t) of view sectors. The evaluation can be carried out in particular with regard to a provided assistance function. As part of the evaluation, values for one or more statistical parameters can be determined. For example, the control unit may be set up to determine portions p i of the individual view sectors from the plurality of viewing sectors in the driver's line of sight in a predefined time interval on the basis of the time profile s (t) of view sectors. Alternatively or additionally, the control unit may be configured to determine frequencies h i for transitions between the individual view sectors from the plurality of view sectors in the predefined time interval. These or other statistical parameters can be used to determine a condition of the driver. In addition, it can be determined on the basis of these or other statistical parameters whether the driver has perceived a specific obstacle or an object in the vicinity of the vehicle. This can be achieved, for example, by matching data with regard to the viewing sectors (for example, by adjusting the time profile s (t) of view sectors) with an environment model. In the environment model, an object detected by a driver assistance system (FAS) in the surroundings of the vehicle, for example another road user, can be spatially detected.
Wie bereits dargelegt kann die Steuereinheit eingerichtet sein, anhand des zeitlichen Verlaufs s(t) von Blicksektoren einen Zustand des Fahrers zu ermitteln. Zu diesem Zweck kann die Steuereinheit insbesondere eingerichtet sein, für das vordefinierte Zeitintervall, ein oder mehrere aktuelle Parameterwerte für ein oder mehrere statistische Parameter (z. B. für die Anteile pi oder für die Häufigkeiten hi) aus dem zeitlichen Verlauf s(t) von Blicksektoren zu bestimmen. Desweiteren kann die Steuereinheit einen vordefinierten Clusteralgorithmus oder Klassifizierungsalgorithmus bereitstellen, der eingerichtet ist, unterschiedliche Parameterwerte der ein oder mehreren statistischen Parameter unterschiedlichen vordefinierten Zustandsklassen zuzuordnen. Beispiele für Zustandsklassen sind: „Fahrer tätigt einen Spurwechsel”, „Fahrer tätigt eine geregelte Geradeausfahrt”, „Fahrer ist abgelenkt”, und/oder „Fahrer starrt unbewusst”.As already explained, the control unit can be set up to determine a driver's condition on the basis of the time profile s (t) of view sectors. For this purpose, the control unit can be set up, in particular, for the predefined time interval, one or more current parameter values for one or more statistical parameters (eg for the portions p i or for the frequencies h i ) from the time course s (t ) of viewing sectors. Furthermore, the control unit can provide a predefined cluster algorithm or classification algorithm that is set up to assign different parameter values of the one or more statistical parameters to different predefined state classes. Examples of condition classes are: "Driver makes a lane change", "Driver makes a controlled straight-ahead drive", "Driver is distracted", and / or "Driver stares unconsciously".
Die Steuereinheit kann weiter eingerichtet sein, anhand der ein oder mehreren aktuellen Parameterwerte und anhand des vordefinierten Clusteralgorithmus/Klassifizierungsalgorithmus, eine aktuelle Zustandsklasse als Zustand des Fahrers zu ermitteln. Mit anderen Worten, die aktuellen Parameterwerte können dazu verwendet werden, den aktuellen Zustand des Fahrers zu ermitteln.The control unit can also be set up to determine a current condition class as the driver's condition based on the one or more current parameter values and on the basis of the predefined cluster algorithm / classification algorithm. In other words, the current parameter values can be used to determine the current state of the driver.
Die Steuereinheit ist somit eingerichtet den Zustand des Fahrers in zuverlässiger und autonomer Weise zu bestimmen. Insbesondere ist zur Ermittlung des Fahrerzustands keine Aktion des Fahrers erforderlich, durch die der Fahrer vom Fahrbetrieb abgelenkt werden könnte.The control unit is thus set up to determine the condition of the driver in a reliable and autonomous manner. In particular, to determine the driver state, no action of the driver is required by which the driver could be distracted from driving.
Die Steuereinheit kann weiter eingerichtet sein, zu bestimmen, dass eine Zuverlässigkeit des anhand des zeitlichen Verlaufs s(t) von Blicksektoren ermittelten Zustands des Fahrers kleiner als oder gleich wie ein vordefinierter Schwellwert ist. Mit anderen Worten, es kann erkannt werden, dass der Zustand des Fahrers anhand des zeitlichen Verlaufs s(t) von Blicksektoren nicht zuverlässig ermittelt werden kann (z. B. weil der Fahrer eine Sonnenbrille trägt). Die Steuereinheit kann, in Reaktion darauf, veranlassen, dass der Fahrer des Fahrzeugs aufgefordert wird, einen Schalter des Fahrzeugs (ggf. in periodischer Weise) zu betätigen, um den Zustand des Fahrers zu überprüfen. So kann sichergestellt werden, dass auch bei unzureichenden Bilddaten der Zustand des Fahrers zuverlässig bestimmt werden kann.The control unit may be further configured to determine that a reliability of the driver's state determined based on the time course s (t) of gaze sectors is less than or equal to a predefined threshold value. In other words, it can be recognized that the condition of the driver can not be reliably determined from the temporal history s (t) of gaze sectors (for example, because the driver wears sunglasses). The control unit may, in response, cause the driver of the vehicle to be prompted to actuate a switch of the vehicle (possibly periodically) to check the condition of the driver. This ensures that the condition of the driver can be reliably determined even with insufficient image data.
Die Steuereinheit kann eingerichtet sein, Umfelddaten von ein oder mehreren Umfeldsensoren (z. B. eine Kamera und/oder ein Radarsensor) des Fahrzeugs und/oder Positionsdaten von einer Positionierungseinheit (z. B. ein Navigationsgerät) des Fahrzeugs zu empfangen. Anhand der Umfelddaten und/oder der Positionsdaten kann ein Objekt in einem Umfeld des Fahrzeugs detektiert werden. Das detektierte Objekt kann einem Blicksektor aus der Vielzahl von Blicksektoren zugewiesen werden. Alternativ oder ergänzend können die ermittelten Blickrichtungsvektoren des Fahrers direkt zur Intersektionserkennung mit dem erkannten Objekt geschnitten werden, um zu ermitteln, ob das Objekt in einem Umfeld des Fahrzeugs detektiert wurde.The control unit may be configured to receive environment data from one or more environment sensors (eg a camera and / or a radar sensor) of the vehicle and / or position data from a positioning unit (eg a navigation device) of the vehicle. On the basis of the environment data and / or the position data, an object can be detected in an environment of the vehicle. The detected object can be assigned to a gaze sector from the plurality of gaze sectors. Alternatively or additionally, the determined eye direction vectors of the driver can be cut directly to the intersection recognition with the detected object to determine whether the object has been detected in an environment of the vehicle.
Die Größe und/oder Position eines o. g. Objekt-abhängigen Blicksektors kann sich zeitlich (aufgrund der Veränderung der Position des Objekts relativ zum Fahrzeug) verändern. Somit können sich die Blicksektoren der Vielzahl von Blicksektoren dynamisch mit der Zeit verändern. Alternativ oder ergänzend können die Positionen der Objekte im Fahrzeugumfeld aufgrund von Objekt- oder Fahrzeugeigenbewegungen variieren. Aufgrund dessen kann auch die Zuordnung von Objekten im Fahrzeugumfeld zu Blicksektoren dynamisch mit der Zeit variieren.The size and / or position of an o. G. Object dependent gaze sector may change in time (due to the change in the position of the object relative to the vehicle). Thus, the gaze sectors of the plurality of gaze sectors may change dynamically with time. Alternatively or additionally, the positions of the objects in the vehicle environment may vary due to object or vehicle inherent motions. Because of this, the assignment of objects in the vehicle environment to gaze sectors can also vary dynamically over time.
Die Steuereinheit kann eingerichtet sein, das detektierte Objekt bei der Ermittlung des Zustands des Fahrers zu berücksichtigen. Dadurch kann eine Genauigkeit der Ermittlung des Zustands des Fahrers erhöht werden.The control unit may be configured to consider the detected object in determining the driver's condition. Thereby, an accuracy of determining the condition of the driver can be increased.
Alternativ oder ergänzend kann die Steuereinheit eingerichtet sein, anhand des zeitlichen Verlaufs s(t) von Blicksektoren zu bestimmen, dass der Fahrer das detektierte Objekt nicht wahrnimmt. In Reaktion darauf kann die Ausgabe eines Warnhinweises bzgl. des detektierten Objekts an den Fahrer des Fahrzeugs veranlasst werden. So kann die Sicherheit des Fahrzeugs im Straßenverkehr erhöht werden.Alternatively or additionally, the control unit can be set up on the basis of the time History s (t) of Blicksektoren to determine that the driver does not perceive the detected object. In response, issuance of a warning regarding the detected object to the driver of the vehicle may be initiated. Thus, the safety of the vehicle in road traffic can be increased.
Gemäß einem weiteren Aspekt wird ein Verfahren zur Bereitstellung einer Assistenzfunktion in einem Fahrzeug beschrieben. Das Verfahren umfasst das Empfangen von Bilddaten von ein oder mehreren Bildsensoren. Die ein oder mehreren Bildsensoren sind dabei eingerichtet, eine Fahrerposition des Fahrzeugs (insbesondere einen Kopf eines Fahrers des Fahrzeugs) zu erfassen.In another aspect, a method of providing an assistance function in a vehicle is described. The method includes receiving image data from one or more image sensors. The one or more image sensors are configured to detect a driver position of the vehicle (in particular a head of a driver of the vehicle).
Das Verfahren umfasst weiter das Zuweisen, anhand der Bilddaten und für eine Sequenz von Zeitpunkten, der Blickrichtung eines Fahrers des Fahrzeugs zu jeweils einem Blicksektor aus einer Vielzahl von Blicksektoren, um einen zeitlichen Verlauf s(t) von Blicksektoren als Darstellung einer zeitlichen Entwicklung der Blickrichtung des Fahrers zu ermitteln. Desweiteren umfasst das Verfahren das Auswerten des zeitlichen Verlaufs s(t) von Blicksektoren zur Bereitstellung der Assistenzfunktion.The method further comprises assigning, based on the image data and for a sequence of times, the direction of view of a driver of the vehicle to a gaze sector from a plurality of gaze sectors, a temporal course s (t) of gaze sectors representing a temporal evolution of the gaze direction to determine the driver. Furthermore, the method comprises the evaluation of the time profile s (t) of gaze sectors for providing the assistance function.
Gemäß einem weiteren Aspekt wird ein Fahrzeug (z. B. ein Personenkraftwagen, ein Lastkraftwagen oder ein Motorrad) beschrieben, das eine in diesem Dokument beschriebene Steuereinheit umfasst.In another aspect, a vehicle (eg, a passenger car, a truck, or a motorcycle) is described that includes a control unit described in this document.
Gemäß einem weiteren Aspekt wird ein Software (SW) Programm beschrieben. Das SW Programm kann eingerichtet werden, um auf einem Prozessor (z. B. auf einer Steuereinheit) ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.In another aspect, a software (SW) program is described. The SW program may be set up to run on a processor (eg, on a controller) and thereby perform the method described in this document.
Gemäß einem weiteren Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.In another aspect, a storage medium is described. The storage medium may include a SW program that is set up to run on a processor and thereby perform the method described in this document.
Es ist zu beachten, dass die in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systeme sowohl alleine, als auch in Kombination mit anderen in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen verwendet werden können. Desweiteren können jegliche Aspekte der in diesem Dokument beschriebenen Verfahren, Vorrichtung und Systemen in vielfältiger Weise miteinander kombiniert werden. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden.It should be understood that the methods, devices and systems described herein may be used alone as well as in combination with other methods, devices and systems described in this document. Furthermore, any aspects of the methods, apparatus, and systems described herein may be combined in a variety of ways. In particular, the features of the claims can be combined in a variety of ways.
Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigtFurthermore, the invention will be described in more detail with reference to exemplary embodiments. It shows
Wie eingangs dargelegt, befasst sich das vorliegende Dokument mit der Ermittlung des Zustands des Fahrers eines Fahrzeugs (z. B. eines Personenkraftwagens oder eines Lastkraftwagens). Dies ist insbesondere bei der Verwendung von Fahrerassistenzsystemen (FAS) oder bei teil- bzw. hochautomatisiertem Fahren von Bedeutung. Durch derartige Assistenzfunktionen wird der Fahrer teilweise oder ganz vom aktiven Fahrbetrieb entlastet. Dennoch sollte gewährleistet sein, dass der Fahrer bei Bedarf den aktiven Fahrbetrieb wieder übernehmen kann. Das vorliegende Dokument beschreibt in diesem Zusammenhang Verfahren und Vorrichtungen zur Ermittlung des Zustands des Fahrers. Aus dem Zustand der Fahrers kann typischerweise auch auf die Fähigkeit des Fahrers geschlossen werden, den aktiven Fahrbetrieb des Fahrzeugs zu übernehmen (die sogenannte Übernahmefähigkeit). Desweiteren kann aus dem Fahrerzustand ein Zeitraum ermittelt werden, den der Fahrer benötigt, um den aktiven Fahrbetrieb zu übernehmen (die sogenannte Übernahmezeit).As set forth above, the present document is concerned with determining the condition of the driver of a vehicle (eg, a passenger car or a truck). This is particularly important when using driver assistance systems (FAS) or in partially or highly automated driving. Through such assistance functions, the driver is partially or completely relieved of active driving. Nevertheless, it should be ensured that the driver can take over active driving again if necessary. The present document describes in this connection methods and devices for determining the condition of the driver. From the condition of the driver can also be typically concluded on the ability of the driver to take over the active driving of the vehicle (the so-called takeover capability). Furthermore, from the driver state, a period can be determined, which the driver needs to take over the active driving operation (the so-called takeover time).
Der Fahrerzustand kann in eine Vielzahl von vordefinierten Zuständen klassifiziert werden. Diese vordefinierten Fahrerzustände können auch als Übernahmefähigkeitslevels bezeichnet werden. Beispielhafte Übernahmefähigkeitslevels sind:
- • Level 1: Fahrer ist aufmerksam (Fahrer partizipiert aktiv am Verkehrsgeschehen). Der Fahrer kann somit jederzeit und mit einer minimalen Übernahmezeit den aktiven Fahrbetrieb übernehmen.
- • Level 2: Fahrer ist kurzfristig abgelenkt von der Fahraufgabe (durch sekundäre Aufgaben wie Telefonieren, Bahnplanung, Bedienung von Entertainment- und Komfortfunktionen). Durch die kurzfristige Ablenkung ergibt sich eine erhöhte Übernahmezeit.
- • Level 3: Fahrer ist müde/erschöpft. Hier ergibt sich eine eingeschränkte Fahrperformance und eine weiter erhöhte Übernahmezeit.
- • Level 4: Fahrer ist schläfrig (starke Müdigkeitserscheinungen treten auf, z. B. hochfrequenter Liedschlag, Augen fallen zu, keine bewusste Szenenwahrnehmung, Sekundenschlaf). Dies führt zu einer weiter eingeschränkten Fahrperformance und einer weiter erhöhten Übernahmezeit.
- • Level 5: Fahrer ist nicht übernahmefähig (z. B. eingeschlafen, physisch nicht präsent).
- • Level 6: Fahrer ist tot.
- • Level 1: driver is attentive (driver participates actively in traffic). The driver can thus take over active driving at any time and with a minimum takeover time.
- • Level 2: driver is distracted from the driving task at short notice (due to secondary tasks such as telephoning, path planning, operation of entertainment and comfort functions). The short-term distraction results in an increased takeover time.
- • Level 3: driver is tired / exhausted. This results in a limited driving performance and a further increase takeover time.
- • Level 4: Driver is sleepy (severe fatigue symptoms occur, eg high frequency song punch, eyes fall, no conscious scene perception, microsleep). this leads to a further limited driving performance and a further increase takeover time.
- • Level 5: driver is not eligible (eg asleep, physically not present).
- • Level 6: driver is dead.
Im vorliegenden Dokument wird ein kamerabasiertes System und Verfahren beschrieben, welche dazu eingerichtet sind, eine Klassifikation des Fahrerzustandes durchzuführen, z. B. in die oben angeführten Übernahmefähigkeitslevel. Dabei können unterschiedliche Fahrerverhalten ermittelt werden. Beispielhafte Fahrerverhalten sind:
- • Spurwechselabsicht, d. h. der Fahrer hat die Absicht eine Fahrspur zu wechseln.
- • Der Fahrer verhält sich als idealer Regler, der typischerweise durch eine aufmerksame Geradeausfahrt und bewusste Szenenwahrnehmung gekennzeichnet ist.
- • Der Fahrer ist durch sekundäre Aktivitäten abgelenkt.
- • Der Fahrer führt ein unbewusstes Starren durch.
- • Lane change intent, ie the driver intends to change lanes.
- • The driver behaves as an ideal controller, which is typically characterized by attentive straight-ahead driving and deliberate scene perception.
- • The driver is distracted by secondary activities.
- • The driver performs an unconscious stare.
Zur Ermittlung des Zustands des Fahrers wird ein System mit einer Vielzahl von Kameras vorgeschlagen, welche derart angeordnet sind, dass zumindest eine der Vielzahl von Kameras bei beliebigen Kopfausrichtungen die Augen des Fahrers erfassen kann, um eine Blickrichtung des Fahrers zu ermitteln. Die ermittelte Blickrichtung kann dann in eine Vielzahl von Blicksektoren unterteilt werden, um eine statistische Auswertung der Blickrichtung über die Zeit durchzuführen. Die statistische Auswertung der Blickrichtung des Fahrers über die Zeit kann Informationen über den Zustand des Fahrers liefern.In order to determine the condition of the driver, a system is proposed with a multiplicity of cameras which are arranged such that at least one of the plurality of cameras can detect the driver's eyes in any desired orientation of the head in order to determine a viewing direction of the driver. The determined viewing direction can then be subdivided into a plurality of viewing sectors in order to carry out a statistical evaluation of the viewing direction over time. The statistical evaluation of the driver's line of sight over time can provide information about the condition of the driver.
Die Bilddaten der Vielzahl von Bildsensoren
Desweiteren kann die Steuereinheit
- •
einen Blicksektor 201 für ein Fahrerseitiges Fenster des Fahrzeugs100 (ohne Außenspiegel); - •
einen Blicksektor 202 für den Fahrerseitigen Außenspiegel desFahrzeugs 100 ; - •
einen Blicksektor 203 für Fahrerseitige seitliche Bedienelemente/Ablagen des Fahrzeugs 100 ; - •
einen Blicksektor 204 für einen Fahrerseitigen Teil der Windschutzscheibe; - •
einen Blicksektor 205 für ein Lenkrad und einArmaturenbrett des Fahrzeugs 100 ; - •
einen Blicksektor 206 für einen Rückspiegel desFahrzeugs 100 ; - •
einen Blicksektor 207 für einInfotainmentsystem des Fahrzeugs 100 ; - •
einen Blicksektor 208 für einen Gangwahlhebel und/oder eine zentrale Ablage desFahrzeugs 100 ; - •
einen Blicksektor 209 für einen Beifahrerseitigen Teil der Windschutzscheibe; - •
einen Blicksektor 210 für einHandschuhfach des Fahrzeugs 100 ; - •
einen Blicksektor 211 für eine Beifahrerposition desFahrzeugs 100 ; - •
einen Blicksektor 212 für den beifahrerseitigen Außenspiegel desFahrzeugs 100 ; und/oder - •
einen Blicksektor 213 für ein Beifahrerseitiges Fenster des Fahrzeugs100 (ohne Außenspiegel).
- • a
gaze sector 201 for a driver-side window of the vehicle100 (without exterior mirrors); - • a
gaze sector 202 for the driver side exterior mirror of thevehicle 100 ; - • a
gaze sector 203 for driver side side controls / shelves of thevehicle 100 ; - • a
gaze sector 204 for a driver side portion of the windshield; - • a
gaze sector 205 for a steering wheel and a dashboard of thevehicle 100 ; - • a
gaze sector 206 for a rearview mirror of thevehicle 100 ; - • a
gaze sector 207 for an infotainment system of thevehicle 100 ; - • a
gaze sector 208 for a gear selector and / or a central shelf of thevehicle 100 ; - • a
gaze sector 209 for a passenger-side part of the windshield; - • a
gaze sector 210 for a glove compartment of thevehicle 100 ; - • a
gaze sector 211 for a passenger position of thevehicle 100 ; - • a
gaze sector 212 for the passenger-side exterior mirror of thevehicle 100 ; and or - • a
gaze sector 213 for a passenger side window of the vehicle100 (without outside mirror).
Die Steuereinheit
Der Fahrerzustand kann nun auf Basis des zeitlichen Verlaufs s(t) von Blicksektoren bestimmt werden. Dazu kann der Verlauf s(t) statistisch ausgewertet werden. Insbesondere kann eine Verteilung der Blickrichtung des Fahrers (d. h. der Blicksektoren) in einem vordefinierten Zeitraum oder Zeitintervall ermittelt werden. Die Verteilung der Blickrichtung kann dann Hinweise auf den Zustand des Fahrers liefern.The driver state can now be determined on the basis of the time course s (t) of view sectors. For this purpose, the course s (t) can be statistically evaluated. In particular, a distribution of the driver's line of sight (i.e., the gaze sectors) may be determined in a predefined time period or time interval. The distribution of the viewing direction can then provide indications of the condition of the driver.
Beispielsweise können zur Fahrverhaltensschätzung zwei-dimensionale (2D) und/oder drei-dimensionale (3D) Balkenhistogramme der Blickverteilungen herangezogen werden. Die Blickverteilung kann das Blickverhalten des Fahrers über gleitende Zeitfenster/Zeitintervalle wiedergeben. Die Zeitfenster können eine konfigurierbare zeitliche Länge aufweisen.For example, two-dimensional (2D) and / or three-dimensional (3D) bar histograms of the visual distributions can be used for driving behavior estimation. The gaze distribution can reflect the gaze behavior of the driver over sliding time windows / time intervals. The time windows may have a configurable time length.
Ein beispielhaftes Balkenhistogramm umfasst auf einer ersten Achse die mögliche Vielzahl von vordefinierten Blicksektoren
Mit anderen Worten, auf Basis des zeitlichen Verlaufs s(t) der ermittelten Blicksektoren
Auf Basis des zeitlichen Verlaufs s(t) der ermittelten Blicksektoren
Aus der statistischen Analyse des zeitlichen Verlaufs s(t) der ermittelten Blicksektoren
- • Spurwechselabsicht: Bei einer Spurwechselabsicht erscheinen bei korrektem Fahrverhalten mit hohem Anteil Spiegel- und Schulterblicke (z.
B. Blicksektoren 201 ,202 ,206 ,212 ) sowie Blicke in Fahrtrichtung (z. B. Blicksektor204 ). Andererseits sind Blicke auf Bedienteile und/oder auf ein Display typischerweise gering (z.B. Blicksektoren 203 ,207 ). - • Idealer Regler: Dies beschreibt eine Person die überwiegend aufmerksam in Fahrtrichtung (d. h. Blicksektor
204 ) schaut, mit einem geringen Anteil von Spiegelblicken (Blicksektoren 202 ,206 ,212 ) und Schulterblicken. Es liegt somit eine bewusste Szenenwahrnehmung vor. Der Anteil von Blicken auf Bedienteile oder Displayanzeigen (z.B. Blicksektoren 203 ,207 ) ist typischerweise gering. - • Abgelenkter Fahrer: In diesem Fall blickt der Fahrer für einen hohen prozentualen Anteil der Zeit innerhalb eines gleitenden Zeitfensters auf Bedienteile oder Displayelemente (z.
B. Blicksektoren 203 und/oder207 ). - • Unbewusstes Starren liegt z. B. vor, wenn der Blick des Fahrers auf einen einzelnen Blicksektor fokussiert ist. Eine Streuung der Blickrichtungsvektoren ist dabei typischerweise gering (bspw. liegt eine Varianz von 1° oder weniger vor), wodurch auf Unaufmerksamkeit durch Starren gefolgert werden kann.
- • Lane change intent: In the case of a lane change intention, with correct driving behavior with a high proportion, mirror and shoulder views (eg,
view sectors 201 .202 .206 .212 ) and looks in the direction of travel (eg Blicksektor204 ). On the other hand, glances at keypads and / or on a display are typically low (eg,viewing sectors 203 .207 ). - • Ideal controller: This describes a person's mostly attentive in the direction of travel (ie gaze sector
204 ) looks, with a small proportion of mirror views (Blicksektoren 202 .206 .212 ) and shoulder looks. There is thus a conscious scene perception. The proportion of views of keypads or display displays (eg,view sectors 203 .207 ) is typically low. - • Deflected driver: In this case, the driver looks at keypads or display elements (eg, viewing sectors) for a high percentage of the time within a sliding
time window 203 and or207 ). - • Unconscious staring is z. For example, when the driver's gaze is focused on a single gaze sector. A scattering of the line of sight vectors is typically low (for example, there is a variance of 1 ° or less), which can lead to inattention by stare.
Somit kann auf Basis des zeitlichen Verlaufs s(t) der ermittelten Blicksektoren
Die ein oder mehreren statistischen Parameter können dann dazu verwendet werden, den Zustand des Fahrers zu ermitteln. Zu diesem Zweck kann ein Cluster-Algorithmus verwendet werden. Insbesondere können in einer Lernphase eine Vielzahl von zusammenhängenden Paaren von „Werte der ein oder mehreren statistischen Parametern” und „Fahrerzustände” aufgezeichnet werden. Aus dieser Vielzahl von zusammenhängenden Paaren kann dann ein Clusteralgorithmus hergeleitet werden, der Zusammenhänge zwischen den „Werten der ein oder mehreren statistischen Parametern” und den „Fahrerzuständen” erkennt. Insbesondere kann der derart antrainierte Clusteralgorithmus dazu verwendet werden, im Normalbetrieb aus den ermittelten aktuellen Werten der ein oder mehreren statistischen Parametern den aktuellen Fahrerzustand zu bestimmen.The one or more statistical parameters may then be used to determine the driver's condition. For this purpose a cluster algorithm can be used. In particular, in a learning phase, a plurality of contiguous pairs of "values of the one or more statistical parameters" and "driver states" may be recorded. From this multitude of contiguous pairs, a cluster algorithm can then be derived which recognizes relationships between the "values of the one or more statistical parameters" and the "driver states". In particular, the cluster algorithm so trained can be used to determine the current driver state in normal operation from the determined current values of the one or more statistical parameters.
Der Clusteralgorithmus kann auf Basis einer Lerngruppe mit einer Vielzahl von unterschiedlichen Fahrern ermittelt werden (z. B. um eine Grundfunktionalität für ein Neufahrzeug bereitzustellen). Alternativ oder ergänzend kann der Clusteralgorithmus Fahrer-spezifisch antrainiert oder adaptiert werden (z. B. um Fahrerspezifische Gewohnheiten besser berücksichtigen zu können).The clustering algorithm may be determined based on a learning group with a plurality of different drivers (eg, to provide basic functionality for a new vehicle). Alternatively or additionally, the cluster algorithm can be trained or adapted driver-specific (for example, in order better to be able to take into account driver-specific habits).
Eine Erweiterung des Klassifikationsverfahrens, über die Auswertung der Blicksektoren
Zu diesem Zweck kann das Fahrzeug
Desweiteren kann das Fahrzeug
Ein detektiertes Objekt kann bei der Auswertung des zeitlichen Verlaufs s(t) der ermittelten Blicksektoren
Desweiteren können alternativ oder ergänzend zu den Blicksektoren
Zur Berücksichtigung von detektierten Objekten und/oder zur Berücksichtigung des Straßenverlaufs bei der statistischen Analyse können beispielsweise die Histogrammbalken von bestimmten Blicksektoren (z. B. die Blicksektoren
Die beschriebenen Objektlisten mit Betrachtungszeiten und Betrachtungshäufigkeiten können alternativ oder ergänzend zu der Klassifikation von Fahrerverhalten in einem Fahrerassistenzsystem zur Warnung vor nicht wahrgenommen Objekten (z. B. Radfahrern, die die Spur kreuzen) verwendet werden. Mit anderen Worten, die in diesem Dokument beschriebene Analyse des zeitlichen Verlaufs s(t) der ermittelten Blicksektoren
Um aus dem klassifizierten Fahrerverhalten und/oder aus dem klassifizierten Fahrerzustand einen Übernahmefähigkeitslevel des Fahrers zu bestimmen, können ggf. zusätzliche Informationen analysiert werden:
- • Level 6: Ob der Fahrer lebt oder tot ist kann beispielsweise über eine bildbasierte Puls schlagerkennung, bei der minimale Hautverfärbungen im Videobild erkannt werden, bestimmt werden. Alternativ oder ergänzend können nichtinvasive Sensoren zur Pulsmessung im Sitz verbaut werden.
- • Level 5: Die Anwesenheit des Fahrers am Fahrersitz kann über Bildverarbeitung erkannt werden, da der Kopf sich im Fahrzeug innerhalb einer validen Kopfposition befinden sollte. So fällt beispielsweise auf, wenn der Fahrer beim hochautomatisierten Fahren den Fahrersitz verlässt oder eine ungewöhnliche Sitzposition einnimmt. Ob der Fahrer eingeschlafen ist, kann ebenfalls bildbasiert ermittelt werden, da dann die Augen des Fahrers für ein längeres Zeitintervall geschlossen sind.
- • Level 3/4: Zur Abgrenzung des Levels 3 von Levels 4 können Verhaltensmerkmale der Augen (Liedschlagfrequenz, Geschwindigkeit, Augenöffnungsmaß) analysiert werden.
- • Level 2: Durch Analyse der beschriebenen statistischen Analyse (z. B. anhand von Blickverteilungshistogrammen) kann dieser Level typischerweise eindeutig festgestellt werden.
- • Level 1: Durch Analyse der beschriebenen statistischen Analyse (z. B. anhand von Blickverteilungshistogrammen) kann dieser Level typischerweise eindeutig festgestellt werden.
- • Level 6: Whether the driver is alive or dead can be determined, for example, by means of an image-based pulse beat detection, in which minimal skin discoloration in the video image is detected. Alternatively or additionally, non-invasive sensors for pulse measurement in the seat can be installed.
- • Level 5: The presence of the driver on the driver's seat can be detected by image processing, as the head should be in the vehicle within a valid head position. For example, it is noticeable when the driver leaves the driver's seat in highly automated driving or assumes an unusual seating position. Whether the driver has fallen asleep, can also be determined image-based, since then the eyes of the driver are closed for a longer time interval.
- • Level 3/4: To level 3 Levels 4, eye behavioral characteristics (song beat frequency, speed, eye opening) can be analyzed.
- • Level 2: By analyzing the described statistical analysis (eg, using gaze distribution histograms), this level can typically be uniquely determined.
- • Level 1: By analyzing the described statistical analysis (eg using gaze distribution histograms), this level can typically be uniquely determined.
Für hochautomatisiertes Fahrern kann es sinnvoll sein zwischen den Übernahmefähigkeitslevels 3 und 5 unterscheiden zu können. Zur Adaption von Fahrerassistenzsystemen oder teilautomatisierten Fahren kann insbesondere eine Unterscheidung von Übernahmefähigkeitslevels 1 und 2 realisiert werden. Dabei sollte der Übernahmefähigkeitslevel mit einer hohen Zuverlässigkeit erkannt werden. Um auch in Situationen, in denen ein Kamera-basiertes System ggf. nicht korrekt funktioniert (z. B. Fahrer trägt verspiegelte Brille, Augen sind aufgrund von Verschleierung nicht sichtbar, Optik der Kamera ist beschlagen, etc.), den Fahrerzustand und/oder den Übernahmefähigkeitslevel zuverlässig bestimmen zu können, kann das Fahrzeug
Das Verfahren
Das Verfahren
In diesem Dokument wurde ein Klassifikationsverfahren für die zuverlässige Ermittlung des Fahrerzustands beschrieben. Das Klassifikationsverfahren kann ohne expliziten Eingriff, d. h. ohne Ablenkung, des Fahrers erfolgen. Desweiteren ergeben sich aus den zugrundeliegenden Fahrerverhaltensanalysen und den mit Blickzeit und Blickhäufigkeit angereicherten Umfeldobjektlisten, Möglichkeiten zur Umsetzung von verbesserten und neuen Fahrerassistenzfunktionen (insbesondere im Hinblick auf die Warnung des Fahrers vor nicht wahrgenommenen Hindernissen).This document describes a classification procedure for the reliable determination of driver status. The classification method can without explicit intervention, i. H. without distraction, the driver made. Furthermore, the underlying driver behavior analyzes and the environment object lists enriched with eye-sight and frequency of views result in possibilities for implementing improved and new driver assistance functions (in particular with regard to warning the driver against unperceived obstacles).
Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur das Prinzip der vorgeschlagenen Verfahren, Vorrichtungen und Systeme veranschaulichen sollen.The present invention is not limited to the embodiments shown. In particular, it should be noted that the description and figures are intended to illustrate only the principle of the proposed methods, apparatus and systems.
Claims (10)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102014201036.5A DE102014201036A1 (en) | 2014-01-21 | 2014-01-21 | Image-based classification of driver status and / or driver behavior |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102014201036.5A DE102014201036A1 (en) | 2014-01-21 | 2014-01-21 | Image-based classification of driver status and / or driver behavior |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102014201036A1 true DE102014201036A1 (en) | 2015-07-23 |
Family
ID=53497831
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102014201036.5A Pending DE102014201036A1 (en) | 2014-01-21 | 2014-01-21 | Image-based classification of driver status and / or driver behavior |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102014201036A1 (en) |
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102016223909A1 (en) * | 2016-12-01 | 2018-06-07 | Bayerische Motoren Werke Aktiengesellschaft | Method and device for sensor-assisted driver condition assessment |
| DE102017202194A1 (en) | 2017-02-13 | 2018-08-16 | Robert Bosch Gmbh | Method and device for determining a visual distraction of a driver of a vehicle |
| DE102017206585A1 (en) * | 2017-04-19 | 2018-10-25 | Bayerische Motoren Werke Aktiengesellschaft | Occupant assistance procedure, occupant assistance system and vehicle |
| DE102017208971A1 (en) | 2017-05-29 | 2018-11-29 | Volkswagen Aktiengesellschaft | METHOD AND DEVICE FOR SUPPORTING A VEHICLE IN A VEHICLE |
| DE102017210753A1 (en) * | 2017-06-27 | 2018-12-27 | Bayerische Motoren Werke Aktiengesellschaft | A method, computer readable medium, system and vehicle comprising the system for providing a takeover ready signal during a ride of a vehicle |
| EP3640109A1 (en) * | 2018-10-17 | 2020-04-22 | Volvo Car Corporation | System and method for detecting and/or preventing automation expectation mismatch in vehicle |
| CN111942404A (en) * | 2020-06-05 | 2020-11-17 | 北京汽车研究总院有限公司 | Vehicle and driving method and device thereof |
| DE102020102404A1 (en) | 2020-01-31 | 2021-08-05 | Bartenbach Holding Gmbh | Lighting device |
| DE102020124896A1 (en) | 2020-09-24 | 2022-03-24 | Bayerische Motoren Werke Aktiengesellschaft | METHOD FOR OPERATING AN ASSISTANCE SYSTEM OF A VEHICLE THAT CAN AT LEAST TEMPORARILY BE OPERATED AUTONOMOUSLY |
| DE102020213515A1 (en) | 2020-10-28 | 2022-04-28 | Volkswagen Aktiengesellschaft | Method for generating a warning message for a user of a motor vehicle using an assistance system, and assistance system |
| DE102021103242A1 (en) | 2021-02-11 | 2022-08-11 | Bayerische Motoren Werke Aktiengesellschaft | AUTOMATED MOTOR VEHICLE AND METHOD OF CONTROLLING THE AUTOMATED MOTOR VEHICLE |
| DE102021202504A1 (en) | 2021-03-15 | 2022-09-15 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for detecting inattention on the part of a driver of a vehicle |
| DE102022115531A1 (en) | 2022-06-22 | 2023-12-28 | Bayerische Motoren Werke Aktiengesellschaft | Method for determining the attention of a user of a motor vehicle, computer program, data processing device and motor vehicle |
| DE102023123443A1 (en) | 2023-08-31 | 2025-03-06 | Bayerische Motoren Werke Aktiengesellschaft | Method for a vehicle, computer program and/or computer-readable storage medium, data processing device and vehicle |
| DE102024106494A1 (en) | 2024-03-06 | 2025-09-11 | Bayerische Motoren Werke Aktiengesellschaft | Driver assistance system and driver assistance procedure for a vehicle |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20040239509A1 (en) * | 2003-06-02 | 2004-12-02 | Branislav Kisacanin | Target awareness determination system and method |
| US20100033333A1 (en) * | 2006-06-11 | 2010-02-11 | Volva Technology Corp | Method and apparatus for determining and analyzing a location of visual interest |
| US20130131905A1 (en) * | 2011-11-17 | 2013-05-23 | GM Global Technology Operations LLC | System and method for closed-loop driver attention management |
| GB2500690A (en) * | 2012-03-30 | 2013-10-02 | Jaguar Cars | Driver monitoring and vehicle control system |
-
2014
- 2014-01-21 DE DE102014201036.5A patent/DE102014201036A1/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20040239509A1 (en) * | 2003-06-02 | 2004-12-02 | Branislav Kisacanin | Target awareness determination system and method |
| US20100033333A1 (en) * | 2006-06-11 | 2010-02-11 | Volva Technology Corp | Method and apparatus for determining and analyzing a location of visual interest |
| US20130131905A1 (en) * | 2011-11-17 | 2013-05-23 | GM Global Technology Operations LLC | System and method for closed-loop driver attention management |
| GB2500690A (en) * | 2012-03-30 | 2013-10-02 | Jaguar Cars | Driver monitoring and vehicle control system |
Non-Patent Citations (3)
| Title |
|---|
| Doshi, A.; Trivedi, M.; Investigating the Relationship between Gaze Patterns, Dynamci Vehicle Surround Analysis and Driver Intentions. In: IEEE Intelligent Vehicle Symposium, pp.887-892, June 2009. * |
| Fletcher, L.; Zelinsky, A.; Driver Inattention Detection based on Eye Gaze-Road Event Correlation. In: Journal of Robotics Research, Vol.28, No.6, pp.774-801, June 2009. * |
| Lee, S.J. et al.; Real-Time Gaze Estimator based on Driver's Head Orientation for Forward Collision Warning System. In: IEEE Intelligent Transportation Systems, Vol.12, Issue 1, pp.254-267, January 2011. * |
Cited By (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102016223909A1 (en) * | 2016-12-01 | 2018-06-07 | Bayerische Motoren Werke Aktiengesellschaft | Method and device for sensor-assisted driver condition assessment |
| DE102017202194A1 (en) | 2017-02-13 | 2018-08-16 | Robert Bosch Gmbh | Method and device for determining a visual distraction of a driver of a vehicle |
| DE102017206585A1 (en) * | 2017-04-19 | 2018-10-25 | Bayerische Motoren Werke Aktiengesellschaft | Occupant assistance procedure, occupant assistance system and vehicle |
| DE102017206585B4 (en) | 2017-04-19 | 2023-05-04 | Bayerische Motoren Werke Aktiengesellschaft | Occupant support method, occupant support system and vehicle |
| DE102017208971A1 (en) | 2017-05-29 | 2018-11-29 | Volkswagen Aktiengesellschaft | METHOD AND DEVICE FOR SUPPORTING A VEHICLE IN A VEHICLE |
| US10745025B2 (en) | 2017-05-29 | 2020-08-18 | Volkswagen Ag | Method and device for supporting a vehicle occupant in a vehicle |
| DE102017210753A1 (en) * | 2017-06-27 | 2018-12-27 | Bayerische Motoren Werke Aktiengesellschaft | A method, computer readable medium, system and vehicle comprising the system for providing a takeover ready signal during a ride of a vehicle |
| US11097746B2 (en) | 2018-10-17 | 2021-08-24 | Volvo Car Corporation | System and method for detecting and/or preventing automation expectation mismatch in vehicle |
| EP3640109A1 (en) * | 2018-10-17 | 2020-04-22 | Volvo Car Corporation | System and method for detecting and/or preventing automation expectation mismatch in vehicle |
| DE102020102404A1 (en) | 2020-01-31 | 2021-08-05 | Bartenbach Holding Gmbh | Lighting device |
| CN111942404A (en) * | 2020-06-05 | 2020-11-17 | 北京汽车研究总院有限公司 | Vehicle and driving method and device thereof |
| CN111942404B (en) * | 2020-06-05 | 2023-09-22 | 北京汽车研究总院有限公司 | Vehicle and driving method and device thereof |
| DE102020124896A1 (en) | 2020-09-24 | 2022-03-24 | Bayerische Motoren Werke Aktiengesellschaft | METHOD FOR OPERATING AN ASSISTANCE SYSTEM OF A VEHICLE THAT CAN AT LEAST TEMPORARILY BE OPERATED AUTONOMOUSLY |
| DE102020213515A1 (en) | 2020-10-28 | 2022-04-28 | Volkswagen Aktiengesellschaft | Method for generating a warning message for a user of a motor vehicle using an assistance system, and assistance system |
| DE102021103242A1 (en) | 2021-02-11 | 2022-08-11 | Bayerische Motoren Werke Aktiengesellschaft | AUTOMATED MOTOR VEHICLE AND METHOD OF CONTROLLING THE AUTOMATED MOTOR VEHICLE |
| DE102021202504A1 (en) | 2021-03-15 | 2022-09-15 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for detecting inattention on the part of a driver of a vehicle |
| DE102022115531A1 (en) | 2022-06-22 | 2023-12-28 | Bayerische Motoren Werke Aktiengesellschaft | Method for determining the attention of a user of a motor vehicle, computer program, data processing device and motor vehicle |
| DE102023123443A1 (en) | 2023-08-31 | 2025-03-06 | Bayerische Motoren Werke Aktiengesellschaft | Method for a vehicle, computer program and/or computer-readable storage medium, data processing device and vehicle |
| DE102024106494A1 (en) | 2024-03-06 | 2025-09-11 | Bayerische Motoren Werke Aktiengesellschaft | Driver assistance system and driver assistance procedure for a vehicle |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102014201036A1 (en) | Image-based classification of driver status and / or driver behavior | |
| DE102017214353B4 (en) | DRIVER CONDITION DETECTION SYSTEM, DRIVER CONDITION DETECTION METHOD AND VEHICLE CONTAINING THE SAME | |
| DE102013210050B4 (en) | Neurocognitive processing of a driver state | |
| DE102019109505A1 (en) | DATA PROCESSING DEVICE, MONITORING SYSTEM, WECKSYSTEM, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM | |
| DE102017211005A1 (en) | DRIVER STATE MONITORING USING CORNEAL REFLECTIONS | |
| DE112019007195B4 (en) | DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD AND DISPLAY CONTROL PROGRAM | |
| DE112014000591T5 (en) | Attention-level detection device and attention-level detection method | |
| WO2014029738A1 (en) | Method for supplementing object information assigned to an object and method for selecting objects in surroundings of a vehicle | |
| DE102013013227B4 (en) | Motor vehicle with display unit and protection against driver distraction | |
| DE102012109624A1 (en) | Vehicle installation and method for assessing and communicating the condition of a driver | |
| DE102019201407A1 (en) | Method and device for controlling a driver's attention | |
| DE102014011264A1 (en) | Method for calculating a return time | |
| DE102013206739A1 (en) | Method for determining whether an occupant of a vehicle notices relevant objects in the vicinity of the vehicle | |
| DE102016121625A1 (en) | Apparatus and method for monitoring a concentration of a driver by eye tracking | |
| DE102017000249A1 (en) | Driving Assistance System | |
| DE102014204137A1 (en) | information terminal | |
| DE102017213177A1 (en) | Method for operating a screen of a motor vehicle and motor vehicle | |
| DE102015216813A1 (en) | Collision avoidance system using monitoring of a driver's eye during a gearshift | |
| DE112022005813T5 (en) | AUTOMATIC CALIBRATION METHOD AND DEVICE FOR THE DISTRACTION ZONE, PASSENGER CARS AND ELECTRONIC DEVICES | |
| DE112017007258T5 (en) | DEVICE FOR DETERMINING THE CONCENTRATION LEVEL, METHOD FOR DETERMINING THE CONCENTRATION LEVEL AND PROGRAM FOR DETERMINING THE CONCENTRATION LEVEL | |
| DE102015206209A1 (en) | Method for determining a measure of the attention of a driver and device for monitoring the attention of a driver | |
| WO2016067082A1 (en) | Method and device for gesture control in a vehicle | |
| DE102019109491A1 (en) | DATA PROCESSING DEVICE, MONITORING SYSTEM, WECKSYSTEM, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM | |
| DE102023003826A1 (en) | Method for displaying hidden road users and vehicles | |
| DE112019007484T5 (en) | INFORMATION PROCESSING DEVICE, PROGRAM AND INFORMATION PROCESSING METHOD |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R163 | Identified publications notified | ||
| R012 | Request for examination validly filed | ||
| R016 | Response to examination communication |