[go: up one dir, main page]

DE19621435A1 - Verfahren und Vorrichtung zum Überwachen von Augen für die Erfassung eines Schläfrigkeitszustands - Google Patents

Verfahren und Vorrichtung zum Überwachen von Augen für die Erfassung eines Schläfrigkeitszustands

Info

Publication number
DE19621435A1
DE19621435A1 DE19621435A DE19621435A DE19621435A1 DE 19621435 A1 DE19621435 A1 DE 19621435A1 DE 19621435 A DE19621435 A DE 19621435A DE 19621435 A DE19621435 A DE 19621435A DE 19621435 A1 DE19621435 A1 DE 19621435A1
Authority
DE
Germany
Prior art keywords
eye
eyes
person
image
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19621435A
Other languages
English (en)
Inventor
Cheng-Chung Liang
Ming Fang
Ajit Singh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Corporate Research Inc
Original Assignee
Siemens Corporate Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Corporate Research Inc filed Critical Siemens Corporate Research Inc
Publication of DE19621435A1 publication Critical patent/DE19621435A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Educational Technology (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Pathology (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Emergency Alarm Devices (AREA)

Description

Die vorliegende Erfindung bezieht sich auf die Bestimmung von Augenpositionen und insbesondere auf eine zuverlässige, nicht invasive Vorrichtung (System) zum Überwachen eines Individuums, zum Verarbeiten von Bildern des Individuums und zum Bereitstellen einer Rückkopplung zu dem Individuum.
Die Überwachung der Schläfrigkeit und des Schlafs ist traditionell für Psychologen und Neurophysiologen von Interesse, die die Auswirkungen von Schlafmangel, Schlafstörungen usw. auf das Verhalten untersuchen. Seit kurzem ist ein starkes Interesse hinsichtlich der Überwachung der Schläfrigkeit und der Müdigkeit bei der Arbeit, - und der menschlichen Fehler, die hieraus resultieren, vorhanden. Einige der Kategorien von Berufsgruppen, die dieses Interesse direkt hervorgerufen haben, sind niedergelassene Ärzte oder Klinikärzte, Fahrer von Lastwagen und Zügen, Flugzeugpiloten, Luftverkehrskontrolleure bzw. Flug­ zeuglotsen, Fließbandarbeiter, die mit monotonen Arbeiten beschäftigt sind, usw. Die nachstehenden Beispiele und statistischen Aussagen sind aus sich selbst heraus verständ­ lich: Im Jahr 1987 flog ein Handelsflugzeug, das auf dem Internationalen Flughafen von Los Angeles landen sollte, in einer Höhe von ca. 9600 Metern (32 000 Fuß) über den Flughafen hinweg und flog über den Pazifik weiter. Das Flugzeug, das mit Autopiloten geflogen wurde, befand sich bereits ungefahr 160 km (100 Meilen) entfernt über dem Ozean, bevor die Fluglotsen einen Weg fanden, in das Cockpit einen akustischen Alarm zu senden. Die gesamte Mannschaft war in dem Flugdeck eingeschlafen. In den Ver­ einigten Staaten von Amerika werden jedes Jahr geschätzt insgesamt 6500 Todesfälle in Verbindung mit Kraftfahrzeugen - 13% des jährlichen Tributs - durch Fahrer hervor­ gerufen, die am Lenkrad einschlafen. Die Ermüdung und menschliche Fehler stellen den überwiegenden Grund von Kraftfahrzeugunfällen dar. Während die Sicherheit von Fahrern und Passagieren von Fahrzeugen in den letzten Jahren verstärkte Aufmerksamkeit erfahren hat (Airbags und Bremsen mit ABS-Systemen wurden verfügbar und erschwinglich), haben die Hersteller von Fahrzeugen erst seit kurzem damit begonnen, sich der Erfassung der Müdigkeit zuzuwenden. Bei einer kürzlichen Umfrage von CNN bei 1000 Lastwagenfah­ rern gaben 3 von 5 Fahrern zu, daß sie in dem Monat, der der Umfrage vorherging, hinter dem Lenkrad eingeschlafen waren. Lastwagenfahrer überschreiten üblicherweise die zugelassene Maximalzahl von 80 Fahrstunden je Woche.
Auch wenn die soziologischen Probleme bei der Überwachung der Müdigkeit und des Schlafes bei der Arbeit ungewiß bleiben und ernsthafte Überlegungen erfordern, ist der technische Fortschritt bereits auf dem klaren Weg, eine solche Überwachung zu ermögli­ chen. Häufig wird ein Elektroencephalogramm (EEG) in Verbindung mit einem Elektroo­ kulogramm (EOG) zur Messung von Augenbewegungen sowie ein Elektromyogramm (EMG) zur Messung des Muskeltonus in dem Kinn eingesetzt. Dieser Sachverhalt ist in "Work Hours And Continuous Monitoring Of Sleep", von T. Akerstedt, R.J. In Broughton und R.D. Ogilvie, "Sleep, Arousal and Performance", Birkhauser, Boston, 1991, be­ schrieben. Insbesondere die Augenbewegungen sind bei der Erfassung des genauen Zeitpunkts des Einsetzens des Schlafs nützlich, wie es in "Eye Movements And The Detection Of Sleep Onset", von R.D. Ogilvie, D.M. McDonagh und S.N. Stone, "Psycho­ physiology", Vol. 25, Nr. 1, Seiten 81-91, 1988, beschrieben ist. Eine weitere Alternative wurde von Nissan entwickelt, die die Auswertung von speziellen Lenkmustern enthält, die von einem ermüdeten Fahrer hervorgerufen werden. Dies ist in "Electronic Applications For Enhancing Automotive Safety", von S. Aono, "Vehicle Electronics in the 90′s: Proceedings of the International Congress on Transportation Electronics", Seiten 179-186, Oktober 1990, erläutert.
Auch wenn technologische Fortschritte dazu geführt haben, daß eine Überwachung des Schlafs auf der Grundlage eines EEGs recht zweckmäßig geworden ist (es sind tragbare EEG-Schlaf-Rekorder in Taschengröße verfügbar), stellt dies im wesentlichen eine invasive Technik dar. Die Person trägt an seinem/ihrem Kopf angebrachte Elektroden. Bei Anwen­ dungen wie etwa der Überwachung des Schläfrigkeitszustands eines Fahrzeugführers ist eine nicht invasive Methode wünschenswerter. Eine visuelle Überwachung der Augen scheint die Aussicht mit sich zu bringen, eine derartige nicht invasive Methode bereitzu­ stellen. Von besonderem Interesse ist die Überwachung von Fahrern (von Autos, Lastwa­ gen, Zügen usw.) und die Fähigkeit, einen Alarm auszulösen, wenn der Fahrer schläfrig erscheint. Für eine visuelle Überwachung besteht eine offensichtliche und natürliche Wahl darin, die Bewegung des Auges einer Person dazu auszunutzen, den Müdigkeitszustand zu erfassen. Dieser Ansatz muß korrekt und zuverlässig durchgeführt werden.
Die Beziehung zwischen dem Verhalten des Auges und dem Schlaf reicht bis in die ersten Anfangstage der Schlafforschung zurück. Miles schrieb bereits 1929 in seinem grundlegen­ den Aufsatz: "Der Unterschied zwischen der Wachheit und der Müdigkeit ist nirgends evidenter als in dem Zustand und dem Verhalten des Auges . . . ". Miles hat rollende Augenbewegungen während der Müdigkeit gefilmt und diese zur Charakterisierung des Schlafs herangezogen. Während einige der früheren Arbeiten bezüglich der Überwachung der Augen visuell durchgeführt wurden (durch Aufzeichnung von Laufbildern bezüglich des Auges auf einem Film), wurde es bald durch die Überwachung auf der Grundlage von Elektroencephalogrammen oder Elektrookulogrammen ersetzt. Praktisch bei keiner der aktuellen Forschungen bezüglich des Schlafverhaltens wird eine visuelle Überwachung der Augen eingesetzt. Dies liegt teilweise daran, daß eine hohe Variabilität bei der Beziehung (Korrelation) zwischen dem externen Erscheinungsbild des Auges und den physiologischen Zuständen des Schlafes existiert, und auch daran, daß keine Ausstattung zur Verfügung steht, die quantitative Daten bereitstellen kann. Jedoch können auf der Grundlage der Beobachtung von schlafenden Personen sowie aufgrund der Interaktion mit einigen der Experten die nachstehenden Feststellungen bezüglich des Verhaltens des Auges während des Wachzustands, der Schläfrigkeit und dem Einsetzen des Schlafes getroffen werden:
  • 1. In dem Zustand der Wachheit blinzeln die menschlichen Augen. Die durchschnittliche Blinzelrate (durchschnittliche Anzahl von Blinzelbewegungen bzw. Lidschlägen je Minute) verändert sich von Individuum zu Individuum beträchtlich. Jedoch kann sich auch bei einem jeweiligen wachen Individuum die Blinzelrate bzw. die Lidschlagrate als Funktion der Zeit in Abhängigkeit von Faktoren wie etwa einem nervösen Zustand verändern. Die Blinzeldauer bzw. Lidschlagdauer (die Zeit, die das Augenlid zum Schließen und zum erneuten Öffnen benötigt) liegt in der Größenordnung von einem Drittel einer Sekunde.
  • 2. Die Lidschlagrate des Auges vergrößert sich während der Müdigkeit. Bei der An­ strengung zur Bekämpfung des Schlafes kneifen die Personen oftmals ihre Augen zu­ sammen bzw. schielen, und blinzeln häufig. Auch wenn sich die durchschnittlichen Lidschlagraten von Individuen beträchtlich unterscheiden, gibt es in der Bevölkerung einen markanten Wechsel der Lidschlagrate von dem wachen Zustand zum schläfrigen Zustand. Die Lidschlagrate kann sich vom wachen Zustand zum schläfrigen Zustand um einen Faktor von zwei oder mehr vergrößern.
  • 3. Während des müden Zustands werden die Augenlider schwer und verhalten sich schwerfällig bzw. träge. Die Zeitdauer, die die Augenlider während des schläfrigen Zustands zum Schließen benötigen, ist sehr viel länger als die Blinzeldauer bzw. Lid­ schlagdauer; sie liegt in der Größenordnung von einigen wenigen Sekunden (in dem Bereich von einer bis vier Sekunden). Bei dem Einsetzen des Schlafs kann sich das Augenlid nach seinem Schließen öffnen oder nicht.
  • 4. Es ist möglich, mit vollständig geöffneten Augen eingeschlafen zu sein. Ein kleiner Bruchteil der Bevölkerung zeigt dieses Verhalten.
  • 5. Langsame Augenbewegungen (SEM = slow eye movements) treten während der Müdigkeit auf und verschwinden bei dem Beginn eines durch das Verhalten und physiolo­ gisch definierten Schlafes. Dieses Muster ist ein beständiger Anzeiger für den Schlafbeginn bei großen Bevölkerungen.
Für viele Anwendungen mit visueller Überwachung und Beobachtung ist es wichtig, die Positionen eines menschlichen Auges aus einer Bildfolge zu bestimmen, die ein mensch­ liches Gesicht enthält bzw. abbildet. Sobald die Positionen des menschlichen Auges bestimmt sind, können alle anderen wichtigen Merkmale des Gesichts wie etwa die Positionen der Nase und des Munds leicht bestimmt werden. Die grundlegende geome­ trische Gesichtsinformation wie etwa der Abstand zwischen zwei Augen, der Größe der Nase und des Munds lassen sich weiterhin herausgreifen. Diese geometrische Information kann dann für eine Vielzahl von Zwecken wie etwa für das Erkennen eines Gesichts aus einer gegebenen Gesichtsdatenbank eingesetzt werden. Das System zur Augenlokalisierung kann auch direkt für die Erfassung des Schläfrigkeitszustands bzw. Schlafzustands eines Fahrzeugführers eingesetzt werden.
Es existieren einige Methoden zur Lokalisierung des oder der Augen auf der Grundlage der Hough-Transformation, von Geometrie- und Symmetrieüberprüfungen und von deformierbaren Modellen. Die meisten dieser Methoden sind aber gegenüber Änderungen der Gestalt oder Form nicht ausreichend stabil. Diese Systeme erfordern weiterhin ein extensives Ausmaß an Computerverarbeitungszeit. Weiterhin kann keines dieser vorhande­ nen Systeme Augen lokalisieren, wenn die Augen geschlossen sind.
Die vorliegende Erfindung schafft ein zuverlässiges, nicht invasives System bzw. eine solchen Vorrichtung zur Überwachung der Augen einer Person, wobei das System bzw. die Vorrichtung eine menschliche Schnittstelle und auch einen Prozessor aufweist. Die menschliche Schnittstelle bzw. die Schnittstelle zum Menschen weist als Minimum eine Kamera zur Beobachtung einer Person und ein Warnsystem für die Alarmierung der Person bei dem Einsetzen des Schlafs auf. Der Prozessor wird zusammen mit der Kamera zur Transformierung oder Umwandlung einer Bildfolge in ein eindimensionales Signal durch Herausgreifen von relevanten Merkmalen aus den Bildern eingesetzt. Der Prozessor analysiert dann das erzeugte eindimensionale Signal zur Erfassung der Schläfrigkeit bzw. Einschlafbereitschaft. Die Umwandlung der Bildfolge beinhaltet die Lokalisierung des oder der Augen, die Augenverfolgung und die Erzeugung eines Augenbewegungssignals. Bei der Augenlokalisierung werden Filter eingesetzt, die die relativ hohe Horizontalkontrast- Dichte der Augenregion vorteilhaft ausnutzen, um die Augenpositionen in einem Graustu­ fenbild eines menschlichen Gesichts zu bestimmen. Die Filter beinhalten oder sind ein Filter zur Berechnung des horizontalen Kontrasts, ein Filter zur Bestimmung der Horizon­ talkontrastdichte, eine Beurteilung der Gesichtsgeometrie und eine Bestimmung der Augenposition.
Die Erfindung wird nachstehend anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.
Fig. 1 zeigt ein Ausführungsbeispiel der vorliegenden Erfindung.
Fig. 2 veranschaulicht den Prozessor, der bei der vorliegenden Erfindung eingesetzt wird,
Fig. 3 zeigt ein Ablaufdiagramm für die Verarbeitung bei der vorliegenden Erfindung,
Fig. 4 zeigt ein Ablaufdiagramm des Filters zur Augenlokalisierung bei der vorliegen­ den Erfindung,
Fig. 5 veranschaulicht die Effekte des Filters zur Augenlokalisierung gemäß der vorliegenden Erfindung,
Fig. 6 veranschaulicht experimentelle Ergebnisse der Filterung gemäß der vorliegen­ den Erfindung,
Fig. 7 zeigt die Positionsbestimmung des Auges unter Einsatz einer Graustufen- Augenlehre in Übereinstimmung mit der vorliegenden Erfindung,
Fig. 8 zeigt Teile einer Bildfolge, wobei der Verfolgungskasten oder -rahmen bzw. die Verfolgungsmarkierung den Bildern überlagert ist,
Fig. 9 zeigt die Verfolgung oder Verfolgungsmessung und die Messung des Block­ unterschieds bezüglich der in Fig. 8 dargestellten Bildfolge,
Fig. 10 zeigt ein normales Blinzeln des Auges bzw. einen normalen Augenlidschlag und die entsprechenden Kurven T und D und
Fig. 11 zeigt eine Abfolge, wenn die Person schläfrig ist, sowie die entsprechenden Kurve T und D.
Zur Festlegung der Anforderungen an das System für die visuelle Überwachung von menschlichen Augen für die Erfassung der Schläfrigkeit und des Schlafbeginns müssen gewisse Annahmen getroffen werden. Das für das System in Betracht gezogene Szenarium besteht in dem Führerhaus bzw. der Fahrgastzelle eines Wagens oder eines Lastwagens usw.
Die Beleuchtungsbedingungen im Inneren eines Führerhauses verändern sich mit dem Wetter, dem Umgebungslicht, der Färbung des Fensterglases, dem Monddach oder Sonnendach usw . . In der nachstehenden Tabelle ist als Beispiel eine vergleichende Betrach­ tung der Beleuchtungszustände bei manchen üblichen Situationen dargestellt.
Auf der Grundlage dieser Tabelle und der durchschnittlichen Geometrie eines Führerhauses bzw. der Fahrerzelle müssen die nachstehenden Anforderungen durch das in Überein­ stimmung mit der vorliegenden Erfindung stehende System zur Bildgewinnung erfüllt werden. 1) Das überwachende System muß imstande sein, bei Umgebungsbeleuchtungs- bzw. helligkeitsbedingungen zwischen 5 lux und 5000 lux zu funktionieren. Zum Zwecke der Bereitstellung einer minimal invasiven Umgebung muß eine aktive Beleuchtung, sofern überhaupt vorhanden, außerhalb des sichtbaren Bereichs, vorzugsweise im Infrarotbereich liegen. Die gegenwärtige Kamera eines Camcorders kann ein Bild aus einer Szene mit einer Beleuchtung von 1 lux gewinnen und kann sich auch an einen breiten dynamischen Bereich der Beleuchtungssituationen anpassen. 2) Falls eine CCD-Kamera als eine Ab­ bildungseinrichtung eingesetzt wird, sollten die Abbildungsparameter ein fokussiertes Bild des Gesichts des Fahrers aus einem Abstand von ungefähr 50 cm erzeugen und das Gesicht muß das Bild so weit wie möglich ausfüllen. Anders ausgedrückt sollte das Bild so wenig Hintergrund wie möglich enthalten, um die bestmögliche Auflösung auf dem Gesicht und den Augen zu erzielen. Jedoch sollte das Gesichtsfeld der Kamera auch ausreichend groß sein, um die Änderung der Positionen des Gesichts des Fahrers bezüglich der Kamera zu überdecken. 3) Die räumliche Auflösung der Kamera muß imstande sein, die Merkmale aufzulösen bzw. wiederzugeben, die die Information bezüglich der Schläfrigkeit bzw. Müdigkeit enthalten. Wie bereits in dem vorhergehenden Abschnitt erwähnt ist, schließen diese Merkmale die Augenlider und die Pupille ein. 4) Die zeitliche Auflösung der Kamera muß dazu imstande sein, das dynamische Verhalten der vorstehend erwähnten Merkmale aufzulösen bzw. wiederzugeben. Genauer gesagt sollte das Augenlid während eines Blinzelns (Lidschlag) nicht verschmiert sein (der Lidschlag kann bei normalen Personen sehr schnell sein und eine Drittel Sekunde betragen). Weiterhin kann es erforderlich sein, die Rollbewegung des Augapfels zu erfassen und zu messen, und zwar über die Bewegun­ gen der Pupille.
Auf der Grundlage des dynamischen Verhaltens des Auges während der Schläfrigkeit und dem Beginn des Schlafes sollte das Bildanalysesystem in Übereinstimmung mit der vor­ liegenden Erfindung die nachstehenden Anforderungen erfüllen. 1) Es muß dazu imstande sein, das Auge schnell zu lokalisieren und die Position kontinuierlich über die Zeit hinweg zu verfolgen. Die Lokalisierung und Verfolgung des oder der Augen sollte unanfällig gegenüber Änderungen der Form des Auges aufgrund einer perspektivischen Verzerrung sein. Falls Teile des Gesichts des Fahrers außerhalb des Gesichtsfelds liegen, wie etwa während des Rückwärtschauens oder Rückwärtsfahrens, des seitlichen Schauens während des Spurwechsels usw., muß das System imstande sein, das Auge erneut zu lokalisieren, sobald es sichtbar wird. Eine der Annahmen besteht darin, daß eine Person dann, wenn sie sich nahe beim Schläfrigkeitszustand befindet, dazu tendiert, bewegungslos zu sein. Dies ist für das Überwachungssystem gemäß der vorliegenden Erfindung wichtig, da die Gesichtsbilder in diesen Momenten sich nicht zu stark ändern, so daß das System die Verfolgung nicht verliert, das heißt die Verfolgung erhalten bleibt. Es ist möglich, daß das System die Verfolgung verliert, wenn eine Person eine große Bewegung durchführt. Jedoch ist zu diesem Zeitpunkt anzunehmen, daß die Person sehr wach ist. 2) Es muß imstande sein, das Schließen des Auges zu erfassen und die Zeitdauer von dem offenen zu dem geschlossenen Zustand zu messen. 3) Während der Zeit, in der das Auge offen ist, sollte es (vorzugsweise) dazu imstande sein, die momentane Geschwindigkeit der Pupille zu messen. 4) Auf der Grundlage der Merkmale gemäß (1), (2) und (3) sollte es imstande sein, zu entscheiden, ob der Fahrer wach oder schläfrig ist. 5) Die in den Punkten (1), (2) und (3) erwähnten Schritte ergeben eine "Merkmalsgewinnung" bzw. das Herausgreifen von Merkmalen. Die kombinierte "Rahmenrate" bzw. "Bild- oder Vollbildrate" für diese Schritte sollte ausreichend hoch sein, damit nicht relevante Merkmale versäumt werden. 6) Der Schritt beim Punkt (4) stellt auf der anderen Seite die Aufgabe bzw. den Arbeits­ vorgang der "Mustererkennung" dar. Die Verarbeitungszeit für diesen Schritt wird in Abhängigkeit von dem Verhalten der Person variabel sein.
Die vorliegende Erfindung kann mehrere Ausführungsformen aufweisen. Ein derartiges Ausführungsbeispiel ist in Fig. 1 gezeigt und wird im folgenden beschrieben. Ein Individu­ um (Person) 10 wird durch eine Kamera 12 abgetastet, die mit einem Prozessor 14 verbunden ist. Ein kleiner LCD-Schirm 16 mit ausreichend hoher Auflösung kann vor­ gesehen sein, um der Person 10 die klare Betrachtung seines eigenen Gesichts und der Augen zu ermöglichen. Weiterhin ermöglicht eine Steuereinrichtung 18 der Person die Einstellung des Betrachtungswinkels und der Betrachtungsrichtung der Kamera 12. Ein Anzeiger 20 für Verfolgung/verlorengegangene Verfolgung informiert die Person darüber, daß sich die Kamera 12 nicht im Verfolgungszustand befindet und eine Einjustierung durch die Steuereinrichtung 18 benötigt. Ein Warnsystem 22 informiert die Person oder eine andere Person über den Beginn des Schlafes.
Die vorliegende Erfindung sollte so kompakt wie möglich ausgeführt sein. Ein kunden­ spezifisch angepaßter VLSI-Chip (Chip mit sehr hohem Integrationsgrad) kann als Prozes­ sor 14 eingesetzt werden. Die hauptsächlichen Komponenten des Prozessors enthalten gemäß der Darstellung in Fig. 2 einen Graustufen-Korrelator 24, eine Zentraleinheit (CPU) 26 und einen Speicher 28. Ein Video-Anzeigechip 30 ist ebenfalls für die Anzeige des Bilds auf dem LCD-Schirm 16 (siehe Fig. 1) erforderlich. Die Kamera, die möglicher­ weise eine CDD-Kamera ist, sollte ausreichend klein sein, so daß sie die Sicht des Fahrers nicht behindert. Die Anbringung der Kamera sollte mit einem Aufhängesystem zum Vermeiden von übermäßigen Vibrationen versehen sein. Das System kann auch einen Ein/Aus-Schalter und einen Anzeiger für den Einschaltzustand aufweisen. Die Spannungs­ quelle sollte eine Gleichspannung von 12 V bereitstellen, falls die vorliegende Erfindung in das Fahrzeug integriert ist. Die Vorrichtung gemäß der vorliegenden Erfindung kann aber auch durch eine tragbare Batterie gespeist werden, falls es sich um eine eigenständige bzw. unabhängige Vorrichtung handelt. Der ideale Platz in dem Fahrzeug zur Anbringung dieser Vorrichtung befindet sich an der Oberseite der Armatur zwischen dem Lenkrad und dem Windschutzgitter bzw. der Windschutzscheibe.
Ein Ablaufdiagramm, das die in Übereinstimmung mit der vorliegenden Erfindung stehen­ de Verarbeitung zeigt, ist in Fig. 3 dargestellt. Der vorderseitige Abschnitt 32 wandelt eine Bildfolge in ein eindimensionales Signal (1-D-Signal) dadurch um, daß relevante Merkmale aus den Bildern herausgegriffen werden. Der rückseitige Abschnitt 34 analysiert das von dem vorderseitigen Abschnitt erzeugte Signal für eine Erfassung der Schläfrigkeit. Der vorderseitige Abschnitt kann in drei Aufgabenbereiche unterteilt werden: die Lokali­ sierung 36 des oder der Augen, die Augenverfolgung 38 und die Erzeugung 40 eines Signals für die Augenbewegung.
Aus den vorstehend erläuterten Annahmen erschließt sich, daß ein Bild ein Gesicht enthält. Es stellt ein Schlüsselelement der vorliegenden Erfindung dar, wie die Augenposition in diesem Bild zu lokalisieren ist. Variable sind die Haltung und die Bewegung eines Fahrers, die Beleuchtungsbedingungen, Schatten und Holpern bzw. Schaukeln auf der Straße. Alle diese sich verändernden Bedingungen beeinflussen die Robustheit bzw. Unanfälligkeit eines Verfahrens zur Erfassung der Augenposition.
Bei der vorliegenden Erfindung wird ein Augenlokalisierungsfilter eingesetzt, wie es in einer gleichfalls anhängigen US-Patentanmeldung beschrieben ist, die hiermit durch Bezugnahme in den Offenbarungsgehalt der vorliegenden Anmeldung eingegliedert wird. Die grundlegende Idee bei diesem Ansatz besteht in der Benutzung des relativ hohen lokalen Intensitätskontrast der Augenregion in Graustufenbildern, um hieraus die Augen­ position zu lokalisieren. Das Augenlokalisationsfilter besteht gemäß der Darstellung in Fig. 4 aus den vier nachstehend erläuterten Elementen. Das Graustufenbild des Gesichts wird durch ein Filter 22 zur Filterung des Horizontalkontrasts, ein Filter 44 für die Horizontal­ kontrastdichte, eine Abschätzung bzw. Beurteilung 46 der Gesichtsgeometrie und einen Bestimmungsabschnitt 48 zur Bestimmung der Augenposition geleitet, um die Positionen des linken und des rechten Auges festzustellen. Ein typisches Graustufenbild bzw. Grau­ skalabild eines Gesichts, wie es in Fig. 5(a) gezeigt ist, wird durch das Horizontalkon­ trastfilter geleitet, wobei das entsprechende Ausgangsbild, das heißt das binäre Masken- oder Maskierungsbild, in Fig. 5(b) gezeigt ist. Das binäre Maskierungsbild wird durch das Filter für die Horizontalkontrastdichte geleitet, wobei das Graustufen-Maskierungsbild, das die Ausgangsgröße des Horizontalkontrastfilters darstellt, in Fig. 5(c) gezeigt ist. Das Graustufen-Maskierungsbild wird dann durch die Gesichtsgeometriebeurteilung gefiltert, wobei eine a-priori-Information (vorhergehende Information) über die Geometrie von Merkmalen eines Gesichts benutzt wird, um die Augenpositionen zu erfassen und zu verifizieren. Die Ergebnisse der Beurteilung der Gesichtsgeometrie und das Graustufenbild werden durch die Augenpositionsbestimmung bzw. durch den Bestimmungsabschnitt für die Augenposition geleitet, der die Augenpositionen verfeinert bzw. feiner auflöst.
Diese Filterung benötigt ungefähr 200 Millisekunden auf einem "Sparc 10" bei einem Bild mit 256 × 256 Bildelementen (Pixel). Zwanzig Bilder von zehn Personen unter unter­ schiedlichen Beleuchtungen und Richtungen der Kamerabeobachtung wurden zum Testen dieser Filterung eingesetzt und es wurden alle Augen korrekt erfaßt. Einige experimentelle Ergebnisse sind in Fig. 6 gezeigt.
Der weitere wesentliche Teil der vorliegenden Erfindung ist die Augenverfolgung. Die Erfassung einer Augenbewegung von einem zum nächsten Bild (Vollbild) wird durch einen Suchvorgang (Suchprozeß) erreicht, bei dem ein Bildblock mit dem Bild in dem aktuellen Bild bzw. Vollbild mit unterschiedlichen Verlagerungen gegenüber der ursprünglichen Position korreliert wird. Dieser Prozeß ist in "A Feature Tracking Method For Motion Parameter Estimation In A Model-Based Coding Application", von J. F. S. Yau und N. D. Duffy, "3d International Conference on Image Processing and its Applications", Warwick, UK, Juli 1989, Seiten 531-535, beschrieben. Als Korrelationsmaß wird die Summe der quadrierten Unterschiede zwischen den Intensitäten von Bildelementen in dem Block und dem vorhergehenden Bild eingesetzt. Die Position des Bildblocks, die zu dem minimalen Wert des Korrelationsmaßes führt, wird als die neue Position des verfolgten Auges eingestuft. Im einzelnen sei hierbei angenommen, daß U, das heißt ein Bildblock mit der Größe M × N Bildelementen, ein Unterbild bzw. Bildteil des aktuellen Vollbilds I(t) ist, und daß Ur ein (M + 2p) × (N + 2p) Unterbild bzw. Bildteil aus dem nächsten Bild I(t + 1) ist, das bzw. der an der gleichen räumlichen Position wie U zentriert ist, wobei p die maximale zulässige Verlagerung in ganzen Zahlen von Bildelementen bzw. ganzzahligen Bildelementeinheiten darstellt.
Die Korrelationsfunktion zwischen U und Ur ist in folgender Weise definiert:
Hierbei gilt -p i, j p. D(i, j) ist eine mittlere Quadratfehlerfunktion. Die Richtung des minimalen Fehlers ist durch (i, j) gegeben, für die D(i, j) ein Minimum ist. Der Parameter p sollte groß genug gewählt werden, um die größtmögliche Bewegung ab­ zudecken. Mit diesem Schema kann die Augenbewegung bei einer vernünftig großen Bewegung verfolgt werden, wie es bei dem in Fig. 8 dargestellten Beispiel gezeigt ist. Die softwaremäßige Realisierung dieses Ansatzes auf einem "Sparc 10" benötigt ungefähr 800 Millisekunden je Bild (bei einer Auflösung von 256 × 256).
Der weitere wesentliche Teil der vorliegenden Erfindung und zugleich auch der letzte Teil des vorderseitigen Abschnitts der vorliegenden Erfindung besteht in der Erzeugung eines Augenbewegungssignals. Für diese Erzeugung eines Augenbewegungssignals wird erneut die Technik bzw. Methode eingesetzt, die bei der Augenverfolgung angewendet wurde, das heißt die Korrelationsfunktion. Jedoch liegt in diesem Fall eine Messung der Korrelation zwischen dem neuen verfolgten Bildblock in I(t) und dem wirklich ersten anfänglichen Block in I(0) vor, bei dem angenommen wird, daß das Auge offen ist. Die Kurve D (D- Kurve) in Fig. 9 ist das Ergebnis des Einsatzes dieser Messung bei der Folge gemäß Fig. 8. Die Kurve T (T-Kurve) in Fig. 9 zeigt die Messung des Unterschieds zwischen dem aktuellen Vollbild und dem vorhergehenden Vollbild. Da der anfängliche Block ein geöffnetes Auge enthält, zeigt ein großer Unterschied in der Kurve D an, daß sich das Auge schließt. Die Benutzung der Kurve T und der Kurve D wird nachstehend in größeren Einzelheiten erläutert.
Der beste Indikator für die Feststellung, ob das Auge geschlossen oder geöffnet ist, ist die Fläche des Auges. Eine Berechnung dieses Merkmals erfordert die exakte Position der Augengrenze. Falls jedoch lediglich die Blinzelrate bzw. Lidschlagrate und die Dauer von Interesse ist, ist die exakte Grenze des Auges nicht so wesentlich. Ein Modell für das offene Auge kann als eine Referenz gespeichert und für einen Vergleich mit dem Rest der Bilder bzw. Vollbilder in einer Bildsequenz benutzt werden. Der Unterschied zwischen dem Referenzbild und dem aktuellen Bild ist ein Indikator für den Zustand des Auges. Der Unterschied wird klein sein, wenn das Auge geöffnet ist, und groß sein, wenn das Auge geschlossen ist. Für diesen Indikator ist die exakte Grenze des Auges nicht erforderlich.
Alle Schemata oder Methoden für die exakte Lokalisierung der Augengrenze erfordern in berechnungsmäßiger Hinsicht sehr teure Operationen entweder bei der Vorverarbeitung oder bei der Verarbeitung selbst. Sie erfordern weiterhin ein sehr unanfälliges Heraus­ greifen von primitiven Merkmalen aus Bildern. Der auf der Grauskala-Augenlehre basie­ rende Ansatz ist einfach und effektiv, ist jedoch stufenempfindlich und auch beleuchtungs­ empfindlich. Ansätze, die auf einer Mehrzahl von Bildern und Kanälen basieren, stellen eine zusätzliche Information bereit, müssen aber die zweifache oder eine noch größere Datenmenge verarbeiten, verglichen mit dem auf einem einzelnen Bild beruhenden Ansatz. Eine Kombination von unterschiedlichen Ansätzen kann zur Verbesserung der Lokalisie­ rung eines Auges in störunanfälliger Weise eingesetzt werden.
Zum Ansprechen von Merkmalen bzw. Aspekten, die mit dem rückseitigen Abschnitt der vorliegenden Erfindung zusammenhängen, ist die Heranziehung der in Fig. 9 gezeigten graphischen Darstellung erforderlich. Diese kann als ein Signal betrachtet werden, das gleichartig ist wie ein EEG- oder EOG-Signal. Sie ist das visuelle Äquivalent, das zur Beobachtung von Schläfrigkeitsmustern herangezogen werden kann. Diese graphische Darstellung enthält zwei unterschiedliche Kurven. Die Kurve T zeigt die Verfolgung an, während die Kurve D den Bildunterschied anzeigt. Im Bereich um das Bild 3 oder 4 kann aus der Kurve D ein Blinzeln bzw. Lidschlag erkannt werden. Bei dem 25. Bild liegt ein großer Sprung sowohl bei der Kurve D als auch bei der Kurve T vor. Dies zeigt an, daß das Ziel eine relativ große Bewegung durchgeführt hat (bei diesem Beispiel hat sich die Person leicht nach hinten gelehnt). Zu diesem Zeitpunkt kann ein neues Referenzbild erforderlich sein, um eine gute Kurve D für die Lidschlagerfassung zu erhalten.
Wenn eine Person mit der Schläfrigkeit kämpft, treten manche der nachfolgend beschriebe­ nen Muster auf. Ein Individuum kann versuchen, die Augen weit zu öffnen, zu blinzeln oder zu schielen bzw. zusammenzukneifen. Die Lidschlagraten dieser Muster sind recht unterschiedlich gegenüber denjenigen der Lidschlagraten in einem wachen Zustand. Als Beispiel ist in Fig. 10 der normale Lidschlag eines Auges gezeigt und es sind die ent­ sprechenden Kurven T und D dargestellt. In Fig. 11 sind eine Abfolge, wenn eine Person schläfrig ist, und die entsprechenden Kurven T und D gezeigt. Bei Analyse dieser Kurven ist es offensichtlich, daß manche Unterschiede zwischen diesen beiden graphischen Darstellungen vorhanden sind. Wenn ein solcher Unterschied auftritt, wird ein Warnsignal von einem Warnsystem an das Individuum abgegeben. Ein persönliches Profil, das das Verhalten der unter Beobachtung stehenden Person charakterisiert, kann dazu eingesetzt werden, die Zuverlässigkeit der Erfassung zu verbessern.
Wenn die Augen eines Individuums durch eine Sonnenbrille oder eine Brille mit hohem Reflexionsgrad abgedeckt sind, können spezielle aktive Lichtquellen zur Durchdringung dieser Gläser eingesetzt werden, und es können spezielle Abbildungssensoren (Bildsenso­ ren) zur Aufzeichnung des Bilds aus dem reflektierten Licht herangezogen werden. Eine der Anforderungen, die an die aktive Lichtquelle gestellt werden, besteht darin, daß die Frequenz außerhalb des sichtbaren Farbspektrums liegen sollte. Eine weitere Alternative wird im folgenden beschrieben. Da die Person eine Brille trägt, kann eine winzige Licht­ quelle und ein winziger Sensor an dem inneren Rand der Brille angebracht werden, um ein normales Bild zu erhalten und die Verfolgung in der vorstehend beschriebenen Weise durchzuführen.
Aufgrund der nicht invasiven Natur der vorliegenden Erfindung ist diese für die kom­ merzielle Vermarktung attraktiver. Eine kleine Kamera, die sich wenige Fuß (in etwa wenige Drittel Meter) von dem Fahrer entfernt befindet, ist im Vergleich zu EEG-Elek­ troden, die an dem Kopf des Fahrers angebracht werden, sehr viel annehmlicher. Der eventuelle Markt für ein solches, nicht invasives System zur Überwachung der Schläfrig­ keit/Müdigkeit umfaßt eine breite Vielzahl von Einstellungen bzw. Anwendungen ein­ schließlich monotoner und ermüdender Tätigkeiten wie etwa derjenigen von Fließband­ arbeitern, Luftverkehrsteuerungspersonen bzw. Flugzeuglotsen, Flugzeugpiloten, Assi­ stenzärzten oder Krankenhausärzten usw. Die vorliegende Erfindung ist nicht auf die beschriebene Hardware- oder Softwareausgestaltung beschränkt.
Das beschriebene System zur Überwachung der Augen einer Person weist eine Schnittstelle zu dem Menschen, die zur Gewinnung von Bildern von der Person und zur Bereitstellung einer Rückkopplung zu der Person dient, und einen Prozessor für die Analyse der Bilder auf. Der Prozessor wandelt eine Bildfolge in ein eindimensionales Signal durch Heraus­ greifen von relevanten Merkmalen aus den Bildern um. Die Analyse des erzeugten Signals findet dann zur Erfassung der Schläfrigkeit statt. Eine Transformation der Bildfolge beinhaltet die Augenlokalisierung, die Augenverfolgung und die Erzeugung eines Augen­ bewegungssignals. Das System nutzt die relativ hohe Horizontalkontrastdichte der Augen­ region für die Ermittlung der Augenpositionen in einem Grauskala- bzw. Graustufenbild eines menschlichen Gesichts aus.

Claims (20)

1. Vorrichtung zur Überwachung von Augen für die Erfassung eines Schlaf­ verhaltens oder eines Schlafzustands, mit
einer Schnittstellenvorrichtung (12, 16, 20, 22) als Mensch-Schnittstelle für die nicht invasive Überwachung der Augen einer Person, für die Bereitstellung von abgetaste­ ten Bildern und für die Erzeugung einer Rückkopplung zu der Person, und
einer Prozessoreinrichtung (14), die mit der Schnittstellenvorrichtung verbun­ den ist und zum Empfangen der abgetasteten Bilder von der Schnittstellenvorrichtung, zum Verarbeiten der abgetasteten Bilder und zum Zurückleiten von verarbeiten Daten zu der Schnittstellenvorrichtung für die Herstellung der Rückkopplung zu der Person ausgelegt ist.
2. System nach Anspruch 1, dadurch gekennzeichnet, daß die Prozessoreinrichtung (14)
eine Augenlokalisierungseinrichtung (36), die mit der Schnittstellenvorrichtung verbunden ist,
eine Augenverfolgungseinrichtung (38), die mit der Augenlokalisierungsein­ richtung verbunden ist,
eine Augenbewegungssignalerzeugungseinrichtung (40), die mit der Augenver­ folgungseinrichtung verbunden ist, und
eine Analysiereinrichtung (34) aufweist, die zwischen die Augenbewegungs­ signalerzeugungseinrichtung und die Schnittstellenvorrichtung geschaltet ist.
3. System nach Anspruch 2, dadurch gekennzeichnet, daß die Schnittstellenvorrichtung
eine Abbildungseinrichtung (12), die mit der Prozessoreinrichtung (14) ver­ bunden ist und zum Überwachen der Augen der Person dient, und
eine Warnsystemeinrichtung (21) aufweist, die mit der Prozessoreinrichtung (14) zum Empfangen der verarbeiteten Daten von der Prozessoreinrichtung und zur Erzeugung einer Alarmgabe für die Person verbunden ist.
4. System nach Anspruch 2 oder 3, dadurch gekennzeichnet, daß die Augenlokalisierungseinrichtung
eine Horizontalkontrast-Berechnungsfiltereinrichtung,
eine Horizontalkontrast-Dichte-Bestimmungsfiltereinrichtung, die mit der Horizontalkontrast-Berechnungsfiltereinrichtung verbunden ist,
eine Beurteilungseinrichtung zur Beurteilung der Gesichtsgeometrie, die mit der Horizontalkontrast-Dichte-Bestimmungsfiltereinrichtung verbunden ist, und
eine Augenpositionsbestimmungseinrichtung aufweist, die mit der Beurteilungs­ einrichtung zur Beurteilung der Gesichtsgeometrie verbunden ist.
5. System nach einem der Ansprüche 2 bis 4, dadurch gekennzeich­ net, daß die Augenverfolgungseinrichtung eine Sucheinrichtung zum Korrelieren eines Bildblocks mit einem Bild in einem aktuellen Vollbild mit sich verändernden Verschiebun­ gen gegenüber einer ursprünglichen Position aufweist.
6. System nach einem der Ansprüche 2 bis 5, dadurch gekennzeich­ net, daß die Augenbewegungssignalerzeugungseinrichtung eine Meßeinrichtung zum Messen der Korrelation zwischen einem neuen, verfolgten Bildblock und einem allerersten, anfänglichen Block, bei dem ein Auge geöffnet ist, aufweist.
7. System nach einem der Ansprüche 2 bis 6, dadurch gekennzeich­ net, daß die Analyseeinrichtung einer Verfolgungskurve (T) und eine Bildunterschieds­ kurve (D) bewertet.
8. System nach einem der vorhergehenden Ansprüche, dadurch gekenn­ zeichnet, daß die Prozessoreinrichtung eine Grauskala-Korrelatoreinrichtung auf­ weist, die mit der Schnittstellenvorrichtung verbunden ist.
9. System nach einem der vorhergehenden Ansprüche, dadurch gekenn­ zeichnet, daß die Prozessoreinrichtung eine Videoanzeigechipeinrichtung aufweist, die mit der Schnittstellenvorrichtung verbunden ist.
10. System nach einem der vorhergehenden Ansprüche, dadurch gekenn­ zeichnet, daß die Schnittstellenvorrichtung eine Steuereinrichtung (18) aufweist, die mit der Abbildungseinrichtung (12) zur Ermöglichung der Einstellung des Betrachtungs­ winkels und der Betrachtungsrichtung der Abbildungseinrichtung durch die Person verbun­ den ist.
11. System nach einem der vorhergehenden Ansprüche, dadurch gekenn­ zeichnet, daß die Schnittstellenvorrichtung eine Anzeigereinrichtung (20) zur Anzei­ ge des Zustands Nachführung/verlorengegangene Nachführung aufweist, die dazu dient, die Person darüber zu informieren, daß die Abbildungseinrichtung einer Einstellung be­ darf.
12. System nach einem der Ansprüche 3 bis 11, dadurch gekennzeich­ net, daß die Abbildungseinrichtung eine CCD-Kamera (12) aufweist.
13. Verfahren zur Überwachung von Augen für die Erfassung eines Schlaf­ verhaltens bzw. eines Schlafzustands, mit den Schritten
nicht invasive Überwachung der Augen einer Person,
Erzeugen von abgetasteten Bildern,
Verarbeiten der abgetasteten Bilder und
Bereitstellen einer Rückkopplung zu der Person.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, daß der Schritt der Verarbeitung der abgetasteten Bilder die Schritte
Lokalisieren der Augen,
Verfolgung der Augen,
Erzeugen von Augenbewegungssignalen und
Analysieren der Augenbewegungssignale, umfaßt.
15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß der Schritt der Lokalisierung der Augen die Schritte
Horizontalkontrast-Berechnungsfilterung eines Graustufenbilds eines Gesichts zur Erzeugung eines binären Maskenbilds,
Horizontalkontrast-Dichte-Bestimmungsfilterung des binären Maskenbilds zur Erzeugung eines Graustufen-Maskenbilds,
Durchführung einer Gesichtsgeometriebeurteilung bei dem Graustufen-Masken­ bild für die Bereitstellung bzw. Ermittlung der ungefähren Positionen der beiden Augen, und
Durchführung einer Augenpositionsbestimmung bezüglich des Graustufenbilds eines Gesichts und der ungefähren Position der beiden Augen zu Bereitstellung bzw. Ermittlung der Positionen der beiden Augen aufweist.
16. System zur Überwachung von Augen für die Erfassung eines Schlafverhal­ tens bzw. eines Schlafzustands, mit
einer Mensch-Schnittstellenvorrichtung (12, 16, 20, 22) und
einer Prozessoreinrichtung (14), die mit der Mensch-Schnittstellenvorrichtung verbunden ist und aufweist:
eine Graustufen- bzw. Grauskala-Korrelatoreinrichtung, die mit der Mensch- Schnittstellenvorrichtung verbunden ist,
eine Augenlokalisierungseinrichtung, die mit der Grauskala-Korrelatoreinrich­ tung verbunden ist,
eine Augenverfolgungseinrichtung, die mit der Augenlokalisierungseinrichtung verbunden ist,
eine Augenbewegungssignalerzeugungseinrichtung, die mit der Augenver­ folgungseinrichtung verbunden ist, und
eine Analysiereinrichtung, die mit der Augenbewegungssignalerzeugungsein­ richtung und der Schnittstellenvorrichtung verbunden ist.
17. System nach Anspruch 16, dadurch gekennzeichnet, daß die Mensch-Schnittstellenvorrichtung
eine Abbildungseinrichtung, die mit der Grauskala-Korrelatoreinrichtung zur Überwachen der Augen einer Person verbunden ist, und
eine Warnsystemeinrichtung aufweist, die mit der Analysiereinrichtung zum Empfangen von analysierten Daten von der Analysiereinrichtung und zum Erzeugen einer Warnung oder Alarmgabe für die Person verbunden ist.
18. System nach Anspruch 17, dadurch gekennzeichnet, daß die Mensch-Schnittstellenvorrichtung
eine Steuereinrichtung, die mit der Abbildungseinrichtung zur Ermöglichung einer Einstellung des Betrachtungswinkels und der Betrachtungsrichtung der Abbildungs­ einrichtung durch die Person verbunden ist, und
eine Indikatoreinrichtung zur Anzeige des Zustands Verfolgung/verlorengegan­ gene Verfolgung aufweist, die dazu dient, die Person darüber zu informieren, daß die Abbildungseinrichtung einer Einstellung bedarf.
19. System nach Anspruch 16, 17 oder 18, dadurch gekennzeich­ net, daß die Prozessoreinrichtung eine Videoanzeigechipeinrichtung aufweist, die mit der Mensch-Schnittstelleneinrichtung verbunden ist.
20. System nach einem der Ansprüche 16 bis 19, dadurch gekenn­ zeichnet, daß die Augenlokalisiereinrichtung
eine Horizontalkontrast-Berechnungsfiltereinrichtung,
eine Horizontalkontrast-Dichte-Bestimmungsfiltereinrichtung, die mit der Horizontalkontrast-Berechnungsfiltereinrichtung verbunden ist,
eine Gesichtsgeometrie-Beurteilungseinrichtung oder Einschätzungseinrichtung, die mit der Horizontalkontrast-Dichte-Bestimmungsfiltereinrichtung verbunden ist, und
eine Augenpositionsbestimmungseinrichtung aufweist, die mit der Gesichts­ geometrie-Beurteilungseinrichtung verbunden ist.
DE19621435A 1995-06-02 1996-05-28 Verfahren und Vorrichtung zum Überwachen von Augen für die Erfassung eines Schläfrigkeitszustands Withdrawn DE19621435A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/459,148 US5570698A (en) 1995-06-02 1995-06-02 System for monitoring eyes for detecting sleep behavior

Publications (1)

Publication Number Publication Date
DE19621435A1 true DE19621435A1 (de) 1996-12-05

Family

ID=23823608

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19621435A Withdrawn DE19621435A1 (de) 1995-06-02 1996-05-28 Verfahren und Vorrichtung zum Überwachen von Augen für die Erfassung eines Schläfrigkeitszustands

Country Status (3)

Country Link
US (1) US5570698A (de)
DE (1) DE19621435A1 (de)
FR (1) FR2734701A1 (de)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19734307A1 (de) * 1997-08-08 1999-02-11 Bosch Gmbh Robert Verfahren und Vorrichtung zur Überwachung und/oder Beeinflussung des Fahrzeugverhaltens eines fahrergesteuerten Kraftfahrzeugs
DE19803158C1 (de) * 1998-01-28 1999-05-06 Daimler Chrysler Ag Vorrichtung zur Vigilanzzustandsbestimmung
DE19818236A1 (de) * 1998-04-23 1999-10-28 Volkswagen Ag Vorrichtung zur Überwachung eines Fahrspurwechsels eines Kraftfahrzeuges
DE102004005163B3 (de) * 2004-02-02 2005-06-02 Braun, Uwe Peter, Dipl.-Ing. Vorrichtung zur Erfassung der Fahrtüchtigkeit eines Fahrers in einem Fahrzeug
DE102004034748A1 (de) * 2004-07-17 2006-02-02 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem zur Müdigkeitserkennung und/oder Aufmerksamkeitsbeurteilung eines Fahrzeugführers
DE102005017242A1 (de) * 2005-04-14 2006-10-19 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem zur Müdigkeitserkennung und/oder Aufmerksamkeitsbeurteilung eines Fahrzeugführers
DE102005030934A1 (de) * 2005-06-30 2007-01-11 Benteler Automobiltechnik Gmbh Instrumententräger und Kraftfahrzeug
DE102008007150A1 (de) * 2007-03-30 2008-10-02 Volkswagen Ag Verfahren zum Erstellen einer Müdigkeitsprognose eines Kraftfahrzeugfahrers
DE10024227B4 (de) * 2000-05-17 2011-02-17 Volkswagen Ag Verfahren und Einrichtung zur elektronischen Überwachung des Aufmerksamkeitsgrades
DE202011001698U1 (de) 2011-01-19 2011-04-14 Arbenz, Dietrich, Dr. Einrichtung zum frühzeitigen Erkennen und Melden von nachlassender Aufmerksamkeit beim Autofahren und anderen sicherheitsrelevanten Tätigkeiten
EP2371649A1 (de) * 2010-03-29 2011-10-05 Audi AG Verfahren zur Ermittlung von auf die Blickrichtung eines Fahrers und die Position der Hände des Fahrers bezüglich des Lenkrads bezogenen Informationen in einem Kraftfahrzeug und Kraftfahrzeug
DE102010034599A1 (de) 2010-08-16 2012-02-16 Hooshiar Mahdjour Verfahren zur Erfassung des Benutzerprofils zur Müdigkeitserkennung eines Fahrzeugfahrers
DE102011011221A1 (de) * 2010-12-30 2012-07-05 Volkswagen Ag Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs
DE202014004917U1 (de) 2014-06-11 2014-07-14 Frank Munser-Herzog Fahrerassistenzsystem zur Müdigkeitserkennung und Sekundenschlaf-Vermeidung eines Fahrzeugführers
DE102014008791A1 (de) 2014-06-11 2015-12-17 Frank Munser-Herzog Fahrerassistenzsystem und Verfahren zur Müdigkeitserkennung und Sekundenschlaf-Vermeidung eines Fahrzeugführers
CN106203338A (zh) * 2016-07-11 2016-12-07 南京航空航天大学 基于网格区域分割和阈值自适应的人眼状态快速识别方法
DE102017216328B3 (de) 2017-09-14 2018-12-13 Audi Ag Verfahren zum Überwachen eines Aufmerksamkeitszustandes einer Person, Verarbeitungseinrichtung, Speichermedium, und Kraftfahrzeug
DE102017214008A1 (de) 2017-08-10 2019-02-14 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Erfassung der körperlichen Aktivität von Fahrzeuginsassen eines Kraftfahrzeugs
DE102018206237A1 (de) 2018-04-23 2019-10-24 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Müdigkeitserkennung einer Person

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3390802B2 (ja) * 1995-03-28 2003-03-31 日本光電工業株式会社 呼吸モニタ
JP3426060B2 (ja) * 1995-07-28 2003-07-14 三菱電機株式会社 顔画像処理装置
JP3183161B2 (ja) * 1996-04-12 2001-07-03 三菱自動車工業株式会社 覚醒度推定装置
IL118854A0 (en) * 1996-07-15 1996-10-31 Atlas Dan Personal micro-monitoring and alerting device for sleepiness
US6163281A (en) * 1996-08-19 2000-12-19 Torch; William C. System and method for communication using eye movement
USRE39539E1 (en) * 1996-08-19 2007-04-03 Torch William C System and method for monitoring eye movement
US6542081B2 (en) * 1996-08-19 2003-04-01 William C. Torch System and method for monitoring eye movement
WO1998049028A1 (en) * 1997-04-25 1998-11-05 Applied Science Group, Inc. An alertness monitor
US5892837A (en) * 1997-08-29 1999-04-06 Eastman Kodak Company Computer program product for locating objects in an image
WO1999012137A1 (en) * 1997-09-05 1999-03-11 Massachusetts Institute Of Technology Drowsiness/alertness monitor
US6087941A (en) * 1998-09-01 2000-07-11 Ferraz; Mark Warning device for alerting a person falling asleep
US6091334A (en) * 1998-09-04 2000-07-18 Massachusetts Institute Of Technology Drowsiness/alertness monitor
FR2784887B1 (fr) * 1998-10-22 2001-01-19 Renault Systeme pour surveiller des yeux afin de detecter et de prevenir des baisses de vigilance d'un conducteur de vehicule
CA2349561C (en) 1998-10-30 2009-11-10 Walter Reed Army Institute Of Research System and method for predicting human cognitive performance using data from an actigraph
US6530884B2 (en) * 1998-10-30 2003-03-11 The United States Of America As Represented By The Secretary Of The Army Method and system for predicting human cognitive performance
US6527715B2 (en) 1998-10-30 2003-03-04 The United States Of America As Represented By The Secretary Of The Army System and method for predicting human cognitive performance using data from an actigraph
DE69925625T9 (de) 1998-10-30 2006-09-28 Walter Reed Army Institute Of Research Verfahren und vorrichtung zum vorhersagen von menschlichen kognitiven leistung
US6130617A (en) * 1999-06-09 2000-10-10 Hyundai Motor Company Driver's eye detection method of drowsy driving warning system
CN1144166C (zh) * 1999-06-17 2004-03-31 现代自动车株式会社 瞌睡驾驶警告系统的驾驶员瞌睡检测方法
US6497658B2 (en) 1999-12-19 2002-12-24 Michael F. Roizen Alarm upon detection of impending sleep state
US6792134B2 (en) * 2000-12-19 2004-09-14 Eastman Kodak Company Multi-mode digital image processing method for detecting eyes
US7027621B1 (en) * 2001-03-15 2006-04-11 Mikos, Ltd. Method and apparatus for operator condition monitoring and assessment
US20020180608A1 (en) 2001-05-04 2002-12-05 Sphericon Ltd. Driver alertness monitoring system
US6838994B2 (en) * 2001-10-26 2005-01-04 Koninklijke Philips Electronics N.V. Adaptive alarm system
FR2834627B1 (fr) * 2002-01-16 2004-09-03 Ioltechnologie Production Dispositif et procede de mesure du diametre de l'angle irido-corneen
GB0203035D0 (en) * 2002-02-08 2002-03-27 Univ Bristol A method of and an apparatus for measuring a person's ability to perform a motor control task
ES2392082T3 (es) * 2002-02-19 2012-12-04 Volvo Technology Corporation Procedimiento para controlar las exigencias de atención de un conductor
AUPS254302A0 (en) * 2002-05-24 2002-06-13 Resmed Limited A sleepiness test
HK1053239A2 (en) * 2002-10-09 2003-09-26 钛极科技有限公司 Apparatus and method for recognizing images
EP2204118B1 (de) 2002-10-15 2014-07-23 Volvo Technology Corporation Verfahren zur Auswertung der Kopf-und Augenaktivität eines Fahrers
JP4316960B2 (ja) * 2003-08-22 2009-08-19 株式会社半導体エネルギー研究所 装置
US7524279B2 (en) 2003-12-31 2009-04-28 Raphael Auphan Sleep and environment control method and system
TWI231206B (en) * 2004-02-18 2005-04-21 Chi-Wen Hsieh Apparatus and system for monitoring the activity of an eye portion
WO2005081914A2 (en) * 2004-02-22 2005-09-09 Doheny Eye Institute Methods and systems for enhanced medical procedure visualization
US20110077548A1 (en) * 2004-04-01 2011-03-31 Torch William C Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US10039445B1 (en) 2004-04-01 2018-08-07 Google Llc Biosensors, communicators, and controllers monitoring eye movement and methods for using them
RU2395228C2 (ru) * 2004-04-01 2010-07-27 Уилльям С. ТОРЧ Биосенсоры, коммуникаторы и контроллеры для мониторинга движения глаз и способы их применения
US7435227B2 (en) * 2004-09-13 2008-10-14 Biocognisafe (Bcs) Technologies Method and apparatus for generating an indication of a level of vigilance of an individual
JP4564320B2 (ja) * 2004-09-29 2010-10-20 アイシン精機株式会社 ドライバモニタシステム
US20060149426A1 (en) * 2005-01-04 2006-07-06 Unkrich Mark A Detecting an eye of a user and determining location and blinking state of the user
WO2006092022A1 (en) * 2005-03-04 2006-09-08 Sleep Diagnostics Pty. Ltd Measuring alertness
US7301465B2 (en) * 2005-03-24 2007-11-27 Tengshe Vishwas V Drowsy driving alarm system
WO2007149553A2 (en) * 2006-06-22 2007-12-27 Us Government As Represented By The Secretary Of The Army Alertness/drowsiness and cognitive capacity index
US20080096643A1 (en) * 2006-08-10 2008-04-24 Shalini Venkatesh System and method for using image analysis of user interface signals for program control
US7654716B1 (en) 2006-11-10 2010-02-02 Doheny Eye Institute Enhanced visualization illumination system
US20080166052A1 (en) * 2007-01-10 2008-07-10 Toshinobu Hatano Face condition determining device and imaging device
WO2008106590A2 (en) 2007-02-28 2008-09-04 Doheny Eye Institute Portable handheld illumination system
US8210680B2 (en) * 2008-04-26 2012-07-03 University Of Southern California Ocular imaging system
US8570176B2 (en) * 2008-05-28 2013-10-29 7352867 Canada Inc. Method and device for the detection of microsleep events
US8957779B2 (en) 2009-06-23 2015-02-17 L&P Property Management Company Drowsy driver detection system
US8890946B2 (en) * 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
EP2662057B1 (de) 2010-05-13 2018-10-17 Doheny Eye Institute Selbstständige Systeme mit beleuchteter Infusionskanüle
US11318949B2 (en) * 2010-06-07 2022-05-03 Affectiva, Inc. In-vehicle drowsiness analysis using blink rate
US10482333B1 (en) * 2017-01-04 2019-11-19 Affectiva, Inc. Mental state analysis using blink rate within vehicles
US20150150514A1 (en) 2010-08-06 2015-06-04 Conceptual Mindworks, Inc. Patient Care Recommendation System
CA2813289A1 (en) * 2010-11-08 2012-05-18 Optalert Australia Pty Ltd Fitness for work test
KR101245846B1 (ko) * 2010-11-17 2013-03-20 전자부품연구원 졸음 인식 장치 및 방법
CA2827336C (en) 2011-02-23 2016-01-26 Coeruleus Ltd. Flumazenil complexes, compositions comprising same and uses thereof
DE102011085825A1 (de) * 2011-11-07 2013-05-08 Robert Bosch Gmbh Verfahren und Vorrichtung zum Warnen des Fahrers eines Kraftfahrzeugs bei mangelnder Aufmerksamkeit
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
JP6498606B2 (ja) 2012-12-06 2019-04-10 グーグル エルエルシー ウエアラブル視線計測デバイス及び使用方法
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US10448825B2 (en) 2013-05-01 2019-10-22 Musc Foundation For Research Development Monitoring neurological functional status
US10074199B2 (en) 2013-06-27 2018-09-11 Tractus Corporation Systems and methods for tissue mapping
JP6314435B2 (ja) * 2013-11-13 2018-04-25 株式会社デンソー ドライバ監視装置
DE102013021928A1 (de) 2013-12-20 2015-06-25 Audi Ag Komfortgerätesteuerung für ein Kraftfahrzeug
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
EP3140780B1 (de) 2014-05-09 2020-11-04 Google LLC Systeme und verfahren zur unterscheidung von augensignalen und zur kontinuierlichen biometrischen identifizierung
CN104077820A (zh) * 2014-07-02 2014-10-01 东南大学 基于物联网的驾驶人行为识别监测系统
WO2016040281A1 (en) 2014-09-09 2016-03-17 Torvec, Inc. Methods and apparatus for monitoring alertness of an individual utilizing a wearable device and providing notification
DE102014220759B4 (de) * 2014-10-14 2019-06-19 Audi Ag Überwachung eines Aufmerksamkeitsgrads eines Fahrers eines Fahrzeugs
CN104332023A (zh) * 2014-11-05 2015-02-04 无锡悟莘科技有限公司 一种防止疲劳驾驶的汽车控制方法
CN104626989A (zh) * 2015-01-29 2015-05-20 柳州市二和汽车零部件有限公司 具有语音控制和实时通信的车辆安全辅助控制系统
WO2016201008A1 (en) 2015-06-08 2016-12-15 Jaques Reifman Method and system for measuring, predicting and optimizing human cognitive performance
DE102015211444A1 (de) * 2015-06-22 2016-12-22 Robert Bosch Gmbh Verfahren und Vorrichtung zum Unterscheiden von Blinzelereignissen und Instrumentenblicken unter Verwendung einer Augenöffnungsweite
CA3014812A1 (en) 2016-02-18 2017-08-24 Curaegis Technologies, Inc. Alertness prediction system and method
JP6917708B2 (ja) * 2016-02-29 2021-08-11 株式会社デンソー 運転者監視システム
US9798385B1 (en) 2016-05-31 2017-10-24 Paypal, Inc. User physical attribute based device and content management system
US10037080B2 (en) 2016-05-31 2018-07-31 Paypal, Inc. User physical attribute based device and content management system
JP6852407B2 (ja) * 2017-01-17 2021-03-31 トヨタ自動車株式会社 ドライバ状態検出装置
CN110234545B (zh) * 2017-03-10 2022-01-25 金泰克斯公司 用于车辆乘员识别和监测的成像系统和方法
CN106965675B (zh) * 2017-04-26 2019-02-05 华迅金安(北京)科技有限公司 一种货车集群智能安全作业系统
CN107985193B (zh) * 2017-11-30 2021-06-04 江苏中天安驰科技有限公司 疲劳驾驶预警系统
US12518866B2 (en) 2019-04-16 2026-01-06 The Government Of The United States, As Represented By The Secretary Of The Army Method and system for measuring, predicting and optimizing human alertness
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
JPWO2021156989A1 (de) * 2020-02-06 2021-08-12
WO2022251703A2 (en) 2021-05-28 2022-12-01 Blinktbi, Inc. Systems and methods for eyelid localization

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2215040A (en) * 1988-02-13 1989-09-13 William George David Ritchie A method and apparatus for monitoring the driver of a vehicle
JP2522859B2 (ja) * 1990-12-14 1996-08-07 日産自動車株式会社 眼位置検出装置
US5360971A (en) * 1992-03-31 1994-11-01 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
JP3452685B2 (ja) * 1995-05-10 2003-09-29 三菱電機株式会社 顔画像の処理装置

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19734307C2 (de) * 1997-08-08 1999-06-10 Bosch Gmbh Robert Verfahren und Vorrichtung zur Überwachung und/oder Beeinflussung des Fahrzeugverhaltens eines fahrergesteuerten Kraftfahrzeugs
DE19734307A1 (de) * 1997-08-08 1999-02-11 Bosch Gmbh Robert Verfahren und Vorrichtung zur Überwachung und/oder Beeinflussung des Fahrzeugverhaltens eines fahrergesteuerten Kraftfahrzeugs
DE19803158C1 (de) * 1998-01-28 1999-05-06 Daimler Chrysler Ag Vorrichtung zur Vigilanzzustandsbestimmung
EP0933743A3 (de) * 1998-01-28 1999-11-24 DaimlerChrysler AG Vorrichtung zur Vigilanzzustandsbestimmung
US6097295A (en) * 1998-01-28 2000-08-01 Daimlerchrysler Ag Apparatus for determining the alertness of a driver
DE19818236A1 (de) * 1998-04-23 1999-10-28 Volkswagen Ag Vorrichtung zur Überwachung eines Fahrspurwechsels eines Kraftfahrzeuges
DE10024227B4 (de) * 2000-05-17 2011-02-17 Volkswagen Ag Verfahren und Einrichtung zur elektronischen Überwachung des Aufmerksamkeitsgrades
DE102004005163B3 (de) * 2004-02-02 2005-06-02 Braun, Uwe Peter, Dipl.-Ing. Vorrichtung zur Erfassung der Fahrtüchtigkeit eines Fahrers in einem Fahrzeug
WO2005073013A2 (de) 2004-02-02 2005-08-11 Uwe Peter Braun Vorrichtung zur erfassung der fahrtüchtigkeit eines fahrers in einem fahrzeug
WO2005073013A3 (de) * 2004-02-02 2007-01-11 Uwe Peter Braun Vorrichtung zur erfassung der fahrtüchtigkeit eines fahrers in einem fahrzeug
DE102004034748A1 (de) * 2004-07-17 2006-02-02 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem zur Müdigkeitserkennung und/oder Aufmerksamkeitsbeurteilung eines Fahrzeugführers
DE102004034748B4 (de) * 2004-07-17 2018-03-22 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem zur Müdigkeitserkennung und/oder Aufmerksamkeitsbeurteilung eines Fahrzeugführers
DE112006000550B4 (de) * 2005-04-14 2015-10-22 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem zur Müdigkeitserkennung und/oder Aufmerksamkeitsbeurteilung eines Fahrzeugführers
WO2006108372A1 (de) 2005-04-14 2006-10-19 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem zur müdigkeitserkennung und/oder aufmerksamkeitsbeurteilung eines fahrzeugführers
DE102005017242A1 (de) * 2005-04-14 2006-10-19 Conti Temic Microelectronic Gmbh Fahrerassistenzsystem zur Müdigkeitserkennung und/oder Aufmerksamkeitsbeurteilung eines Fahrzeugführers
DE102005030934A1 (de) * 2005-06-30 2007-01-11 Benteler Automobiltechnik Gmbh Instrumententräger und Kraftfahrzeug
DE102005030934B4 (de) * 2005-06-30 2007-04-12 Benteler Automobiltechnik Gmbh Instrumententräger und Kraftfahrzeug
DE102008007150A1 (de) * 2007-03-30 2008-10-02 Volkswagen Ag Verfahren zum Erstellen einer Müdigkeitsprognose eines Kraftfahrzeugfahrers
DE102008007150B4 (de) 2007-03-30 2019-05-02 Volkswagen Ag Verfahren zum Erstellen einer Müdigkeitsprognose eines Kraftfahrzeugfahrers
EP2371649A1 (de) * 2010-03-29 2011-10-05 Audi AG Verfahren zur Ermittlung von auf die Blickrichtung eines Fahrers und die Position der Hände des Fahrers bezüglich des Lenkrads bezogenen Informationen in einem Kraftfahrzeug und Kraftfahrzeug
DE102010034599A1 (de) 2010-08-16 2012-02-16 Hooshiar Mahdjour Verfahren zur Erfassung des Benutzerprofils zur Müdigkeitserkennung eines Fahrzeugfahrers
DE102011011221A1 (de) * 2010-12-30 2012-07-05 Volkswagen Ag Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs
DE102011011221B4 (de) 2010-12-30 2023-11-02 Volkswagen Ag Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs
DE202011001698U1 (de) 2011-01-19 2011-04-14 Arbenz, Dietrich, Dr. Einrichtung zum frühzeitigen Erkennen und Melden von nachlassender Aufmerksamkeit beim Autofahren und anderen sicherheitsrelevanten Tätigkeiten
DE202014004917U1 (de) 2014-06-11 2014-07-14 Frank Munser-Herzog Fahrerassistenzsystem zur Müdigkeitserkennung und Sekundenschlaf-Vermeidung eines Fahrzeugführers
DE102014008791A1 (de) 2014-06-11 2015-12-17 Frank Munser-Herzog Fahrerassistenzsystem und Verfahren zur Müdigkeitserkennung und Sekundenschlaf-Vermeidung eines Fahrzeugführers
CN106203338A (zh) * 2016-07-11 2016-12-07 南京航空航天大学 基于网格区域分割和阈值自适应的人眼状态快速识别方法
CN106203338B (zh) * 2016-07-11 2019-08-02 南京航空航天大学 基于网格区域分割和阈值自适应的人眼状态快速识别方法
DE102017214008A1 (de) 2017-08-10 2019-02-14 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Erfassung der körperlichen Aktivität von Fahrzeuginsassen eines Kraftfahrzeugs
DE102017216328B3 (de) 2017-09-14 2018-12-13 Audi Ag Verfahren zum Überwachen eines Aufmerksamkeitszustandes einer Person, Verarbeitungseinrichtung, Speichermedium, und Kraftfahrzeug
DE102018206237A1 (de) 2018-04-23 2019-10-24 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Müdigkeitserkennung einer Person

Also Published As

Publication number Publication date
FR2734701A1 (fr) 1996-12-06
US5570698A (en) 1996-11-05

Similar Documents

Publication Publication Date Title
DE19621435A1 (de) Verfahren und Vorrichtung zum Überwachen von Augen für die Erfassung eines Schläfrigkeitszustands
DE69902225T2 (de) Verfahren und vorrichtung zur erfassung und verhinderung des einschlafens eines fahrzeugführers
CN110276273B (zh) 融合面部特征与图像脉搏心率估计的驾驶员疲劳检测方法
EP3157426B1 (de) Vorrichtung, verfahren und computerprogramm zur detektion eines sekundenschlafs
DE60009057T2 (de) Trainingssystem für bediener
DE112008002645B4 (de) Gesichtsbildaufnahmevorrichtung, Gesichtsbildaufnahmeverfahren und Programm für dieses
Wang et al. Driver fatigue detection: a survey
EP2157903B1 (de) Verfahren zur wahrnehmungsmessung
DE69901380T2 (de) System zum erkennen eines menschlichen gesichts
DE19983911B4 (de) Wachsamkeitsüberwachungssystem
DE19605218C1 (de) Hinderniswarnsystem für tieffliegende Fluggeräte
US7336804B2 (en) Method and apparatus for detection of drowsiness and quantitative control of biological processes
DE112019002467T5 (de) System und verfahren für die fernmessungen von vitalzeichen
DE112017002765T5 (de) Zustandsabschätzungsvorrichtung, Zustandsabschätzungsverfahren und Zustandsabschätzungsprogramm
DE112017005143T5 (de) Bewegungskrankheitseinschätzvorrichtung, bewegungskrankheitsverhinderungsvorrichtung und bewegungskrankheitseinschätzverfahren
CN109044363A (zh) 基于头部姿态和眼动的驾驶员疲劳检测方法
DE112017007303B4 (de) Gesichtserkennungsvorrichtung
DE102014100352A1 (de) Fahrerblickdetektionssystem
DE112018006886T5 (de) Insassenzustand-Detektionsvorrichtung, Insassenzustand-Detektionssystem und Insassenzustand-Detektionsverfahren
Yimyam et al. The System for Driver Fatigue Monitoring Using Decision Tree via Wireless Sensor Network for Intelligent Transport System.
Tang et al. Real-time image-based driver fatigue detection and monitoring system for monitoring driver vigilance
DE102022104499A1 (de) Synchronisierung von Bewegungen eines Serviceroboters mit denen einer Person
CN108304764B (zh) 模拟飞行驾驶过程中疲劳状态检测装置及检测方法
DE102019215691A1 (de) Verfahren und Vorrichtung zur Zustandserkennung eines Fahrzeuginsassen
Anumas et al. Driver fatigue monitoring system using video face images & physiological information

Legal Events

Date Code Title Description
8141 Disposal/no request for examination