-
Die Erfindung betrifft ein Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Signals für ein Fahrerassistenzsystem gemäß dem Oberbegriff des Anspruchs 1, sowie eine Verwendung des Verfahrens in einem Fahrerassistenzsystem gemäß dem Oberbegriff des Anspruchs 11.
-
Bisherige Algorithmen zur Erkennung der Fahreraufmerksamkeit, wie beispielsweise über die Betrachtung der Kopfrotation und den Lidschluss, arbeiten im Wesentlichen basierend auf Modellen. Große Probleme gibt es dabei bei Brillenträgern und Bartträgern, die bisher gegen eine Einführung derartiger Algorithmen im Fahrzeug sprechen. Zusätzlich gewährleisten diese Algorithmen keine Lebend- oder Täuschungs-Erkennung, was auch als Fake-Erkennung bezeichnet wird, die für ein autonomes Assistenzsystem notwendig ist, da sonst ein Missbrauch und damit eine Beeinträchtigung der funktionalen Sicherheit nicht ausgeschlossen werden kann.
-
Die Druckschrift
DE 10 2007 023 140 A1 zeigt ein Verfahren zur Erkennung und Identifizierung des Fahrers eines Kraftfahrzeugs, wobei mittels eines Kamerasystems wenigstens eine Bewegung und/oder wenigstens ein Bewegungsablauf des Fahrers aufgenommen und zur Erkennung und Identifizierung des Fahrers seitens einer Bildverarbeitungseinheit analysiert wird. Dabei wird die extrahierte Bewegung bzw. der Bewegungsablauf mit einem bereits gespeicherten verglichen. Bei einer Übereinstimmung innerhalb vorgegebener Grenzen ist dann der Fahrer identifiziert und für diese Person gespeicherte Einstellungen können vorgenommen werden. Es wird daher ein biometrisches Identifikationsverfahren eingesetzt.
-
Ferner ist aus der
DE 10 2008 031 697 A1 eine Vorrichtung zur Objektidentifikation, insbesondere zur biometrischen Identifikation, bekannt, welche eine Bilderfassungseinheit zur Erfassung eines Bereichs, in dem sich das zu identifizierende Objekt befindet, und eine Auswerteeinheit zur Verarbeitung der von der Bilderfassungseinheit bereitgestellten Bilddaten umfasst. Die Vorrichtung ist in einem ersten Betriebsmodus derart steuerbar, dass die der Auswerteeinheit bereitgestellten Bilddaten in einem ersten Bildbereich und in einem zweiten Bildbereich jeweils einen geringen Kontrastunterschied aufweisen und der erste und der zweite Bildbereich einen großen Kontrastunterschied zueinander aufweisen. Hierdurch hebt sich der erste Bildbereich unter Ausbildung einer Kontur von dem zweiten Bildbereich ab. Die Auswerteeinheit ist in dem ersten Betriebsmodus dazu eingerichtet, die Kontur zu analysieren und anhand deren Verlaufs auf das Vorhandensein des erwarteten Objekts oder auf das Vorhandensein eines Abbilds des Objekts zu schließen. Es wird daher überprüft, ob es sich um ein reales Objekt im Erfassungsbereich der Bilderfassungseinheit oder um einen Täuschungsversuch, beispielsweise mittels einer Fotographie, handelt.
-
Der Erfindung liegt daher die Aufgabe zugrunde, ein verbessertes Verfahren zur Erkennung der Fahreraktivität und dessen Verwendung in einem Fahrerassistenzsystem, beispielsweise einem ACC-System mit Stop&Go-Funktionalität (ACC: Adaptive Cruise Control oder automatische Distanzregelung), anzugeben.
-
Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 sowie durch ein Fahrerassistenzsystem mit den Merkmalen des Anspruchs 11 gelöst. Bevorzugte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.
-
Das erfindungsgemäße Verfahren zur Erkennung der Aufmerksamkeit des Fahrers eines Kraftfahrzeugs und zur Erzeugung eines Aktivitätssignals für ein Fahrerassistenzsystem führt mittels einer biometrischen Gesichtserkennung durch ein gesichtsbiometrisches Kamerasystem die folgenden Schritte durch:
- a) Aufnehmen eines Fahrerbildes und Bestimmen des Vorhandensein des Fahrers anhand des Fahrerbildes,
- b) Prüfen ob es sich um einen realen Fahrer oder um einen Täuschungsversuch handelt,
- c) Extrahieren von Gesichtsmerkmalen des Fahrers aus dem Fahrerbild, falls die Schritte a) und b) positiv sind,
- d) Bestimmen der Fahreraufmerksamkeit aus den extrahierten Merkmalen, und
- e) Erzeugen eines Aktivitätssignal aus der in Schritt d) bestimmten Fahreraufmerksamkeit.
-
Vorzugsweise werden zu Fahrtbeginn ein frontales Bild des Fahrers als initiales Fahrerbild und seine extrahierten Merkmale zu Vergleichszwecken gespeichert, um das Verfahren auf einen definierten Ausgangszustand aufsetzen zu können. Dieser Vorgang läuft vorzugsweise automatisch ab und wird beispielsweise mit dem Entriegeln des Fahrzeugs initiiert, da der Vorgang des Entriegelns zumindest eine teilweise Stromversorgung des Fahrzeugs und eine Aktivierung bzw. Initiierung vorgegebener Fahrerassistenzsysteme bewirkt.
-
Vorzugsweise wird der Schritt a), d. h. das Aufnehmen eines Fahrerbildes und die Bestimmung des Vorhandenseins eines Fahrers, durch eine Bestimmung der Gesichtskontur des Fahrers im aufgenommenen Fahrerbild durchgeführt.
-
Weiter bevorzugt wird Schritt b) des Verfahrens durch eine Lebend-Erkennung, eine Täuschungs-Erkennung und eine Fahreridentifizierung durchgeführt.
-
Insbesondere kann die Lebend-Erkennung durch eine laufende Überprüfung intrinsischer Bewegungen des Fahrerkopfes und/oder des Fahrergesichts erfolgen. Intrinsische Bewegungen sind beispielsweise Kopf- und/oder Lidbewegungen über einen vorgegebenen Zeitraum.
-
Die Täuschungserkennung kann durch Überprüfung des Abstandes Fahrerkopf und Kamera, den Einsatz gepulster Nah-Infrarotbeleuchtung und/oder der Helligkeitsverteilung im erkannten Fahrergesicht erfolgen. Die Ergebnisse der Täuschungserkennung können auch zumindest teilweise in die Lebend-Erkennung einfließen.
-
Weiter bevorzugt erfolgt die Fahreridentifizierung anhand des Ähnlichkeitswertes des initial gespeicherten Fahrerbildes und des aktuellen Fahrerbildes, was auch als Matchscore bezeichnet wird.
-
Vorzugsweise werden die Gesichtsmerkmale Kopfrotation, Kopfposition, X- und Y-Koordinaten der Fahreraugen und der Augenöffnungsgrad extrahiert, wobei die Aufzählung nicht abschließend ist. Weitere geeignete Merkmale wie beispielsweise Kopfneigungswinkel oder Mundmerkmale können verwendet werden.
-
Zur Bestimmung der Fahreraktivität wird vorzugsweise ein biometrischer Vergleich der extrahierten aktuellen Gesichtsmerkmale mit den gespeicherten Gesichtmerkmalen des initialen Fahrerbildes durchgeführt.
-
Vorzugsweise wird der Fahrer als aktiv eingeschätzt und ein Aktivitätssignal erzeugt, wenn der biometrische Vergleich eine frontale Kopfrichtung und einen Augenöffnungsgrad, der offenen Augen entspricht, ergibt.
-
Das erfindungsgemäße Fahrerassistenzsystem, welches das im Vorangegangenen erläuterte Verfahrens verwendet, umfasst ein gesichtsbiometrisches Kamerasystem, welches den Fahrer insbesondere während der Standzeit des Kraftfahrzeugs im Stau beobachtet und ein Fahrerbild erzeugt, und ein Steuergerät zur Durchführung der biometrischen Gesichtserkennung. Dabei erfolgt vom Fahrerassistenzsystem dann eine fahrerseitige Anfahrfreigabe, wenn folgende Bedingungen erfüllt sind:
- i) der Fahrersitz ist belegt sowie Tür und Gurtschloss geschlossen,
- ii) der Lenkradwinkel liegt zwischen +/–60 Grad,
- iii) die Gesichtskontur im Fahrerbild ist erkannt,
- iv) das Fahrergesicht ist ”lebendig”,
- v) der Fahrerkopf ist für eine vorgegebene Zeit t1 frontal ausgerichtet, und
- vi) die Augen des Fahrers sind für eine vorgegebene Zeit t2 offen.
-
Als Fahrerassistenzsystems kommen ACC-Fahrerassistenzsysteme mit Stop & Go-Funktionalität oder alle Systeme für autonome oder automatisierte Fahrunterstützung in Betracht, die im stehenden oder fahrenden Zustand Informationen über den Fahrerzustand benötigen.
-
Weiter bevorzugt erfolgt ein Fahrfreigabe für das Kraftfahrzeug dann, wenn neben der fahrerseitigen Freigabe eine Freigabe der Fahrt durch weitere Fahrzeugsensoren erfolgt. Mit anderen Worten, es erfolgt eine Sensorfusion der fahrerseitigen Freigabe mit Ergebnissen anderer Umfeldsensoren wie beispielsweise Radar, Laser und/oder Außenkamera.
-
Die beschriebenen Signale des gesichtsbiometrischen Kamerasystems werden daher neben der klassischen Fahrerpersonalisierung vorrangig für Eingangssignale von Fahrerassistenzsystemen, beispielsweise in einem ACC-Fahrerassistenzsystem, genutzt. Der zusätzliche Vorteil besteht in der Mehrfachnutzung eines Algorithmus auf einem Steuergerät, so dass weitere Softwarevarianten entfallen.
-
Ferner erfolgt nunmehr die Anfahrfreigabe, die derzeit nach einer kurzen Standzeit, beispielsweise in einem Stau, manuell durch eine Betätigung eines Hebels am Lenkstock oder des Beschleunigungspedals, durch die biometrische Gesichtserkennung, wobei zusätzlich mit dem Algorithmus eine sogenannte Lebend- und Täuschungserkennung erfolgt, um beispielsweise das Lesen einer Zeitung im Stau zu detektieren, in welchem Fall keine Anfahrfreigabe erfolgt und damit die funktionale Sicherheit erhöht wird.
-
Eine bevorzugte Ausführungsform der Erfindung wird nachfolgend anhand der Zeichnungen erläutert. Dabei zeigt
-
1 die Komponenten eines ACC-Stop&Go-Fahrerassistenzsystems,
-
2 ein biometrischer Erkennungsalgorithmus in schematischer Darstellung, und
-
3 ein Ablaufdiagramm der fahrerseitigen Freigabe innerhalb eines ACC-Stop&Go-Fahrerassistenzsystems.
-
1 zeigt die beteiligten Komponenten eines beispielhaften ACC Fahrerassistenzsystems mit Stop&Go-Funktionalität, welches um eine kamerabasierte, biometrische Fahrerbeobachtung erweitert ist. Dabei soll der manuelle Aufwand durch den Fahrer hin zu einer stärkeren Automatisierung und Fahrkomfort erweitert werden. Der Fahrer muss mit dem gesichtsbiometrischen Kamerasystem im Staufall keine manuelle Aktion mehr durchführen, da das System erkennt, ob der Fahrer zum Verkehrsgeschehen schaut oder nicht. Zum Einsatz kommt dabei ein Algorithmus der biometrischen Fahrererkennung.
-
Die für einen Anfahrentscheidung beteiligten Komponenten des ACC-Fahrerassistenzsystems mit Stop&Go-Funktionalität sind das HMI 1 (HMI: Human-Maschine-Interface) mit den Komponenten Beschleunigungspedal 1a, Lenkstock 1b und Kombiinstrument 1c, der Antrieb 2 mit den Komponenten Gang 2a, Verzögerung 2b und Beschleunigung 2c, die Umfeldsensorik 3 mit den Komponenten Videokamera 3a beispielsweise in der Frontscheibe, Radar 3b für den Fernbereich und Ultraschallsensor 3c für den Nahbereich, das biometrische Erkennungssystem 4 sowie die Anfahrentscheidung 7.
-
Das biometrische Erkennungssystem 4 umfasst dabei die beiden Bereiche Fahrerparameter 5 sowie die Fahrerbeobachtung 6. Unter Fahrerparameter 5 werden hier vom Fahrer bewirkte bzw. beeinflusste Parameter oder Zustände verstanden, insbesondere die Sitzbelegung 5a mit den Werten ”belegt, frei”, den Zustand Gurtschloss 5b mit den Werten ”geschlossen oder offen”, den Zustand der Türöffnung 5c mit den Werten ”offen oder zu” sowie den Lenkradwinkel 5d. Im Bereich Fahrerbeobachtung 6 wird mit einer Kamera 6a ein Videobild aufgenommen und in einer Bildverarbeitung 6b verarbeitet. Die extrahierten oder berechneten Signale 6c werden einer Interpretation 6d zugeführt.
-
Aus den entsprechenden Signalen der beteiligten Komponenten HMI 1, Antrieb 2, Umfeldsensorik 3, Fahrerparameter 5 und Fahrerbeobachtung 6 werden dann in der Anfahrentscheidung 7 eine Entscheidung getroffen.
-
Das gesichtsbiometrische Kamerasystem, auch abgekürzt als GBKS bezeichnet, der Fahrerbeobachtung 6, bestehend aus den Komponenten Monokamera, zwei Nah-Infrarotbeleuchtungsmodulen und einem Steuergerät mit dem nachfolgend erläuterten biometrischen Algorithmus, beobachtet den Fahrer während der Standzeit des Fahrzeugs. Das Fahrzeug entscheidet nur dann auf automatische Freigabe, wenn folgende Faktoren erfüllt sind:
- – der Fahrersitz ist belegt, Tür und Gurtschloss sind geschlossen,
- – der Lenkradwinkel liegt zwischen –/+60 Grad,
- – das GBKS erkennt Gesichtskontur des Fahrers im Videobild,
- – das GBKS erkennt, dass das Gesicht des Fahrers ”lebendig” ist,
- – das GBKS erkennt, dass der Kopf des Fahrers für eine vorgegebene Zeit t1 frontal ausgerichtet ist, und
- – das GBKS erkennt, dass die Augen des Fahrers für eine vorgegebene Zeit t2 offen sind.
-
Sind alle Parameter erfüllt, erfolgt von Seiten des gesichtsbiometrisches Kamerasystem eine Anfahrfreigabe für das Teilsystem ”Fahrer”. Eine endgültige Entscheidung für ACC Stop&Go wird über die Fusion mit anderen Fahrzeugsensoren (Radar, Außenkamera, etc.) getroffen.
-
2 zeigt in schematischer Darstellung einen Algorithmus der biometrischen Gesichtserkennung. Mittels einer Innenraumkamera 11 wird ein Videobild des Fahrers erzeugt und an eine Steuereinrichtung 12 übertragen. In der Steuereinrichtung 12 wird eine Gesichtssuche 13 durchgeführt. Das Bild und die ermittelte Gesichtsposition wird einem Augenfinder 14 zugeführt, der die Koordinaten der Fahreraugen bestimmt. Die ermittelten Daten, d. h. das aktuelle Bild, die Gesichtsposition und die Koordinaten der Augen werden einer Bildqualitätprüfung 15 unterzogen. Es erfolgt im nächsten Block eine Normalisierung des Gesichts und das normalisierte Gesicht wird einer Vorverarbeitung 17 unterzogen. Anschließend wird aus dem vorverarbeiteten Gesicht des Fahrers die gewünschten bzw. notwendigen Merkmale extrahiert und in einem Musterbildner 10 zu einem Mustervektor, dem sogenannten Referenzvektor, zusammengefasst.
-
Die hier verwendeten Werte des Algorithmus sind:
- – der Match Score, d. h. der Ähnlichkeitswert zwischen einem hinterlegten Frontalbild
- – des Fahrers und dem aktuellen Gesichtbild des Fahrers, dem sogenannten Livebild,
- – die X- und Y-Koordinaten der detektierten Augen des Fahrers aus dem aktuellen Bild
- – der aktuelle Augenöffnungsgrad in Prozent, und
- – die geschätzte Kopfposition aus den geometrischen Verhältnissen im aktuellen Fahrergesicht.
-
Dabei sind die X- und Y-Koordinaten der Fahreraugen bezogen beispielsweise auf die jeweilige Augenmitte oder Augenecken, um eine konsistente Koordinatendefinition zu erhalten.
-
Zur Erkennung der oben genannten Kopfrotation gelten die folgenden Bedingungen:
- – der Matchscore ist abhängig von der Kopfrotation,
- – Ist der Kopf frontal, d. h. die Kopfrotation ist 0 Grad, dann ist der Match Score maximal (100%), d. h. das aktuelle Bild ist zum gespeicherten initialen Bild absolut ähnlich,
- – dreht der Fahrer den Kopf, dann sinkt der Match Score,
- – ab etwa 30 Grad hat der Match Score üblicherweise den Wert Null, mit anderen Worten bis zu diesem Winkel ist eine direkte Winkel- und sektorenabhängige Erkennung möglich,
- – Erkennung der Rotationsrichtung (links/rechts) erfolgt über Symmetrie- und Richtungsberechnung der x- und y-Augenpunkte.
-
Dabei bedeutet der Wert von 30 Grad nicht die Grenze der Funktionsfähigkeit des Systems, sondern der Wert signalisiert nur, dass der Fahrer nicht mehr frontal schaut. Eine Erkennung des Fahrers funktioniert noch über den Wert mittels der Betrachtung der Historie und eine Prognose ist über den Bereich hinaus möglich.
-
3 zeigt ein Ablaufdiagramm zur Bestimmung der fahrerseitigen Fahrfreigabe eine Fahrerassistenzsystem, insbesondere eines ACC-Systems mit Stop&Go-Funktionalität. Zu Beginn, also nach dem Einstieg des Fahrers, wird im Schritt 20 ein Frontalbild des Fahrers aufgenommen und abgespeichert, welches als initiales Fahrerbild bezeichnet wird. Ferner werden aus dem initialen Bild Merkmale des aktuellen Fahrers extrahiert und ebenfalls gespeichert.
-
Im nächsten Schritt 21 werden notwendige Voraussetzungen abgeprüft, nämlich ob der Fahrer im Fahrzeug sitzt, die Türen geschlossen sind, der oder die Sicherheitsgurte angelegt sind, der Sitz belegt ist, das ACC Stop&Go aktiviert ist und das Fahrzeug still im Stau steht.
-
Nachdem die Voraussetzungen des Schrittes 21 erfüllt sind, wird im Schritt 22 ein aktuelles Fahrerbild, das sog. Livebild, aufgenommen. Danach wird im Schritt 23 untersucht, ob eine Gesichtskontur im Livebild vorhanden ist. Ist dies nicht der Fall, welcher mit ”N” gekennzeichnet ist, so geht das System wieder zum Schritt 22 zurück. Ist ein Gesichtskontur erkannt worden so wird im Schritt 24 untersucht, ob eine Täuschung vorliegt. Trifft dies zu, was mit ”J” gekennzeichnet ist, so geht das System zurück zu Schritt 22. Liegt kein Täuschungsversuch vor, was mit ”N” gekennzeichnet ist, so erfolgt im Schritt 25 eine Merkmalsextraktion aus dem aktuellen Fahrerbild.
-
Im Schritt 26 erfolgt ein biometrischer Vergleich zwischen den im Schritt 25 ermittelten Merkmalen mit den Merkmalen des initialen Bildes des Schritts 20 zur Bestimmung der Kopfrichtung. Fällt dieser Vergleich kleiner aus als ein vorgegebener Grenzwert, so wird im Schritt 27 geschlossen, dass die Kopfrichtung nicht frontal ist (Ausgang ”<”) und das System geht zurück zum Schritt 22. Im mit dem Ausgang ”≥” zu erreichenden Schritt 28 wird auf eine frontale Kopfrichtung geschlossen, was bedeutet, dass der Vergleich größer oder gleich einem vorgegebenen Grenzwert ausgefallen ist.
-
Anschließend wird im nächsten Schritt 29 der Augenöffnungsgrad geprüft. Ist dieser kleiner als ein vorgegebener Grenzwert, so wird im Schritt 30 die Augen des Fahrers als geschlossen betrachtet und das System geht zurück zu Schritt 22. Ist der Augenöffnungsgrad größer oder gleich dem genannten vorgegebenen Grenzwert, so wird auf geöffnete Augen des Fahrers im Schritt 31 geschlossen. Da der Fahrer eine frontale Kopfposition und geöffnete Augen hat, wird im Schritt 32 die fahrerseitige Fahrfreigabe erteilt.
-
Die im Ablaufdiagramm angesprochenen Schritt 23 und 24 führen eine Unterscheidung zwischen lebendigen Objekten, nämlich dem Fahrer selbst und nicht-lebendigen Objekten, m wie Personen auf Zeitungen, Fotos, Puppen, etc., durch. Diese Unterscheidung ist zwingend notwendig. Daneben muss unterschieden werden, ob es sich um den aktuellen Fahrer oder beispielsweise den Beifahrer handelt.
-
Die Täuschungs- und Lebend-Erkennung der bevorzugten Ausführungsform arbeitet wie folgt:
- – das gesichtsbiometrische Kamerasystem erwartet den Kopf des Fahrers in einer gewissen Entfernung vor der Kamera, dem sog. Erwartungsraum, womit einfache Foto-Täuschungen ermittelt werden können,
- – der Einsatz von gepulster Nah-Infrarot-Beleuchtung führt zur Aufdeckung von Video-Täuschungen,
- – es wird eine laufende Prüfung intrinsische Bewegungen (Kopf- und Lidbewegungen über einen Zeitraum), was zur Detektion von Abdeckung von Foto- und Puppen-Täuschungen führt,
- – mittels der Überprüfung von Helligkeitsverteilungen im erkannten Gesicht durch Abgleich zwischen bekannten Verläufen sowie Abgleich zwischen Sonnensensorrichtung und Helligkeitsverteilung im Gesicht werden Foto- und Videotäuschungen ermittelt, und
- – eine Unterscheidung zwischen Fahrer und Beifahrer erfolgt über das initial gespeichertes Frontalbild: beugt sich beispielsweise der Beifahrer in die Fahrerzone, dann würde das System einen deutlich geringeren Match Score berechnen und keine Freigabe erteilen, wodurch eine Abdeckung einer absichtlichen Fehlbedienung erreicht wird.
-
Eine Unterscheidung zwischen Fahrer und Beifahrer kann auch über die unterschiedliche Kopfrotation mittels der Auswertung der X- und Y-Augenpunkte erfolgen.
-
Bezugszeichenliste
-
- 1
- HMI (Mensch-Maschine-Interface
- 1a
- Beschleunigungspedal
- 1b
- Lenkstock
- 1c
- Kombiinstrument
- 2
- Antrieb
- 2a
- Gang
- 2b
- Verzögerung
- 2c
- Beschleunigung
- 3
- Umfeldsensorik
- 3a
- Videokamera Frontscheibe
- 3b
- Radar (Fernbereich)
- 3c
- Ultraschall (Nahbereich)
- 4
- Biometrisches Erkennungssystem
- 5
- Fahrerparameter
- 6
- Fahrerbeobachtung
- 7
- Anfahrentscheidung
- 11
- Innenraumkamera
- 12
- Steuergerät
- 13
- Gesichtssuche
- 14
- Augenfinder
- 15
- Bildqualitätsprüfung
- 16
- Gesichtsnormalisierung
- 17
- Vorbereitung
- 18
- Merkmalsextraktion
- 19
- Musterbildung
- 20
- Speicherung Frontalbild und Merkmalsextraktion aktueller Fahrer
- 21
- Voraussetzungen
- 22
- Livebild
- 23
- Gesichtskontur vorhanden
- 24
- Täuschungsversuch
- 25
- Merkmalsextraktion aus Livebild
- 26
- Biometrischer Vergleich
- 27
- Kopfrichtung nicht frontal
- 28
- Kopfrichtung frontal
- 29
- Augenöffnungsgrad
- 30
- Augen geschlossen
- 31
- Augen offen
- 32
- Freigabe
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- DE 102007023140 A1 [0003]
- DE 102008031697 A1 [0004]