[go: up one dir, main page]

DE10313019A1 - Single handed operation of a mobile terminal by gesture recognition, whereby movement of the terminal relative to the user is measured and used to control the positioning of input selection means - Google Patents

Single handed operation of a mobile terminal by gesture recognition, whereby movement of the terminal relative to the user is measured and used to control the positioning of input selection means Download PDF

Info

Publication number
DE10313019A1
DE10313019A1 DE10313019A DE10313019A DE10313019A1 DE 10313019 A1 DE10313019 A1 DE 10313019A1 DE 10313019 A DE10313019 A DE 10313019A DE 10313019 A DE10313019 A DE 10313019A DE 10313019 A1 DE10313019 A1 DE 10313019A1
Authority
DE
Germany
Prior art keywords
image
segment
user
segments
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10313019A
Other languages
German (de)
Other versions
DE10313019B4 (en
Inventor
Jesus Fernando Guitarte Perez
Klaus Lukas
Hans RÖTTGER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Corp
Original Assignee
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Corp filed Critical Siemens Corp
Priority to DE10313019A priority Critical patent/DE10313019B4/en
Publication of DE10313019A1 publication Critical patent/DE10313019A1/en
Application granted granted Critical
Publication of DE10313019B4 publication Critical patent/DE10313019B4/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Mobile terminal has a user interface with positionable selection means, means for measuring the movement of the terminal (1) relative to a user (3) and means for positioning the selection means on the user interface based on the measured relative movement. An independent claim is made for a method for operating a mobile terminal in which the movement of the terminal relative to a user is measured and used for controlling input means. The method uses face detection and tracking using an integral camera of the mobile terminal.

Description

Mit der Miniaturisierung von mobilen Kommunikationsendgeräten werden Tastaturen und andere haptische Eingabemöglichkeiten zugunsten der Gerätegröße auf ein Minimum reduziert. In zukünftigen Endgeräten wird sogar auf Keypads oder Eingabetastaturen ganz verzichtet werden. Um dennoch eine praktikable und komfortable Interaktionsmöglichkeit zu gewährleisten, werden neue Bedienkonzepte notwendig. Einschränkendes Limit aufgrund der Kosten ist jedoch meist die vorhandene Hardwareausstattung, die hierzu intelligent genutzt werden muss.With the miniaturization of mobile communication terminals Keyboards and other haptic input options in favor of the device size Minimum reduced. In future terminals there will even be no need for keypads or input keyboards. In order to have a practicable and comfortable interaction option to ensure, new operating concepts become necessary. Restrictive limit due to the However, the existing hardware is usually the most expensive must be used intelligently for this.

Geräte ohne Keypad oder mit virtuellen Keypads wurden bislang entweder durch Spracherkennung oder durch Stifteingabe bedient, wie sie zum Beispiel bei PDAs üblich ist. Die Spracheingabe allein ist speziell in stark geräuschbehafteten Umgebungen schwierig. Auf der anderen Seite erlaubt die Stifteingabe keine Einhandbedienung, die für mobile Endgeräte oftmals gewünscht wird.Devices without Keypad or with virtual keypads have so far either been through Voice recognition or operated by pen input, such as common with PDAs is. The voice input alone is especially in very noisy Environments difficult. On the other hand, pen entry allows no one-hand operation for mobile devices often desired becomes.

Seit einiger Zeit sind mobile Endgeräte verfügbar, in die eine Kamera integriert ist.since have been mobile devices for some time available, in which a camera is integrated.

Davon ausgehend liegt der Erfindung die Aufgabe zugrunde, eine Eingabemöglichkeit für mobile Endgeräte zu schaffen, die eine einhändige Bedienung erlaubt und keine Tastatur benötigt.From that starting from the object of the invention is an input option for mobile terminals to create a one-handed Operation allowed and no keyboard required.

Diese Aufgabe wird durch die in den unabhängigen Ansprüchen angegebenen Erfindungen gelöst. Vorteilhafte Ausgestaltungen ergeben sich aus den abhängigen Ansprüchen.This Object is achieved by those specified in the independent claims Inventions solved. Advantageous refinements result from the dependent claims.

Dementsprechend weist ein mobiles Endgerät eine beispielsweise auf einer Anzeige darstellbare, insbesondere optische und weiter bevorzugt grafische Benutzerschnittstelle auf. Die Benutzerschnittstelle lässt sich etwa in Form einer beispielsweise auf einer Anzeige, insbesondere einer LCD- oder LED-Anzeige, dargestellten Benutzeroberfläche oder Bedienoberfläche realisieren oder aber auch als ganz einfache optische Anzeige mit z.B. unterschiedlich beleuchteten Ziffern, bei der nicht selektierte Ziffern grün leuchten und selektierte rot. Auf der grafische Benutzerschnittstelle ist ein virtuelles und/oder reales Selektionsmittel zum Selektieren von einzelnen Funktionsbereichen der Benutzerschnittstelle, denen jeweils Funktionalitäten zugeordnet sind, insbesondere durch Verschieben positionierbar. Weiterhin verfügt das mobile Endgerät über Mittel zum Messen einer Relativbewegung des mobilen Endgeräts gegenüber einem Benutzer des mobilen Endgeräts. Darüber hinaus weist das mobile Endgerät auch noch Mittel zum Positionieren des Selektionsmittels auf der Benutzerschnittstelle in Abhängigkeit der gemessenen Relativbewegung auf.Accordingly has a mobile device one that can be displayed, for example, on a display, in particular optical and more preferably graphical user interface. The user interface let yourself for example in the form of, for example, on a display, in particular an LCD or LED display, represented user interface or user interface realize or as a very simple visual display with e.g. differently illuminated digits, with the not selected Digits green light up and selected red. On the graphical user interface is a virtual and / or real selection tool for selection of individual functional areas of the user interface, the functionalities in each case are assigned, in particular positionable by moving. Still has the mobile device via means for measuring a relative movement of the mobile device against one Mobile device users. Furthermore assigns the mobile device also means for positioning the selection means on the User interface depending the measured relative movement.

So kann der Benutzer das mobile Endgerät beispielsweise einfach in seiner Hand halten und sich selbst gegenüber bewegen, um das Selektionsmittel auf einen gewünschten Bereich der Benutzerschnittstelle zu bewegen. Ist das Selektionsmittel auf diese Weise beispielsweise auf einen gewünschten (virtuellen) Betätigungsknopf (Button) der Benutzerschnittstelle bewegt worden, so kann der Benutzer durch Sprechen eines Kommandos oder durch Drücken eines Eingabeknopfes am mobilen Endgerät die mit dem virtuellen Betätigungsknopf verbundene Aktion des mobilen Endgerätes auslösen.So the user can simply put the mobile device in, for example hold his hand and move towards yourself to open the selection agent a desired one Moving area of the user interface. Is the means of selection in this way, for example, on a desired (virtual) actuation button (Button) of the user interface has been moved, so the user by speaking a command or by pressing an input button on mobile device the one with the virtual push button trigger connected action of the mobile device.

Die Mittel zum Messen der Relativbewegung weisen vorzugsweise Mittel zum Erkennen der Position der Lippen, eines Auges und/oder des Gesichts des Benutzers auf. Dann braucht der Benutzer das mobile Endgerät nämlich nur auf sein Gesicht auszurichten und zu bewegen und kann dabei die Bewegung der Selektionsmarke auf der Benutzerschnittstelle verfolgen.The Means for measuring the relative movement preferably have means to recognize the position of the lips, an eye and / or the face of the User on. Then the user only needs the mobile device to align and move on his face while doing that Track the movement of the selection mark on the user interface.

Am einfachsten lässt sich das Messen der Relativbewegung realisieren, wenn das mobile Endgerät dazu einen optischen Sensor, insbesondere eine Kamera, zur Aufnahme eines jeweiligen Bildes des Benutzers aufweist. Aus der aufgenommenen Folge von Bildern lässt sich dann die Relativbewegung bestimmen.At the simplest leaves measure the relative movement when the mobile terminal an optical sensor, in particular a camera, for recording of a respective image of the user. From the recorded episode of pictures then determine the relative movement.

Auf der grafischen Benutzerschnittstelle kann zur Kontrolle der Relativbewegung als Feedback jeweils das aktuell aufgenommene Bild des Benutzers ausgegeben werden, aus dem der Benutzer dann auf seine aktuelle Position gegenüber dem Endgerät schließen kann.On The graphical user interface can be used to control the relative movement as feedback the current picture of the user are output from which the user then goes to his current Position opposite the terminal conclude can.

Für eine Benutzung bei Dunkelheit kann das mobile Endgerät Beleuchtungsmittel aufweisen, um den Benützer zu beleuchten und auch hier einen Einsatz des optischen Sensors zu ermöglichen.For one use in the dark, the mobile terminal can have lighting means, for the user to illuminate and also use the optical sensor to enable.

Vorzugsweise weist das mobile Endgerät eine Auswerteeinrichtung auf, durch die das Bild des Benutzers analysierbar ist, indem Segmente im erfassten Bild festgelegt werden, die helligkeitsspezifische Merkmale aufweisen, eine positionsmäßige Beziehung der festgelegten Segmente zueinander überprüft wird und ein Vorhandensein eines Gesichtes im Bild abgeleitet wird, wenn eine Auswahl von festgelegten Segmenten eine bestimmte positionsmäßige Beziehung aufweist.Preferably the mobile device has one Evaluation device through which the user's image can be analyzed is by specifying segments in the captured image, the brightness-specific Features have a positional relationship of the set Segments to each other is checked and a presence of a face in the image is deduced if a selection of fixed segments a certain positional relationship having.

Das Selektionsmittel kann als Zeigemittel auf der grafischen Benutzerschnittstelle dargestellt werden. Es ist aber auch möglich, dem Benutzer die Position des Selektionsmittels zu signalisieren, indem nicht das Selektionsmittel selbst angezeigt wird, sondern lediglich jeweils das auf der Benutzerschnittstelle gerade selektierte Element als selektiert dargestellt wird.The selection means can be displayed as a pointing means on the graphical user interface the. However, it is also possible to signal the position of the selection means to the user by not displaying the selection means itself, but rather only displaying the element currently selected on the user interface as selected.

Um eine fließende Bewegung des Selektionsmittels zu gewährleisten, weist das mobile Endgerät vorteilhaft Stabilisierungsmittel für die Bewegung des Selektionsmittels auf.Around a flowing The mobile shows how to ensure movement of the selection medium terminal advantageous stabilizing agent for the movement of the selection agent on.

In einem Verfahren zum Betreiben eines mobilen Endgerätes wird eine Relativbewegung des mobilen Endgerätes gegenüber einem Benutzer gemessen und ein Selektionsmittel auf einer Benutzerschnittstelle des mobilen Endgeräts in Abhängigkeit der gemessenen Relativbewegung positioniert. Vorteilhafte Ausgestaltungen des Verfahrens ergeben sich analog zu den vorteilhaften Ausgestaltungen des mobilen Endgerätes und umgekehrt.In a method for operating a mobile terminal measured a relative movement of the mobile terminal with respect to a user and a selection means on a user interface of the mobile terminal in dependency of measured relative movement positioned. Advantageous configurations of the method result analogously to the advantageous configurations of the mobile device and vice versa.

So wird beispielsweise vorzugsweise zum Messen der Relativbewegung vom mobilen Endgerät mit einer Kamera ein Bild des Benutzers aufgenommen. Das Bild des Benutzers kann dann analysiert werden, indem Segmente im Bild festgelegt werden, die helligkeitsspezifische Merkmale aufweisen, eine positionsmäßige Beziehung der festgelegten Segmente zueinander überprüft wird und das Vorhandensein des Benutzers, insbesondere eines Gesichts des Benutzers, im erfassten Bild abgeleitet wird, wenn eine Auswahl von festgelegten Segmenten eine bestimmte positionsmäßige Beziehung aufweist.So is preferably used, for example, to measure the relative movement from the mobile device a camera captured an image of the user. The user's picture can then be analyzed by specifying segments in the image that have brightness-specific characteristics, a positional relationship the specified segments are checked against each other and the existence of the user, in particular a face of the user, in the captured Image is derived when a selection of specified segments is a certain positional relationship having.

Das Verfahren zum Analysieren des Bildes des Benutzers umfasst insbesondere ein Festlegen von Segmenten in dem erfassten Bild, die helligkeitsspezifische Merkmale aufweisen. Wie es unten näher erläutert werden wird, können die helligkeitsspezifischen Merkmale beispielsweise Hell-Dunkel-Übergänge und/oder Dunkel-Hell-Übergänge umfassen. Anschließend wird eine positionsmäßige Beziehung der festgelegten Segmente zueinander überprüft, wobei ein Vorhandensein eines Benutzers, insbesondere eines (menschlichen) Gesichts, in dem erfassten Bild abgeleitet wird, wenn eine Auswahl von festgelegten Segmenten eine bestimmte positionsmäßige Beziehung aufweist. Das bedeutet, durch das gerade beschriebene Verfahren kann nur durch Analyse bestimmter Bereiche des erfassten Bildes, nämlich der Segmente mit helligkeitsspezifischen Merkmalen, genauer gesagt durch Überprüfen der positionsmäßigen Beziehung der festgelegten Segmente auf das Vorhandensein des Benutzers, insbesondere seines Gesichts, und dessen Position gegenüber dem mobilen Endgerät geschlossen werden. Somit wird zur Durchführung des Verfahrens nur eine geringe Rechenleistung benötigt, wodurch eine Ressourcenverringerung bzw. Ressourcenoptimierung einer Datenverarbeitungsanlage zum Durchführen des Verfahrens ermöglicht wird.The In particular, method for analyzing the image of the user includes specifying segments in the captured image that are brightness specific Features. As will be explained in more detail below, the brightness-specific features, for example light-dark transitions and / or Include dark-light transitions. Then will a positional relationship of fixed segments checked against each other, being present of a user, especially a (human) face, in the captured image is derived when a selection of fixed Segments has a specific positional relationship. The means by the method just described can only by Analysis of certain areas of the captured image, namely the Segments with brightness-specific characteristics, more precisely by checking the positional relationship the specified segments on the existence of the user, especially his Facial, and its position closed to the mobile device become. Thus, the implementation the method requires only a small amount of computing power, so a resource reduction or resource optimization of a data processing system to perform of the procedure becomes.

Gemäß einer vorteilhaften Ausgestaltung handelt es sich bei dem erfassten Bild um ein von einer elektronischen Kamera erfassten Bild, das elektronisch verarbeitbar ist. Insbesondere ist das erfasste Bild aus einzelnen Bildpunkten zusammengesetzt, welchen jeweilige Graustufenwerte zugeordnet sind.According to one An advantageous embodiment is the captured image an image captured by an electronic camera that is electronic is processable. In particular, the captured image is made up of individual Pixels composed, which respective grayscale values assigned are.

Gemäß einer weiteren vorteilhaften Ausgestaltung werden Segmente in dem erfassten Bild festgelegt, bei denen die helligkeitsspezifischen Merkmale scharfe bzw. abrupte Helligkeitsübergänge, beispielsweise von Dunkel nach Hell oder von Hell nach Dunkel aufweisen. Derartige (scharfe) Helligkeitsübergänge finden sich beispielsweise in einem Gesicht eines Menschen, insbesondere beim Übergang von der Stirn zu den Augenbrauen oder (bei Menschen mit heller Haarfarbe) beim Übergang von der Stirn in den Schatten der Augenhöhlen. Derartige (scharfe) Helligkeitsübergänge finden sich jedoch auch beim Übergang von dem Oberlippenbereich bzw. Lippenbereich zur Mundöffnung oder von der Mundöffnung zum Lippenbereich der Unterlippe bzw. zum Unterlippenbereich. Ein weiterer Helligkeitsübergang stellt sich zwischen der Unterlippe und dem Kinnbereich, genauer gesagt als Schattenbereich (je nach Lichtverhältnis bzw. Lichteinfall) basierend auf einer leichten Vorwölbung der Unterlippe, ein. Wie es unten ausführlicher erläutert werden wird, ist es möglich, anhand dieser Helligkeitsübergänge bzw. anhand der positionsmäßigen Beziehung einer Auswahl der Helligkeitsübergänge auf das Vorhandensein eines menschlichen Gesichts bzw. insbesondere auf die Position einer Mundpartie zu schließen.According to one In another advantageous embodiment, segments are recorded in the Image set where the brightness-specific characteristics sharp or abrupt changes in brightness, for example from dark to light or from light to dark. such Find (sharp) brightness transitions for example in a person's face, in particular at the transition from the forehead to the eyebrows or (for people with light hair color) at the transition from the forehead to the shadows of the eye sockets. Find such (sharp) brightness transitions but also during the transition from the upper lip area or lip area to the mouth opening or from the mouth opening to the lip area of the lower lip or to the lower lip area. On further brightness transition stands between the lower lip and the chin area, more precisely said as a shadow area (depending on the lighting conditions or light incidence) based on a slight protrusion the lower lip, a. As explained in more detail below will it is possible based on these brightness transitions or based on the positional relationship a selection of the brightness transitions the presence of a human face or in particular to conclude the position of a mouth part.

Gemäß einer vorteilhaften Ausgestaltung umfasst der Schritt des Festlegens von Segmenten in dem erfassten Bild eine Bearbeitung des Bilds mittels eines Gradientenfilters, insbesondere eines horizontalen Gradientenfilters, um insbesondere horizontale (scharfe) Helligkeitsübergänge, wie die an den Augenbrauen, an den Augen, oder an dem Mund sichtbar zu machen. Durch die Bearbeitung mittels des Gradientenfilters wird ein erstes bearbeitetes Bild erzeugt, bei dem am Ort eines Helligkeitsübergangs im erfassten Bild entsprechende Bildpunkte im ersten bearbeiteten Bild mit einem Graustufenwert vorgesehen werden, die von der Schärfe des Helligkeitsübergangs im erfassten Bild abhängen. Das bedeutet, bei einem Helligkeitsübergang innerhalb weniger Bildpunkte von einem niedrigen Helligkeitswert (niedriger Graustufenwert) zu einem hohen Helligkeitswert (hoher Graustufenwert) wird in dem ersten bearbeiteten Bild eine entsprechende Information eingetragen. Wird davon ausgegangen, dass das erste bearbeitete Bild in Form eines Graustufenbildes dargestellt wird, so können beispielsweise bei Verwendung eines positiven horizontalen Gradientenfilters, der von oben nach unten auf das erfasste Bild angewendet wird, Bereiche des Bilds, in denen keine Helligkeitsübergänge vorhanden sind, in mittleren Graustufenwerten dargestellt werden, während Hell-Dunkel-Übergänge (von oben nach unten) je nach Schärfe der Übergänge einen dementsprechend höheren Grauwert als den mittleren Grauwert erhalten und Dunkel-Hell-Übergänge (von oben nach unten) einen entsprechend niedrigeren Grauwert in Abhängigkeit der Schärfe des jeweiligen Übergangs erhalten.According to an advantageous embodiment, the step of defining segments in the captured image includes processing the image using a gradient filter, in particular a horizontal gradient filter, in order in particular to achieve horizontal (sharp) brightness transitions, such as those on the eyebrows, on the eyes, or on the mouth make visible. The processing by means of the gradient filter produces a first processed image, in which, at the location of a brightness transition in the captured image, corresponding pixels are provided in the first processed image with a grayscale value, which depend on the sharpness of the brightness transition in the captured image. This means that when the brightness changes within a few pixels from a low brightness value (low grayscale value) to a high brightness value (high grayscale value), corresponding information is entered in the first processed image. It is assumed that the first edited image is shown in the form of a grayscale image If, for example, a positive horizontal gradient filter is applied to the captured image from top to bottom, areas of the image in which there are no brightness transitions can be displayed in medium grayscale values, while light-dark transitions (from above downwards) depending on the sharpness of the transitions receive a correspondingly higher gray value than the mean gray value and dark-light transitions (from top to bottom) receive a correspondingly lower gray value depending on the sharpness of the respective transition.

Gemäß einer weiteren vorteilhaften Ausgestaltung kann der Schritt des Festlegens von Segmenten in dem erfassten Bild eine Binärisierungsbearbeitung des ersten bearbeiteten Bildes umfassen. Hierbei kann ein zweites bearbeitetes Bild erzeugt werden, bei den entsprechenden Bildpunkten, deren Graustufenwert einen ersten vorbestimmten Schwellenwert (welcher in Abhängigkeit der Helligkeit des erfassten Bildes gewählt wird) übersteigt, ein binärer "1"-Wert zugeordnet wird, während den übrigen Bildpunkten ein binärer "0"-Wert zugeordnet wird. Anders ausgedrückt, kann den Bildpunkten, deren Graustufenwert den vorbestimmten ersten Schwellenwert übersteigt, der Wert "weiß" zugeordnet werden, während den übrigen Bildpunkten der Wert "schwarz" zugeordnet wird. Somit sind in dem zweiten bearbeiteten Bild nur noch Helligkeitsübergänge mit einer bestimmten ausgeprägten Schärfe zu erkennen.According to one Another advantageous embodiment can be the step of setting of segments in the captured image binarization processing the first edited image include. A second can be edited Image are generated at the corresponding pixels, their grayscale value a first predetermined threshold (which is dependent on the brightness of the captured image is selected), a binary "1" value is assigned while the remaining pixels a binary "0" value is assigned. In other words, can the pixels whose grayscale value exceeds the predetermined first threshold value assigned the value "white" while the rest Pixels the value "black" is assigned. Thus, only brightness transitions are left in the second processed image a certain pronounced sharpness to recognize.

Zusammenhängende Bildpunkte, denen ein Weiß-Wert zugeordnet ist, können als eine Einheit von Bildpunkten gesehen werden, die zur folgenden Auswertung in eine geometrische Form, wie beispielsweise ein Rechteck, eingeschrieben werden. Diese geometrische Form kann dann als ein festgelegtes Segment definiert werden. Da es notwendig ist, aus der in dem erfassten Bild erfassten Szene biometrische Merkmale, insbesondere ein Gesicht eines Menschen betreffend, herauszufiltern bzw. zu extrahieren, um auf das Vorhandensein eines menschlichen Gesichts schließen zu können, ist es vorteilhaft, bestimmte Bereiche bzw. Strukturen in dem erfassten Bild, die beispielsweise auf Grund ihrer Größe oder Form keine biometrischen Merkmale bezüglich eines Gesichts aufweisen, zu verwerfen.Contiguous pixels, which a white value can be assigned can be seen as a unit of pixels for the following evaluation inscribed in a geometric shape, such as a rectangle become. This geometric shape can then be used as a fixed segment To be defined. Since it is necessary from the captured in the Image captured scene biometric features, especially a face regarding a human being, filtering out or extracting, to be able to conclude that there is a human face it is advantageous to identify certain areas or structures in the Image that, for example, is not biometric due to its size or shape Characteristics regarding of a face.

Gemäß einer vorteilhaften Ausgestaltung werden dabei bestimmte Bereiche des zweiten bearbeiteten Bildes mit zusammenhängenden Bildpunkten auf Grund von vorbestimmten Parameteren bezüglich Größe und/oder Form der Bereich oder der diese einbeschreibenden geometrischen Form verworfen und insbesondere werden die den Bereichen zugeordneten Bildpunkte auf einen Schwarz-Wert gesetzt. Ein Kriterium bezüglich der Form von Bereichen zusammenhängender Bildpunkte mit einem Weiß-Wert kann beispielsweise sein, dass die Höhe dieses Bereichs bzw. dieser Struktur einen zu großen Wert im Gegensatz zur Breite der Struktur aufweist. Das bedeutet, das Verhältnis aus Höhe zu Breite ist zu groß. Eine derartige Festlegung wird deutlich, wenn – wie oben bereits erwähnt – Segmente anhand helligkeitsspezifischer Merkmale von horizontal verlaufenden Augenbrauen oder horizontal verlaufender Lippen- bzw. Mundpartien festgelegt werden. Das bedeutet wiederum, dass das zuvor erfasste Bild mit einer großen Anzahl von Bildpunkten auf nur noch eine geringe Anzahl von festgelegten Segmenten zurückgeführt wird, aus deren positionsmäßiger Beziehung zueinander nun das Vorhandensein und die Position eines Gesichts abgeleitet werden kann.According to one advantageous areas are certain areas of second processed image with contiguous pixels on the ground of predetermined parameters regarding size and / or shape of the area or discarding the geometrical form that describes it and in particular, the pixels assigned to the areas are highlighted set a black value. A criterion regarding the shape of areas related Pixels with a white value can be, for example, that the height of this area or this Structure too great a value in contrast to the width of the structure. That means that relationship from height too wide is too big. Such a definition becomes clear when - as already mentioned above - segments based on brightness-specific characteristics of horizontally running Eyebrows or horizontal lips or mouth be determined. This in turn means that the previously captured Image with a large Number of pixels on only a small number of fixed Segments is returned, from their positional relationship to each other now the presence and position of a face can be derived.

Gemäß einer vorteilhaften Ausgestaltung wird dabei in dem Schritt des Überprüfens der positionsmäßigen Beziehung in einem ersten Untersuchungsschritt entsprechend einem ersten Detektionsmechanismus jedes der festgelegten Segmente dahingehend untersucht, ob zu einem zu untersuchenden Segment ein zweites festgelegtes Segment existiert, das auf einer horizontalen Linie bzw. einer im Wesentlichen horizontal verlaufenden Linie zu dem gerade untersuchten festgelegten Segment liegt. Ausgehend von einem erfassten Bild, bestehend aus einer Mehrzahl von Bildpunkten muss das zweite Segment nicht unbedingt auf einer der von dem zu untersuchenden Segment umfassten wagrechten Linie an Bildpunkten liegen, es kann auch um einen vorbestimmten kleinen Betrag an Bildpunkten höher oder tiefer bezüglich der wagrechten oder horizontalen Line liegen. Wird ein zweites festgelegtes horizontales Segmente gefunden, so wird nach einem dritten festgelegten Segment gesucht, das sich unterhalb des untersuchten und des zweiten festgelegten Segments befindet und für das gilt, dass ein Abstand von dem untersuchten zu dem zweiten festgelegten Segment und ein Abstand einer Verbindungsstrecke zwischen dem untersuchten und dem zweiten festgelegten Segment zu dem dritten festgelegten Segment ein erstes vorbestimmtes Verhältnis aufweist. Insbesondere kann eine Normale zu der Verbindungsstrecke zwischen dem untersuchten und dem zweiten festgelegten Segment definiert werden, wobei der Abstand von dem dritten Segment (entlang der Normalen) zu der Verbindungsstrecke zwischen dem untersuchten und dem zweiten festgelegten Segment in das erste vorbestimmte Verhältnis eingeht. Der Abstand zwischen den untersuchten und dem zweiten Segment kann derart definiert werden, dass der Abstand von einem jeweiligen Mittelpunkt der festgelegten Segmente verwendet wird. Insbesondere bei der Verwendung von Segmenten mit der geometrischen Form eines Rechtecks kann ein Mittelpunkt leicht bestimmt werden. Durch den gerade beschriebenen ersten Untersuchungsschritt kann somit auf das Vorhandensein eines Gesichts geschlossen werden, indem die positionsmäßige Beziehung zwischen drei festgelegten Segmenten ermittelt wird. Hierbei wird davon ausgegangen, dass das untersuchte und das zweite festgelegte Segment einen jeweiligen Augenbrauenabschnitt im Gesicht eines Menschen darstellt, der normalerweise einen markanten bzw. scharfen Hell-Dunkel-Helligkeitsübergang von oben nach unten aufweist und somit im zweiten bearbeiteten Bild gut erkennbar ist. Das dritte festgelegte Segment stellt ein Segment einer Mundpartie bzw. den zwischen Oberlippe und Unterlippe Schatten bildenden Grenzbereich dar. Es hat sich erwiesen, dass zur Bestimmung eines menschlichen Gesichts das erste vorbestimmte Verhältnis zwischen Abstand von untersuchten und zweiten festgelegten Segmenten zu dem Abstand der Verbindungsstrecke der beiden Segmente zu dem dritten festgelegten Segment mit einem Wert von 1:1 bis 1:1,7, insbesondere von 1:1,2 bis 1:1,5 vorteilhaft ist. Neben der Möglichkeit, Augenbrauen als markante Segmente mit helligkeitsspezifischen Merkmalen zu verwenden, ist es auch möglich, an Stelle der Augenbrauen Schatten bildende Bereiche der Augenhöhlen bzw. die Augen oder die Iris selbst zu verwenden.According to an advantageous embodiment, in the step of checking the positional relationship in a first examination step according to a first detection mechanism, each of the defined segments is examined to determine whether there is a second defined segment for a segment to be examined, which segment is on a horizontal line or one in the Is essentially horizontal line to the currently examined fixed segment. Starting from a captured image, consisting of a plurality of pixels, the second segment does not necessarily have to lie on a horizontal line of pixels encompassed by the segment to be examined, it can also be higher or lower by a predetermined small amount of pixels with respect to the horizontal or horizontal line. If a second defined horizontal segment is found, then a third defined segment is searched for, which is located below the examined and the second defined segment and for which it applies that a distance from the examined to the second defined segment and a distance of a connecting path between the examined and the second defined segment to the third defined segment has a first predetermined ratio. In particular, a normal to the connecting path between the examined and the second defined segment can be defined, the distance from the third segment (along the normal) to the connecting path between the examined and the second defined segment being included in the first predetermined ratio. The distance between the examined and the second segment can be defined in such a way that the distance from a respective center of the defined segments is used. A center point can easily be determined, in particular when using segments with the geometric shape of a rectangle. The first examination step just described can thus be used to infer the presence of a face by determining the positional relationship between three defined segments. It is assumed here that the examined and the second defined segment represent a respective eyebrow section in the face of a human being, which normally has a striking or sharp light-darkness-brightness transition from top to bottom and is therefore clearly recognizable in the second processed image. The third defined segment represents a segment of a mouth area or the border area forming a shadow between the upper lip and lower lip. It has been found that, in order to determine a human face, the first predetermined ratio between the distance between examined and second defined segments to the distance of the connecting section of the two segments to the third fixed segment with a value from 1: 1 to 1: 1.7, in particular from 1: 1.2 to 1: 1.5 is advantageous. In addition to the possibility of using eyebrows as distinctive segments with brightness-specific characteristics, it is also possible to use shadow-forming areas of the eye sockets or the eyes or the iris itself instead of the eyebrows.

Gemäß einer weiteren vorteilhaften Ausgestaltung wird in dem Schritt des Überprüfens der positionsmäßigen Beziehung in einem zweiten Untersuchungsschritt (entsprechend einem zweiten Detektionsmechanismus) jedes der festgelegten Segmente dahingehend untersucht, ob zu diesem Segment ein viertes festgelegtes Segment existiert, das sich unterhalb, insbesondere entlang einer Vertikalen, dem untersuchten festgelegten Segment befindet und für das gilt, dass die horizontale Länge des untersuchten festgelegten Segments und der Abstand des vierten festgelegten Segments zum untersuchen festgelegten Segments ein zweites vorbestimmtes Verhältnis aufweisen. Dieser zweite Untersuchungsschritt geht dabei davon aus, dass insbesondere bei Personen, die eine Brille oder Sonnenbrille tragen, die einzelnen Augenbrauen nicht erkennbar sind, sondern dass auf Grund der starken Konturen der Brillen lediglich ein Segment bzw. eine Struktur erkennbar ist, die geometrisch der Länge der beiden Augenbrauen zusammen entspricht. Somit steht auch die Länge dieses die beiden Augenbrauen umfassenden Segments wieder in einem bestimmten Verhältnis zur Entfernung des Mundes im Gesicht des Benutzers. Werden somit zwei festgelegte Segmente erkannt, bei denen die Länge des ersten Segments zum Abstand des zweiten Segments ein zweites vorbestimmtes Verhältnis aufweist, so kann auch gemäß dem zweiten Untersuchungsschritt auf das Vorhandensein eines menschlichen Gesichts geschlossen werden. Als gültiger Bereich für das zweite vorbestimmte Verhältnis kann wieder ein Wert von 1:1 bis 1:1,7, aber insbesondere von 1:1,2 bis 1:1,5 angenommen werden.According to one Another advantageous embodiment is in the step of checking the positional relationship in a second investigation step (corresponding to a second Detection mechanism) of each of the specified segments examines whether a fourth fixed segment for this segment exists that is below, especially along a vertical, the examined determined segment and for which that the horizontal length of the examined fixed segment and the distance of the fourth fixed Segments to examine a predetermined segment Ratio. This second investigation step assumes that in particular in individuals who wear glasses or sunglasses, the individual eyebrows are not recognizable, but because of the strong contours only one segment or structure is recognizable, the geometrical of the length of the two eyebrows together. So that stands too Length of this the segment comprising two eyebrows again in a specific segment relationship to remove the mouth from the user's face. So be two defined segments, in which the length of the first segment to the distance of the second segment a second predetermined relationship according to the second examination step the presence of a human face. As a valid one Area for the second predetermined ratio can again a value from 1: 1 to 1: 1.7, but in particular from 1: 1.2 to 1: 1.5 can be assumed.

Gemäß einer vorteilhaften Ausgestaltung wird in dem Schritt des Überprüfens der positionsmäßigen Beziehung zunächst der erste Untersuchungsschritt durchgeführt, um insbesondere nach Gesichtern von Menschen zu suchen, die keine Brillenträger sind. Zeigt der erste Untersuchungsschritt kein Ergebnis, bei dem zu den jeweiligen untersuchten Segmenten kein zweites und drittes Segment gefunden worden ist, so wird im Folgenden der zweite Untersuchungsschritt durchgeführt. Es ist jedoch auch möglich, zunächst den zweiten und dann den ersten Untersuchungsschritt durchzuführen.According to one advantageous embodiment is in the step of checking the positional relationship first the first step of the investigation was carried out, especially according to faces to be looked for by people who are not wearing glasses. Shows the first exam step no result for the respective segments examined If no second and third segments have been found, the The second examination step is then carried out. It is also possible first to carry out the second and then the first examination step.

Bei dem bisher beschriebenen Verfahren bzw. den vorteilhaften Ausgestaltungen hiervon wird insbesondere indem ersten Untersuchungsschritt die positionsmäßige Beziehung dreier festgelegter Segmente zueinander bzw. ein erstes vorbestimmtes Verhältnis der Abstände der Segmente zueinander und wird bei dem zweiten Untersuchungsschritt die positionsmäßige Beziehung von (zwei) Segmenten in Abhängigkeit der Größe und/oder Form, insbesondere der (horizontalen) Länge, des ersten Segments als Kriterium zum Ableiten eines Vorhandenseins eines Gesichts in dem erfassten Bild einer Szene verwendet werden. Zur Verbesserung des Verfahrens, d. h. zur Erhöhung der Wahrscheinlichkeit, dass es sich tatsächlich um. ein Gesicht handelt, kann gemäß einer weiteren vorteilhaften Ausgestaltung in einem weiteren Verfahrensschritt ein Extrahieren biometrischer Merkmale bezüglich der Mundpartie oder Lippenpartie aus einem Analysebereich um ein gefundenes drittes oder viertes festgelegtes Segment durchgeführt werden. Das bedeutet, es sollen in diesem zusätzlichen Schritt weitere Untersuchungen durchgeführt werden, ob das einen Mundbereich repräsentierende dritte oder vierte festgelegte Segment tatsächlich einen Mundbereich bzw. eine Mundpartie repräsentiert. Dabei können in dem erfassten Bild in einem Bereich, der sich an der Position des dritten oder des vierten festgelegten Segments befindet und das jeweilige Segment umfasst, Hell-Dunkel- und Dunkel-Hell-Helligkeitsübergänge bestimmt werden, um das Vorhandensein einer Oberlippe und Unterlippe einer Mundpartie abzuleiten. Vorteilhafter Weise wird dabei der Analysebereich des erfassten Bildes, der Bereich mit der vermuteten Mundpartie, einer Bearbeitung mit einem horizontal orientierten Gradientenfilter unterzogen, um ein drittes bearbeitetes Bild zu erhalten. Das dritte bearbeitete Bild, von oben nach unten betrachtet, kann dann entsprechend dem ersten bearbeiteten Bild eine scharfen Hell-Dunkel-Übergang vom Oberlippenbereich zum "Zwischenlippenbereich" bzw. zum Mundöffnungsbereich darstellen, wobei anhand dieses Übergangs auf die Form der Oberlippe geschlossen werden kann. Diese ermittelte Form kann einem ersten Prüfschritt unterzogen werden, der anhand der Form der Oberlippenlinie feststellen soll, ob es sich tatsächlich um eine Oberlippe oder irgendeine andere Struktur handelt. Weist die Oberlippe für sie spezifische geometrische Eigenschaften auf, wie beispielsweise eine bestimmte (horizontale) Länge oder eine bzw. mehrere spezifische Krümmungen, so kann zunächst auf das tatsächliche Vorhandensein einer Mundpartie und somit auch auf das Vorhandensein eines Gesichts eines Menschen geschlossen werden. Somit kann das oben beschriebene Verfahren einschließlich dessen vorteilhafter Ausgestaltungen, bei dem bzw. denen anhand der positionsmäßigen Beziehung verschiedener festgelegter Segmente auf das Vorhandensein eines Gesichts geschlossen wird, durch eine Merkmalsextraktion, in diesem Fall der Extraktion geometrischer Eigenschaften der Oberlippe in dem ersten Prüfschritt, verbessert werden. Das bedeutet, dass nach diesem ersten Abschnitt der Merkmalsextraktion im Rahmen des ersten Prüfschritts schon die Wahrscheinlichkeit erhöht werden kann, dass es sich bei dem dritten oder vierten festgelegten Segment bzw. bei dem Analysebereich um einen Bildbereich handelt, in dem sich eine Mundpartie eines Gesichts befindet.In the previously described method and the advantageous refinements thereof, the positional relationship of three defined segments to one another or a first predetermined ratio of the spacing of the segments to one another, in particular in the first examination step, and the positional relationship of (two) segments becomes dependent in the second examination step the size and / or shape, in particular the (horizontal) length, of the first segment can be used as a criterion for deriving the presence of a face in the captured image of a scene. To improve the process, ie to increase the likelihood that it is actually. a face is involved, according to a further advantageous embodiment, biometric features relating to the mouth area or lip area can be extracted from an analysis area around a found third or fourth defined segment in a further method step. This means that in this additional step further tests should be carried out to determine whether the third or fourth defined segment representing a mouth area actually represents a mouth area or a mouth area. Light-dark and dark-light transitions can be determined in the area of the captured image in a region that is at the position of the third or fourth defined segment and includes the respective segment, in order to determine the presence of an upper lip and a lower lip Derived mouth part. The analysis area of the captured image, the area with the suspected mouth area, is advantageously subjected to processing with a horizontally oriented gradient filter in order to obtain a third processed image. The third processed image, viewed from top to bottom, can then represent a sharp light-dark transition from the upper lip area to the “intermediate lip area” or to the mouth opening area, corresponding to the first processed image, it being possible to infer the shape of the upper lip on the basis of this transition. This determined shape can be subjected to a first test step, which is to use the shape of the upper lip line to determine whether it is actually an upper lip or some other structure. Does the upper lip have specific geometric properties for it, such as a certain (horizontal) length or one or more specific curvatures, it can be concluded that the actual presence of a mouth area and thus also the presence of a human face. Thus, the method described above, including its advantageous refinements, in which the presence of a face is inferred based on the positional relationship of various defined segments, can be improved by feature extraction, in this case the extraction of geometric properties of the upper lip in the first test step become. This means that after this first section of the feature extraction within the scope of the first test step, the probability can already be increased that the third or fourth defined segment or the analysis area is an image area in which a mouth part of a face is located ,

Erfüllen die bestimmten geometrischen Eigenschaften (beispielsweise bezüglich Länge bzw. Krümmung) die für eine Oberlippe spezifischen Kriterien, so kann die Merkmalsextraktion in einen zweiten Extraktionsabschnitt bzw. einen zweiten Prüfschritt übergehen, in dem nun eine Unterlippe bzw. Unterlippenlinie extrahiert werden soll. Eine Unterlippe kann beispielsweise mittels eines vertikalen Such-Algorithmus erkannt bzw. extrahiert werden, bei dem im Analysebereich zunächst die Graustufenwerte der Oberlippe ermittelt werden und dann entsprechende Graustufenwerte in einem Abschnitt gesucht werden, der sich in vertikaler Richtung unterhalb dem Bereich der Oberlippe befindet. Auf diese Weise ist es möglich, sehr helle Bereiche, wie beispielsweise die Zähne, sowie sehr dunkle Bereiche, wie beispielsweise den Rachenbereich, zu überspringen und einen bezüglich der Helligkeit der Oberlippe als Unterlippe zu identifizieren. Eine weitere Möglichkeit, die Unterlippe zu extrahieren, beruht auf der Tatsache, dass bei entsprechend großer Wahl des Analysebereichs, bei der ein Teil des Kinnbereichs mit enthalten ist, insbesondere in dem dritten bearbeiteten Bild von unten nach oben betrachtet, ein dunkler Bereich (Schattenbereich) unterhalb der Unterlippe erkennbar ist, der darauf beruht, dass die Unterlippe normaler Weise bezüglich des Gesichts um einen kleinen Betrag nach vorne gekrümmt ist. Somit kann gemäß diesem Verfahren anhand des untersten und markantesten Helligkeitsübergangs von Dunkel nach Hell von unten nach oben betrachtet, auf die Unterlippe bzw. Unterlippenlinie geschlossen werden.Fulfill the certain geometric properties (for example with regard to length or curvature) for one Upper lip specific criteria, so the feature extraction pass into a second extraction section or a second test step, in which a lower lip or lower lip line is now extracted should. A lower lip can, for example, by means of a vertical Search algorithm can be recognized or extracted, in which the Gray scale values of the upper lip are determined and then corresponding gray scale values be searched in a section that is vertical located below the area of the upper lip. That way it possible very bright areas, such as the teeth, and very dark areas, such as the throat area, and skip one regarding the Identify the brightness of the upper lip as the lower lip. A another way Extracting the lower lip relies on the fact that at greater Choice of the analysis area, in which a part of the chin area with is included, especially in the third edited image of viewed from the bottom up, a dark area (shadow area) below the lower lip, which is due to the fact that the lower lip normally around the face small amount curved forward is. Thus, according to this procedure based on the lowest and most distinctive brightness transition viewed from dark to light from bottom to top, to the lower lip or lower lip line are closed.

Sind nun Oberlippe und Unterlippe identifiziert, so ist es nun möglich, Viseme bzw. Mundmerkmale zu extrahieren, indem die geometrischen Eigenschaften der Oberlippe und Unterlippe getrennt untersucht werden.are now identified upper lip and lower lip, so it is now possible to Viseme or extract mouth features by the geometric properties the upper lip and lower lip are examined separately.

Es kann somit zusammenfassend gesagt werden, dass ein Verfahren gemäß der vorliegenden Erfindung es zunächst erlaubt, anhand eines Bildes in einem Durchlauf helligkeitsspezifische Segmente festzulegen, um bei der Überprüfung derer positionsmäßigen Beziehung auf das Vorhandensein und die Position eines (menschlichen) Gesichts zu schließen.It can thus be summarized that a method according to the present invention it first allows you to use a picture in one run to adjust the brightness Segments to help you check their positional relationship the presence and position of a (human) face close.

Ein Programmprodukt für eine Datenverarbeitungsanlage, das Codeabschnitte enthält, mit denen eines der geschilderten Verfahren auf der Datenverarbeitungsanlage ausgeführt werden kann, lässt sich durch geeignete Implementierung des Verfahrens in einer Programmiersprache und Übersetzung in von der Datenverarbeitungsanlage ausführbaren Code ausführen. Die Codeabschnitte werden dazu gespeichert. Dabei wird unter einem Programmprodukt das Programm als handelbares Produkt verstanden. Es kann in beliebiger Form vorliegen, so zum Beispiel auf Papier, einem computerlesbaren Datenträger oder über ein Netz verteilt.On Program product for a data processing system that contains code sections with which one of the described processes on the data processing system accomplished can be through suitable implementation of the method in a programming language and translation into Execute code executable by the data processing system. The Sections of code are saved for this. It is under a program product understood the program as a tradable product. It can be in any Form, for example on paper, a computer-readable data carrier or via a Network distributed.

Weitere Vorteile und Merkmale der Erfindung ergeben sich aus der Beschreibung eines Ausführungsbeispiels anhand der Zeichnung. Dabei zeigt:Further Advantages and features of the invention result from the description of an embodiment based on the drawing. It shows:

1 einen Benutzer mit einem mobilen Endgerät; 1 a user with a mobile terminal;

2 eine grafische Benutzerschnittstelle mit Steuerung eines Selektionsmittels durch eine Bewegung des Kopfes des Benutzers; 2 a graphical user interface with control of a selection means by moving the head of the user;

3 eine Darstellung eines Selektionsmittels als Mauszeiger; 3 a representation of a selection means as a mouse pointer;

4 eine schematische Anordnung der wesentlichen Komponenten zur Analyse eines Bildes eines Gesichts gemäß einer bevorzugten Ausführungsform; 4 a schematic arrangement of the essential components for analyzing an image of a face according to a preferred embodiment;

5 eine schematische Anordnung der Verfahrensschritte gemäß einem primären Detektionsmechanismus zum Auffinden eines Gesichts, insbesondere einer Mundpartie, in einem Bild; 5 a schematic arrangement of the method steps according to a primary detection mechanism for locating a face, in particular a mouth area, in an image;

6 ein Bild eines Benutzers im Rohzustand und nach zwei bestimmten Verarbeitungsschritten; 6 an image of a user in the raw state and after two specific processing steps;

7 ein Bild eines Benutzers mit einem markierten Segment eines Mundbereichs; 7 an image of a user with a marked segment of a mouth area;

8 eine vergrößerte Ansicht des in 5 dargestellten Mundbereichs mit markierten Oberlippen- und Unterlippenlinien; 8th an enlarged view of the in 5 shown mouth area with marked upper lip and lower lip lines;

9 ein Bild eines Benutzers im Rohzustand und nach einer Mehrzahl von Verarbeitungsschritten. 9 an image of a user in the Rohzu stood and after a plurality of processing steps.

Der Einzug von Kamerafunktionalitäten in mobile Endgeräte der dritten Generation erlaubt neue Wege der Interaktion mit den Geräten. Mittels Gesichtsdetektion und -tracking kann die von der Kamera aufgezeichnete Bewegung des Benutzers direkt in Bewegungsdaten umgesetzt werden. Diese Bewegungsdaten können derart ausgewertet werden, dass die als Positionierung für die Selektion von auf einer grafischen Benutzerschnittstelle dargestellten Buttons verwendet werden.The Introduction of camera functionalities into mobile devices the third generation allows new ways of interacting with the Devices. Facial detection and tracking can be carried out by the camera recorded movement of the user directly converted into movement data become. This movement data can be evaluated in such a way that the positioning for the selection of buttons displayed on a graphical user interface be used.

Wie in den 1 und 2 gezeigt, kann durch leichte Bewegung eines mobilen Endgerätes 1 und/oder des Kopfes 2 eines Benutzers 3 ein Selektionsmittel (Selektionsmarke) zu einem gewünschten Button bewegt werden. Im dargestellten Ausführungsbeispiel ist dies der Button 9 auf der grafischen Benutzerschnittstelle 4. Dann kann entweder per akustischer Eingabe, insbesondere Spracheingabe, "Ja", Pfiff, Zungenschnalzen, per optischer Eingabe, insbesondere Augenzwinkern, öffnen des Mundes, per Druck auf eine Taste oder per Verweilen des Selektionsmittels auf dem selektierten Objekt in Form des Buttons 9 die zu diesem Objekt gehörige Funktion des mobilen Endgeräts ausgelöst werden.As in the 1 and 2 shown, can be done by moving a mobile device 1 and / or the head 2 of a user 3 a selection medium (selection marker) is moved to a desired button. In the illustrated embodiment, this is the button 9 on the graphical user interface 4 , Then either by acoustic input, in particular voice input, "yes", whistle, tongue-in-cheek, by optical input, in particular winking, opening the mouth, by pressing a key or by lingering the selection means on the selected object in the form of the button 9 the function of the mobile terminal associated with this object is triggered.

Das Selektionsmittel 5 und damit seine Position auf der grafischen Benutzeroberfläche 4 kann auch wie in 3 dargestellt optisch, insbesondere in Form eines Mauszeigers, ausgegeben werden. Der Mauszeiger wird dabei, analog zu optischen Mäusen, durch die Bewegung des Gerätes angetriggert und wird entsprechend der erkannten Bewegungsabschätzung bewegt. Dabei wird die Mauszeigerbewegung nicht mehr wie bei einer optischen Maus über die relative Bewegung zur zugrunde liegenden Oberfläche gemessen und berechnet, sondern aus der relativen Bewegung des mobilen Endgerätes zum Benutzer. Eine intuitive Bedienung ist dabei durch das bei dem Benutzer bereits bekannte Mauskonzept gegeben.The means of selection 5 and thus its position on the graphical user interface 4 can also like in 3 represented optically, in particular in the form of a mouse pointer. Analogous to optical mice, the mouse pointer is triggered by the movement of the device and is moved according to the detected movement estimate. The mouse pointer movement is no longer measured and calculated as with an optical mouse via the relative movement to the underlying surface, but rather from the relative movement of the mobile device to the user. An intuitive operation is given by the mouse concept already known to the user.

Dadurch kann bei mobilen Endgeräten, insbesondere bei mobilen Endgeräten mit weniger als 24 oder weniger als 10 Tasten, bei Mobiltelefonen und/oder bei PDAs, mit Kamerafunktionalität eine sehr komfortable Einhandbedienung ohne zusätzliche Hardware realisiert werden. Bei der Realisierung als bewegter Mauszeiger kann der Benutzer das ihm bekannte Bedienkonzept der Maus auf die Bewegung seines Endgeräts übertragen.Thereby can with mobile devices, especially with mobile devices with less than 24 or less than 10 keys, for mobile phones and / or for PDAs, with camera functionality a very comfortable one-hand operation without additional hardware become. When implementing it as a moving mouse pointer, the user can the mouse operating concept known to him on the movement of his Transfer terminal devices.

Es können weiterhin Stabilisierungsverfahren zur fließenden Bewegung des Mauszeigers bzw. der Button-Auswahl verwendet werden.It can continue stabilization process for smooth movement of the mouse pointer button selection.

Zum optischen Feedback kann entweder das Bild des Kopfs 2 des Benutzers wie in 2 dargestellt, eingespielt werden, oder das Verfahren kann wie in 3 dargestellt ohne Bild-Einspielung eingesetzt werden.The image of the head can be used for optical feedback 2 of the user as in 2 shown, imported, or the procedure can be as in 3 shown can be used without image recording.

Für eine Bedienung in dunkler Umgebung kann das mobile Endgerät mit Beleuchtungseinrichtungen wie beispielsweise Infrarotleuchtdioden ausgestattet werden.For an operation in a dark environment, the mobile device can be equipped with lighting devices such as infrared light emitting diodes.

Das mobile Endgerät und das vorgeschlagene Verfahren können in vielfältiger Weise eingesetzt bzw. angewendet werden. Dazu gehört eine Eingabe von Telefonnummern, bei entsprechender Größe der Anzeige bzw. einem Softscrolling auch eine Auswahl von Buchstaben oder Sonderzeichen, beispielsweise für SMS, eine Menüsteuerung des Gerätes und/oder eine Applikationssteuerung.The mobile device and the proposed method can be done in many ways used or applied. This includes entering phone numbers, with the appropriate size of the ad or a soft scrolling also a selection of letters or special characters, for example for SMS, a menu control of the device and / or an application control.

Zum Messen der Relativbewegung, also zur Lokalisation des Benutzers bzw. seines Gesichts gegenüber dem Endgerät, kann das im Folgenden beschriebene Verfahren verwendet werden.To the Measuring the relative movement, i.e. to localize the user or his face the terminal, the method described below can be used.

Es sei dabei zunächst auf 4 verwiesen, in der eine schematische Darstellung der im mobilen Endgerät enthaltenen Komponenten bzw. Mechanismen zum Erfassen und Analysieren eines Bildes dargestellt sind. Wie in 4 zu erkennen ist, ist dabei eine Kamera K als optischer Sensor vorgesehen, die in der Lage ist, eine Szene (eine reelle Umgebung mit bestimmten Sachen und/oder Personen) zu erfassen. Die Kamera kann dabei beispielsweise als eine CCD-Kamera ausgebildet sein. Die Kamera K ist mit einem optischen Auswerteabschnitt OAA verbunden, in dem verschiedene Mechanismen bzw. Verfahren zur Analyse der von der Kamera erfassten Szene ablaufen können. Der optische Auswerteabschnitt OAA ist dabei in der Lage, einen ersten oder primären Detektionsmechanismus PLD zum Auffinden eines Gesichts bzw. einer Mundpartie in dem erfassten Bild der Szene durchzuführen. Entsprechend kann der optische Auswerteabschnitt einen alternativen oder zusätzlichen zweiten bzw. sekundären Detektionsmechanismus SLD zum Auffinden eines Gesichts bzw. einer Mundpartie durchführen. Nach gefundener Position des Gesichts gemäß dem primären oder sekundären Detektionsmechanismus kann mittels einer Merkmalsextraktion ME zum Einen eine verbesserte Plausibilitätsüberprüfung durchgeführt werden, ob es sich tatsächlich um das gefundene Gesicht, insbesondere seine Mundparite, handelt. Die aus den Mechanismen PLD, SLD und ME gewonnenen Ergebnisse, nämlich dass in dem Bild ein Gesicht einer Person bzw. eine Mundpartie vorhanden ist, können in eine Steuereinrichtung SE weitergeleitet werden.It is initially on 4 referenced, in which a schematic representation of the components or mechanisms contained in the mobile terminal for capturing and analyzing an image are shown. As in 4 It can be seen that a camera K is provided as an optical sensor, which is able to capture a scene (a real environment with certain things and / or people). The camera can be designed, for example, as a CCD camera. The camera K is connected to an optical evaluation section OAA, in which various mechanisms or methods for analyzing the scene captured by the camera can run. The optical evaluation section OAA is able to carry out a first or primary detection mechanism PLD for locating a face or a part of the mouth in the captured image of the scene. Accordingly, the optical evaluation section can carry out an alternative or additional second or secondary detection mechanism SLD for locating a face or a mouth area. After the position of the face has been found according to the primary or secondary detection mechanism, an improved plausibility check can be carried out on the one hand by means of a feature extraction ME as to whether it is actually the found face, in particular its mouth parity. The results obtained from the mechanisms PLD, SLD and ME, namely that a face of a person or a mouth area is present in the image, can be forwarded to a control device SE.

Für den Fall der im folgenden erläuterten bevorzugten Ausführungsform sind die in 4 dargestellten Komponenten in einer Datenverarbeitungsanlage in Form eines Mobiltelefons (es sind natürlich auch andere Realisierungen einer Datenverarbeitungsanlage möglich, in denen die in 4 dargestellten Komponenten vorgesehen werden können) angeordnet, wobei die Kamera K fest im Mobiltelefon integriert sein kann oder als auswechselbare Peripheriekomponente vorgesehen sein kann. Gerade in zumeist kleinen mobilen Geräten wie den Mobiltelefonen, ist es wichtig, dass Anwendungen, wie die im Folgenden beschriebenen Analyse einer Szene, ressourcensparende Algorithmen aufweist, die hinsichtlich des Speicherbedarfs, so wie der Rechenzeit bzw. Rechenleistung minimiert sind, um die Ressourcen der Geräte möglichst auszunutzen, ohne aber einen zusätzlichen Prozessor- oder Speicherausbau notwendig zu machen.In the case of the preferred embodiment explained below, the in 4 Darge made components in a data processing system in the form of a mobile phone (other realizations of a data processing system are of course also possible, in which the in 4 components can be provided) arranged, the camera K can be permanently integrated in the mobile phone or can be provided as an exchangeable peripheral component. Especially in mostly small mobile devices such as mobile phones, it is important that applications, such as the analysis of a scene described below, have resource-saving algorithms that are minimized in terms of memory requirements, such as computing time and computing power, to the resources of the devices to be used as far as possible, but without requiring additional processor or memory expansion.

Im Folgenden sollen nun die in dem optischen Auswerteabschnitt OAA durchführbaren Mechanismen bzw. einzelnen Verfahren ausführlich dargestellt werden.in the The following are now those in the optical evaluation section OAA feasible Mechanisms or individual procedures are presented in detail.

Primärer DetektionsmechanismusPrimary detection mechanism

Es sei nun auf 5 verwiesen, in der eine schematisch Darstellung der Komponenten bzw. einzelnen Verfahrensschritte zum Realisieren des primären Detektionsmechanismus gezeigt sind. Ein von der Kamera K erfasstes Bild wird zunächst einer optionalen Bildkontrastverbesserung BKV durch einen histogramm-basierten Graustufenausgleich (Histogram Equalization) je KV der einzelnen Bildpunkte des erfassten Bild zugeführt wird. Das so mit dem Kontrast verbesserte erfasste Bild wird dann einer Bearbeitung durch einen horizontal orientierten positiven Gradientenfilter GF zugeführt, mittels der helligkeitsspezifische horizontale Konturen, d.h. markante bzw. scharfe Hell-Dunkel-Übergänge oder Dunkel-Hell-Übergänge extrahiert werden können. Das so erhaltene erste bearbeitete Bild wird einem Segmentationsalgorithmus SA zugeführt, in dem allen Bildpunkten mit einem Grauwert über einen bestimmten Schwellenwert der Graustufenwert "weiß" zugeordnet wird, während den übrigen Bildpunkten der Graustufenwert "schwarz" zugeordnet wird. Auf diese Weise können beispielsweise nur bestimmte scharfe horizontale Hell-Dunkel-Übergänge sichtbar gemacht werden. In einem derartigen erhaltenen zweiten bearbeiteten Bild können die nun verbliebenen "weißen" Bereiche bezüglich ihrer Fläche, Position oder Geometrie untersucht werden. Die in dem Segmentationsalgorithmus SA festgelegten Segmente können dann einen ersten Untersuchungsschritt US1 unterzogen werden, indem anhand der positionsmäßigen Beziehung entsprechender festgelegter Segmente bzw. anhand der positionsmäßigen Beziehung und der Form oder Ausdehnung der Segmente unter Einbeziehung biogeometrischer Kriterien für ein Gesicht auf das Vorhandensein eines Gesichts und auf die Position des Gesichts bzw. der entsprechenden Mundpartie geschlossen werden kann.It is now on 5 referenced, in which a schematic representation of the components or individual method steps for realizing the primary detection mechanism are shown. An image captured by the camera K is first fed to an optional image contrast improvement BKV by means of a histogram-based gray level compensation (histogram equalization) per KV of the individual pixels of the captured image. The image thus improved with the contrast is then processed by a horizontally oriented positive gradient filter GF, by means of which brightness-specific horizontal contours, ie distinctive or sharp light-dark transitions or dark-light transitions, can be extracted. The first processed image obtained in this way is fed to a segmentation algorithm SA in which all the pixels with a gray value above a certain threshold value are assigned the gray level value "white", while the other image points are assigned the gray level value "black". In this way, for example, only certain sharp horizontal light-dark transitions can be made visible. In a second processed image obtained in this way, the "white" areas which now remain can be examined with regard to their area, position or geometry. The segments defined in the segmentation algorithm SA can then be subjected to a first examination step US1, by using the positional relationship of correspondingly defined segments or based on the positional relationship and the shape or extent of the segments, including biogeometric criteria for a face, for the presence of a face and the position of the face or the corresponding mouth area can be concluded.

Ein derart beschriebener primärer Detektionsmechanismus soll nun anhand der 6A bis 6C ausführlich dargestellt werden. Dabei ist zunächst in 4A das von der Kamera erfasste Bild des Benutzers in einem Fahrzeug dargestellt, das als Graustufenbild vorliegt, d. h. das Bild besteht aus einzelnen Bildpunkten, denen ein jeweiliger bestimmter Graustufenwert zugeordnet ist. Das optional einer Bildkontrastverbesserung BKV (vgl. 5) unterzogene erfasste Bild wird dann einer Bearbeitung durch einen horizontal orientierten positiven Gradientenfilter unterzogen, um horizontale Strukturen, d. h. markante Helligkeitsübergänge, zu ermitteln. Ein derart (erstes) bearbeitetes Bild ist in 6B zu sehen, bei dem Hell-Dunkel-Übergänge von oben nach unten betrachtet, ausgehend von einem mittleren Graustufenwert, entsprechend der Schärfe des Übergangs zu einem erhöhten Graustufenwert (in Richtung "weiß") übergehen, während Dunkel-Hell-Helligkeitsübergänge von oben nach unten betrachtet, ausgehend von einem mittleren Graustufenwert in einen geringeren Graustufenwert (in Richtung "schwarz") übergehen. Durch Anwenden einer Schwellwertbildung (wobei der Schwellwert in Abhängigkeit der Helligkeit des erfassten Bildes gewählt wird, beispielsweise anhand einer Histogrammdarstellung der Graustufenwerte der einzelnen Bildpunkte in dem erfassten Bild) werden Bildpunkten, deren Graustufenwert über dem helligkeitsabhängigen Schwellwert liegt, der Wert "weiß" zugeordnet, während den anderen Bildpunkten der Wert "schwarz" zugeordnet wird. Auf diese Weise können in einem (zweiten) bearbeiteten Bild eine Großzahl für die Analyse der Szene unwichtiger Details entfernt werden. In dem Segmentationsalgorithmus SA können ferner nun erhaltene weiße Bereiche entfernt werden, deren Größe oder Form nicht bestimmten Kriterien, insbesondere biogeometrischen Kriterien bezüglich eines Gesichts entsprechen. Nach Verwerfen dieser zu kleinen bzw. zu großen weißen Bereiche oder in der Form nicht relevanten Bereiche und durch Zuordnen des Werts "schwarz" den entsprechenden Bildpunkten werden die eigentlichen für die spätere Untersuchung relevanten Segmente festgelegt. Zur besseren Analyse werden diese Segmente in Rechtecke einbeschrieben, wie es in 6C zu erkennen ist. In dem ersten Untersuchungsschritt US1 werden nun die festgelegten noch verbliebenen Segmente der Reihe nach auf ihre geometrische bzw. positionsmäßige Beziehung zueinander untersucht. Die Untersuchung basiert darauf, dass zu zwei horizontal zueinander angeordneten Segmenten, die die Augenbrauen (vgl. die Augenbrauenbereiche ABB in 4A, 4B) oder Brillenkonturen in einem Gesicht eines Menschen darstellen können, ein drittes unterhalb diesen ersten beiden Segmenten liegendes Segment gesucht wird, das einem möglichen Mundsegment (vgl. den Mundbereich MB in 6A, 6B) basierend auf dem Helligkeitsübergang von dem Oberlippenbereich in den Zwischenlippenbereich entspricht. Sind dabei ein erstes und ein zweites horizontal zueinander liegendes Segment gefunden, wie die Segmente S1 und S2, so wird deren Abstand zueinander, in diesem Fall der Abstand b, ausgehend von den jeweiligen Mittelpunkten der Segmente bestimmt. Anschließend wird unterhalb der beiden Segmente S1 und S2 ein drittes Segment gesucht, dessen Abstand, der Abstand a, zu den ersten beiden Segmenten bzw. einer Verbindungslinie hiervon in einem ersten biogeometrischen Verhältnis bezüglich eines menschlichen Gesichts stehen. Ein derartiges Verhältnis von a zu b kann einen Wert zwischen 1,0:1 bis 1,7:1, jedoch insbesondere einen Wert von 1,2:1 bis 1,5:1 aufweisen. Je nach Verwendung des Gültigkeitsbereichs für das erste Verhältnis von a zu b, könnten in 6C das Segment S3 und S4 als mögliches drittes Segment (potenzielles Mundsegment) in Frage kommen. Gemäß einer vorteilhaften Ausgestaltung kann daher in diesem Fall noch nach einem vierten relevanten Segment gesucht werden, das sich unmittelbar unterhalb des dritten Segments befindet. Basierend auf der Tatsache, dass im Normalfall die Unterlippe eines Mundsegments leicht nach vorne bezüglich des Gesichts gekrümmt ist und somit unterhalb der Unterlippe ein Schattenbereich entsteht, kann dieser Schattenbereich bei einer Art Plausibilitätsprüfung als viertes Segment, das sich unmittelbar unterhalb des dritten Segments befinden muss, dienen. Auf Grund dieser Überprüfung kann dann das Segment S4 als potenzielles Mundsegment identifiziert werden, wobei das Segment S5 den Schatten unterhalb der Unterlippe darstellt. Nun wird ein Bereich in dem erfassten Bild von 6A gespeichert, der den als potenzielles Mundsegment identifizierten Bereich (Segment S4) in Größe und Position entspricht. Dieser Bereich, der später als Analysebereich bezeichnet wird, wird für die folgende Merkmalsextraktion verwendet.A primary detection mechanism described in this way is now to be described using the 6A to 6C be presented in detail. It is initially in 4A the image of the user captured by the camera is displayed in a vehicle and is in the form of a grayscale image, ie the image consists of individual image points to which a respective specific grayscale value is assigned. The optional image contrast enhancement BKV (cf. 5 ), the captured image is then subjected to processing by a horizontally oriented positive gradient filter in order to determine horizontal structures, ie striking transitions in brightness. Such a (first) processed image is in 6B can be seen in which light-dark transitions viewed from top to bottom, starting from a medium grayscale value, in accordance with the sharpness of the transition to an increased grayscale value (towards "white"), while dark-light-light transitions from top to bottom considered, starting from a medium grayscale value to a lower grayscale value (in the "black" direction). By applying a threshold value formation (the threshold value being selected as a function of the brightness of the captured image, for example on the basis of a histogram representation of the gray level values of the individual image points in the captured image), image elements whose gray level value is above the brightness-dependent threshold value are assigned the value “white”, while the other pixels are assigned the value "black". In this way, a large number can be removed in a (second) edited image for the analysis of the scene of unimportant details. In the segmentation algorithm SA, white areas obtained whose size or shape do not correspond to certain criteria, in particular biogeometric criteria with regard to a face, can now also be removed. After discarding these too small or too large white areas or areas that are not relevant in form and by assigning the value "black" to the corresponding pixels, the actual segments relevant for the later examination are determined. For better analysis, these segments are inscribed in rectangles, as described in 6C can be seen. In the first examination step US1, the defined remaining segments are examined in order for their geometric or positional relationship to one another. The investigation is based on the fact that two horizontally arranged segments that form the eyebrows (see the eyebrow areas ABB in 4A . 4B ) or to show the contours of glasses in a human face, a third segment below these first two segments is sought, which represents a possible segment of the mouth (cf. the mouth area MB in 6A . 6B ) based on the brightness transition from the upper lip area to the intermediate lip area. If a first and a second segment lying horizontally to one another are found, such as the segments S1 and S2, their distance from one another, in this case the distance b, is determined on the basis of the respective center points of the segments. Subsequently, a third segment is sought below the two segments S1 and S2, whose distance, the distance a, from the first two segments or a connecting line thereof is in a first biogeometric relationship with respect to a human face. Such a ratio of a to b can have a value between 1.0: 1 to 1.7: 1, but in particular a value of 1.2: 1 to 1.5: 1. Depending on the use of the scope for the first ratio of a to b, in 6C the segment S3 and S4 as a possible third segment (potential mouth segment) come into question. According to an advantageous embodiment, it is therefore possible in this case to search for a fourth relevant segment which is located immediately below the third segment. Based on the fact that the lower lip of a mouth segment is normally slightly curved forward with respect to the face and thus a shadow area is created below the lower lip, this shadow area can be used as a fourth segment in a kind of plausibility check, which must be located immediately below the third segment. serve. Based on this check, segment S4 can then be identified as a potential mouth segment, segment S5 representing the shadow below the lower lip. Now an area in the captured image of 6A stored, which corresponds to the size and position of the area identified as a potential mouth segment (segment S4). This area, which will later be referred to as the analysis area, is used for the following feature extraction.

Es sei bemerkt, dass der gesamte Vorgang des primären Detektionsmechanismus, wie er gerade beschrieben worden ist, in einem einzigen Durchgang durchgeführt werden kann, wobei am Ende des Durchgangs das ursprünglich erfasste Bild verworfen werden kann und nur noch die gespeicherten Bildpunktdaten des Analysebereich benötigt werden. Wie es ferner zu erkennen ist, werden innerhalb dieses einzigen Durchlaufs die Bilddaten des erfassten Bildes mit sehr einfachen Algorithmen erheblich verringert, was der Anforderung nach Minimierung des Speicherbedarfs, Rechenzeit und Durchlaufzeit Rechnung trägt.It it should be noted that the entire process of the primary detection mechanism, as just described, in a single pass carried out can be, whereby at the end of the run the originally recorded Image can be discarded and only the saved pixel data of the analysis area is required become. As can also be seen, within this single pass the image data of the captured image with very simple algorithms significantly reduced, which is the requirement to minimize memory requirements, Computing time and lead time takes into account.

Merkmalsextraktionfeature extraction

Die nun folgende Merkmalsextraktion dient beispielsweise der Plausibilitätsprüfung, ob in dem gefundenen Analysebereich wirklich ein Gesicht mit Mundpartie bzw. Lippen vorliegt. Zunächst sei auf 7 verwiesen, in der nochmals die von der Kamera K in 5 erfasste Szene entsprechend 6A dargestellt ist, wobei der nun im Folgenden zu analysierende Bereich AB der Mundpartie, der während der Durchführung des ersten Detektionsmechanismus gespeichert wurde, markiert ist. Dieser Bereich ist vergrößert in 8 dargestellt. Entsprechend der in 5 dargestellten Bearbeitung mit einem horizontal orientierten Gradientenfilter wird nun auch der in 8 vergrößert dargestellte Analysebereich AB einer Bearbeitung mit einem horizontal orientierten positiven Gradientenfilter unterzogen. Es sei bemerkt, dass vor der Bearbeitung mit dem Gradientenfilter wieder eine Bildkontrastverbesserung entsprechend der Bildkontrastverbesserung BKV in 5 durchgeführt werden kann. Durch die Bearbeitung mit dem horizontal orientierten positiven Gradientenfilter entsteht nun ein drittes bearbeitetes Bild, bei dem (horizontale) Hell-Dunkel-Übergänge, insbesondere von dem Oberlippenbereich in den Zwischenlippenbereich, oder anders ausgedrückt von dem Bereich der Oberlippe zu dem Bereich unterhalb der Oberlippe extrahiert werden. Auf diese Weise ist es möglich, einzelne Segmente der Oberlippe zu gewinnen, welche miteinander verbunden werden können und geglättet werden können. Die nun gefundene bzw. geglättete Oberlippenlinie kann nun bezüglich ihrer geometrischen Eigenschaften (Länge, Krümmung usw.) bewertet werden, d. h. ob sie biogeometrischen Merkmalen einer tatsächlichen Oberlippe bzw. Oberlippenlinie entspricht. Es ist nun möglich, dass sich in dem Analysebereich AB mehrere Hell-Dunkel-Übergänge befinden, die eine Oberlippenlinie darstellen können. Wird eine erste Oberlippenlinie bzw. eine Kombination mehrere als Oberlippenlinie identifizierter Segmente, wie gerade beschrieben, negativ bewertet, wird ein weiterer Hell-Dunkel-Übergang bzw. ein weiterer Abschnitt aus mehreren Hell-Dunkel-Übergängen, die zu einer Oberlippenlinie zusammensetzbar sind, auf das Vorhandensein bestimmter geometrischer Eigenschaften entsprechend einer tatsächlichen Oberlippe untersucht. In Versuchen hat sich gezeigt, dass eine Wiederholung der Untersuchung mit einem drittwahrscheinlichst möglichen Hell-Dunkel-Übergangsbereich zwar möglich ist, aber meist nicht erfolgreich, weshalb gemäß dieser Ausgestaltung der Merkmalsextraktion zu dem unten näher erläuterten sekundären Detektionsmechanismus zum Auffinden der Position eines Gesichts bzw. einer Mundpartie übergegangen wird.The following feature extraction is used, for example, to check the plausibility of whether there is really a face with the mouth or lips in the analysis area found. First up 7 referenced in which the camera K in 5 captured scene accordingly 6A is shown, wherein the region AB of the mouth area which is now to be analyzed and which was stored during the implementation of the first detection mechanism is marked. This area is enlarged in 8th shown. According to the in 5 shown with a horizontally oriented gradient filter is now the in 8th Analysis area AB shown enlarged is subjected to processing with a horizontally oriented positive gradient filter. It should be noted that before processing with the gradient filter, an image contrast improvement corresponding to the image contrast improvement BKV in 5 can be carried out. Processing with the horizontally oriented positive gradient filter now creates a third processed image in which (horizontal) light-dark transitions, in particular from the upper lip area to the intermediate lip area, or in other words extracted from the area of the upper lip to the area below the upper lip become. In this way it is possible to obtain individual segments of the upper lip which can be connected to one another and can be smoothed. The upper lip line that has now been found or smoothed can now be evaluated with regard to its geometric properties (length, curvature, etc.), ie whether it corresponds to biogeometric characteristics of an actual upper lip or upper lip line. It is now possible that there are several light-dark transitions in the analysis area AB, which can represent an upper lip line. If a first upper lip line or a combination of several segments identified as the upper lip line, as just described, is assessed negatively, a further light-dark transition or a further section composed of several light-dark transitions, which can be combined to form an upper lip line examines the presence of certain geometric properties according to an actual upper lip. Experiments have shown that a repetition of the examination with a third-most likely light-dark transition area is possible, but mostly not successful, which is why, according to this embodiment, the feature extraction for the secondary detection mechanism explained in more detail below to find the position of a face or a mouth part is passed over.

Wird eine gefundene Oberlippenlinie als positiv (entsprechend einer tatsächlichen Oberlippe bzw. Oberlippenlinie) bewertet, wird ein zweiter Prüfschritt bzw. Extraktionsschritt durchgeführt, bei dem die Unterlippe oder Unterlippenlinie identifiziert werden soll. Da das genaue Extrahieren der Unterlippe auf Grund generell schwächerer Konturierung der Unterlippe mittels einem Filter, wie dem oben beschriebenen Gradientenfilter, schwierig ist, wird in diesem Fall ein vertikaler Suchalgorithmus angewandt, der ausgehend von der relativ gut erkennbaren Oberlippe bzw. Oberlippenlinie, welche durch die oberen weißen Quadrate OL in 8 dargestellt ist, den ersten farbähnlichen bzw. graustufenähnlichen Bildpunktwert entlang der Vertikalen nach unten sucht. Damit ist es möglich, helle Bereiche, wie beispielsweise die Zähne, sowie auch dunkle Bereiche, wie beispielsweise der Rachenbereich, zu überspringen und einen möglichst nahen Unterlippenbereich, der in 8 durch die Linie aus weißen Quadraten UL gebildet wird, zu identifizieren. Die entsprechenden gefundenen Ober- und Unterlippenlinien OL und UL können dann bezüglich ihrer geometrischen Eigenschaften (Länge und Krümmung) untersucht werden.If a found upper lip line is assessed as positive (corresponding to an actual upper lip or upper lip line), a second test step or extraction step is carried out in which the lower lip or lower lip line is to be identified. Since the exact extraction of the lower lip due to generally weaker contouring of the Lower lip using a filter, such as the gradient filter described above, is difficult in this case, a vertical search algorithm is used, starting from the relatively well recognizable upper lip or upper lip line, which is indicated by the upper white squares OL in 8th is shown, looking for the first color-like or grayscale-like pixel value down along the vertical. This makes it possible to skip bright areas, such as the teeth, as well as dark areas, such as the throat area, and a lower lip area as close as possible, which 8th identified by the line formed by white squares UL. The corresponding upper and lower lip lines OL and UL can then be examined with regard to their geometric properties (length and curvature).

Sekundärere DetektionsmechanismusSecondary detection mechanism

Wie oben bezüglich der Merkmalsextraktion erwähnt worden ist, ist es möglich, dass nach Durchführen des primären Detektionsmechanismus' und nach einer Plausibilitätsprüfung in einem ersten Prüfschritt der Merkmalsextraktion der durch den primären Detektionsmechanismus gefundene Analysebereich keine tatsächliche Mundpartie aufweisen kann. In diesem Fall wird der sekundäre Detektionsmechanismus eingesetzt, um einen Analysebereich für eine Mundpartie zu finden. Es sei dabei erwähnt, dass der sekundäre Detektionsmechanismus bereits algorithmisch beim Durchlauf des primären Detektionsmechanismus berücksichtigt werden kann, d. h. nach Erfassen des ersten Bildes der Szene. Es ist jedoch auch möglich, dass der zweite Detektionsmechanismus aber erst in einem zweiten Durchlauf bezüglich eines zweiten erfassten Bildes der Szene durchgeführt werden kann. Wird der sekundäre Detektionsmechanismus bereits beim Durchlaufen des primären Detektionsmechanismus durchgeführt, so können die damit identifizierten bzw. festgelegten Segmente dann erst beim Aufruf des sekundären Detektionsmechanismus ausgewertet werden.How above regarding of feature extraction mentioned has been, is it possible that after performing of the primary Detection mechanism 'and after a plausibility check in a first test step the feature extraction that found by the primary detection mechanism Analysis area no actual Mouth part can have. In this case, the secondary detection mechanism used to find a mouth area analysis area. It should be mentioned that the secondary Detection mechanism already algorithmic when running through the primary detection mechanism considered can be d. H. after capturing the first image of the scene. It is also possible that the second detection mechanism is only in a second Run on a second captured image of the scene can be performed. Will the secondary detection mechanism already performed when going through the primary detection mechanism, so can the segments identified or defined with it only then at Call the secondary Detection mechanism can be evaluated.

Der Grund für das Fehlschlagen des primären Detektionsmechanismus' kann darin liegen, dass bei stark konturierten Brillen, Sonnenbrillen oder durchgängigen Augenbrauen keine zwei getrennten Augenbrauensegmente für die gesichtsgeometrische Beurteilung zur Verfügung stehen, weshalb in diesem Fall ein anderer Detektionsmechanismus zu verwenden ist. Bei dem zweiten Detektionsmechanismus werden dabei zunächst die gleichen Bearbeitungsschritte, wie die in 5 erläuterten Schritte BKV, GF und SA durchgeführt. An Stelle des ersten Untersuchungsschritts US1 wird jedoch hier ein zweiter Untersuchungsschritt US2 verwendet, bei dem zum Finden der Lippen innerhalb des von der Kamera K erfassten Bildes wieder die Gesichtsgeometrie genutzt wird, wobei hier an Stelle des ersten und des zweiten Segments ein Segment gesucht wird, das geometrisch der Länge der beiden Augenbrauen zusammen entsprechen kann.The reason for the failure of the primary detection mechanism can be that in the case of strongly contoured glasses, sunglasses or continuous eyebrows, there are no two separate eyebrow segments available for facial geometry assessment, which is why a different detection mechanism must be used in this case. In the second detection mechanism, the same processing steps as that in FIG 5 steps BKV, GF and SA explained. Instead of the first examination step US1, however, a second examination step US2 is used here, in which the facial geometry is used again to find the lips within the image captured by the camera K, a segment being sought here instead of the first and the second segment, that can geometrically correspond to the length of the two eyebrows together.

Ausgehend von einem in 9A gezeigten Bild, die das Gesicht eines Benutzers (einer Person in einem Fahrzeug) aufweist, welcher eine stark konturierte Brille aufweist, soll hier das Gesicht bzw. die Mundpartie dieses Gesichts ermittelt werden. Nach Durchführen der in 5 erläuterten Bearbeitungsschritte BKV, GF, SA bzgl. des Bildes von 9A, wird ein in 9B gezeigtes (zweites) bearbeitetes Bild (entsprechend 6C) erhalten, in dem nur noch markante Hell-Dunkel-Übergänge bestimmter relevanter Größe und Form vorhanden sind. Zunächst wird von jedem dieser vorhandenen Segmente die horizontale Länge b' bestimmt, wie es bei dem Segment S6 dargestellt ist. Nun wird zu jedem Segment, hier beispielhaft an dem Segment S6 gezeigt, ein sich unterhalb befindliches Segment gesucht, das von diesem einen bestimmten Abstand a' aufweist, wobei das Verhältnis a' zu b' ein zweites biogeometrisches Verhältnis bezüglich eines Gesichts aufweisen muss. Dieses zweite Verhältnis von a zu b liegt dabei im Bereich von 1:1 bis 1,7:1, insbesondere jedoch zwischen 1,2:1 bis 1,5:1. Wie es in 9B zu sehen ist, wird zu dem Segment S6 ein weiteres Segment S7 gefunden, durch das die Bedingungen des zweiten Verhältnisses erfüllbar sind. Sind mehrere Segmente vorhanden, durch die das zweite Verhältnis erfüllbar ist, so ist es möglich, für diese Mehrzahl von Segmenten weitere Prüfkriterien zu finden. Beispielsweise kann die Länge des weiteren unterhalb des die Augenbrauen darstellenden Segments überprüft werden, die innerhalb vorbestimmter Parameter zu liegen hat. Ist die Länge des weiteren Segments beispielsweise zu groß (z.B größer als die Länge b), so kann dieses nicht als ein potenzielles Mundsegment identifiziert werden.Starting from an in 9A shown image, which has the face of a user (a person in a vehicle) who has strongly contoured glasses, the face or the mouth area of this face is to be determined here. After performing the in 5 explained processing steps BKV, GF, SA with respect to the image of 9A , an in 9B shown (second) processed image (accordingly 6C ) in which there are only striking light-dark transitions of certain relevant size and shape. First, the horizontal length b 'of each of these existing segments is determined, as shown in segment S6. Now, for each segment, shown here by way of example on segment S6, a segment located below is sought, which has a certain distance a 'from it, the ratio a' to b 'having to have a second biogeometric ratio with respect to a face. This second ratio of a to b is in the range from 1: 1 to 1.7: 1, but in particular between 1.2: 1 to 1.5: 1. Like it in 9B can be seen, a further segment S7 is found for segment S6, by means of which the conditions of the second relationship can be fulfilled. If there are several segments by means of which the second ratio can be fulfilled, it is possible to find further test criteria for this plurality of segments. For example, the length of the segment below the segment representing the eyebrows, which has to lie within predetermined parameters, can be checked. If, for example, the length of the further segment is too large (for example greater than the length b), this cannot be identified as a potential mouth segment.

Ist nun mittels dem sekundären Detektionsmechanismus zu einem ersten den Augenbrauen entsprechenden Segment ein zweites der Mundpartie entsprechendes Segment gefunden worden, so kann dieser gefundene Bereich bezüglich Position und Größe in dem erfassten Bild als Analysebereich gespeichert werden und der oben dargestellten Merkmalsextraktion zugeführt werden.is now by means of the secondary Detection mechanism for a first one corresponding to the eyebrows Segment found a second segment corresponding to the mouth area this area can be found in terms of position and size in the captured image can be saved as the analysis area and the one above feature extraction shown are supplied.

Zusammenfassend kann also festgestellt werden, dass die in dem optischen Auswerteabschnitt OAA durchgeführten Verfahren zur Analyse einer Szene bzw. zum Auffinden, Verfolgen und Analysieren einer Mundpartie, insbesondere für Datenverarbeitungsanlage mit eingeschränkten Ressourcen vorteilhaft ist. Durch den Einsatz von gesichtsgeometrischen Segmentierungsverfahren kann das visuelle oder optische Datenvolumen zur Weiterverarbeitung sehr schnell auf kleine Segmentmengen reduziert werden. Eingebaute Plausibilitäts- bzw. Robustheitsprüfung (bei der Merkmalsextraktion) erlauben dabei auch ein hohes Maß an Zuverlässigkeit und verhindern eine Fehldetektion.In summary, it can thus be stated that the methods carried out in the optical evaluation section OAA for analyzing a scene or for locating, tracking and analyzing a mouth area are advantageous, in particular for data processing systems with limited resources. Through the use of facial geometrical segmentation processes, the visual or optical data volume can be reduced very quickly to small segment quantities for further processing be reduced. Built-in plausibility and robustness checks (for feature extraction) also allow a high degree of reliability and prevent incorrect detection.

Alle Verfahren können vorteilhaft zur Bestimmung der Position des Benutzers gegenüber dem mobilen Endgerät verwendet werden, indem aus der Position des Gesichts, insbesondere der Mundpartie, im Bild die Position des Benutzers berechnet wird. Dabei ist es nicht einmal nötig, die absolute Position zu bestimmen, sondern nur die relative in aufeinander folgenden Bildern, aus der sich die Relativbewegung des Benutzers gegenüber dem mobilen Endgerät berechnen lässt. Entsprechend dieser Relativbewegung wird dann das Selektionsmittel auf der grafischen Benutzerschnittstelle verschoben.All Procedure can advantageous for determining the position of the user relative to the mobile terminal used by from the position of the face, in particular the mouth, in the picture the position of the user is calculated. there it’s not even necessary to determine the absolute position, but only the relative in successive images that make up the relative movement towards the user the mobile device can be calculated. The selection medium then becomes corresponding to this relative movement moved on the graphical user interface.

Claims (24)

Mobiles Endgerät mit – einer Benutzerschnittstelle (4) mit einem auf der Benutzerschnittstelle positionierbaren Selektionsmittel (5), – Mitteln zum Messen einer Relativbewegung des mobilen Endgeräts (1) gegenüber einem Benutzer (3), – Mitteln zum Positionieren des Selektionsmittels (5) auf der Benutzerschnittstelle (4) in Abhängigkeit der gemessenen Relativbewegung.Mobile device with - a user interface ( 4 ) with a selection means that can be positioned on the user interface ( 5 ), - means for measuring a relative movement of the mobile terminal ( 1 ) towards a user ( 3 ), - means for positioning the selection means ( 5 ) on the user interface ( 4 ) depending on the measured relative movement. Mobiles Endgerät nach Anspruch 1, dadurch gekennzeichnet, dass die Mittel zum Messen der Relativbewegung Mittel zum Erkennen der Position des Gesichts (2) des Benutzers (3) aufweist.Mobile terminal according to claim 1, characterized in that the means for measuring the relative movement means for recognizing the position of the face ( 2 ) of the user ( 3 ) having. Mobiles Endgerät nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Mittel zum Messen der Relativbewegung Mittel zum Erkennen der Position der Lippen und/oder eines Auges des Benutzers (3) aufweisen.Mobile terminal according to claim 1 or 2, characterized in that the means for measuring the relative movement means for recognizing the position of the lips and / or an eye of the user ( 3 ) exhibit. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das mobile Endgerät zum Messen der Relativbewegung einen optischen Sensor (K) zur Aufnahme eines Bildes des Benutzers (3) aufweist.Mobile terminal according to one of the preceding claims, characterized in that the mobile terminal for measuring the relative movement has an optical sensor (K) for recording an image of the user ( 3 ) having. Mobiles Endgerät nach Anspruch 4, dadurch gekennzeichnet, dass auf der Benutzerschnittstelle (4) zur Kontrolle der Relativbewegung als Feedback jeweils das aktuell aufgenommene Bild des Benutzers (3) darstellbar ist.Mobile terminal according to claim 4, characterized in that on the user interface ( 4 ) to control the relative movement as feedback the currently recorded image of the user ( 3 ) can be displayed. Mobiles Endgerät nach einem der Ansprüche 4 oder 5, dadurch gekennzeichnet, dass das mobile Endgerät (1) Beleuchtungsmittel aufweist, um den Benutzer (3) zu beleuchten.Mobile terminal according to one of claims 4 or 5, characterized in that the mobile terminal ( 1 ) Has lighting means to the user ( 3 ) to illuminate. Mobiles Endgerät nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass das mobile Endgerät (1) eine Auswerteeinrichtung (OAA, SE) aufweist, durch die das Bild des Benutzers (3) mit folgenden Schritten analysierbar ist: – Festlegen von Segmenten (S1 – S7) im Bild, die helligkeitsspezifische Merkmale aufweisen; – Überprüfen einer positionsmäßigen Beziehung (a, b) der festgelegten Segmente zueinander; – Ableiten eines Vorhandenseins und/oder einer Position des Benutzers, insbesondere eines Gesichts des Benutzers, im Bild, wenn eine Auswahl von festgelegten Segmenten (S1, S2, S4; S6, S7) eine bestimmte positionsmäßige Beziehung aufweist.Mobile terminal according to one of claims 4 to 6, characterized in that the mobile terminal ( 1 ) has an evaluation device (OAA, SE) through which the image of the user ( 3 ) can be analyzed with the following steps: - Definition of segments (S1 - S7) in the image that have brightness-specific features; - Checking a positional relationship (a, b) of the defined segments to each other; - Deriving a presence and / or a position of the user, in particular a face of the user, in the image if a selection of defined segments (S1, S2, S4; S6, S7) has a specific positional relationship. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Selektionsmittel (5) auf der Benutzerschnittstelle (4) darstellbar ist.Mobile terminal according to one of the preceding claims, characterized in that the selection means ( 5 ) on the user interface ( 4 ) can be displayed. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das mobile Endgerät (1) Stabilisierungsmittel aufweist, um eine fließende Bewegung des Selektionsmittels (5) zu gewährleisten.Mobile terminal according to one of the preceding claims, characterized in that the mobile terminal ( 1 ) Has stabilizing means to ensure a smooth movement of the selection means ( 5 ) to ensure. Verfahren zum Betreiben eines mobilen Endgerätes, bei dem – eine Relativbewegung des mobilen Endgeräts (1) gegenüber seinem Benutzer (3) gemessen wird, – ein Selektionsmittel (5) auf einer Benutzerschnittstelle (4) des mobilen Endgerätes (1) in Abhängigkeit der gemessenen Relativbewegung positioniert wird.Method for operating a mobile device, in which - a relative movement of the mobile device ( 1 ) towards his user ( 3 ) is measured, - a selection agent ( 5 ) on a user interface ( 4 ) of the mobile device ( 1 ) is positioned depending on the measured relative movement. Verfahren nach Anspruch 10, bei dem ein Bild des Benutzers (3) aufgenommen wird.The method of claim 10, wherein an image of the user ( 3 ) is recorded. Verfahren nach Anspruch 11, bei dem das Bild des Benutzers (3) mit folgenden Schritten analysiert wird: – Festlegen von Segmenten (S1 – S7) im Bild, die helligkeitsspezifische Merkmale aufweisen; – Überprüfen einer positionsmäßigen Beziehung (a, b) der festgelegten Segmente zueinander; – Ableiten eines Vorhandenseins und/oder einer Position des Benutzers, insbesondere eines Gesichts des Benutzers, im Bild, wenn eine Auswahl von festgelegten Segmenten (S1, S2, S4; S6, S7) eine bestimmte positionsmäßige Beziehung aufweist.The method of claim 11, wherein the image of the user ( 3 ) is analyzed with the following steps: - definition of segments (S1 - S7) in the image which have brightness-specific features; - Checking a positional relationship (a, b) of the defined segments to each other; - Deriving a presence and / or a position of the user, in particular a face of the user, in the image if a selection of defined segments (S1, S2, S4; S6, S7) has a specific positional relationship. Verfahren nach Anspruch 12, bei dem das erfasste Bild aus einzelnen Bildpunkten zusammengesetzt ist, welchen jeweilige Graustufenwerte und/oder Farbwerte zugeordnet sind.The method of claim 12, wherein the sensed Image is composed of individual pixels, which one Grayscale values and / or color values are assigned. Verfahren nach Anspruch 12 oder 13, bei dem die helligkeitsspezifischen Merkmale scharfe Helligkeitsübergänge und/oder scharfe Farbübergänge aufweisen.The method of claim 12 or 13, wherein the brightness-specific features sharp brightness transitions and / or have sharp color transitions. Verfahren nach Anspruch 14, bei dem der Schritt des Festlegens von Segmenten in dem erfassten Bild eine Bearbeitung (GF) des Bildes mittels eines Gradientenfilters, insbesondere eines positiven horizontalen Gradientenfilters, umfasst, um ein erstes bearbeitetes Bild zu erzeugen, bei dem am Ort eines Helligkeitsübergangs und/oder eines Farbübergangs im erfassten Bild entsprechende Bildpunkte im ersten bearbeiteten Bild mit einem Graustufenwert vorgesehen werden, der von der Schärfe des Helligkeitsübergangs im erfassten Bild abhängt.The method of claim 14, wherein the The step of defining segments in the captured image includes processing (GF) the image using a gradient filter, in particular a positive horizontal gradient filter, in order to generate a first processed image in which a brightness transition and / or a color transition occurs in the captured image Corresponding pixels are provided in the first processed image with a grayscale value that depends on the sharpness of the brightness transition in the captured image. Verfahren nach Anspruch 15, bei dem der Schritt des Festlegens von Segmenten in dem erfassten Bild eine Binärisierungsbearbeitung (SA) des ersten bearbeiteten Bildes umfasst, um daraus ein zweites bearbeitetes Bild zu erzeugen, bei dem entsprechenden Bildpunkten, deren Graustufenwert einen vorbestimmten Schwellenwert übersteigt, ein "weiß"-Wert zugeordnet wird, während den übrigen Bildpunkten ein "schwarz"-Wert zugeordnet wird.The method of claim 15, wherein the step binarization processing of specifying segments in the captured image (SA) of the first processed image includes a second one generate processed image at the corresponding image points, whose grayscale value exceeds a predetermined threshold value, assigned a "white" value will while the remaining pixels assigned a "black" value becomes. Verfahren nach Anspruch 16, bei dem der Schritt des Festlegens von Segmenten in dem erfassten Bild ein Einbeschreiben (SA) eines Bereichs des zweiten bearbeiteten Bilds mit zusammenhängenden Bildpunkten, denen ein "weiß"-Wert zugeordnet ist, in eine geometrische Form, insbesondere ein Rechteck, als festgelegtes Segment umfasst.The method of claim 16, wherein the step inscribing segments in the captured image (SA) an area of the second processed image with contiguous Pixels to which a "white" value is assigned is in a geometric shape, in particular a rectangle, as a fixed one Segment includes. Verfahren nach Anspruch 16 oder 17, bei dem bestimmte Bereiche des zweiten bearbeiteten Bilds mit zusammenhängenden "weißen" Bildpunkten auf Grund von bestimmten Parametern bezüglich Größe und/oder Form der Bereiche oder der diese einbeschreibenden geometrischen Form verworfen werden.The method of claim 16 or 17, wherein certain Areas of the second processed image with contiguous "white" pixels Due to certain parameters regarding the size and / or shape of the areas or the geometrical form that inscribes this is rejected. Verfahren nach einem der Ansprüche 12 bis 18, bei dem in dem Schritt des Überprüfens der positionsmäßigen Beziehung in einem ersten Untersuchungsschritt jedes der festgelegten Segmente dahingehend untersucht wird, ob zu diesem ein zweites (S2) festgelegtes Segment existiert, das im Wesentlichen horizontal zu dem untersuchten festgelegten Segment (S1) liegt, wobei bei Vorhandensein des zweiten festgelegten Segments nach einem dritten festgelegten Segment (S4) gesucht wird, das sich unterhalb des untersuchten und des zweiten Segments befindet, und für das gilt, dass ein Abstand (b) von dem untersuchten zu dem zweiten festgelegten Segment, und ein Abstand (a) einer Verbindungsstrecke zwischen dem untersuchten und dem zweiten festgelegten Segment zu dem dritten festgelegten Segment ein erstes vorbestimmtes Verhältnis aufweist.Method according to one of claims 12 to 18, in which in the Step of reviewing the positional relationship in a first examination step of each of the defined segments it is examined whether a second one (S2) has been defined for this Segment exists that is essentially horizontal to the one under investigation fixed segment (S1), being in the presence of the second defined segment after a third defined segment (S4) is sought, which is below the examined and the second Segments, and for that is, a distance (b) from the examined to the second fixed segment, and a distance (a) of a link between the examined and the second defined segment to the third fixed segment has a first predetermined ratio. Verfahren nach einem der Ansprüche 12 bis 19, bei dem in dem Schritt des Überprüfens der positionsmäßigen Beziehung in einem zweiten Untersuchungsschritt jedes der festgelegten Segmente dahingehend untersucht wird, ob zu diesem ein viertes festgelegtes Segment (S7) existiert, das sich unterhalb dem untersuchten festgelegten Segment (S6) befindet, und für das gilt, dass die horizontale Länge (b') des untersuchten festgelegten Segments und der Abstand (a') des vierten festgelegten Segments zum untersuchten festgelegten Segment ein zweites vorbestimmtes Verhältnis aufweisen.Method according to one of claims 12 to 19, in which in the Step of reviewing the positional relationship in a second examination step of each of the defined segments it is examined whether a fourth fixed one for this Segment (S7) exists that is defined below the one examined Segment (S6), and for this is true that the horizontal length (b ') of the examined specified segment and the distance (a ') of the fourth specified segment a second predetermined segment for the examined segment relationship exhibit. Verfahre nach Anspruch 19 oder 20, bei dem das erste/oder das zweite vorbestimmte Verhältnis einen Wert von 1:1 bis 1:1,7, insbesondere von 1:1,2 bis 1:1,5 aufweist.Method according to claim 19 or 20, in which the first / or the second predetermined ratio is one Has value from 1: 1 to 1: 1.7, in particular from 1: 1.2 to 1: 1.5. Verfahren nach einem der Ansprüche 19 bis 21, das ferner einen Schritt eines Extrahierens biometrischer Merkmale bezüglich einer Mundpartie aus einem Analysebereich um das gefundene dritte (S4) oder vierte (S7) festgelegte Segment umfasst.The method of any one of claims 19 to 21, further comprising Step of extracting biometric features with respect to a Mouth part from an analysis area around the found third (S4) or fourth (S7) defined segment includes. Verfahren nach Anspruch 22, bei dem in dem erfassten Bild in einem Analysebereich (AB), der sich an der Position des dritten oder vierten festgelegten Segments befindet, und der das jeweilige Segment umfasst, Hell-Dunkel- und/oder Dunkel-Hell- Helligkeitsübergänge bestimmt werden, um das Vorhandensein einer Oberlippe und Unterlippe einer Mundpartie abzuleiten.The method of claim 22, wherein in the detected Image in an analysis area (AB) located at the position of the third or fourth specified segment, and that the each segment comprises, light-dark and / or dark-light-brightness transitions determined to the presence of an upper lip and lower lip one Derived mouth part. Programmprodukt, das, wenn es auf eine Datenverarbeitungsanlage geladen und darauf ausgeführt wird, ein Verfahren nach einem der Ansprüche 10 bis 23 oder eine Vorrichtung nach einem der Ansprüche 1 bis 9 in Kraft setzt.Program product that, if it is on a data processing system loaded and executed on it is, a method according to any one of claims 10 to 23 or an apparatus according to one of the claims 1 to 9 takes effect.
DE10313019A 2003-03-24 2003-03-24 One-hand operation of terminals using gesture recognition Expired - Fee Related DE10313019B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10313019A DE10313019B4 (en) 2003-03-24 2003-03-24 One-hand operation of terminals using gesture recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10313019A DE10313019B4 (en) 2003-03-24 2003-03-24 One-hand operation of terminals using gesture recognition

Publications (2)

Publication Number Publication Date
DE10313019A1 true DE10313019A1 (en) 2004-10-28
DE10313019B4 DE10313019B4 (en) 2005-02-24

Family

ID=33038744

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10313019A Expired - Fee Related DE10313019B4 (en) 2003-03-24 2003-03-24 One-hand operation of terminals using gesture recognition

Country Status (1)

Country Link
DE (1) DE10313019B4 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005024638A1 (en) * 2005-05-30 2006-12-07 Siemens Ag Word/text inputs navigation method, for mobile telephone, involves displacing menu based on requirements of electronic device movement found by image recording device, where relative position of cursor and menu entry is found by device
WO2007003195A1 (en) * 2005-07-04 2007-01-11 Bang & Olufsen A/S A unit, an assembly and a method for controlling in a dynamic egocentric interactive space
WO2006097722A3 (en) * 2005-03-15 2007-01-11 Intelligent Earth Ltd Interface control
FR2889323A1 (en) * 2005-07-29 2007-02-02 Realeyes3D Sa METHOD FOR CONTROLLING AN INTERFACE USING A CAMERA COMPRISING A COMMUNICATION TERMINAL
EP1887776A1 (en) * 2006-08-07 2008-02-13 Samsung Electronics Co., Ltd. Portable terminal and user interface control method thereof based on pattern recognition and analysis of image captured by camera
DE102007059273A1 (en) * 2007-12-08 2009-06-18 T-Mobile Internationale Ag Virtual keyboard of a mobile device
EP2090961A1 (en) * 2008-02-14 2009-08-19 EPFL Ecole Polytechnique Fédérale de Lausanne Interactive device and method for transmitting commands from a user
US7911457B2 (en) 2001-04-09 2011-03-22 I.C. + Technologies Ltd. Apparatus and methods for hand motion detection and hand motion tracking generally
DE102005013541B4 (en) * 2005-03-23 2014-02-13 Hewlett-Packard Development Co., L.P. Method for setting a communication terminal and communication terminal

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0825514A2 (en) * 1996-08-05 1998-02-25 Sony Corporation Information processing device and method for inputting information by operating the overall device with a hand
WO2001043473A1 (en) * 1999-12-08 2001-06-14 Telbird Ltd. Hand held data processor unit
GB2357684A (en) * 1999-12-21 2001-06-27 Motorola Ltd Hand-held terminal having a display screen which is controlled by movement of the terminal

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0825514A2 (en) * 1996-08-05 1998-02-25 Sony Corporation Information processing device and method for inputting information by operating the overall device with a hand
WO2001043473A1 (en) * 1999-12-08 2001-06-14 Telbird Ltd. Hand held data processor unit
GB2357684A (en) * 1999-12-21 2001-06-27 Motorola Ltd Hand-held terminal having a display screen which is controlled by movement of the terminal

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DE SOUZA COELHO P.S., u.a.: Enhancing the Bayesian network approach to face detection. In: Computer Science Society, 1999. Proceedings. SCCC`99. XIX International Conference of the Chilean, 11-13 Nov. 1999, Pages: 150-159
DE SOUZA COELHO P.S., u.a.: Enhancing the Bayesiannetwork approach to face detection. In: Computer Science Society, 1999. Proceedings. SCCC`99. XIX International Conference of the Chilean, 11-13 Nov. 1999, Pages: 150-159 *
KIN CHOONG YOW u.a.: Feature-based human face de- tection. In: Image and Vision Computing, Sept. 1997. Elsevier, Netherlands, Vol.15, No.9, Pages: 713-735. *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7911457B2 (en) 2001-04-09 2011-03-22 I.C. + Technologies Ltd. Apparatus and methods for hand motion detection and hand motion tracking generally
US8686976B2 (en) 2001-04-09 2014-04-01 I.C. + Technologies Ltd. Apparatus and method for hand motion detection and hand motion tracking generally
WO2006097722A3 (en) * 2005-03-15 2007-01-11 Intelligent Earth Ltd Interface control
DE102005013541B4 (en) * 2005-03-23 2014-02-13 Hewlett-Packard Development Co., L.P. Method for setting a communication terminal and communication terminal
DE102005024638A1 (en) * 2005-05-30 2006-12-07 Siemens Ag Word/text inputs navigation method, for mobile telephone, involves displacing menu based on requirements of electronic device movement found by image recording device, where relative position of cursor and menu entry is found by device
WO2007003195A1 (en) * 2005-07-04 2007-01-11 Bang & Olufsen A/S A unit, an assembly and a method for controlling in a dynamic egocentric interactive space
US8125444B2 (en) 2005-07-04 2012-02-28 Bang And Olufsen A/S Unit, an assembly and a method for controlling in a dynamic egocentric interactive space
FR2889323A1 (en) * 2005-07-29 2007-02-02 Realeyes3D Sa METHOD FOR CONTROLLING AN INTERFACE USING A CAMERA COMPRISING A COMMUNICATION TERMINAL
WO2007012768A3 (en) * 2005-07-29 2007-05-10 Realeyes3D Method for controlling an interface using a camera equipping a communication terminal
US7693333B2 (en) 2006-08-07 2010-04-06 Samsung Electronics Co., Ltd. Portable terminal and user interface control method thereof based on pattern recognition and analysis of image captured by camera
EP2262221A1 (en) * 2006-08-07 2010-12-15 Samsung Electronics Co., Ltd. Portable terminal and user interface control method thereof based on pattern recognition and analysis of image captured by camera
EP1887776A1 (en) * 2006-08-07 2008-02-13 Samsung Electronics Co., Ltd. Portable terminal and user interface control method thereof based on pattern recognition and analysis of image captured by camera
US8527895B2 (en) 2007-12-08 2013-09-03 T-Mobile International, AG Virtual keyboard of a mobile terminal
DE102007059273A1 (en) * 2007-12-08 2009-06-18 T-Mobile Internationale Ag Virtual keyboard of a mobile device
EP2090961A1 (en) * 2008-02-14 2009-08-19 EPFL Ecole Polytechnique Fédérale de Lausanne Interactive device and method for transmitting commands from a user
US8126221B2 (en) 2008-02-14 2012-02-28 Ecole Polytechnique Federale De Lausanne (Epfl) Interactive device and method for transmitting commands from a user

Also Published As

Publication number Publication date
DE10313019B4 (en) 2005-02-24

Similar Documents

Publication Publication Date Title
DE102007056528B3 (en) Method and device for finding and tracking pairs of eyes
DE69612700T2 (en) Feature localization in an image
EP1119822B1 (en) Method and system for recognizing people with model-based face detection
DE60213600T2 (en) METHOD AND DEVICE FOR EXTRACTION OF A SIGNIFICANT TERRITORY IN A BIOLOGICAL SURFACE PICTURE OBTAINED BY EXCEEDING RECORDING
DE102010016251A1 (en) Detection method for a moving object and the command input method underlying the detection of the moving object
DE102007055715A1 (en) Apparatus, method and program for eye detection
DE19634768A1 (en) Face identification system using video image analysis
DE102008048325A1 (en) Operation input device
EP2711869A2 (en) Method and device for recording fingerprints based on fingerprint scanners in reliably high quality
DE102007025670A1 (en) Intelligent picture quality functional unit
WO2009010550A1 (en) Image recording method for the direct object segmentation in images
EP3695293A1 (en) Method for providing a haptic feedback message to an operator of a touch-sensitive display device
EP0800145A2 (en) Method for recognition by computer of at least one finger-shaped object in a hand-shaped first object
DE10313019B4 (en) One-hand operation of terminals using gesture recognition
DE102018003903A1 (en) Apparatus and method for classifying data for supervised machine learning
DE112017008174T5 (en) Expression recognizer
DE102023125422A1 (en) Hybrid object detection method based on thermal images in combination with YOLO models and object tracking techniques
EP3663976A1 (en) Method for detecting fingerprints
DE19754909C2 (en) Method and device for acquiring and processing images of biological tissue
DE112022001060B4 (en) DYNAMIC INTERFACING INTERVENTION TO IMPROVE SENSOR PERFORMANCE
DE102005014772A1 (en) Display method for showing the image of communication participant in communication terminal, involves using face animation algorithm to process determined facial coordinates of image to form animated image of calling subscriber
DE10233233A1 (en) Body partial movement detection method for recording body movement significance or for processing types of dynamic body actions detects partial motion between two conditions of non-movement
CH717006A2 (en) Procedure for user identification.
EP4184456B1 (en) Method and device for determining a digital biometric template for a security document and method for personalizing a security document
DE102014224599A1 (en) Method for operating an input device, input device

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee