DE10313019A1 - Single handed operation of a mobile terminal by gesture recognition, whereby movement of the terminal relative to the user is measured and used to control the positioning of input selection means - Google Patents
Single handed operation of a mobile terminal by gesture recognition, whereby movement of the terminal relative to the user is measured and used to control the positioning of input selection means Download PDFInfo
- Publication number
- DE10313019A1 DE10313019A1 DE10313019A DE10313019A DE10313019A1 DE 10313019 A1 DE10313019 A1 DE 10313019A1 DE 10313019 A DE10313019 A DE 10313019A DE 10313019 A DE10313019 A DE 10313019A DE 10313019 A1 DE10313019 A1 DE 10313019A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- segment
- user
- segments
- mobile terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/169—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
Mit der Miniaturisierung von mobilen Kommunikationsendgeräten werden Tastaturen und andere haptische Eingabemöglichkeiten zugunsten der Gerätegröße auf ein Minimum reduziert. In zukünftigen Endgeräten wird sogar auf Keypads oder Eingabetastaturen ganz verzichtet werden. Um dennoch eine praktikable und komfortable Interaktionsmöglichkeit zu gewährleisten, werden neue Bedienkonzepte notwendig. Einschränkendes Limit aufgrund der Kosten ist jedoch meist die vorhandene Hardwareausstattung, die hierzu intelligent genutzt werden muss.With the miniaturization of mobile communication terminals Keyboards and other haptic input options in favor of the device size Minimum reduced. In future terminals there will even be no need for keypads or input keyboards. In order to have a practicable and comfortable interaction option to ensure, new operating concepts become necessary. Restrictive limit due to the However, the existing hardware is usually the most expensive must be used intelligently for this.
Geräte ohne Keypad oder mit virtuellen Keypads wurden bislang entweder durch Spracherkennung oder durch Stifteingabe bedient, wie sie zum Beispiel bei PDAs üblich ist. Die Spracheingabe allein ist speziell in stark geräuschbehafteten Umgebungen schwierig. Auf der anderen Seite erlaubt die Stifteingabe keine Einhandbedienung, die für mobile Endgeräte oftmals gewünscht wird.Devices without Keypad or with virtual keypads have so far either been through Voice recognition or operated by pen input, such as common with PDAs is. The voice input alone is especially in very noisy Environments difficult. On the other hand, pen entry allows no one-hand operation for mobile devices often desired becomes.
Seit einiger Zeit sind mobile Endgeräte verfügbar, in die eine Kamera integriert ist.since have been mobile devices for some time available, in which a camera is integrated.
Davon ausgehend liegt der Erfindung die Aufgabe zugrunde, eine Eingabemöglichkeit für mobile Endgeräte zu schaffen, die eine einhändige Bedienung erlaubt und keine Tastatur benötigt.From that starting from the object of the invention is an input option for mobile terminals to create a one-handed Operation allowed and no keyboard required.
Diese Aufgabe wird durch die in den unabhängigen Ansprüchen angegebenen Erfindungen gelöst. Vorteilhafte Ausgestaltungen ergeben sich aus den abhängigen Ansprüchen.This Object is achieved by those specified in the independent claims Inventions solved. Advantageous refinements result from the dependent claims.
Dementsprechend weist ein mobiles Endgerät eine beispielsweise auf einer Anzeige darstellbare, insbesondere optische und weiter bevorzugt grafische Benutzerschnittstelle auf. Die Benutzerschnittstelle lässt sich etwa in Form einer beispielsweise auf einer Anzeige, insbesondere einer LCD- oder LED-Anzeige, dargestellten Benutzeroberfläche oder Bedienoberfläche realisieren oder aber auch als ganz einfache optische Anzeige mit z.B. unterschiedlich beleuchteten Ziffern, bei der nicht selektierte Ziffern grün leuchten und selektierte rot. Auf der grafische Benutzerschnittstelle ist ein virtuelles und/oder reales Selektionsmittel zum Selektieren von einzelnen Funktionsbereichen der Benutzerschnittstelle, denen jeweils Funktionalitäten zugeordnet sind, insbesondere durch Verschieben positionierbar. Weiterhin verfügt das mobile Endgerät über Mittel zum Messen einer Relativbewegung des mobilen Endgeräts gegenüber einem Benutzer des mobilen Endgeräts. Darüber hinaus weist das mobile Endgerät auch noch Mittel zum Positionieren des Selektionsmittels auf der Benutzerschnittstelle in Abhängigkeit der gemessenen Relativbewegung auf.Accordingly has a mobile device one that can be displayed, for example, on a display, in particular optical and more preferably graphical user interface. The user interface let yourself for example in the form of, for example, on a display, in particular an LCD or LED display, represented user interface or user interface realize or as a very simple visual display with e.g. differently illuminated digits, with the not selected Digits green light up and selected red. On the graphical user interface is a virtual and / or real selection tool for selection of individual functional areas of the user interface, the functionalities in each case are assigned, in particular positionable by moving. Still has the mobile device via means for measuring a relative movement of the mobile device against one Mobile device users. Furthermore assigns the mobile device also means for positioning the selection means on the User interface depending the measured relative movement.
So kann der Benutzer das mobile Endgerät beispielsweise einfach in seiner Hand halten und sich selbst gegenüber bewegen, um das Selektionsmittel auf einen gewünschten Bereich der Benutzerschnittstelle zu bewegen. Ist das Selektionsmittel auf diese Weise beispielsweise auf einen gewünschten (virtuellen) Betätigungsknopf (Button) der Benutzerschnittstelle bewegt worden, so kann der Benutzer durch Sprechen eines Kommandos oder durch Drücken eines Eingabeknopfes am mobilen Endgerät die mit dem virtuellen Betätigungsknopf verbundene Aktion des mobilen Endgerätes auslösen.So the user can simply put the mobile device in, for example hold his hand and move towards yourself to open the selection agent a desired one Moving area of the user interface. Is the means of selection in this way, for example, on a desired (virtual) actuation button (Button) of the user interface has been moved, so the user by speaking a command or by pressing an input button on mobile device the one with the virtual push button trigger connected action of the mobile device.
Die Mittel zum Messen der Relativbewegung weisen vorzugsweise Mittel zum Erkennen der Position der Lippen, eines Auges und/oder des Gesichts des Benutzers auf. Dann braucht der Benutzer das mobile Endgerät nämlich nur auf sein Gesicht auszurichten und zu bewegen und kann dabei die Bewegung der Selektionsmarke auf der Benutzerschnittstelle verfolgen.The Means for measuring the relative movement preferably have means to recognize the position of the lips, an eye and / or the face of the User on. Then the user only needs the mobile device to align and move on his face while doing that Track the movement of the selection mark on the user interface.
Am einfachsten lässt sich das Messen der Relativbewegung realisieren, wenn das mobile Endgerät dazu einen optischen Sensor, insbesondere eine Kamera, zur Aufnahme eines jeweiligen Bildes des Benutzers aufweist. Aus der aufgenommenen Folge von Bildern lässt sich dann die Relativbewegung bestimmen.At the simplest leaves measure the relative movement when the mobile terminal an optical sensor, in particular a camera, for recording of a respective image of the user. From the recorded episode of pictures then determine the relative movement.
Auf der grafischen Benutzerschnittstelle kann zur Kontrolle der Relativbewegung als Feedback jeweils das aktuell aufgenommene Bild des Benutzers ausgegeben werden, aus dem der Benutzer dann auf seine aktuelle Position gegenüber dem Endgerät schließen kann.On The graphical user interface can be used to control the relative movement as feedback the current picture of the user are output from which the user then goes to his current Position opposite the terminal conclude can.
Für eine Benutzung bei Dunkelheit kann das mobile Endgerät Beleuchtungsmittel aufweisen, um den Benützer zu beleuchten und auch hier einen Einsatz des optischen Sensors zu ermöglichen.For one use in the dark, the mobile terminal can have lighting means, for the user to illuminate and also use the optical sensor to enable.
Vorzugsweise weist das mobile Endgerät eine Auswerteeinrichtung auf, durch die das Bild des Benutzers analysierbar ist, indem Segmente im erfassten Bild festgelegt werden, die helligkeitsspezifische Merkmale aufweisen, eine positionsmäßige Beziehung der festgelegten Segmente zueinander überprüft wird und ein Vorhandensein eines Gesichtes im Bild abgeleitet wird, wenn eine Auswahl von festgelegten Segmenten eine bestimmte positionsmäßige Beziehung aufweist.Preferably the mobile device has one Evaluation device through which the user's image can be analyzed is by specifying segments in the captured image, the brightness-specific Features have a positional relationship of the set Segments to each other is checked and a presence of a face in the image is deduced if a selection of fixed segments a certain positional relationship having.
Das Selektionsmittel kann als Zeigemittel auf der grafischen Benutzerschnittstelle dargestellt werden. Es ist aber auch möglich, dem Benutzer die Position des Selektionsmittels zu signalisieren, indem nicht das Selektionsmittel selbst angezeigt wird, sondern lediglich jeweils das auf der Benutzerschnittstelle gerade selektierte Element als selektiert dargestellt wird.The selection means can be displayed as a pointing means on the graphical user interface the. However, it is also possible to signal the position of the selection means to the user by not displaying the selection means itself, but rather only displaying the element currently selected on the user interface as selected.
Um eine fließende Bewegung des Selektionsmittels zu gewährleisten, weist das mobile Endgerät vorteilhaft Stabilisierungsmittel für die Bewegung des Selektionsmittels auf.Around a flowing The mobile shows how to ensure movement of the selection medium terminal advantageous stabilizing agent for the movement of the selection agent on.
In einem Verfahren zum Betreiben eines mobilen Endgerätes wird eine Relativbewegung des mobilen Endgerätes gegenüber einem Benutzer gemessen und ein Selektionsmittel auf einer Benutzerschnittstelle des mobilen Endgeräts in Abhängigkeit der gemessenen Relativbewegung positioniert. Vorteilhafte Ausgestaltungen des Verfahrens ergeben sich analog zu den vorteilhaften Ausgestaltungen des mobilen Endgerätes und umgekehrt.In a method for operating a mobile terminal measured a relative movement of the mobile terminal with respect to a user and a selection means on a user interface of the mobile terminal in dependency of measured relative movement positioned. Advantageous configurations of the method result analogously to the advantageous configurations of the mobile device and vice versa.
So wird beispielsweise vorzugsweise zum Messen der Relativbewegung vom mobilen Endgerät mit einer Kamera ein Bild des Benutzers aufgenommen. Das Bild des Benutzers kann dann analysiert werden, indem Segmente im Bild festgelegt werden, die helligkeitsspezifische Merkmale aufweisen, eine positionsmäßige Beziehung der festgelegten Segmente zueinander überprüft wird und das Vorhandensein des Benutzers, insbesondere eines Gesichts des Benutzers, im erfassten Bild abgeleitet wird, wenn eine Auswahl von festgelegten Segmenten eine bestimmte positionsmäßige Beziehung aufweist.So is preferably used, for example, to measure the relative movement from the mobile device a camera captured an image of the user. The user's picture can then be analyzed by specifying segments in the image that have brightness-specific characteristics, a positional relationship the specified segments are checked against each other and the existence of the user, in particular a face of the user, in the captured Image is derived when a selection of specified segments is a certain positional relationship having.
Das Verfahren zum Analysieren des Bildes des Benutzers umfasst insbesondere ein Festlegen von Segmenten in dem erfassten Bild, die helligkeitsspezifische Merkmale aufweisen. Wie es unten näher erläutert werden wird, können die helligkeitsspezifischen Merkmale beispielsweise Hell-Dunkel-Übergänge und/oder Dunkel-Hell-Übergänge umfassen. Anschließend wird eine positionsmäßige Beziehung der festgelegten Segmente zueinander überprüft, wobei ein Vorhandensein eines Benutzers, insbesondere eines (menschlichen) Gesichts, in dem erfassten Bild abgeleitet wird, wenn eine Auswahl von festgelegten Segmenten eine bestimmte positionsmäßige Beziehung aufweist. Das bedeutet, durch das gerade beschriebene Verfahren kann nur durch Analyse bestimmter Bereiche des erfassten Bildes, nämlich der Segmente mit helligkeitsspezifischen Merkmalen, genauer gesagt durch Überprüfen der positionsmäßigen Beziehung der festgelegten Segmente auf das Vorhandensein des Benutzers, insbesondere seines Gesichts, und dessen Position gegenüber dem mobilen Endgerät geschlossen werden. Somit wird zur Durchführung des Verfahrens nur eine geringe Rechenleistung benötigt, wodurch eine Ressourcenverringerung bzw. Ressourcenoptimierung einer Datenverarbeitungsanlage zum Durchführen des Verfahrens ermöglicht wird.The In particular, method for analyzing the image of the user includes specifying segments in the captured image that are brightness specific Features. As will be explained in more detail below, the brightness-specific features, for example light-dark transitions and / or Include dark-light transitions. Then will a positional relationship of fixed segments checked against each other, being present of a user, especially a (human) face, in the captured image is derived when a selection of fixed Segments has a specific positional relationship. The means by the method just described can only by Analysis of certain areas of the captured image, namely the Segments with brightness-specific characteristics, more precisely by checking the positional relationship the specified segments on the existence of the user, especially his Facial, and its position closed to the mobile device become. Thus, the implementation the method requires only a small amount of computing power, so a resource reduction or resource optimization of a data processing system to perform of the procedure becomes.
Gemäß einer vorteilhaften Ausgestaltung handelt es sich bei dem erfassten Bild um ein von einer elektronischen Kamera erfassten Bild, das elektronisch verarbeitbar ist. Insbesondere ist das erfasste Bild aus einzelnen Bildpunkten zusammengesetzt, welchen jeweilige Graustufenwerte zugeordnet sind.According to one An advantageous embodiment is the captured image an image captured by an electronic camera that is electronic is processable. In particular, the captured image is made up of individual Pixels composed, which respective grayscale values assigned are.
Gemäß einer weiteren vorteilhaften Ausgestaltung werden Segmente in dem erfassten Bild festgelegt, bei denen die helligkeitsspezifischen Merkmale scharfe bzw. abrupte Helligkeitsübergänge, beispielsweise von Dunkel nach Hell oder von Hell nach Dunkel aufweisen. Derartige (scharfe) Helligkeitsübergänge finden sich beispielsweise in einem Gesicht eines Menschen, insbesondere beim Übergang von der Stirn zu den Augenbrauen oder (bei Menschen mit heller Haarfarbe) beim Übergang von der Stirn in den Schatten der Augenhöhlen. Derartige (scharfe) Helligkeitsübergänge finden sich jedoch auch beim Übergang von dem Oberlippenbereich bzw. Lippenbereich zur Mundöffnung oder von der Mundöffnung zum Lippenbereich der Unterlippe bzw. zum Unterlippenbereich. Ein weiterer Helligkeitsübergang stellt sich zwischen der Unterlippe und dem Kinnbereich, genauer gesagt als Schattenbereich (je nach Lichtverhältnis bzw. Lichteinfall) basierend auf einer leichten Vorwölbung der Unterlippe, ein. Wie es unten ausführlicher erläutert werden wird, ist es möglich, anhand dieser Helligkeitsübergänge bzw. anhand der positionsmäßigen Beziehung einer Auswahl der Helligkeitsübergänge auf das Vorhandensein eines menschlichen Gesichts bzw. insbesondere auf die Position einer Mundpartie zu schließen.According to one In another advantageous embodiment, segments are recorded in the Image set where the brightness-specific characteristics sharp or abrupt changes in brightness, for example from dark to light or from light to dark. such Find (sharp) brightness transitions for example in a person's face, in particular at the transition from the forehead to the eyebrows or (for people with light hair color) at the transition from the forehead to the shadows of the eye sockets. Find such (sharp) brightness transitions but also during the transition from the upper lip area or lip area to the mouth opening or from the mouth opening to the lip area of the lower lip or to the lower lip area. On further brightness transition stands between the lower lip and the chin area, more precisely said as a shadow area (depending on the lighting conditions or light incidence) based on a slight protrusion the lower lip, a. As explained in more detail below will it is possible based on these brightness transitions or based on the positional relationship a selection of the brightness transitions the presence of a human face or in particular to conclude the position of a mouth part.
Gemäß einer vorteilhaften Ausgestaltung umfasst der Schritt des Festlegens von Segmenten in dem erfassten Bild eine Bearbeitung des Bilds mittels eines Gradientenfilters, insbesondere eines horizontalen Gradientenfilters, um insbesondere horizontale (scharfe) Helligkeitsübergänge, wie die an den Augenbrauen, an den Augen, oder an dem Mund sichtbar zu machen. Durch die Bearbeitung mittels des Gradientenfilters wird ein erstes bearbeitetes Bild erzeugt, bei dem am Ort eines Helligkeitsübergangs im erfassten Bild entsprechende Bildpunkte im ersten bearbeiteten Bild mit einem Graustufenwert vorgesehen werden, die von der Schärfe des Helligkeitsübergangs im erfassten Bild abhängen. Das bedeutet, bei einem Helligkeitsübergang innerhalb weniger Bildpunkte von einem niedrigen Helligkeitswert (niedriger Graustufenwert) zu einem hohen Helligkeitswert (hoher Graustufenwert) wird in dem ersten bearbeiteten Bild eine entsprechende Information eingetragen. Wird davon ausgegangen, dass das erste bearbeitete Bild in Form eines Graustufenbildes dargestellt wird, so können beispielsweise bei Verwendung eines positiven horizontalen Gradientenfilters, der von oben nach unten auf das erfasste Bild angewendet wird, Bereiche des Bilds, in denen keine Helligkeitsübergänge vorhanden sind, in mittleren Graustufenwerten dargestellt werden, während Hell-Dunkel-Übergänge (von oben nach unten) je nach Schärfe der Übergänge einen dementsprechend höheren Grauwert als den mittleren Grauwert erhalten und Dunkel-Hell-Übergänge (von oben nach unten) einen entsprechend niedrigeren Grauwert in Abhängigkeit der Schärfe des jeweiligen Übergangs erhalten.According to an advantageous embodiment, the step of defining segments in the captured image includes processing the image using a gradient filter, in particular a horizontal gradient filter, in order in particular to achieve horizontal (sharp) brightness transitions, such as those on the eyebrows, on the eyes, or on the mouth make visible. The processing by means of the gradient filter produces a first processed image, in which, at the location of a brightness transition in the captured image, corresponding pixels are provided in the first processed image with a grayscale value, which depend on the sharpness of the brightness transition in the captured image. This means that when the brightness changes within a few pixels from a low brightness value (low grayscale value) to a high brightness value (high grayscale value), corresponding information is entered in the first processed image. It is assumed that the first edited image is shown in the form of a grayscale image If, for example, a positive horizontal gradient filter is applied to the captured image from top to bottom, areas of the image in which there are no brightness transitions can be displayed in medium grayscale values, while light-dark transitions (from above downwards) depending on the sharpness of the transitions receive a correspondingly higher gray value than the mean gray value and dark-light transitions (from top to bottom) receive a correspondingly lower gray value depending on the sharpness of the respective transition.
Gemäß einer weiteren vorteilhaften Ausgestaltung kann der Schritt des Festlegens von Segmenten in dem erfassten Bild eine Binärisierungsbearbeitung des ersten bearbeiteten Bildes umfassen. Hierbei kann ein zweites bearbeitetes Bild erzeugt werden, bei den entsprechenden Bildpunkten, deren Graustufenwert einen ersten vorbestimmten Schwellenwert (welcher in Abhängigkeit der Helligkeit des erfassten Bildes gewählt wird) übersteigt, ein binärer "1"-Wert zugeordnet wird, während den übrigen Bildpunkten ein binärer "0"-Wert zugeordnet wird. Anders ausgedrückt, kann den Bildpunkten, deren Graustufenwert den vorbestimmten ersten Schwellenwert übersteigt, der Wert "weiß" zugeordnet werden, während den übrigen Bildpunkten der Wert "schwarz" zugeordnet wird. Somit sind in dem zweiten bearbeiteten Bild nur noch Helligkeitsübergänge mit einer bestimmten ausgeprägten Schärfe zu erkennen.According to one Another advantageous embodiment can be the step of setting of segments in the captured image binarization processing the first edited image include. A second can be edited Image are generated at the corresponding pixels, their grayscale value a first predetermined threshold (which is dependent on the brightness of the captured image is selected), a binary "1" value is assigned while the remaining pixels a binary "0" value is assigned. In other words, can the pixels whose grayscale value exceeds the predetermined first threshold value assigned the value "white" while the rest Pixels the value "black" is assigned. Thus, only brightness transitions are left in the second processed image a certain pronounced sharpness to recognize.
Zusammenhängende Bildpunkte, denen ein Weiß-Wert zugeordnet ist, können als eine Einheit von Bildpunkten gesehen werden, die zur folgenden Auswertung in eine geometrische Form, wie beispielsweise ein Rechteck, eingeschrieben werden. Diese geometrische Form kann dann als ein festgelegtes Segment definiert werden. Da es notwendig ist, aus der in dem erfassten Bild erfassten Szene biometrische Merkmale, insbesondere ein Gesicht eines Menschen betreffend, herauszufiltern bzw. zu extrahieren, um auf das Vorhandensein eines menschlichen Gesichts schließen zu können, ist es vorteilhaft, bestimmte Bereiche bzw. Strukturen in dem erfassten Bild, die beispielsweise auf Grund ihrer Größe oder Form keine biometrischen Merkmale bezüglich eines Gesichts aufweisen, zu verwerfen.Contiguous pixels, which a white value can be assigned can be seen as a unit of pixels for the following evaluation inscribed in a geometric shape, such as a rectangle become. This geometric shape can then be used as a fixed segment To be defined. Since it is necessary from the captured in the Image captured scene biometric features, especially a face regarding a human being, filtering out or extracting, to be able to conclude that there is a human face it is advantageous to identify certain areas or structures in the Image that, for example, is not biometric due to its size or shape Characteristics regarding of a face.
Gemäß einer vorteilhaften Ausgestaltung werden dabei bestimmte Bereiche des zweiten bearbeiteten Bildes mit zusammenhängenden Bildpunkten auf Grund von vorbestimmten Parameteren bezüglich Größe und/oder Form der Bereich oder der diese einbeschreibenden geometrischen Form verworfen und insbesondere werden die den Bereichen zugeordneten Bildpunkte auf einen Schwarz-Wert gesetzt. Ein Kriterium bezüglich der Form von Bereichen zusammenhängender Bildpunkte mit einem Weiß-Wert kann beispielsweise sein, dass die Höhe dieses Bereichs bzw. dieser Struktur einen zu großen Wert im Gegensatz zur Breite der Struktur aufweist. Das bedeutet, das Verhältnis aus Höhe zu Breite ist zu groß. Eine derartige Festlegung wird deutlich, wenn – wie oben bereits erwähnt – Segmente anhand helligkeitsspezifischer Merkmale von horizontal verlaufenden Augenbrauen oder horizontal verlaufender Lippen- bzw. Mundpartien festgelegt werden. Das bedeutet wiederum, dass das zuvor erfasste Bild mit einer großen Anzahl von Bildpunkten auf nur noch eine geringe Anzahl von festgelegten Segmenten zurückgeführt wird, aus deren positionsmäßiger Beziehung zueinander nun das Vorhandensein und die Position eines Gesichts abgeleitet werden kann.According to one advantageous areas are certain areas of second processed image with contiguous pixels on the ground of predetermined parameters regarding size and / or shape of the area or discarding the geometrical form that describes it and in particular, the pixels assigned to the areas are highlighted set a black value. A criterion regarding the shape of areas related Pixels with a white value can be, for example, that the height of this area or this Structure too great a value in contrast to the width of the structure. That means that relationship from height too wide is too big. Such a definition becomes clear when - as already mentioned above - segments based on brightness-specific characteristics of horizontally running Eyebrows or horizontal lips or mouth be determined. This in turn means that the previously captured Image with a large Number of pixels on only a small number of fixed Segments is returned, from their positional relationship to each other now the presence and position of a face can be derived.
Gemäß einer vorteilhaften Ausgestaltung wird dabei in dem Schritt des Überprüfens der positionsmäßigen Beziehung in einem ersten Untersuchungsschritt entsprechend einem ersten Detektionsmechanismus jedes der festgelegten Segmente dahingehend untersucht, ob zu einem zu untersuchenden Segment ein zweites festgelegtes Segment existiert, das auf einer horizontalen Linie bzw. einer im Wesentlichen horizontal verlaufenden Linie zu dem gerade untersuchten festgelegten Segment liegt. Ausgehend von einem erfassten Bild, bestehend aus einer Mehrzahl von Bildpunkten muss das zweite Segment nicht unbedingt auf einer der von dem zu untersuchenden Segment umfassten wagrechten Linie an Bildpunkten liegen, es kann auch um einen vorbestimmten kleinen Betrag an Bildpunkten höher oder tiefer bezüglich der wagrechten oder horizontalen Line liegen. Wird ein zweites festgelegtes horizontales Segmente gefunden, so wird nach einem dritten festgelegten Segment gesucht, das sich unterhalb des untersuchten und des zweiten festgelegten Segments befindet und für das gilt, dass ein Abstand von dem untersuchten zu dem zweiten festgelegten Segment und ein Abstand einer Verbindungsstrecke zwischen dem untersuchten und dem zweiten festgelegten Segment zu dem dritten festgelegten Segment ein erstes vorbestimmtes Verhältnis aufweist. Insbesondere kann eine Normale zu der Verbindungsstrecke zwischen dem untersuchten und dem zweiten festgelegten Segment definiert werden, wobei der Abstand von dem dritten Segment (entlang der Normalen) zu der Verbindungsstrecke zwischen dem untersuchten und dem zweiten festgelegten Segment in das erste vorbestimmte Verhältnis eingeht. Der Abstand zwischen den untersuchten und dem zweiten Segment kann derart definiert werden, dass der Abstand von einem jeweiligen Mittelpunkt der festgelegten Segmente verwendet wird. Insbesondere bei der Verwendung von Segmenten mit der geometrischen Form eines Rechtecks kann ein Mittelpunkt leicht bestimmt werden. Durch den gerade beschriebenen ersten Untersuchungsschritt kann somit auf das Vorhandensein eines Gesichts geschlossen werden, indem die positionsmäßige Beziehung zwischen drei festgelegten Segmenten ermittelt wird. Hierbei wird davon ausgegangen, dass das untersuchte und das zweite festgelegte Segment einen jeweiligen Augenbrauenabschnitt im Gesicht eines Menschen darstellt, der normalerweise einen markanten bzw. scharfen Hell-Dunkel-Helligkeitsübergang von oben nach unten aufweist und somit im zweiten bearbeiteten Bild gut erkennbar ist. Das dritte festgelegte Segment stellt ein Segment einer Mundpartie bzw. den zwischen Oberlippe und Unterlippe Schatten bildenden Grenzbereich dar. Es hat sich erwiesen, dass zur Bestimmung eines menschlichen Gesichts das erste vorbestimmte Verhältnis zwischen Abstand von untersuchten und zweiten festgelegten Segmenten zu dem Abstand der Verbindungsstrecke der beiden Segmente zu dem dritten festgelegten Segment mit einem Wert von 1:1 bis 1:1,7, insbesondere von 1:1,2 bis 1:1,5 vorteilhaft ist. Neben der Möglichkeit, Augenbrauen als markante Segmente mit helligkeitsspezifischen Merkmalen zu verwenden, ist es auch möglich, an Stelle der Augenbrauen Schatten bildende Bereiche der Augenhöhlen bzw. die Augen oder die Iris selbst zu verwenden.According to an advantageous embodiment, in the step of checking the positional relationship in a first examination step according to a first detection mechanism, each of the defined segments is examined to determine whether there is a second defined segment for a segment to be examined, which segment is on a horizontal line or one in the Is essentially horizontal line to the currently examined fixed segment. Starting from a captured image, consisting of a plurality of pixels, the second segment does not necessarily have to lie on a horizontal line of pixels encompassed by the segment to be examined, it can also be higher or lower by a predetermined small amount of pixels with respect to the horizontal or horizontal line. If a second defined horizontal segment is found, then a third defined segment is searched for, which is located below the examined and the second defined segment and for which it applies that a distance from the examined to the second defined segment and a distance of a connecting path between the examined and the second defined segment to the third defined segment has a first predetermined ratio. In particular, a normal to the connecting path between the examined and the second defined segment can be defined, the distance from the third segment (along the normal) to the connecting path between the examined and the second defined segment being included in the first predetermined ratio. The distance between the examined and the second segment can be defined in such a way that the distance from a respective center of the defined segments is used. A center point can easily be determined, in particular when using segments with the geometric shape of a rectangle. The first examination step just described can thus be used to infer the presence of a face by determining the positional relationship between three defined segments. It is assumed here that the examined and the second defined segment represent a respective eyebrow section in the face of a human being, which normally has a striking or sharp light-darkness-brightness transition from top to bottom and is therefore clearly recognizable in the second processed image. The third defined segment represents a segment of a mouth area or the border area forming a shadow between the upper lip and lower lip. It has been found that, in order to determine a human face, the first predetermined ratio between the distance between examined and second defined segments to the distance of the connecting section of the two segments to the third fixed segment with a value from 1: 1 to 1: 1.7, in particular from 1: 1.2 to 1: 1.5 is advantageous. In addition to the possibility of using eyebrows as distinctive segments with brightness-specific characteristics, it is also possible to use shadow-forming areas of the eye sockets or the eyes or the iris itself instead of the eyebrows.
Gemäß einer weiteren vorteilhaften Ausgestaltung wird in dem Schritt des Überprüfens der positionsmäßigen Beziehung in einem zweiten Untersuchungsschritt (entsprechend einem zweiten Detektionsmechanismus) jedes der festgelegten Segmente dahingehend untersucht, ob zu diesem Segment ein viertes festgelegtes Segment existiert, das sich unterhalb, insbesondere entlang einer Vertikalen, dem untersuchten festgelegten Segment befindet und für das gilt, dass die horizontale Länge des untersuchten festgelegten Segments und der Abstand des vierten festgelegten Segments zum untersuchen festgelegten Segments ein zweites vorbestimmtes Verhältnis aufweisen. Dieser zweite Untersuchungsschritt geht dabei davon aus, dass insbesondere bei Personen, die eine Brille oder Sonnenbrille tragen, die einzelnen Augenbrauen nicht erkennbar sind, sondern dass auf Grund der starken Konturen der Brillen lediglich ein Segment bzw. eine Struktur erkennbar ist, die geometrisch der Länge der beiden Augenbrauen zusammen entspricht. Somit steht auch die Länge dieses die beiden Augenbrauen umfassenden Segments wieder in einem bestimmten Verhältnis zur Entfernung des Mundes im Gesicht des Benutzers. Werden somit zwei festgelegte Segmente erkannt, bei denen die Länge des ersten Segments zum Abstand des zweiten Segments ein zweites vorbestimmtes Verhältnis aufweist, so kann auch gemäß dem zweiten Untersuchungsschritt auf das Vorhandensein eines menschlichen Gesichts geschlossen werden. Als gültiger Bereich für das zweite vorbestimmte Verhältnis kann wieder ein Wert von 1:1 bis 1:1,7, aber insbesondere von 1:1,2 bis 1:1,5 angenommen werden.According to one Another advantageous embodiment is in the step of checking the positional relationship in a second investigation step (corresponding to a second Detection mechanism) of each of the specified segments examines whether a fourth fixed segment for this segment exists that is below, especially along a vertical, the examined determined segment and for which that the horizontal length of the examined fixed segment and the distance of the fourth fixed Segments to examine a predetermined segment Ratio. This second investigation step assumes that in particular in individuals who wear glasses or sunglasses, the individual eyebrows are not recognizable, but because of the strong contours only one segment or structure is recognizable, the geometrical of the length of the two eyebrows together. So that stands too Length of this the segment comprising two eyebrows again in a specific segment relationship to remove the mouth from the user's face. So be two defined segments, in which the length of the first segment to the distance of the second segment a second predetermined relationship according to the second examination step the presence of a human face. As a valid one Area for the second predetermined ratio can again a value from 1: 1 to 1: 1.7, but in particular from 1: 1.2 to 1: 1.5 can be assumed.
Gemäß einer vorteilhaften Ausgestaltung wird in dem Schritt des Überprüfens der positionsmäßigen Beziehung zunächst der erste Untersuchungsschritt durchgeführt, um insbesondere nach Gesichtern von Menschen zu suchen, die keine Brillenträger sind. Zeigt der erste Untersuchungsschritt kein Ergebnis, bei dem zu den jeweiligen untersuchten Segmenten kein zweites und drittes Segment gefunden worden ist, so wird im Folgenden der zweite Untersuchungsschritt durchgeführt. Es ist jedoch auch möglich, zunächst den zweiten und dann den ersten Untersuchungsschritt durchzuführen.According to one advantageous embodiment is in the step of checking the positional relationship first the first step of the investigation was carried out, especially according to faces to be looked for by people who are not wearing glasses. Shows the first exam step no result for the respective segments examined If no second and third segments have been found, the The second examination step is then carried out. It is also possible first to carry out the second and then the first examination step.
Bei dem bisher beschriebenen Verfahren bzw. den vorteilhaften Ausgestaltungen hiervon wird insbesondere indem ersten Untersuchungsschritt die positionsmäßige Beziehung dreier festgelegter Segmente zueinander bzw. ein erstes vorbestimmtes Verhältnis der Abstände der Segmente zueinander und wird bei dem zweiten Untersuchungsschritt die positionsmäßige Beziehung von (zwei) Segmenten in Abhängigkeit der Größe und/oder Form, insbesondere der (horizontalen) Länge, des ersten Segments als Kriterium zum Ableiten eines Vorhandenseins eines Gesichts in dem erfassten Bild einer Szene verwendet werden. Zur Verbesserung des Verfahrens, d. h. zur Erhöhung der Wahrscheinlichkeit, dass es sich tatsächlich um. ein Gesicht handelt, kann gemäß einer weiteren vorteilhaften Ausgestaltung in einem weiteren Verfahrensschritt ein Extrahieren biometrischer Merkmale bezüglich der Mundpartie oder Lippenpartie aus einem Analysebereich um ein gefundenes drittes oder viertes festgelegtes Segment durchgeführt werden. Das bedeutet, es sollen in diesem zusätzlichen Schritt weitere Untersuchungen durchgeführt werden, ob das einen Mundbereich repräsentierende dritte oder vierte festgelegte Segment tatsächlich einen Mundbereich bzw. eine Mundpartie repräsentiert. Dabei können in dem erfassten Bild in einem Bereich, der sich an der Position des dritten oder des vierten festgelegten Segments befindet und das jeweilige Segment umfasst, Hell-Dunkel- und Dunkel-Hell-Helligkeitsübergänge bestimmt werden, um das Vorhandensein einer Oberlippe und Unterlippe einer Mundpartie abzuleiten. Vorteilhafter Weise wird dabei der Analysebereich des erfassten Bildes, der Bereich mit der vermuteten Mundpartie, einer Bearbeitung mit einem horizontal orientierten Gradientenfilter unterzogen, um ein drittes bearbeitetes Bild zu erhalten. Das dritte bearbeitete Bild, von oben nach unten betrachtet, kann dann entsprechend dem ersten bearbeiteten Bild eine scharfen Hell-Dunkel-Übergang vom Oberlippenbereich zum "Zwischenlippenbereich" bzw. zum Mundöffnungsbereich darstellen, wobei anhand dieses Übergangs auf die Form der Oberlippe geschlossen werden kann. Diese ermittelte Form kann einem ersten Prüfschritt unterzogen werden, der anhand der Form der Oberlippenlinie feststellen soll, ob es sich tatsächlich um eine Oberlippe oder irgendeine andere Struktur handelt. Weist die Oberlippe für sie spezifische geometrische Eigenschaften auf, wie beispielsweise eine bestimmte (horizontale) Länge oder eine bzw. mehrere spezifische Krümmungen, so kann zunächst auf das tatsächliche Vorhandensein einer Mundpartie und somit auch auf das Vorhandensein eines Gesichts eines Menschen geschlossen werden. Somit kann das oben beschriebene Verfahren einschließlich dessen vorteilhafter Ausgestaltungen, bei dem bzw. denen anhand der positionsmäßigen Beziehung verschiedener festgelegter Segmente auf das Vorhandensein eines Gesichts geschlossen wird, durch eine Merkmalsextraktion, in diesem Fall der Extraktion geometrischer Eigenschaften der Oberlippe in dem ersten Prüfschritt, verbessert werden. Das bedeutet, dass nach diesem ersten Abschnitt der Merkmalsextraktion im Rahmen des ersten Prüfschritts schon die Wahrscheinlichkeit erhöht werden kann, dass es sich bei dem dritten oder vierten festgelegten Segment bzw. bei dem Analysebereich um einen Bildbereich handelt, in dem sich eine Mundpartie eines Gesichts befindet.In the previously described method and the advantageous refinements thereof, the positional relationship of three defined segments to one another or a first predetermined ratio of the spacing of the segments to one another, in particular in the first examination step, and the positional relationship of (two) segments becomes dependent in the second examination step the size and / or shape, in particular the (horizontal) length, of the first segment can be used as a criterion for deriving the presence of a face in the captured image of a scene. To improve the process, ie to increase the likelihood that it is actually. a face is involved, according to a further advantageous embodiment, biometric features relating to the mouth area or lip area can be extracted from an analysis area around a found third or fourth defined segment in a further method step. This means that in this additional step further tests should be carried out to determine whether the third or fourth defined segment representing a mouth area actually represents a mouth area or a mouth area. Light-dark and dark-light transitions can be determined in the area of the captured image in a region that is at the position of the third or fourth defined segment and includes the respective segment, in order to determine the presence of an upper lip and a lower lip Derived mouth part. The analysis area of the captured image, the area with the suspected mouth area, is advantageously subjected to processing with a horizontally oriented gradient filter in order to obtain a third processed image. The third processed image, viewed from top to bottom, can then represent a sharp light-dark transition from the upper lip area to the “intermediate lip area” or to the mouth opening area, corresponding to the first processed image, it being possible to infer the shape of the upper lip on the basis of this transition. This determined shape can be subjected to a first test step, which is to use the shape of the upper lip line to determine whether it is actually an upper lip or some other structure. Does the upper lip have specific geometric properties for it, such as a certain (horizontal) length or one or more specific curvatures, it can be concluded that the actual presence of a mouth area and thus also the presence of a human face. Thus, the method described above, including its advantageous refinements, in which the presence of a face is inferred based on the positional relationship of various defined segments, can be improved by feature extraction, in this case the extraction of geometric properties of the upper lip in the first test step become. This means that after this first section of the feature extraction within the scope of the first test step, the probability can already be increased that the third or fourth defined segment or the analysis area is an image area in which a mouth part of a face is located ,
Erfüllen die bestimmten geometrischen Eigenschaften (beispielsweise bezüglich Länge bzw. Krümmung) die für eine Oberlippe spezifischen Kriterien, so kann die Merkmalsextraktion in einen zweiten Extraktionsabschnitt bzw. einen zweiten Prüfschritt übergehen, in dem nun eine Unterlippe bzw. Unterlippenlinie extrahiert werden soll. Eine Unterlippe kann beispielsweise mittels eines vertikalen Such-Algorithmus erkannt bzw. extrahiert werden, bei dem im Analysebereich zunächst die Graustufenwerte der Oberlippe ermittelt werden und dann entsprechende Graustufenwerte in einem Abschnitt gesucht werden, der sich in vertikaler Richtung unterhalb dem Bereich der Oberlippe befindet. Auf diese Weise ist es möglich, sehr helle Bereiche, wie beispielsweise die Zähne, sowie sehr dunkle Bereiche, wie beispielsweise den Rachenbereich, zu überspringen und einen bezüglich der Helligkeit der Oberlippe als Unterlippe zu identifizieren. Eine weitere Möglichkeit, die Unterlippe zu extrahieren, beruht auf der Tatsache, dass bei entsprechend großer Wahl des Analysebereichs, bei der ein Teil des Kinnbereichs mit enthalten ist, insbesondere in dem dritten bearbeiteten Bild von unten nach oben betrachtet, ein dunkler Bereich (Schattenbereich) unterhalb der Unterlippe erkennbar ist, der darauf beruht, dass die Unterlippe normaler Weise bezüglich des Gesichts um einen kleinen Betrag nach vorne gekrümmt ist. Somit kann gemäß diesem Verfahren anhand des untersten und markantesten Helligkeitsübergangs von Dunkel nach Hell von unten nach oben betrachtet, auf die Unterlippe bzw. Unterlippenlinie geschlossen werden.Fulfill the certain geometric properties (for example with regard to length or curvature) for one Upper lip specific criteria, so the feature extraction pass into a second extraction section or a second test step, in which a lower lip or lower lip line is now extracted should. A lower lip can, for example, by means of a vertical Search algorithm can be recognized or extracted, in which the Gray scale values of the upper lip are determined and then corresponding gray scale values be searched in a section that is vertical located below the area of the upper lip. That way it possible very bright areas, such as the teeth, and very dark areas, such as the throat area, and skip one regarding the Identify the brightness of the upper lip as the lower lip. A another way Extracting the lower lip relies on the fact that at greater Choice of the analysis area, in which a part of the chin area with is included, especially in the third edited image of viewed from the bottom up, a dark area (shadow area) below the lower lip, which is due to the fact that the lower lip normally around the face small amount curved forward is. Thus, according to this procedure based on the lowest and most distinctive brightness transition viewed from dark to light from bottom to top, to the lower lip or lower lip line are closed.
Sind nun Oberlippe und Unterlippe identifiziert, so ist es nun möglich, Viseme bzw. Mundmerkmale zu extrahieren, indem die geometrischen Eigenschaften der Oberlippe und Unterlippe getrennt untersucht werden.are now identified upper lip and lower lip, so it is now possible to Viseme or extract mouth features by the geometric properties the upper lip and lower lip are examined separately.
Es kann somit zusammenfassend gesagt werden, dass ein Verfahren gemäß der vorliegenden Erfindung es zunächst erlaubt, anhand eines Bildes in einem Durchlauf helligkeitsspezifische Segmente festzulegen, um bei der Überprüfung derer positionsmäßigen Beziehung auf das Vorhandensein und die Position eines (menschlichen) Gesichts zu schließen.It can thus be summarized that a method according to the present invention it first allows you to use a picture in one run to adjust the brightness Segments to help you check their positional relationship the presence and position of a (human) face close.
Ein Programmprodukt für eine Datenverarbeitungsanlage, das Codeabschnitte enthält, mit denen eines der geschilderten Verfahren auf der Datenverarbeitungsanlage ausgeführt werden kann, lässt sich durch geeignete Implementierung des Verfahrens in einer Programmiersprache und Übersetzung in von der Datenverarbeitungsanlage ausführbaren Code ausführen. Die Codeabschnitte werden dazu gespeichert. Dabei wird unter einem Programmprodukt das Programm als handelbares Produkt verstanden. Es kann in beliebiger Form vorliegen, so zum Beispiel auf Papier, einem computerlesbaren Datenträger oder über ein Netz verteilt.On Program product for a data processing system that contains code sections with which one of the described processes on the data processing system accomplished can be through suitable implementation of the method in a programming language and translation into Execute code executable by the data processing system. The Sections of code are saved for this. It is under a program product understood the program as a tradable product. It can be in any Form, for example on paper, a computer-readable data carrier or via a Network distributed.
Weitere Vorteile und Merkmale der Erfindung ergeben sich aus der Beschreibung eines Ausführungsbeispiels anhand der Zeichnung. Dabei zeigt:Further Advantages and features of the invention result from the description of an embodiment based on the drawing. It shows:
Der Einzug von Kamerafunktionalitäten in mobile Endgeräte der dritten Generation erlaubt neue Wege der Interaktion mit den Geräten. Mittels Gesichtsdetektion und -tracking kann die von der Kamera aufgezeichnete Bewegung des Benutzers direkt in Bewegungsdaten umgesetzt werden. Diese Bewegungsdaten können derart ausgewertet werden, dass die als Positionierung für die Selektion von auf einer grafischen Benutzerschnittstelle dargestellten Buttons verwendet werden.The Introduction of camera functionalities into mobile devices the third generation allows new ways of interacting with the Devices. Facial detection and tracking can be carried out by the camera recorded movement of the user directly converted into movement data become. This movement data can be evaluated in such a way that the positioning for the selection of buttons displayed on a graphical user interface be used.
Wie
in den
Das
Selektionsmittel
Dadurch kann bei mobilen Endgeräten, insbesondere bei mobilen Endgeräten mit weniger als 24 oder weniger als 10 Tasten, bei Mobiltelefonen und/oder bei PDAs, mit Kamerafunktionalität eine sehr komfortable Einhandbedienung ohne zusätzliche Hardware realisiert werden. Bei der Realisierung als bewegter Mauszeiger kann der Benutzer das ihm bekannte Bedienkonzept der Maus auf die Bewegung seines Endgeräts übertragen.Thereby can with mobile devices, especially with mobile devices with less than 24 or less than 10 keys, for mobile phones and / or for PDAs, with camera functionality a very comfortable one-hand operation without additional hardware become. When implementing it as a moving mouse pointer, the user can the mouse operating concept known to him on the movement of his Transfer terminal devices.
Es können weiterhin Stabilisierungsverfahren zur fließenden Bewegung des Mauszeigers bzw. der Button-Auswahl verwendet werden.It can continue stabilization process for smooth movement of the mouse pointer button selection.
Zum
optischen Feedback kann entweder das Bild des Kopfs
Für eine Bedienung in dunkler Umgebung kann das mobile Endgerät mit Beleuchtungseinrichtungen wie beispielsweise Infrarotleuchtdioden ausgestattet werden.For an operation in a dark environment, the mobile device can be equipped with lighting devices such as infrared light emitting diodes.
Das mobile Endgerät und das vorgeschlagene Verfahren können in vielfältiger Weise eingesetzt bzw. angewendet werden. Dazu gehört eine Eingabe von Telefonnummern, bei entsprechender Größe der Anzeige bzw. einem Softscrolling auch eine Auswahl von Buchstaben oder Sonderzeichen, beispielsweise für SMS, eine Menüsteuerung des Gerätes und/oder eine Applikationssteuerung.The mobile device and the proposed method can be done in many ways used or applied. This includes entering phone numbers, with the appropriate size of the ad or a soft scrolling also a selection of letters or special characters, for example for SMS, a menu control of the device and / or an application control.
Zum Messen der Relativbewegung, also zur Lokalisation des Benutzers bzw. seines Gesichts gegenüber dem Endgerät, kann das im Folgenden beschriebene Verfahren verwendet werden.To the Measuring the relative movement, i.e. to localize the user or his face the terminal, the method described below can be used.
Es
sei dabei zunächst
auf
Für den Fall
der im folgenden erläuterten
bevorzugten Ausführungsform
sind die in
Im Folgenden sollen nun die in dem optischen Auswerteabschnitt OAA durchführbaren Mechanismen bzw. einzelnen Verfahren ausführlich dargestellt werden.in the The following are now those in the optical evaluation section OAA feasible Mechanisms or individual procedures are presented in detail.
Primärer DetektionsmechanismusPrimary detection mechanism
Es
sei nun auf
Ein
derart beschriebener primärer
Detektionsmechanismus soll nun anhand der
Es sei bemerkt, dass der gesamte Vorgang des primären Detektionsmechanismus, wie er gerade beschrieben worden ist, in einem einzigen Durchgang durchgeführt werden kann, wobei am Ende des Durchgangs das ursprünglich erfasste Bild verworfen werden kann und nur noch die gespeicherten Bildpunktdaten des Analysebereich benötigt werden. Wie es ferner zu erkennen ist, werden innerhalb dieses einzigen Durchlaufs die Bilddaten des erfassten Bildes mit sehr einfachen Algorithmen erheblich verringert, was der Anforderung nach Minimierung des Speicherbedarfs, Rechenzeit und Durchlaufzeit Rechnung trägt.It it should be noted that the entire process of the primary detection mechanism, as just described, in a single pass carried out can be, whereby at the end of the run the originally recorded Image can be discarded and only the saved pixel data of the analysis area is required become. As can also be seen, within this single pass the image data of the captured image with very simple algorithms significantly reduced, which is the requirement to minimize memory requirements, Computing time and lead time takes into account.
Merkmalsextraktionfeature extraction
Die
nun folgende Merkmalsextraktion dient beispielsweise der Plausibilitätsprüfung, ob
in dem gefundenen Analysebereich wirklich ein Gesicht mit Mundpartie
bzw. Lippen vorliegt. Zunächst
sei auf
Wird
eine gefundene Oberlippenlinie als positiv (entsprechend einer tatsächlichen
Oberlippe bzw. Oberlippenlinie) bewertet, wird ein zweiter Prüfschritt
bzw. Extraktionsschritt durchgeführt,
bei dem die Unterlippe oder Unterlippenlinie identifiziert werden
soll. Da das genaue Extrahieren der Unterlippe auf Grund generell
schwächerer
Konturierung der Unterlippe mittels einem Filter, wie dem oben beschriebenen
Gradientenfilter, schwierig ist, wird in diesem Fall ein vertikaler
Suchalgorithmus angewandt, der ausgehend von der relativ gut erkennbaren
Oberlippe bzw. Oberlippenlinie, welche durch die oberen weißen Quadrate
OL in
Sekundärere DetektionsmechanismusSecondary detection mechanism
Wie oben bezüglich der Merkmalsextraktion erwähnt worden ist, ist es möglich, dass nach Durchführen des primären Detektionsmechanismus' und nach einer Plausibilitätsprüfung in einem ersten Prüfschritt der Merkmalsextraktion der durch den primären Detektionsmechanismus gefundene Analysebereich keine tatsächliche Mundpartie aufweisen kann. In diesem Fall wird der sekundäre Detektionsmechanismus eingesetzt, um einen Analysebereich für eine Mundpartie zu finden. Es sei dabei erwähnt, dass der sekundäre Detektionsmechanismus bereits algorithmisch beim Durchlauf des primären Detektionsmechanismus berücksichtigt werden kann, d. h. nach Erfassen des ersten Bildes der Szene. Es ist jedoch auch möglich, dass der zweite Detektionsmechanismus aber erst in einem zweiten Durchlauf bezüglich eines zweiten erfassten Bildes der Szene durchgeführt werden kann. Wird der sekundäre Detektionsmechanismus bereits beim Durchlaufen des primären Detektionsmechanismus durchgeführt, so können die damit identifizierten bzw. festgelegten Segmente dann erst beim Aufruf des sekundären Detektionsmechanismus ausgewertet werden.How above regarding of feature extraction mentioned has been, is it possible that after performing of the primary Detection mechanism 'and after a plausibility check in a first test step the feature extraction that found by the primary detection mechanism Analysis area no actual Mouth part can have. In this case, the secondary detection mechanism used to find a mouth area analysis area. It should be mentioned that the secondary Detection mechanism already algorithmic when running through the primary detection mechanism considered can be d. H. after capturing the first image of the scene. It is also possible that the second detection mechanism is only in a second Run on a second captured image of the scene can be performed. Will the secondary detection mechanism already performed when going through the primary detection mechanism, so can the segments identified or defined with it only then at Call the secondary Detection mechanism can be evaluated.
Der
Grund für
das Fehlschlagen des primären
Detektionsmechanismus' kann
darin liegen, dass bei stark konturierten Brillen, Sonnenbrillen
oder durchgängigen
Augenbrauen keine zwei getrennten Augenbrauensegmente für die gesichtsgeometrische Beurteilung
zur Verfügung
stehen, weshalb in diesem Fall ein anderer Detektionsmechanismus
zu verwenden ist. Bei dem zweiten Detektionsmechanismus werden dabei
zunächst
die gleichen Bearbeitungsschritte, wie die in
Ausgehend
von einem in
Ist nun mittels dem sekundären Detektionsmechanismus zu einem ersten den Augenbrauen entsprechenden Segment ein zweites der Mundpartie entsprechendes Segment gefunden worden, so kann dieser gefundene Bereich bezüglich Position und Größe in dem erfassten Bild als Analysebereich gespeichert werden und der oben dargestellten Merkmalsextraktion zugeführt werden.is now by means of the secondary Detection mechanism for a first one corresponding to the eyebrows Segment found a second segment corresponding to the mouth area this area can be found in terms of position and size in the captured image can be saved as the analysis area and the one above feature extraction shown are supplied.
Zusammenfassend kann also festgestellt werden, dass die in dem optischen Auswerteabschnitt OAA durchgeführten Verfahren zur Analyse einer Szene bzw. zum Auffinden, Verfolgen und Analysieren einer Mundpartie, insbesondere für Datenverarbeitungsanlage mit eingeschränkten Ressourcen vorteilhaft ist. Durch den Einsatz von gesichtsgeometrischen Segmentierungsverfahren kann das visuelle oder optische Datenvolumen zur Weiterverarbeitung sehr schnell auf kleine Segmentmengen reduziert werden. Eingebaute Plausibilitäts- bzw. Robustheitsprüfung (bei der Merkmalsextraktion) erlauben dabei auch ein hohes Maß an Zuverlässigkeit und verhindern eine Fehldetektion.In summary, it can thus be stated that the methods carried out in the optical evaluation section OAA for analyzing a scene or for locating, tracking and analyzing a mouth area are advantageous, in particular for data processing systems with limited resources. Through the use of facial geometrical segmentation processes, the visual or optical data volume can be reduced very quickly to small segment quantities for further processing be reduced. Built-in plausibility and robustness checks (for feature extraction) also allow a high degree of reliability and prevent incorrect detection.
Alle Verfahren können vorteilhaft zur Bestimmung der Position des Benutzers gegenüber dem mobilen Endgerät verwendet werden, indem aus der Position des Gesichts, insbesondere der Mundpartie, im Bild die Position des Benutzers berechnet wird. Dabei ist es nicht einmal nötig, die absolute Position zu bestimmen, sondern nur die relative in aufeinander folgenden Bildern, aus der sich die Relativbewegung des Benutzers gegenüber dem mobilen Endgerät berechnen lässt. Entsprechend dieser Relativbewegung wird dann das Selektionsmittel auf der grafischen Benutzerschnittstelle verschoben.All Procedure can advantageous for determining the position of the user relative to the mobile terminal used by from the position of the face, in particular the mouth, in the picture the position of the user is calculated. there it’s not even necessary to determine the absolute position, but only the relative in successive images that make up the relative movement towards the user the mobile device can be calculated. The selection medium then becomes corresponding to this relative movement moved on the graphical user interface.
Claims (24)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE10313019A DE10313019B4 (en) | 2003-03-24 | 2003-03-24 | One-hand operation of terminals using gesture recognition |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE10313019A DE10313019B4 (en) | 2003-03-24 | 2003-03-24 | One-hand operation of terminals using gesture recognition |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE10313019A1 true DE10313019A1 (en) | 2004-10-28 |
| DE10313019B4 DE10313019B4 (en) | 2005-02-24 |
Family
ID=33038744
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE10313019A Expired - Fee Related DE10313019B4 (en) | 2003-03-24 | 2003-03-24 | One-hand operation of terminals using gesture recognition |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE10313019B4 (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102005024638A1 (en) * | 2005-05-30 | 2006-12-07 | Siemens Ag | Word/text inputs navigation method, for mobile telephone, involves displacing menu based on requirements of electronic device movement found by image recording device, where relative position of cursor and menu entry is found by device |
| WO2007003195A1 (en) * | 2005-07-04 | 2007-01-11 | Bang & Olufsen A/S | A unit, an assembly and a method for controlling in a dynamic egocentric interactive space |
| WO2006097722A3 (en) * | 2005-03-15 | 2007-01-11 | Intelligent Earth Ltd | Interface control |
| FR2889323A1 (en) * | 2005-07-29 | 2007-02-02 | Realeyes3D Sa | METHOD FOR CONTROLLING AN INTERFACE USING A CAMERA COMPRISING A COMMUNICATION TERMINAL |
| EP1887776A1 (en) * | 2006-08-07 | 2008-02-13 | Samsung Electronics Co., Ltd. | Portable terminal and user interface control method thereof based on pattern recognition and analysis of image captured by camera |
| DE102007059273A1 (en) * | 2007-12-08 | 2009-06-18 | T-Mobile Internationale Ag | Virtual keyboard of a mobile device |
| EP2090961A1 (en) * | 2008-02-14 | 2009-08-19 | EPFL Ecole Polytechnique Fédérale de Lausanne | Interactive device and method for transmitting commands from a user |
| US7911457B2 (en) | 2001-04-09 | 2011-03-22 | I.C. + Technologies Ltd. | Apparatus and methods for hand motion detection and hand motion tracking generally |
| DE102005013541B4 (en) * | 2005-03-23 | 2014-02-13 | Hewlett-Packard Development Co., L.P. | Method for setting a communication terminal and communication terminal |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0825514A2 (en) * | 1996-08-05 | 1998-02-25 | Sony Corporation | Information processing device and method for inputting information by operating the overall device with a hand |
| WO2001043473A1 (en) * | 1999-12-08 | 2001-06-14 | Telbird Ltd. | Hand held data processor unit |
| GB2357684A (en) * | 1999-12-21 | 2001-06-27 | Motorola Ltd | Hand-held terminal having a display screen which is controlled by movement of the terminal |
-
2003
- 2003-03-24 DE DE10313019A patent/DE10313019B4/en not_active Expired - Fee Related
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0825514A2 (en) * | 1996-08-05 | 1998-02-25 | Sony Corporation | Information processing device and method for inputting information by operating the overall device with a hand |
| WO2001043473A1 (en) * | 1999-12-08 | 2001-06-14 | Telbird Ltd. | Hand held data processor unit |
| GB2357684A (en) * | 1999-12-21 | 2001-06-27 | Motorola Ltd | Hand-held terminal having a display screen which is controlled by movement of the terminal |
Non-Patent Citations (3)
| Title |
|---|
| DE SOUZA COELHO P.S., u.a.: Enhancing the Bayesian network approach to face detection. In: Computer Science Society, 1999. Proceedings. SCCC`99. XIX International Conference of the Chilean, 11-13 Nov. 1999, Pages: 150-159 |
| DE SOUZA COELHO P.S., u.a.: Enhancing the Bayesiannetwork approach to face detection. In: Computer Science Society, 1999. Proceedings. SCCC`99. XIX International Conference of the Chilean, 11-13 Nov. 1999, Pages: 150-159 * |
| KIN CHOONG YOW u.a.: Feature-based human face de- tection. In: Image and Vision Computing, Sept. 1997. Elsevier, Netherlands, Vol.15, No.9, Pages: 713-735. * |
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7911457B2 (en) | 2001-04-09 | 2011-03-22 | I.C. + Technologies Ltd. | Apparatus and methods for hand motion detection and hand motion tracking generally |
| US8686976B2 (en) | 2001-04-09 | 2014-04-01 | I.C. + Technologies Ltd. | Apparatus and method for hand motion detection and hand motion tracking generally |
| WO2006097722A3 (en) * | 2005-03-15 | 2007-01-11 | Intelligent Earth Ltd | Interface control |
| DE102005013541B4 (en) * | 2005-03-23 | 2014-02-13 | Hewlett-Packard Development Co., L.P. | Method for setting a communication terminal and communication terminal |
| DE102005024638A1 (en) * | 2005-05-30 | 2006-12-07 | Siemens Ag | Word/text inputs navigation method, for mobile telephone, involves displacing menu based on requirements of electronic device movement found by image recording device, where relative position of cursor and menu entry is found by device |
| WO2007003195A1 (en) * | 2005-07-04 | 2007-01-11 | Bang & Olufsen A/S | A unit, an assembly and a method for controlling in a dynamic egocentric interactive space |
| US8125444B2 (en) | 2005-07-04 | 2012-02-28 | Bang And Olufsen A/S | Unit, an assembly and a method for controlling in a dynamic egocentric interactive space |
| FR2889323A1 (en) * | 2005-07-29 | 2007-02-02 | Realeyes3D Sa | METHOD FOR CONTROLLING AN INTERFACE USING A CAMERA COMPRISING A COMMUNICATION TERMINAL |
| WO2007012768A3 (en) * | 2005-07-29 | 2007-05-10 | Realeyes3D | Method for controlling an interface using a camera equipping a communication terminal |
| US7693333B2 (en) | 2006-08-07 | 2010-04-06 | Samsung Electronics Co., Ltd. | Portable terminal and user interface control method thereof based on pattern recognition and analysis of image captured by camera |
| EP2262221A1 (en) * | 2006-08-07 | 2010-12-15 | Samsung Electronics Co., Ltd. | Portable terminal and user interface control method thereof based on pattern recognition and analysis of image captured by camera |
| EP1887776A1 (en) * | 2006-08-07 | 2008-02-13 | Samsung Electronics Co., Ltd. | Portable terminal and user interface control method thereof based on pattern recognition and analysis of image captured by camera |
| US8527895B2 (en) | 2007-12-08 | 2013-09-03 | T-Mobile International, AG | Virtual keyboard of a mobile terminal |
| DE102007059273A1 (en) * | 2007-12-08 | 2009-06-18 | T-Mobile Internationale Ag | Virtual keyboard of a mobile device |
| EP2090961A1 (en) * | 2008-02-14 | 2009-08-19 | EPFL Ecole Polytechnique Fédérale de Lausanne | Interactive device and method for transmitting commands from a user |
| US8126221B2 (en) | 2008-02-14 | 2012-02-28 | Ecole Polytechnique Federale De Lausanne (Epfl) | Interactive device and method for transmitting commands from a user |
Also Published As
| Publication number | Publication date |
|---|---|
| DE10313019B4 (en) | 2005-02-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102007056528B3 (en) | Method and device for finding and tracking pairs of eyes | |
| DE69612700T2 (en) | Feature localization in an image | |
| EP1119822B1 (en) | Method and system for recognizing people with model-based face detection | |
| DE60213600T2 (en) | METHOD AND DEVICE FOR EXTRACTION OF A SIGNIFICANT TERRITORY IN A BIOLOGICAL SURFACE PICTURE OBTAINED BY EXCEEDING RECORDING | |
| DE102010016251A1 (en) | Detection method for a moving object and the command input method underlying the detection of the moving object | |
| DE102007055715A1 (en) | Apparatus, method and program for eye detection | |
| DE19634768A1 (en) | Face identification system using video image analysis | |
| DE102008048325A1 (en) | Operation input device | |
| EP2711869A2 (en) | Method and device for recording fingerprints based on fingerprint scanners in reliably high quality | |
| DE102007025670A1 (en) | Intelligent picture quality functional unit | |
| WO2009010550A1 (en) | Image recording method for the direct object segmentation in images | |
| EP3695293A1 (en) | Method for providing a haptic feedback message to an operator of a touch-sensitive display device | |
| EP0800145A2 (en) | Method for recognition by computer of at least one finger-shaped object in a hand-shaped first object | |
| DE10313019B4 (en) | One-hand operation of terminals using gesture recognition | |
| DE102018003903A1 (en) | Apparatus and method for classifying data for supervised machine learning | |
| DE112017008174T5 (en) | Expression recognizer | |
| DE102023125422A1 (en) | Hybrid object detection method based on thermal images in combination with YOLO models and object tracking techniques | |
| EP3663976A1 (en) | Method for detecting fingerprints | |
| DE19754909C2 (en) | Method and device for acquiring and processing images of biological tissue | |
| DE112022001060B4 (en) | DYNAMIC INTERFACING INTERVENTION TO IMPROVE SENSOR PERFORMANCE | |
| DE102005014772A1 (en) | Display method for showing the image of communication participant in communication terminal, involves using face animation algorithm to process determined facial coordinates of image to form animated image of calling subscriber | |
| DE10233233A1 (en) | Body partial movement detection method for recording body movement significance or for processing types of dynamic body actions detects partial motion between two conditions of non-movement | |
| CH717006A2 (en) | Procedure for user identification. | |
| EP4184456B1 (en) | Method and device for determining a digital biometric template for a security document and method for personalizing a security document | |
| DE102014224599A1 (en) | Method for operating an input device, input device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| OP8 | Request for examination as to paragraph 44 patent law | ||
| 8364 | No opposition during term of opposition | ||
| 8339 | Ceased/non-payment of the annual fee |