DE69613656T2 - Betrieb eines berührungsempfindlichen Bildschirms - Google Patents
Betrieb eines berührungsempfindlichen BildschirmsInfo
- Publication number
- DE69613656T2 DE69613656T2 DE69613656T DE69613656T DE69613656T2 DE 69613656 T2 DE69613656 T2 DE 69613656T2 DE 69613656 T DE69613656 T DE 69613656T DE 69613656 T DE69613656 T DE 69613656T DE 69613656 T2 DE69613656 T2 DE 69613656T2
- Authority
- DE
- Germany
- Prior art keywords
- coordinates
- period
- touch panel
- touch
- touch input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/045—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
- Die vorliegende Erfindung bezieht sich auf Berührbedienfelder (touch panels) sowie auf Verfahren zum Betreiben von Berührbedienfeldern, wie sie auf einer Anzeige für einen Personalcomputer oder auf einer Fertigungsautomatisierungsvorrichtung bereitgestellt werden.
- Da Personalcomputer außer in Büros auch an anderen Orten eingesetzt werden, gibt es einen erhöhten Bedarf für neue Eingabevorrichtungen, die den Platz der üblichen Benutzerschnittstelle einnehmen können, welche die Verwendung einer Tastatur und einer Maus beinhaltet. Als ein Ergebnis der Nachfrage nach neuen Eingabevorrichtungen richtete sich die Aufmerksamkeit auf Berührbedienfelder, welche Vorrichtungen darstellen, die an den Bildschirmen von Anzeigevorrichtungen angebracht sind und die eine Dateneingabe akzeptieren, die durch Brühren der Bildschirme von Benutzern mit ihren Fingern durchgeführt wird. Gegenwärtig werden Berührbedienfelder bereits weit verbreitet als Endgeräteschnittstellen für Finanz- und Fertigungsautomatisierungs-Endgeräte verwendet.
- Berührbedienfelder werden grob in den in Fig. 5 gezeigten Typ, der eine Positionsinformation durch Verwendung einer Änderung des Flächenwiderstands aufgrund der Berührung eines Fingers detektiert, und einen optischen Typ (nicht gezeigt) klassifiziert, der eine Positionsinformation durch Abrastern der x-y-Ebene und Detektieren der Abschirmung durch einen berührenden Finger gewinnt.
- Wenn eine Benutzer(in) auf ein beliebiges Gebiet auf der Oberfläche eines Berührbedienfeldes mit seinem (ihrem) Finger drückt, gibt das Berührbedienfeld die Lage derjenigen Stelle, die mit dem Finger gedrückt wurde, als zweidimensionale x-y- Positionsinformation ab. Nunmehr wird unter Bezugnahme auf Fig. 5 eine Beispielstruktur eines Flächenwiderstands- Berührbedienfeldes kurz beschrieben. Für das Berührbedienfeld überlappen sich eine Schicht zum Detektieren der Position in x-Richtung und eine Schicht zum Detektieren der Position in y- Richtung. In Fig. 5 ist eine derartige Schicht für eine der Richtungen gezeigt. Die Schicht wird durch Anbringen von zwei rechteckigen, transparenten oder durchsichtigen Elektroden 2 und 4 bereitgestellt, die einander mit einer zwischenliegenden Schicht gegenüberliegen, die aus einem Fluidisolationsmaterial (nicht gezeigt) besteht. Zwischen einer Seite 6 der transparenten Elektrode 2 und einer gegenüberliegenden Seite 8 wird eine vorgegebene Gleichspannung V angelegt, und die andere transparente Elektrode 4 ist zum Beispiel an einer Seite 10 geerdet. Wenn dann ein Finger die transparente Elektrode 2 berührt, die dadurch die transparente Elektrode 4 kontaktiert, um einen Kurzschluss zu bewirken, ändert sich der Flächenwiderstand an der transparenten Elektrode 2, und die Änderung wird dazu verwendet, die Position derjenigen Stelle zu detektieren, die von dem Finger berührt wurde. Dieser Schichttyp wird sowohl für die x- als auch die y-Richtung verwendet, so dass der zweidimensionale Ort einer Berührung detektiert werden kann,
- Nunmehr wird unter Bezugnahme auf Fig. 6 ein beispielhafter Vorgang erläutert, bei dem ein Finger dazu verwendet wird, ein derartiges Berührbedienfeld zu berühren. Fig. 6 ist eine Darstellung, die Informationen zeigt, die auf dem Anzeigeschirm eines Personalcomputers angezeigt werden, an dem ein Berührbedienfeld angebracht ist. Zwei Fenster 24 und 30 für Anwendungen 1 und 2 sind geöffnet gezeigt. Drei weitere Anwendungen sind durch Symbole repräsentiert, die an der unteren linken Seite des Bildschirms angezeigt werden.
- Wenn das Fenster 24 für die Anwendung 1 transversal über den Anzeigeschirm hinweg zu erweitern ist, wie durch den Querpfeil angezeigt, wird ein Gebiet 16, das den vertikalen Rahmen auf der rechten Seite des Fensters 24 repräsentiert, mit einem Finger berührt, und während der Finger nach rechts in Kontakt mit dem Berührbedienfeld bewegt wird, wird das Gebiet 16 erweitert. In ähnlicher Weise wird, wenn das Fenster 24 in der durch den diagonalen unteren rechten Pfeil angezeigten Richtung zu vergrößern ist, die untere rechte Ecke 18 des Fensters mit einem Finger gedrückt und der Finger wird diagonal nach rechts unten bewegt, so dass das Fenster 24 vergrößert wird.
- Wenn die Funktion, die durch ein Symbol "m" 20 in dem Fenster 24 repräsentiert wird, zu aktivieren ist, wird ein Finger innerhalb des Rahmens des Symbols 20 platziert, und der Rahmen wird einmal mit dem Finger angetippt (Einzel-Antippen), so dass die Funktion für das Symbol 20 aktiviert wird. In der gleichen Weise wird, wenn eine Bildlaufleiste zu betätigen ist, ein Finger innerhalb des Rahmens für einen Bildlaufpfeil 22 platziert, und eine Einzel-Antippung wird dazu verwendet, das Bild durchlaufen zu lassen.
- Wenn das Fenster 24 zu schließen ist, wird ein Rahmen 14 an der oberen linken Ecke des Fensters 24 mit einem Finger doppelt angetippt (Doppel-Antippung). In ähnlicher Weise wird, wenn ein Symbol 12 an der unteren linken Ecke auf dem Bildschirm zu öffnen ist, innerhalb des Rahmens für das Symbol 12 eine Doppel-Antippung mit einem Finger durchgeführt.
- Durch Verwenden des Berührbedienfeldes kann ein(e) Benutzer(in) seinen (ihren) Finger dazu verwenden, die Bewegung eines Zeigers auf einem Anzeigeschirm und das Anklicken mit dem Zeiger direkt zu steuern, was Funktionen darstellt, die üblicherweise durch Verwenden einer Maus und einer auf der Maus vorgesehenen Taste durchgeführt wird.
- In der letzten Zeit werden jedoch, da die Auflösung der Anzeige für Personalcomputer erhöht wird und Anwendungsanzeigen kompliziert werden, die Abmessung der anzuzeigenden Fenster, die Abmessung der Anzeigen in den Fenstern sowie die Abmessungen von Symbolen reduziert. Des Weiteren sind, während ein Zeigen und Anklicken mit einer Maus leicht durchzuführen sind, vergleichbare Operationen schwierig, bei denen ein Finger dazu verwendet wird, direkte Anweisungen zu geben.
- Insbesondere für das Doppel-Antippen eines Berührbedienfeldes mit einem Finger, was dem Doppelklicken einer Maus entspricht, ist eine präzise Durchführung äußerst schwierig, mit Ausnahme des Falles, in dem die Auflösung einer Anzeige und die Auflösung für eine Positionsdetektion auf einem Berührbedienfeld gering sind, und des Falles, in dem ein spezieller Prozess durchgeführt wird, um speziell ein Gebiet zu erweitern, für das ein Doppel-Antippen zur Verfügung steht.
- Ein Dateneingabeverfahren, das ein Doppel-Antippen auf einem herkömmlichen Berührbedienfeld verwendet, würde erfordern, dass die exakt gleiche Stelle auf einem Berührbedienfeld innerhalb einer kurzen Zeit zweimal gedrückt wird. Diese Manipulation kann durchgeführt werden, solange ein Berührgebiet groß ist. Um jedoch Anwendungen in einer Mehrzahl von Fenstern auf einer Anzeige eines PC zu bewegen, ist eine höhere Auflösung erforderlich, die einen Effekt bereitstellt, der ähnlich jenem ist, der durch Doppelklicken unter Verwendung einer Maus und eines Zeigers bereitgestellt wird, und ein herkömmliches Doppel-Antippen kann den gewünschten Effekt nicht bereitstellen.
- Wenngleich Berühreingabesysteme, die Finger verwenden, keine speziellen Vorrichtungen, wie einen Stift, erfordern und als Benutzerschnittstelle für Vorrichtungen exzellent sind, die von einer großen Anzahl von Menschen verwendet werden, wie Online-Terminals in Banken oder FA-Steuereinrichtungen, ist die Verwendung von Berührbedienfeldern aufgrund der vorstehend beschriebenen Probleme beschränkt. Tatsächlich wird in den vorstehenden Anwendungsgebieten lediglich eine Einzelantipp- Funktion aufgezeigt, und eine Doppelantipp-Funktion ist nicht vorgesehen.
- Gegenwärtige Betriebssysteme (OSs) für allgemeine Zwecke, wie OS/2 (Markenname von IBM Corp.), und die meisten Anwendungsprogramme sind jedoch mit der Voraussetzung versehen, dass Einzelklicken und Doppelklicken der linken Taste einer Maus verwendet wird. Um diese Softwareprogramme mit einem Berührbedienfeld zu verwenden, muss das Berührbedienfeld irgendwie so gemacht sein, dass es das Doppel-Antippen erkennt.
- Eine Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren zur Ansteuerung eines Berührbedienfeldes, durch welches das Erkennen eines Doppel-Antippens für ein Berührbedienfeld erleichtert wird, das sich auf einer Hochauflösungsanzeige befindet, die in einem Personalcomputer einer Fertigungsautomatisierungsvorrichtung angebracht ist, sowie ein Berühreingabeverfahren bereitzustellen.
- Um die vorstehende Aufgabe zu lösen, weisen ein Berührbedienfeld-Ansteuerverfahren und ein entsprechendes Berührbedienfeld gemäß der vorliegenden Erfindung, wie in den Ansprüchen 1 und 4 dargelegt, die Merkmale auf: Drücken einer gewünschten Stelle auf einem Berührbedienfeld, das sich auf einer Anzeige befindet, indem ein erstes drückendes Mittel verwendet wird, und Antippen einer Stelle, die sich von der gewünschten Stelle unterscheidet, indem ein zweites drückendes Mittel verwendet wird; Ausgeben von Koordinatendaten von dem Berührbedienfeld, die sich um ein vorgegebenes Maß von Koordinatendaten an der gewünschten Position unterscheiden; und Verwenden von Koordinatendaten, die von dem Berührbedienfeld ausgegeben werden und vor und nach der Durchführung des Antippens erhalten werden, um zu bestimmen, ob erkannt wird oder nicht, dass ein Doppel-Antippen an der gewünschten Position durchgeführt wurde.
- Des Weiteren wird zur Lösung der vorstehenden Aufgabe ein Berühreingabeverfahren für ein Berührbedienfeld bereitgestellt, durch das eine Stelle, die sich von einer gewünschten Stelle unterscheidet, durch Verwenden eines zweiten drückenden Mittels angetippt wird, während die gewünschte Stelle auf dem Berührbedienfeld, das sich auf einer Anzeige befindet, durch Verwenden eines ersten drückenden Mittels gedrückt wird.
- Außerdem dienen zur Lösung der vorstehenden Aufgabe die Finger eines Benutzers in dem Berühreingabeverfahren für ein Berührbedienfeld als das erste und das zweite drückende Mittel.
- Gemäß der vorliegenden Erfindung muss anders als beim herkömmlichen Doppel-Antippen ein Finger nicht dazu verwendet werden, eine Zielstelle zweimal innerhalb einer kurzen Zeit zu drücken. Mit anderen Worten kann, da ein Finger nicht von der Zielstelle abgehoben werden muss, ein Doppel-Antippen präzise und leicht erkannt werden.
- Gemäß der vorliegenden Erfindung wird ein Doppel-Antippen durch Verwenden einer Positionsinformation für einen ersten Finger vor und nach einer kurzen Zeitspanne identifiziert, während der durch einen zweiten Finger eine weitere Stelle angetippt wird. Selbst wenn der erste Finger, der gegen die Zielstelle gedrückt wird, unruhig ist und sich leicht bewegt, wird der gesamte Vorgang für ein Doppel-Antippen im Vergleich zu der Instabilität eines herkömmlichen Doppel-Antippens mit einem einzigen Finger beträchtlich verbessert.
- Spezifische Ausführungsformen der Erfindung sind in den abhängigen Ansprüchen 2, 3, 5 und 6 angegeben.
- Nunmehr wird die bevorzugte Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf die Fig. 1 bis 6 beispielhaft beschrieben, in denen:
- Fig. 1 eine Darstellung ist, die ein Berühreingabeverfahren gemäß einer Ausführungsform der vorliegenden Erfindung illustriert;
- Fig. 2 eine graphische Darstellung ist, die das Berühreingabeverfahren gemäß der Ausführungsform der vorliegenden Erfindung zeigt;
- Fig. 3 eine graphische Darstellung ist, die eine Berühreingabe durch herkömmliches Doppel-Antippen zeigt; .
- Fig. 4 ein Flussdiagramm zur Erläuterung eines Berührbedienfeld-Ansteuerverfahrens gemäß der Ausführungsform der vorliegenden Erfindung ist;
- Fig. 5 eine Darstellung zur Erläuterung des Aufbaus eines Berührbedienfeldes ist;
- Fig. 6 eine Darstellung zur Erläuterung eines Eingabeverfahrens für ein Berührbedienfeld ist.
- Als erstes wird unter Bezugnahme auf Fig. 1 der Verfahrensablauf dafür beschrieben, es einem Berührbedienfeld zu ermöglichen, ein Doppel-Antippen zu erkennen. In Fig. 1(a) wird angenommen, dass ein Symbol 36, das durch Doppel-Antippen zu öffnen ist, auf einem Anzeigebildschirm vorliegt, an dem ein Berührbedienfeld 32 angebracht ist. Ein Zeigefinger 34 eines Benutzers wird innerhalb des Rahmens des Symbols 36 niedergedrückt. Die Stelle des Symbols 36, wo der Zeigefinger 34 platziert wird, wird durch das Berührbedienfeld 32 ausgegeben.
- Während der Zeigefinger 34 mit dem Symbol 36 auf dem Berührbedienfeld 32 in Kontakt bleibt, wird eine andere Stelle auf dem Berührbedienfeld 32 zum Beispiel durch einen Mittelfinger 40 angetippt (siehe Fig. 1(b)). Auf einem herkömmlichen Flächenwiderstands-Berührbedienfeld wird, wenn eine Berühreingabe an zwei Stellen zu einer bestimmten Zeit aufgetreten ist, die mittlere Stelle zwischen den zwei Stellen als Koordinatendaten ausgegeben. Daher wird, solange das Berührbedienfeld 32 mit dem Mittelfinger 40 in Fig. 1(b) in Kontakt ist, eine Stelle, die durch das distale Ende eines Pfeils 42 angezeigt wird, d. h. eine Stelle am Mittelpunkt einer Linie, die von dem Zeigefinger 34 zu dem Mittelfinger 40 verläuft, von dem Berührbedienfeld 32 ausgegeben.
- In Fig. 1(c) ist der Zustand gezeigt, bei dem das in Fig. 1(b) gezeigte Antippen innerhalb einer vorgegebenen Zeit durch den Mittelfinger 40 beendet wurde und der Zeigefinger 34 weiterhin das Symbol 36 auf dem Berührbedienfeld 32 kontaktiert. Zu diesem Zeitpunkt wird, wie durch das distale Ende eines Pfeiles angezeigt, die Position des Zeigefingers 34 auf dem Symbol 36 anstelle der Position an dem Mittelpunkt der Linie ausgegeben, die zwischen dem Zeigefinger 34 und dem Mittelfinger 40 verläuft.
- Der Prozess zur Erkennung des Doppel-Antippens wurde erläutert. Danach wird der Zeigefinger 34 von dem Berührbedienfeld 32 gelöst, um einen nachfolgenden Prozess zu starten.
- Während in Fig. 1 die Positionierung für den Prozess des Erkennens eines Doppel-Antippens gezeigt ist, wird die Ausführungsform der vorliegenden Erfindung außerdem unter Bezugnahme auf Fig. 2 detailliert beschrieben, in der eine Zeitserie verwendet wird, um den Prozessablauf zu beschreiben. In Fig. 2 repräsentiert die horizontale Achse die Zeit, und die vertikale Achse repräsentiert eine Positionsänderung in x- Richtung, die vom Berührbedienfeld 32 ausgegeben wird. Die Positionsänderung aufgrund der Bewegung eines Fingers, während das Berührbedienfeld 32 durch den Finger gedrückt wird, ist durch zwei Dimensionen in der x-y-Richtung repräsentiert. Um die Beschreibung leicht verständlich zu machen, wird jedoch speziell die Positionsänderung in x-Richtung herangezogen.
- In Fig. 2 wird angenommen, dass die Zeit, in welcher das Bild des Symbols 36 beginnt, durch den Zeigefinger 34 gedrückt zu werden, eine Startposition 50 darstellt. Die Startposition 50 befindet sich zwischen zwei Bildkanten 36R und 36L des Symbols 36 in der x-Richtung.
- Das Ausgangssignal von dem Berührbedienfeld 32, das als Ergebnis des Kontaktes durch den Zeigefinger 34 erzeugt wird, variiert in Übereinstimmung mit den Positionsänderungen des Zeigerfingers 34 während einer Zeit T1 innerhalb einer vorgegebenen Periode Twait (z. B. 0,5 Sekunden), die im Voraus durch einen Gerätetreiber des Berührbedienfeldes 32 bestimmt wird.
- Nach T1 wird ein Antippen mit dem Mittelfinger 40 während einer Zeit T2 innerhalb einer vorgegebenen Periode Ttap (z. B. 0,2 Sekunden) durchgeführt, die durch den Gerätetreiber des Berührbedienfeldes 32 bestimmt wird. Das Ausgangssignal vom Berührbedienfeld 32 wird in eine Position 54 abgeändert, die den Mittelpunkt zwischen der Position 52, in der sich der Zeigefinger 34 zum Zeitpunkt T1 befindet, und der Position darstellt, wenn ein Antippen mit dem Mittelfinger 40 begonnen wurde.
- Zu diesem Zeitpunkt werden, wenn der Wert der Position 54 ein vorgegebener Wert oder größer ist, der durch den Gerätetreiber bestimmt wird, der als Berührbedienfeldtreiber dient, die Koordinatendaten für die Position 52 als die erste Antipp- Position beim Doppel-Antippen betrachtet.
- Wenn dann die Zeit T2, in der eine geringe Positionsänderung vorliegt, verstrichen ist und der Mittelfinger 40 von dem Berührbedienfeld 32 in einer Position 56 abgehoben wird, ist das Antippen beendet, und das Ausgangssignal 32 des Berührbedienfeldes 32 zeigt eine Position 58 an, in der das Berührbedienfeld 32 durch den Zeigefinger 34 gedrückt wird, wie durch die gestrichelte Linie angezeigt, selbst während des Antippens durch den Mittelfinger 40.
- Wenn ein Unterschied zwischen der Position 52 und der Position 58 in einen erlaubten Bereich fällt, der durch den Gerätetreiber für das Berührbedienfeld 32 bestimmt wird, wird die Position 58 als die Position für das zweite Antippen betrachtet, und der Gerätetreiber zeigt dem System das Auftreten des Doppel-Antippens bei dem Symbol 36 an. Die Linie 60C repräsentiert die Position 52 des ersten Antippens, und zulässige Werte 60R und 60L, die vorgegebene Beträge darstellen, werden als die obere und die untere Grenze gesetzt, mit der Antipp-Position 52 als Mittelpunkt.
- Danach wird der Zeigefinger 34 von dem Berührbedienfeld 32 an einer Endposition 62 abgehoben, und das Ausgangssignal von dem Berührbedienfeld 32 ist gleich 0. Gemäß dieser Ausführungsform wird, während das Berührbedienfeld, das sich auf einer Anzeige befindet, durch den Zeigefinger, der ein erstes drückendes Mittel darstellt, an einer gewünschten Position gedrückt wird, eine Position, die sich von der gewünschten Position unterscheidet, durch den Mittelfinger angetippt, der ein zweites drückendes Mittel darstellt. Koordinatendaten, die sich um ein vorgegebenes Maß von den Koordinatendaten für die gewünschte Position unterscheiden, werden von dem Berührbedienfeld ausgegeben. Und Koordinatendaten, die von dem Berührbedienfeld ausgegeben werden und die vor und nach dem Durchführen eines Antippens erhalten werden, werden dazu verwendet, zu bestimmen, ob erkannt wurde, dass ein Doppel- Antippen an der gewünschten Position durchgeführt wurde.
- Wie vorstehend beschrieben, wird, während das Berührbedienfeld, das sich auf einer Anzeige befindet, an einer gewünschten Position durch den Zeigefinger gedrückt wird, der ein erstes drückendes Mittel darstellt, eine Position, die sich von der gewünschten Position unterscheidet, durch den Mittelfinger angetippt, der ein zweites drückendes Mittel darstellt, so dass das Doppel-Antippen des Berührbedienfeldes präzise erkannt werden kann, selbst bei einer Hochauflösungsanzeige.
- Als Vergleichsbeispiel wird nunmehr ein herkömmliches Doppelantipp-Verfahren unter Bezugnahme auf Fig. 3 erläutert, welche die transienten Positionsänderungen für einen Finger in der x-Richtung zeigt. Beim herkömmlichen Doppel-Antippen wird die Kontinuität in der Zeit zur Aufrechterhaltung einer Position innerhalb eines gewünschten, zulässigen Bereiches zwischen dem ersten Antippen und dem zweiten Antippen unterbrochen, das mit einem einzigen Finger durchgeführt wird. Selbst wenn der positionelle Ort bis zu der Position 52, die durch das erste Antippen erhalten wird, somit der gleiche ist, wie in Fig. 2 gezeigt, ist wahrscheinlich die Abstandsdifferenz zwischen der Position 52 und der Position 64 beträchtlich, die durch das zweite Antippen erhalten wird.
- Gemäß dem Verfahren der vorliegenden Erfindung zur Erkennung eines Doppel-Antippens kann, da das Berührbedienfeld 32 kontinuierlich durch den Zeigefinger gedrückt werden kann, die Differenz zwischen den Positionen des ersten und des zweiten Antippens, die innerhalb einer kurzen Zeitspanne durch Antippen mit dem Mittelfinger erreicht werden kann, in den zulässigen Bereich fallen.
- Es ist leicht, das Programm eines Gerätetreibers für ein Berührbedienfeld zu ändern. Wenn die vorstehend beschriebene Serie von Phänomenen auftritt, zeigt ein ordnungsgemäß programmierter Gerätetreiber dem OS das Auftreten eines Doppel-Antippens an.
- Nunmehr wird ein Ansteuerverfahren, das vom Berührbedienfeldtreiber (Gerätetreiber) gemäß der Ausführungsform der vorliegenden Erfindung durchgeführt wird, unter Bezugnahme auf das Flussdiagramm in Fig. 4 beschrieben.
- Als erstes wird ein Test durchgeführt, um zu bestimmen, ob eine Berühreingabe an dem Berührbedienfeld 32 erfolgte oder nicht (Schritt 10). Wenn im Schritt 10 eine Berühreingabe bestätigt wird, wird ein Zeitgeber für vorgegebene Zeitspannen Twait und Ttap initialisiert, der zur Feststellung verwendet wird, ob die Berühreingabe ein Doppel-Antippen ist oder nicht (Schritt 20).
- In den Schritten 30 und 40 wird, während die Zeit T1 gezählt wird, die Zeit T1 mit Twait verglichen, um zu bestimmen, ob die Eingabe (z. B. das Drücken unter Verwendung eines Fingers) im Schritt 10 während einer vorgegebenen Zeitspanne fortgesetzt wurde. Wenn T1 > Twait, wird angenommen, dass die Eingabe kein Doppel-Antippen ist, und der Prozessablauf wird danach beendet. Wenn T1 < Twait, wird angenommen, dass das erste Drücken durchgeführt wurde, und ein Test wird durchgeführt, um zu bestimmen, ob das Ausgangssignal von dem Berührbedienfeld 32 während jener Zeitspanne um einen vorgegebenen Wert oder mehr geändert wurde (Schritt 50). Wenn das Ausgangssignal von dem Berührbedienfeld 32 um den vorgegebenen Wert oder mehr geändert wurde, wird angenommen, dass das zweite. Drücken durchgeführt wurde.
- Wenn das Ausgangssignal von dem Berührbedienfeld 32 im Schritt 50 um den vorgegebenen Wert oder mehr geändert wurde, werden die Koordinatendaten, welche die Drückposition basierend auf den Daten repräsentieren, die unmittelbar vor der Änderung des Ausgangssignals des Berührbedienfeldes 32 ausgegeben wurden, als die erste Antipp-Position gespeichert (Schritt 60).
- Wenn in Schritt 50 das zweite Drücken angenommen wird, wird in den Schritten 70 und 80 die Zeit T2 mit Ttap verglichen, während die Zeit T2 gezählt wird. Wenn T2 > Ttap, wird angenommen, dass ein Doppel-Antippen nicht durchgeführt wurde, und der Prozess wird danach beendet. Wenn T2 < Ttap, wird das zweite Drücken als beendet angesehen, und dann wird ein Test durchgeführt, um zu bestimmen, ob das Ausgangssignal von dem Berührbedienfeld 32 um einen vorgegebenen Wert oder mehr geändert wurde (Schritt 90).
- Wenn in Schritt. 90 das Ausgangssignal von dem Berührbedienfeld 32 um den vorgegebenen Wert oder mehr geändert wurde, werden die Koordinatendaten, welche die Drückposition basierend auf den Daten repräsentieren, die unmittelbar nach der Änderung des Ausgangssignals von dem Berührbedienfeld 32 ausgegeben wurden, als die zweite Antipp-Position gespeichert (Schritt 100).
- In Anschluss daran wird ein Test durchgeführt, um zu bestimmen, ob die gespeicherte zweite Antipp-Position in einen vorgegebenen Bereich für die erste Antipp-Position fällt (Schritt 110). Wenn die zweite Antipp-Position innerhalb des vorgegebenen Bereichs liegt, wird festgestellt, dass ein Doppel-Antippen an der ersten Antipp-Position aufgetreten ist (Schritt 120). Wenn die zweite Antipp-Position aus dem vorgegebenen Bereich herausfällt, wird angenommen, dass ein Doppel-Antippen nicht aufgetreten ist, und der Prozessablauf wird danach beendet.
- Die Länge der vorgegebenen Zeitspannen Twait und Ttap können in Übereinstimmung mit der Geschwindigkeit, mit der die Finger des Benutzers bewegt werden, geeignet bestimmt werden. Oder es kann die Zeitspanne innerhalb eines vorgegebenen Bereichs willkürlich geändert werden, während die Geschwindigkeit der Bewegung berücksichtigt wird. Des Weiteren kann ein vorgegebener Bereich für eine Änderung des Ausgangssignals von einem Berührbedienfeld in Übereinstimmung mit der Auflösung einer Anzeige, der Auflösung des Ausgangssignals eines Berührbedienfeldes und einer Anzeigeabmessung geeignet geändert werden.
- Auf diese Weise ist keine spezielle Hardwarevorrichtung erforderlich, und schon eine einfache Änderung eines Gerätetreibers stellt eine präzise Doppelantipp-Funktion sicher. Des Weiteren besteht gemäß der vorliegenden Erfindung kein Bedarf, das OS und die Anwendungsprogramme umzuschreiben.
- Außer der vorstehenden Ausführungsform stehen verschiedene weitere Modifikationen für die vorliegende Erfindung zur Verfügung. Wenngleich für diese Ausführungsform der vorliegenden Erfindung ein Schichtwiderstands-Berührbedienfeld verwendet wird, ist die vorliegende Erfindung nicht darauf beschränkt und kann in der gleichen Weise auf ein sogenanntes optisches Berührbedienfeld angewendet werden.
- Außerdem können, wenngleich der Zeigefinger und der Mittelfinger für diese Ausführungsform als bevorzugte Berühreingabemittel verwendet werden, die Zeigefinger beider Hände verwendet werden. In diesem Fall kann, während das Symbol 36 durch einen der Zeigefinger gedrückt wird, der andere Zeigefinger zum Antippen verwendet werden. Des Weiteren sind die Berühreingabemittel nicht auf Finger beschränkt, und es kann ein Stift oder ein anderer ähnlicher stiftförmiger Gegenstand verwendet werden.
- Wenngleich die Positionen 52 und 58 in dieser Ausführungsform als Doppelantipp-Positionen dienen, kann ein Gerätetreiber auch anders programmiert werden, und es kann eine Erfassung von Daten für die Position 52, die eine vorgegebene Zeitspanne zuvor erhalten wurden, und von Daten für die Position 58 durchgeführt werden, die eine vorgegebene Zeitspanne danach erhalten wurden, so dass diese Positionen als Positionen für eine Erkennung von Doppel-Antippen angesehen werden.
Claims (6)
1. Verfahren zum Betrieb eines Berührbedienfeldes (32), das
folgende Schritte umfasst:
Detektieren von Berühreingabekoordinaten über eine
Zeitspanne hinweg, während der das Bedienfeld
kontinuierlich in einer Berühreingabesequenz berührt wird;
Vergleichen der Koordinaten während der Zeitspanne, um
Änderungen darin zu bestimmen;
und Akzeptieren der Berühreingabesequenz als gültige
Steuereingabe, wenn die Koordinaten von ihren
Anfangswerten um mehr als ein vorgegebenes Maß (42)
abweichen und anschließend zu Werten innerhalb des
vorgegebenen Maßes ihrer anfänglichen Werte zurückkehren.
2. Verfahren nach Anspruch 1, das die weiteren Schritte der
Zeitmessung einer Anfangsperiode (T1), während der die
Koordinaten ihre Anfangswerte innerhalb des vorgegebenen
Maßes halten, und, wenn die gemessene Anfangsperiode eine
vorgegebene Periode (Twait) übersteigt, eines
Zurückweisens der Berühreingabesequenz als gültige
Steuereingabe umfasst.
3. Verfahren nach Anspruch 1 oder Anspruch 2, das den
weiteren Schritt der Zeitmessung einer Zwischenperiode
(T2), während der die Koordinaten um mehr als das
vorgegebene Maß von ihren Anfangswerten abweichen, und,
wenn die gemessene Zwischenperiode eine vorgegebene
Periode (Ttap) übersteigt, eines Zurückweisens der
Eingabesequenz als gültige Steuereingabe umfasst.
4. Berührbedienfeld (32) mit einem Treiberschaltkreis, wobei
der Treiberschaltkreis Mittel zum Bestimmen der
Koordinaten einer Berühreingabe beinhaltet und die
Koordinaten zweier gleichzeitiger Berühreingaben mittelt;
Mitteln zum Speichern der Koordinaten einer anfänglichen
Berühreingabe (36);
Mitteln zum Vergleichen erfasster Koordinaten mit den
gespeicherten Anfangskoordinaten während einer
Berühreingabesequenz über eine Zeitspanne hinweg und
Akzeptieren der Berühreingabesequenz als gültige
Steuereingabe, wenn die Koordinaten um mehr als ein
vorgegebenes Maß (42) abweichen und anschließend zu einer
Differenz von weniger als dem vorgegebenen Maß
zurückkehren.
5. Berührbedienfeld nach Anspruch 4, das des Weiteren
Zeitmessmittel zur Zeitmessung einer Anfangsperiode (T1)
beinhaltet, während der die Koordinaten ihre Anfangswerte
innerhalb des vorgegebenen Maßes halten, wobei die
Vergleichsmittel die Berühreingabesequenz als gültige
Steuereingabe zurückweisen, wenn die gemessene anfängliche
Periode eine vorgegebene Periode (Twait) übersteigt.
6. Berührbedienfeld nach Anspruch 4 oder Anspruch 5, bei dem
die Zeitmessmittel dazu angeordnet sind, eine
Zwischenperiode (T2) zu messen, während der die
Koordinaten um mehr als das vorgegebene Maß von ihren
Anfangswerten abweichen, wobei die Vergleichsmittel die
Berühreingabesequenz als gültige Steuereingabe
zurückweisen, wenn die gemessene Zwischenperiode eine
weitere vorgegebene Periode (Ttap) übersteigt.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP29080195A JPH09146708A (ja) | 1995-11-09 | 1995-11-09 | タッチパネルの駆動方法及びタッチ入力方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE69613656D1 DE69613656D1 (de) | 2001-08-09 |
| DE69613656T2 true DE69613656T2 (de) | 2002-05-29 |
Family
ID=17760675
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE69613656T Expired - Lifetime DE69613656T2 (de) | 1995-11-09 | 1996-10-28 | Betrieb eines berührungsempfindlichen Bildschirms |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US5943043A (de) |
| EP (1) | EP0773496B1 (de) |
| JP (1) | JPH09146708A (de) |
| DE (1) | DE69613656T2 (de) |
Families Citing this family (357)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE19720051A1 (de) * | 1997-05-14 | 1998-11-19 | Kerstin Muenker | Verfahren zur Eingabe einer Information in einen Rechner |
| US6229529B1 (en) * | 1997-07-11 | 2001-05-08 | Ricoh Company, Ltd. | Write point detecting circuit to detect multiple write points |
| JPH11110124A (ja) * | 1997-10-03 | 1999-04-23 | Fujitsu Takamisawa Component Ltd | 座標検出装置 |
| GB9722766D0 (en) | 1997-10-28 | 1997-12-24 | British Telecomm | Portable computers |
| US7015896B2 (en) * | 1998-01-23 | 2006-03-21 | Digit Wireless, Llc | Keyboards with both individual and combination key output |
| US7760187B2 (en) | 2004-07-30 | 2010-07-20 | Apple Inc. | Visual expander |
| EP2256606B1 (de) * | 1998-01-26 | 2017-08-09 | Apple Inc. | Verfahren und Vorrichtung zur Integration einer manuellen Eingabe |
| US7663607B2 (en) | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
| EP1717684A3 (de) | 1998-01-26 | 2008-01-23 | Fingerworks, Inc. | Verfahren und Vorrichtung zur Integration von manuellen Eingaben |
| US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
| US8479122B2 (en) * | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
| US9239673B2 (en) | 1998-01-26 | 2016-01-19 | Apple Inc. | Gesturing with a multipoint sensing device |
| US9292111B2 (en) | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
| JP4178484B2 (ja) * | 1998-04-06 | 2008-11-12 | 富士フイルム株式会社 | モニタ付きカメラ |
| JP2000029612A (ja) * | 1998-07-15 | 2000-01-28 | Smk Corp | タッチパネル入力装置 |
| US6292173B1 (en) * | 1998-09-11 | 2001-09-18 | Stmicroelectronics S.R.L. | Touchpad computer input system and method |
| US6346935B1 (en) * | 1998-09-14 | 2002-02-12 | Matsushita Electric Industrial Co., Ltd. | Touch-sensitive tablet |
| US6256022B1 (en) | 1998-11-06 | 2001-07-03 | Stmicroelectronics S.R.L. | Low-cost semiconductor user input device |
| US6246395B1 (en) * | 1998-12-17 | 2001-06-12 | Hewlett-Packard Company | Palm pressure rejection method and apparatus for touchscreens |
| US6333735B1 (en) | 1999-03-16 | 2001-12-25 | International Business Machines Corporation | Method and apparatus for mouse positioning device based on infrared light sources and detectors |
| JP4316733B2 (ja) * | 1999-06-30 | 2009-08-19 | 富士通コンポーネント株式会社 | 座標入力装置及び記憶媒体 |
| US6498600B1 (en) * | 1999-08-18 | 2002-12-24 | Ericsson Inc. | Electronic devices including keypads that illuminate in response to proximity of a user and methods of operating such electronic devices |
| JP2001134382A (ja) | 1999-11-04 | 2001-05-18 | Sony Corp | 図形処理装置 |
| JP4540787B2 (ja) * | 2000-02-07 | 2010-09-08 | シャープ株式会社 | 座標入力装置および座標入力方法 |
| JP3867226B2 (ja) | 2000-02-15 | 2007-01-10 | 株式会社 ニューコム | 複数の指示部位で操作可能なタッチパネルシステム |
| JP4878667B2 (ja) * | 2000-02-17 | 2012-02-15 | 富士通コンポーネント株式会社 | 座標検出装置及び座標検出方法 |
| JP4856804B2 (ja) * | 2000-03-15 | 2012-01-18 | 株式会社リコー | メニュー表示制御装置、情報処理装置、電子黒板システム、メニュー表示システムの制御方法、情報処理システムの制御方法およびこれらの方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
| US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
| EP1191430A1 (de) * | 2000-09-22 | 2002-03-27 | Hewlett-Packard Company, A Delaware Corporation | Graphische Benutzerschnittstelle für Geräte mit kleinen taktilen Displays |
| US6897853B2 (en) * | 2000-11-10 | 2005-05-24 | Microsoft Corp. | Highlevel active pen matrix |
| JP2002215146A (ja) * | 2001-01-18 | 2002-07-31 | Kawai Musical Instr Mfg Co Ltd | 電子楽器の指示入力装置 |
| US7030861B1 (en) * | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
| JP4768143B2 (ja) * | 2001-03-26 | 2011-09-07 | 株式会社リコー | 情報入出力装置、情報入出力制御方法およびプログラム |
| US20030067447A1 (en) * | 2001-07-09 | 2003-04-10 | Geaghan Bernard O. | Touch screen with selective touch sources |
| WO2003032141A2 (de) * | 2001-09-28 | 2003-04-17 | Siemens Aktiengesellschaft | Verfahren zur zweihandbedienung einer flächigen anzeige- und bedieneinheit, mit berührungssensitivem display, hmi gerät, automatisierungssystem und computerprogrammprodukt zur durchführung des verfahrens |
| US7254775B2 (en) * | 2001-10-03 | 2007-08-07 | 3M Innovative Properties Company | Touch panel system and method for distinguishing multiple touch inputs |
| US8339379B2 (en) * | 2004-04-29 | 2012-12-25 | Neonode Inc. | Light-based touch screen |
| US9052777B2 (en) | 2001-11-02 | 2015-06-09 | Neonode Inc. | Optical elements with alternating reflective lens facets |
| US8674966B2 (en) | 2001-11-02 | 2014-03-18 | Neonode Inc. | ASIC controller for light-based touch screen |
| US9778794B2 (en) | 2001-11-02 | 2017-10-03 | Neonode Inc. | Light-based touch screen |
| US6995752B2 (en) * | 2001-11-08 | 2006-02-07 | Koninklijke Philips Electronics N.V. | Multi-point touch pad |
| JP2003167669A (ja) * | 2001-11-22 | 2003-06-13 | Internatl Business Mach Corp <Ibm> | 情報処理装置、プログラム及び座標入力方法 |
| JP2003173226A (ja) * | 2001-11-27 | 2003-06-20 | Internatl Business Mach Corp <Ibm> | 情報処理装置、プログラム及び座標入力方法 |
| JP2003303048A (ja) * | 2002-02-06 | 2003-10-24 | Fujitsu Component Ltd | 入力装置、ポインタ制御方法 |
| US7746325B2 (en) * | 2002-05-06 | 2010-06-29 | 3M Innovative Properties Company | Method for improving positioned accuracy for a determined touch input |
| US7532202B2 (en) * | 2002-05-08 | 2009-05-12 | 3M Innovative Properties Company | Baselining techniques in force-based touch panel systems |
| US7176897B2 (en) * | 2002-05-17 | 2007-02-13 | 3M Innovative Properties Company | Correction of memory effect errors in force-based touch panel systems |
| US7158122B2 (en) * | 2002-05-17 | 2007-01-02 | 3M Innovative Properties Company | Calibration of force based touch panel systems |
| US20030234763A1 (en) * | 2002-06-24 | 2003-12-25 | Xerox Corporation | System and method for audible feedback for touch screen displays |
| US6999066B2 (en) * | 2002-06-24 | 2006-02-14 | Xerox Corporation | System for audible feedback for touch screen displays |
| US7176898B2 (en) * | 2002-09-13 | 2007-02-13 | Xerox Corporation | Removable control panel for multi-function equipment |
| US20040051746A1 (en) * | 2002-09-13 | 2004-03-18 | Xerox Corporation | Embedded control panel for multi-function equipment |
| US8416217B1 (en) | 2002-11-04 | 2013-04-09 | Neonode Inc. | Light-based finger gesture user interface |
| WO2004109455A2 (en) * | 2003-05-30 | 2004-12-16 | Privaris, Inc. | An in-circuit security system and methods for controlling access to and use of sensitive data |
| US7714835B2 (en) | 2003-06-02 | 2010-05-11 | Koninklijke Philips Electronics N.V. | Opto-electronic input device, method of manufacturing such a device and method of measuring the movement of an object by means of such a device |
| EP1658551A1 (de) * | 2003-08-29 | 2006-05-24 | Nokia Corporation | Verfahren und einrichtung zum erkennen einer dual-point-benutzereingabe auf einem benutzereingabegerät auf berührungsbasis |
| US7411575B2 (en) * | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
| NZ529518A (en) * | 2003-11-13 | 2005-03-24 | Andy Zheng Song | Input method, system and device |
| US8164573B2 (en) * | 2003-11-26 | 2012-04-24 | Immersion Corporation | Systems and methods for adaptive interpretation of input from a touch-sensitive input device |
| JP4137801B2 (ja) * | 2004-01-05 | 2008-08-20 | 任天堂株式会社 | ゲームプログラムおよびゲーム装置 |
| JP4141389B2 (ja) * | 2004-01-20 | 2008-08-27 | 任天堂株式会社 | ゲーム装置及びゲームプログラム |
| JP4127536B2 (ja) * | 2004-01-20 | 2008-07-30 | 任天堂株式会社 | ゲーム装置及びゲームプログラム |
| US6856259B1 (en) | 2004-02-06 | 2005-02-15 | Elo Touchsystems, Inc. | Touch sensor system to detect multiple touch events |
| US7180506B2 (en) * | 2004-02-12 | 2007-02-20 | Sentelic Corporation | Method for identifying a movement of single tap on a touch device |
| US7222307B2 (en) * | 2004-06-16 | 2007-05-22 | Scenera Technologies, Llc | Multipurpose navigation keys for an electronic imaging device |
| US8466893B2 (en) | 2004-06-17 | 2013-06-18 | Adrea, LLC | Use of a two finger input on touch screens |
| JP5172334B2 (ja) * | 2004-06-17 | 2013-03-27 | アドレア エルエルシー | タッチスクリーン上の2本指入力の使用 |
| US7184031B2 (en) * | 2004-07-06 | 2007-02-27 | Sentelic Corporation | Method and controller for identifying a drag gesture |
| US7653883B2 (en) | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
| US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
| KR101270847B1 (ko) * | 2004-07-30 | 2013-06-05 | 애플 인크. | 터치 감지 입력 장치용 제스처 |
| US8744852B1 (en) | 2004-10-01 | 2014-06-03 | Apple Inc. | Spoken interfaces |
| EP1677180A1 (de) * | 2004-12-30 | 2006-07-05 | Volkswagen Aktiengesellschaft | Berührungsempfindlicher Bilschirm der zwei gleichzeitige Berührungspunkte erkennt |
| EP1834229A2 (de) | 2004-12-30 | 2007-09-19 | Volkswagon AG | Eingabevorrichtung und verfahren zum betrieb derselben |
| DE102005038161A1 (de) | 2004-12-30 | 2006-07-13 | Volkswagen Ag | Eingabevorrichtung |
| US7760189B2 (en) * | 2005-01-21 | 2010-07-20 | Lenovo Singapore Pte. Ltd | Touchpad diagonal scrolling |
| US7685862B1 (en) * | 2005-04-25 | 2010-03-30 | The United States Of America As Represented By The Secretary Of The Navy | Target system giving accuracy and energy |
| US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
| US7649526B2 (en) * | 2005-12-23 | 2010-01-19 | Apple Inc. | Soft key interaction indicator |
| WO2007127258A2 (en) * | 2006-04-27 | 2007-11-08 | Wms Gaming Inc. | Wagering game with multi-point gesture sensing device |
| US8243027B2 (en) | 2006-06-09 | 2012-08-14 | Apple Inc. | Touch screen liquid crystal display |
| CN104965621B (zh) | 2006-06-09 | 2018-06-12 | 苹果公司 | 触摸屏液晶显示器及其操作方法 |
| CN102147680B (zh) | 2006-06-09 | 2015-07-22 | 苹果公司 | 触摸屏液晶显示器 |
| KR100748469B1 (ko) * | 2006-06-26 | 2007-08-10 | 삼성전자주식회사 | 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기 |
| JP2008009668A (ja) * | 2006-06-29 | 2008-01-17 | Syn Sophia Inc | タッチパネルの駆動方法及び入力方法 |
| JP4087879B2 (ja) * | 2006-06-29 | 2008-05-21 | 株式会社シンソフィア | タッチパネルの文字認識方法及び文字入力方法 |
| USD575298S1 (en) * | 2006-06-30 | 2008-08-19 | Hon Hai Precision Industry Co., Ltd. | User interface for touch screen |
| US8717302B1 (en) * | 2006-06-30 | 2014-05-06 | Cypress Semiconductor Corporation | Apparatus and method for recognizing a gesture on a sensing device |
| US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
| US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
| WO2008045464A2 (en) | 2006-10-10 | 2008-04-17 | Wms Gaming Inc. | Multi-player, multi-touch table for use in wagering game systems |
| US8570278B2 (en) | 2006-10-26 | 2013-10-29 | Apple Inc. | Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker |
| US7856605B2 (en) | 2006-10-26 | 2010-12-21 | Apple Inc. | Method, system, and graphical user interface for positioning an insertion marker in a touch screen display |
| KR100794928B1 (ko) * | 2006-12-29 | 2008-01-15 | 주식회사 켐트로닉스 | 연속 터치의 인식이 가능한 터치 감지 장치 및 방법 |
| US8269727B2 (en) | 2007-01-03 | 2012-09-18 | Apple Inc. | Irregular input identification |
| US7876310B2 (en) | 2007-01-03 | 2011-01-25 | Apple Inc. | Far-field input identification |
| US8130203B2 (en) | 2007-01-03 | 2012-03-06 | Apple Inc. | Multi-touch input discrimination |
| US8493330B2 (en) | 2007-01-03 | 2013-07-23 | Apple Inc. | Individual channel phase delay scheme |
| GB2445372B (en) * | 2007-01-03 | 2009-06-03 | Motorola Inc | Electronic device and method of touch screen input detection |
| US7855718B2 (en) * | 2007-01-03 | 2010-12-21 | Apple Inc. | Multi-touch input discrimination |
| US7907125B2 (en) | 2007-01-05 | 2011-03-15 | Microsoft Corporation | Recognizing multiple input point gestures |
| US9710095B2 (en) | 2007-01-05 | 2017-07-18 | Apple Inc. | Touch screen stack-ups |
| US7844915B2 (en) | 2007-01-07 | 2010-11-30 | Apple Inc. | Application programming interfaces for scrolling operations |
| US20080235627A1 (en) * | 2007-03-21 | 2008-09-25 | Microsoft Corporation | Natural interaction by flower-like navigation |
| US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
| WO2008138046A1 (en) * | 2007-05-11 | 2008-11-20 | Rpo Pty Limited | Double touch inputs |
| JP5236346B2 (ja) * | 2007-07-30 | 2013-07-17 | 京セラ株式会社 | 入力装置 |
| WO2009024971A2 (en) | 2007-08-19 | 2009-02-26 | Saar Shai | Finger-worn devices and related methods of use |
| JP5737823B2 (ja) * | 2007-09-03 | 2015-06-17 | 株式会社日立メディコ | 超音波診断装置 |
| US20100179864A1 (en) * | 2007-09-19 | 2010-07-15 | Feldman Michael R | Multimedia, multiuser system and associated methods |
| US8600816B2 (en) * | 2007-09-19 | 2013-12-03 | T1visions, Inc. | Multimedia, multiuser system and associated methods |
| US8583491B2 (en) * | 2007-09-19 | 2013-11-12 | T1visions, Inc. | Multimedia display, multimedia system including the display and associated methods |
| US9953392B2 (en) | 2007-09-19 | 2018-04-24 | T1V, Inc. | Multimedia system and associated methods |
| US9965067B2 (en) | 2007-09-19 | 2018-05-08 | T1V, Inc. | Multimedia, multiuser system and associated methods |
| KR101961052B1 (ko) | 2007-09-24 | 2019-03-21 | 애플 인크. | 전자 장치 내의 내장형 인증 시스템들 |
| US20090125848A1 (en) * | 2007-11-14 | 2009-05-14 | Susann Marie Keohane | Touch surface-sensitive edit system |
| TWI353546B (en) * | 2007-12-19 | 2011-12-01 | Asustek Comp Inc | Touch panel |
| US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
| US9720501B2 (en) | 2008-01-04 | 2017-08-01 | Tactus Technology, Inc. | Dynamic tactile interface |
| US9128525B2 (en) | 2008-01-04 | 2015-09-08 | Tactus Technology, Inc. | Dynamic tactile interface |
| US8922510B2 (en) | 2008-01-04 | 2014-12-30 | Tactus Technology, Inc. | User interface system |
| US9013417B2 (en) | 2008-01-04 | 2015-04-21 | Tactus Technology, Inc. | User interface system |
| US8456438B2 (en) | 2008-01-04 | 2013-06-04 | Tactus Technology, Inc. | User interface system |
| US20160187981A1 (en) | 2008-01-04 | 2016-06-30 | Tactus Technology, Inc. | Manual fluid actuator |
| US9552065B2 (en) | 2008-01-04 | 2017-01-24 | Tactus Technology, Inc. | Dynamic tactile interface |
| US9063627B2 (en) | 2008-01-04 | 2015-06-23 | Tactus Technology, Inc. | User interface and methods |
| US8570295B2 (en) | 2008-01-04 | 2013-10-29 | Tactus Technology, Inc. | User interface system |
| US9557915B2 (en) | 2008-01-04 | 2017-01-31 | Tactus Technology, Inc. | Dynamic tactile interface |
| US9052790B2 (en) | 2008-01-04 | 2015-06-09 | Tactus Technology, Inc. | User interface and methods |
| US9298261B2 (en) | 2008-01-04 | 2016-03-29 | Tactus Technology, Inc. | Method for actuating a tactile interface layer |
| US9423875B2 (en) | 2008-01-04 | 2016-08-23 | Tactus Technology, Inc. | Dynamic tactile interface with exhibiting optical dispersion characteristics |
| US8199124B2 (en) * | 2009-01-05 | 2012-06-12 | Tactus Technology | User interface system |
| US8547339B2 (en) * | 2008-01-04 | 2013-10-01 | Tactus Technology, Inc. | System and methods for raised touch screens |
| US8553005B2 (en) | 2008-01-04 | 2013-10-08 | Tactus Technology, Inc. | User interface system |
| US8947383B2 (en) | 2008-01-04 | 2015-02-03 | Tactus Technology, Inc. | User interface system and method |
| US8179375B2 (en) | 2008-01-04 | 2012-05-15 | Tactus Technology | User interface system and method |
| US9588683B2 (en) | 2008-01-04 | 2017-03-07 | Tactus Technology, Inc. | Dynamic tactile interface |
| US9430074B2 (en) | 2008-01-04 | 2016-08-30 | Tactus Technology, Inc. | Dynamic tactile interface |
| US9274612B2 (en) | 2008-01-04 | 2016-03-01 | Tactus Technology, Inc. | User interface system |
| US9612659B2 (en) | 2008-01-04 | 2017-04-04 | Tactus Technology, Inc. | User interface system |
| US8154527B2 (en) * | 2008-01-04 | 2012-04-10 | Tactus Technology | User interface system |
| US8243038B2 (en) * | 2009-07-03 | 2012-08-14 | Tactus Technologies | Method for adjusting the user interface of a device |
| US20090207140A1 (en) * | 2008-02-19 | 2009-08-20 | Sony Ericsson Mobile Communications Ab | Identifying and responding to multiple time-overlapping touches on a touch panel |
| US8650507B2 (en) | 2008-03-04 | 2014-02-11 | Apple Inc. | Selecting of text using gestures |
| US8201109B2 (en) | 2008-03-04 | 2012-06-12 | Apple Inc. | Methods and graphical user interfaces for editing on a portable multifunction device |
| US8717305B2 (en) * | 2008-03-04 | 2014-05-06 | Apple Inc. | Touch event model for web pages |
| US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
| JP2009276819A (ja) * | 2008-05-12 | 2009-11-26 | Fujitsu Ltd | ポインティング装置の制御方法およびポインティング装置、並びにコンピュータプログラム |
| US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
| US8493355B2 (en) * | 2008-05-14 | 2013-07-23 | 3M Innovative Properties Company | Systems and methods for assessing locations of multiple touch inputs |
| JP5080383B2 (ja) * | 2008-06-25 | 2012-11-21 | スリーエム イノベイティブ プロパティズ カンパニー | 操作者識別装置、操作者識別方法及び車載装置 |
| US20090322686A1 (en) * | 2008-06-25 | 2009-12-31 | Parakrama Jayasinghe | Control And Navigation For A Device Implementing a Touch Screen |
| US8241912B2 (en) * | 2008-06-26 | 2012-08-14 | Wms Gaming Inc. | Gaming machine having multi-touch sensing device |
| US20090322700A1 (en) * | 2008-06-30 | 2009-12-31 | Tyco Electronics Corporation | Method and apparatus for detecting two simultaneous touches and gestures on a resistive touchscreen |
| US20090322701A1 (en) * | 2008-06-30 | 2009-12-31 | Tyco Electronics Corporation | Method and apparatus for detecting two simultaneous touches and gestures on a resistive touchscreen |
| US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
| TWI387914B (zh) * | 2008-08-13 | 2013-03-01 | Au Optronics Corp | 投影式電容觸控裝置、及識別不同接觸位置之方法 |
| CA2740401C (en) * | 2008-09-23 | 2014-11-18 | Aerovironment, Inc. | Predictive pulse width modulation for an open delta h-bridge driven high efficiency ironless permanent magnet machine |
| EP2352077B1 (de) * | 2008-10-30 | 2016-02-10 | NEC Corporation | Tragbares endgerät, datenmanipulationsverarbeitungsverfahren und datenmanipulationsverarbeitungsprogramm |
| US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
| WO2010078597A1 (en) | 2009-01-05 | 2010-07-08 | Tactus Technology, Inc. | User interface system |
| US9588684B2 (en) | 2009-01-05 | 2017-03-07 | Tactus Technology, Inc. | Tactile interface for a computing device |
| US8487975B2 (en) | 2009-01-27 | 2013-07-16 | Lifesize Communications, Inc. | Conferencing system utilizing a mobile communication device as an interface |
| US8775023B2 (en) | 2009-02-15 | 2014-07-08 | Neanode Inc. | Light-based touch controls on a steering wheel and dashboard |
| US8345019B2 (en) | 2009-02-20 | 2013-01-01 | Elo Touch Solutions, Inc. | Method and apparatus for two-finger touch coordinate recognition and rotation gesture recognition |
| US20100235734A1 (en) | 2009-03-16 | 2010-09-16 | Bas Ording | Methods and Graphical User Interfaces for Editing on a Multifunction Device with a Touch Screen Display |
| US8294680B2 (en) * | 2009-03-27 | 2012-10-23 | Sony Mobile Communications Ab | System and method for touch-based text entry |
| KR20100116058A (ko) * | 2009-04-21 | 2010-10-29 | 삼성전자주식회사 | 휴대단말에서 멀티터치 입력 처리 방법 |
| US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
| US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
| US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
| US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
| US9009612B2 (en) * | 2009-06-07 | 2015-04-14 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
| US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
| CN105260110A (zh) | 2009-07-03 | 2016-01-20 | 泰克图斯科技公司 | 用户界面增强系统 |
| JP5238635B2 (ja) * | 2009-07-29 | 2013-07-17 | 京セラ株式会社 | 情報処理装置及びアプリケーションプログラムの起動方法 |
| TWI420379B (zh) * | 2009-12-09 | 2013-12-21 | Telepaq Technology Inc | 觸控螢幕之選擇功能選單方法 |
| CN102725716B (zh) | 2009-12-21 | 2016-04-13 | 泰克图斯科技公司 | 用户界面系统 |
| CN102782617B (zh) | 2009-12-21 | 2015-10-07 | 泰克图斯科技公司 | 用户接口系统 |
| TWM383159U (en) * | 2009-12-31 | 2010-06-21 | Minlead Ltd | Touch panel |
| US9239623B2 (en) | 2010-01-05 | 2016-01-19 | Tactus Technology, Inc. | Dynamic tactile interface |
| US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
| US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
| US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
| US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
| US8977584B2 (en) | 2010-01-25 | 2015-03-10 | Newvaluexchange Global Ai Llp | Apparatuses, methods and systems for a digital conversation management platform |
| US8339364B2 (en) | 2010-02-03 | 2012-12-25 | Nintendo Co., Ltd. | Spatially-correlated multi-display human-machine interface |
| CA2746481C (en) | 2010-02-03 | 2017-06-13 | Nintendo Co., Ltd. | Game system, controller device, and game process method |
| US8814686B2 (en) | 2010-02-03 | 2014-08-26 | Nintendo Co., Ltd. | Display device, game system, and game method |
| US8913009B2 (en) | 2010-02-03 | 2014-12-16 | Nintendo Co., Ltd. | Spatially-correlated multi-display human-machine interface |
| US8416215B2 (en) | 2010-02-07 | 2013-04-09 | Itay Sherman | Implementation of multi-touch gestures using a resistive touch display |
| US8619035B2 (en) | 2010-02-10 | 2013-12-31 | Tactus Technology, Inc. | Method for assisting user input to a device |
| US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
| US20110225524A1 (en) * | 2010-03-10 | 2011-09-15 | Cifra Christopher G | Multi-Touch Editing in a Graphical Programming Language |
| WO2011112984A1 (en) | 2010-03-11 | 2011-09-15 | Tactus Technology | User interface system |
| TWI400645B (zh) * | 2010-04-01 | 2013-07-01 | Mstar Semiconductor Inc | 觸碰判斷方法及相關之觸控手勢判斷方法 |
| WO2011133605A1 (en) | 2010-04-19 | 2011-10-27 | Tactus Technology | Method of actuating a tactile interface layer |
| KR20110121888A (ko) * | 2010-05-03 | 2011-11-09 | 삼성전자주식회사 | 휴대용 단말기에서 팝업 메뉴를 확인하기 위한 장치 및 방법 |
| US8707195B2 (en) | 2010-06-07 | 2014-04-22 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility via a touch-sensitive surface |
| KR101741662B1 (ko) | 2010-07-19 | 2017-05-30 | 삼성전자 주식회사 | 디스플레이장치 및 그 제어방법 |
| JP6243586B2 (ja) | 2010-08-06 | 2017-12-06 | 任天堂株式会社 | ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法 |
| US8452600B2 (en) | 2010-08-18 | 2013-05-28 | Apple Inc. | Assisted reader |
| US10150033B2 (en) | 2010-08-20 | 2018-12-11 | Nintendo Co., Ltd. | Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method |
| JP5840386B2 (ja) | 2010-08-30 | 2016-01-06 | 任天堂株式会社 | ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法 |
| JP5840385B2 (ja) | 2010-08-30 | 2016-01-06 | 任天堂株式会社 | ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法 |
| TWI564757B (zh) | 2010-08-31 | 2017-01-01 | 萬國商業機器公司 | 具有觸控螢幕的電腦裝置與其操作方法及電腦可讀媒體 |
| WO2012029833A1 (ja) * | 2010-09-01 | 2012-03-08 | 新世代株式会社 | 操作判定装置、操作判定方法、及び、操作判定プログラム |
| JP5630160B2 (ja) * | 2010-09-07 | 2014-11-26 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
| CN102445982B (zh) * | 2010-09-30 | 2016-03-30 | 联想(北京)有限公司 | 一种信息输入方法及数据处理设备 |
| JP2012088762A (ja) | 2010-10-15 | 2012-05-10 | Touch Panel Systems Kk | タッチパネル入力装置およびジェスチャ検出方法 |
| CN103124946B (zh) | 2010-10-20 | 2016-06-29 | 泰克图斯科技公司 | 用户接口系统及方法 |
| EP2630562A1 (de) | 2010-10-20 | 2013-08-28 | Tactus Technology | Benutzeroberflächensystem |
| KR101364826B1 (ko) | 2010-11-01 | 2014-02-20 | 닌텐도가부시키가이샤 | 조작 장치 및 조작 시스템 |
| US9122341B2 (en) | 2010-11-08 | 2015-09-01 | Microsoft Technology Licensing, Llc | Resolving merged touch contacts |
| KR101314262B1 (ko) * | 2010-11-11 | 2013-10-14 | (주) 에스엔아이솔라 | 시각 장애인에 의한 객체 조작이 가능한 터치스크린 장치 및 그 장치에서의 객체 조작 방법 |
| US8804056B2 (en) * | 2010-12-22 | 2014-08-12 | Apple Inc. | Integrated touch screens |
| US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
| US8725443B2 (en) | 2011-01-24 | 2014-05-13 | Microsoft Corporation | Latency measurement |
| US8988087B2 (en) | 2011-01-24 | 2015-03-24 | Microsoft Technology Licensing, Llc | Touchscreen testing |
| US9542092B2 (en) | 2011-02-12 | 2017-01-10 | Microsoft Technology Licensing, Llc | Prediction-based touch contact tracking |
| US8982061B2 (en) | 2011-02-12 | 2015-03-17 | Microsoft Technology Licensing, Llc | Angular contact geometry |
| US8773377B2 (en) | 2011-03-04 | 2014-07-08 | Microsoft Corporation | Multi-pass touch contact tracking |
| US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
| JP5689014B2 (ja) | 2011-04-07 | 2015-03-25 | 任天堂株式会社 | 入力システム、情報処理装置、情報処理プログラム、および3次元位置算出方法 |
| AU2012242519B2 (en) * | 2011-04-13 | 2015-11-05 | Google Llc | Click disambiguation on a touch-sensitive input device |
| US8786561B2 (en) | 2011-05-18 | 2014-07-22 | Microsoft Corporation | Disambiguating intentional and incidental contact and motion in multi-touch pointing devices |
| US8719695B2 (en) | 2011-05-31 | 2014-05-06 | Apple Inc. | Devices, methods, and graphical user interfaces for document manipulation |
| US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
| US8751971B2 (en) | 2011-06-05 | 2014-06-10 | Apple Inc. | Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface |
| US8959459B2 (en) | 2011-06-15 | 2015-02-17 | Wms Gaming Inc. | Gesture sensing enhancement system for a wagering game |
| US9204094B2 (en) | 2011-06-28 | 2015-12-01 | Lifesize Communications, Inc. | Adjusting volume of a videoconference using touch-based gestures |
| US8605873B2 (en) | 2011-06-28 | 2013-12-10 | Lifesize Communications, Inc. | Accessing settings of a videoconference using touch-based gestures |
| US8605872B2 (en) | 2011-06-28 | 2013-12-10 | Lifesize Communications, Inc. | Muting a videoconference using touch-based gestures |
| US8913019B2 (en) | 2011-07-14 | 2014-12-16 | Microsoft Corporation | Multi-finger detection and component resolution |
| US8782525B2 (en) | 2011-07-28 | 2014-07-15 | National Insturments Corporation | Displaying physical signal routing in a diagram of a system |
| US9047007B2 (en) | 2011-07-28 | 2015-06-02 | National Instruments Corporation | Semantic zoom within a diagram of a system |
| US8713482B2 (en) | 2011-07-28 | 2014-04-29 | National Instruments Corporation | Gestures for presentation of different views of a system diagram |
| US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
| US9378389B2 (en) | 2011-09-09 | 2016-06-28 | Microsoft Technology Licensing, Llc | Shared item account selection |
| CN102426495A (zh) * | 2011-09-22 | 2012-04-25 | 深圳市同洲电子股份有限公司 | 移动终端遥控数字电视接收终端的方法及移动终端 |
| US9002322B2 (en) | 2011-09-29 | 2015-04-07 | Apple Inc. | Authentication with secondary approver |
| US8769624B2 (en) | 2011-09-29 | 2014-07-01 | Apple Inc. | Access control utilizing indirect authentication |
| US9785281B2 (en) | 2011-11-09 | 2017-10-10 | Microsoft Technology Licensing, Llc. | Acoustic touch sensitive testing |
| US8914254B2 (en) | 2012-01-31 | 2014-12-16 | Microsoft Corporation | Latency measurement |
| US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
| US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
| US8881269B2 (en) | 2012-03-31 | 2014-11-04 | Apple Inc. | Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader |
| US9086732B2 (en) | 2012-05-03 | 2015-07-21 | Wms Gaming Inc. | Gesture fusion |
| US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
| US11209961B2 (en) | 2012-05-18 | 2021-12-28 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs |
| US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
| US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
| US20140028554A1 (en) * | 2012-07-26 | 2014-01-30 | Google Inc. | Recognizing gesture on tactile input device |
| US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
| US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
| WO2014047656A2 (en) | 2012-09-24 | 2014-03-27 | Tactus Technology, Inc. | Dynamic tactile interface and methods |
| US9405417B2 (en) | 2012-09-24 | 2016-08-02 | Tactus Technology, Inc. | Dynamic tactile interface and methods |
| US9317147B2 (en) | 2012-10-24 | 2016-04-19 | Microsoft Technology Licensing, Llc. | Input testing tool |
| US8949735B2 (en) | 2012-11-02 | 2015-02-03 | Google Inc. | Determining scroll direction intent |
| US9092093B2 (en) | 2012-11-27 | 2015-07-28 | Neonode Inc. | Steering wheel user interface |
| US12032817B2 (en) | 2012-11-27 | 2024-07-09 | Neonode Inc. | Vehicle user interface |
| KR101412431B1 (ko) * | 2012-12-11 | 2014-06-25 | 에스케이씨앤씨 주식회사 | 멀티 터치와 탭핑을 결합하여 사용자 명령을 입력하는 방식의 사용자 인터페이스 방법 및 이를 적용한 전자 기기 |
| DE112014000709B4 (de) | 2013-02-07 | 2021-12-30 | Apple Inc. | Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten |
| US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
| WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
| WO2014144949A2 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | Training an at least partial voice command system |
| US8922516B2 (en) * | 2013-03-27 | 2014-12-30 | Tianjin Funayuanchuang Technology Co., Ltd. | Touch panel and multi-points detecting method |
| US9576422B2 (en) | 2013-04-18 | 2017-02-21 | Bally Gaming, Inc. | Systems, methods, and devices for operating wagering game machines with enhanced user interfaces |
| WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
| WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
| US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
| WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
| US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
| HK1220268A1 (zh) | 2013-06-09 | 2017-04-28 | 苹果公司 | 用於實現跨數字助理的兩個或更多個實例的會話持續性的設備、方法、和圖形用戶界面 |
| US9678591B2 (en) | 2013-06-10 | 2017-06-13 | The Board Of Trustees Of The Leland Stanford Junior University | Method and apparatus for sensing touch |
| EP3008964B1 (de) | 2013-06-13 | 2019-09-25 | Apple Inc. | System und verfahren für durch sprachsteuerung ausgelöste notrufe |
| US9557813B2 (en) | 2013-06-28 | 2017-01-31 | Tactus Technology, Inc. | Method for reducing perceived optical distortion |
| US9612736B2 (en) * | 2013-07-17 | 2017-04-04 | Korea Advanced Institute Of Science And Technology | User interface method and apparatus using successive touches |
| KR101749009B1 (ko) | 2013-08-06 | 2017-06-19 | 애플 인크. | 원격 디바이스로부터의 활동에 기초한 스마트 응답의 자동 활성화 |
| US9898642B2 (en) | 2013-09-09 | 2018-02-20 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs |
| US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
| US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
| US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
| US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
| US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
| US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
| US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
| US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
| US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
| US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
| US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
| US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
| EP3149728B1 (de) | 2014-05-30 | 2019-01-16 | Apple Inc. | Eingabeverfahren durch einzelne äusserung mit mehreren befehlen |
| US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
| US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
| US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
| US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
| US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
| US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
| US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
| US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
| US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
| US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
| US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
| US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
| US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
| US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
| US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
| US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
| US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
| US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
| CN104699341A (zh) * | 2015-03-24 | 2015-06-10 | 深圳市华星光电技术有限公司 | 内嵌式电容触摸屏及其驱动方法 |
| US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
| US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
| US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
| US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
| US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
| US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
| US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
| US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
| US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
| CN106527829A (zh) * | 2015-09-15 | 2017-03-22 | 神盾股份有限公司 | 电容式感测装置及其信号处理方法 |
| US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
| US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
| US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
| US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
| US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
| US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
| US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
| KR101714302B1 (ko) * | 2016-01-29 | 2017-03-08 | 현대자동차주식회사 | 3차원 터치 인식 장치 및 방법 |
| US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
| DK179186B1 (en) | 2016-05-19 | 2018-01-15 | Apple Inc | REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION |
| US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
| US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
| US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
| US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
| DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
| US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
| US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
| US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
| US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
| US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
| DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
| DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
| DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
| DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
| KR102429485B1 (ko) | 2016-12-13 | 2022-08-05 | 현대자동차주식회사 | 사용자 인터페이스 장치 및 방법 |
| US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
| JP6832725B2 (ja) * | 2017-01-31 | 2021-02-24 | シャープ株式会社 | 表示装置、表示方法及びプログラム |
| DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
| DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
| KR102301599B1 (ko) | 2017-09-09 | 2021-09-10 | 애플 인크. | 생체측정 인증의 구현 |
| US10901529B2 (en) * | 2018-07-19 | 2021-01-26 | Stmicroelectronics S.R.L. | Double-tap event detection device, system and method |
| CN113165515B (zh) | 2018-11-28 | 2021-11-02 | 内奥诺德公司 | 驾驶员用户界面传感器 |
| DE202018006400U1 (de) | 2018-12-18 | 2020-07-27 | Volkswagen Aktiengesellschaft | Bedienvorrichtung für ein Kraftfahrzeug |
| CA3071758C (en) | 2019-02-07 | 2025-05-13 | 1004335 Ontario Inc. | TWO-POINT TOUCH DETECTION METHODS WITH TOUCH RESISTANCE SENSOR AND RELATED DEVICES AND SYSTEMS |
| WO2022072331A1 (en) | 2020-09-30 | 2022-04-07 | Neonode Inc. | Optical touch sensor |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4914624A (en) * | 1988-05-06 | 1990-04-03 | Dunthorn David I | Virtual button for touch screen |
| US5402151A (en) * | 1989-10-02 | 1995-03-28 | U.S. Philips Corporation | Data processing system with a touch screen and a digitizing tablet, both integrated in an input device |
| EP0490001B1 (de) * | 1990-12-14 | 1996-07-10 | International Business Machines Corporation | Koordinatenprozessor für ein Rechnersystem mit einer Zeigeranordnung |
| JPH07281810A (ja) * | 1994-04-02 | 1995-10-27 | Wacom Co Ltd | マルチデバイス入力システムを有するコンピュータシステム |
| US5579036A (en) * | 1994-04-28 | 1996-11-26 | At&T Global Information Solutions Company | Touch screen device and shielding bracket therefor |
| US5570113A (en) * | 1994-06-29 | 1996-10-29 | International Business Machines Corporation | Computer based pen system and method for automatically cancelling unwanted gestures and preventing anomalous signals as inputs to such system |
-
1995
- 1995-11-09 JP JP29080195A patent/JPH09146708A/ja active Pending
-
1996
- 1996-10-28 DE DE69613656T patent/DE69613656T2/de not_active Expired - Lifetime
- 1996-10-28 EP EP96307774A patent/EP0773496B1/de not_active Expired - Lifetime
- 1996-12-05 US US08/761,101 patent/US5943043A/en not_active Expired - Lifetime
Also Published As
| Publication number | Publication date |
|---|---|
| DE69613656D1 (de) | 2001-08-09 |
| JPH09146708A (ja) | 1997-06-06 |
| US5943043A (en) | 1999-08-24 |
| EP0773496A1 (de) | 1997-05-14 |
| EP0773496B1 (de) | 2001-07-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE69613656T2 (de) | Betrieb eines berührungsempfindlichen Bildschirms | |
| DE19514651B4 (de) | Informationseingabevorrichtung, welche sowohl als Berührungstablett als auch als Digitalisiertablett funktioniert, sowie ein Verfahren zum Betreiben dieser Informationseingabevorrichtung | |
| DE69321626T2 (de) | Interaktives Anzeigesystem und Verfahren zur Auswahl von Menüs | |
| DE69225550T2 (de) | Verfahren und Vorrichtung zum Reduzieren des Betriebsaufwandes für einen berührungsempfindlichen Schirm | |
| DE4230494C2 (de) | Handschrifteingabevorrichtung für die Eingabe handschriftlicher Daten aus beliebiger Richtung | |
| DE69717729T2 (de) | Koordinateneingabegerät | |
| DE102006060068B4 (de) | Anzeigegerät und Verfahren, das für kleine Handgeräte angepasst ist | |
| DE69707070T2 (de) | Verfahren und Vorrichtung zur Organisation eines Arbeitsraums für ein rechnergesteuertes Anzeigesystem mit Anwendung von Rändern und Regionen | |
| DE69534404T2 (de) | Verfahren zum kompensieren von unbeabsichtigten Bewegungen bei einer Antipgeste auf einer Berührungssensorfläche | |
| DE69718721T2 (de) | Verfahren und Vorrichtung zum Organisieren und zur Anzeige von langen Datenlisten in einem Arbeitsraum eines Rechneranzeigesystems | |
| DE69231270T2 (de) | Gerät zur auf einem Anzeigeschirm angezeigten Manipulation eines Objektes | |
| DE69827875T2 (de) | Verfahren und Vorrichtung zur Informationsverschiebung einer Anzeige in einer Mobilfunkstation | |
| DE69521617T2 (de) | Positiondetektor eines objektes mit kantenbewegungsmerkmal | |
| DE19751262A1 (de) | Koordinateneingabevorrichtung | |
| DE202008005342U1 (de) | Elektronische Vorrichtung | |
| DE8407989U1 (de) | Dateneingabetafel zum Eingeben von Daten in einen Computer | |
| DE202012101478U1 (de) | Berührungssensor mit Gegenkapazitätselektroden und Eigenkapazitätselektroden | |
| DE69626601T2 (de) | Positionierung eines Zeigers auf einem Bildschirm | |
| DE202008007776U1 (de) | Berührungsbildschirme mit Widerständen aus transparentem leitenden Material | |
| DE102018100809A1 (de) | Verfahren, vorrichtung und endgerät zum anzeigen einer virtuellen tastatur | |
| DE19744861A1 (de) | Verfahren zum Einsatz einer dreidimensionalen Mouse im WINDOWS-Betriebssystem | |
| DE69221204T2 (de) | Datenverarbeitungsgerät zur Fensterpositionensteuerung | |
| DE102006005527A1 (de) | Hybrid-Zeigevorrichtung | |
| DE10247313A1 (de) | Berührungs- und druckpegelempfindliche Oberfläche | |
| DE102012211163A1 (de) | Verfahren zum Empfangen einer Eingabe auf einem berührungsempfindlichen Feld |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8364 | No opposition during term of opposition | ||
| 8320 | Willingness to grant licences declared (paragraph 23) | ||
| 8328 | Change in the person/name/address of the agent |
Representative=s name: DUSCHER, R., DIPL.-PHYS. DR.RER.NAT., PAT.-ANW., 7 |