[go: up one dir, main page]

DE69613656T2 - Betrieb eines berührungsempfindlichen Bildschirms - Google Patents

Betrieb eines berührungsempfindlichen Bildschirms

Info

Publication number
DE69613656T2
DE69613656T2 DE69613656T DE69613656T DE69613656T2 DE 69613656 T2 DE69613656 T2 DE 69613656T2 DE 69613656 T DE69613656 T DE 69613656T DE 69613656 T DE69613656 T DE 69613656T DE 69613656 T2 DE69613656 T2 DE 69613656T2
Authority
DE
Germany
Prior art keywords
coordinates
period
touch panel
touch
touch input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69613656T
Other languages
English (en)
Other versions
DE69613656D1 (de
Inventor
Tomotake Furuhata
Toshiki Hirano
Chihiro Sawada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE69613656D1 publication Critical patent/DE69613656D1/de
Application granted granted Critical
Publication of DE69613656T2 publication Critical patent/DE69613656T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/045Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

    Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf Berührbedienfelder (touch panels) sowie auf Verfahren zum Betreiben von Berührbedienfeldern, wie sie auf einer Anzeige für einen Personalcomputer oder auf einer Fertigungsautomatisierungsvorrichtung bereitgestellt werden.
  • Hintergrund der Erfindung
  • Da Personalcomputer außer in Büros auch an anderen Orten eingesetzt werden, gibt es einen erhöhten Bedarf für neue Eingabevorrichtungen, die den Platz der üblichen Benutzerschnittstelle einnehmen können, welche die Verwendung einer Tastatur und einer Maus beinhaltet. Als ein Ergebnis der Nachfrage nach neuen Eingabevorrichtungen richtete sich die Aufmerksamkeit auf Berührbedienfelder, welche Vorrichtungen darstellen, die an den Bildschirmen von Anzeigevorrichtungen angebracht sind und die eine Dateneingabe akzeptieren, die durch Brühren der Bildschirme von Benutzern mit ihren Fingern durchgeführt wird. Gegenwärtig werden Berührbedienfelder bereits weit verbreitet als Endgeräteschnittstellen für Finanz- und Fertigungsautomatisierungs-Endgeräte verwendet.
  • Berührbedienfelder werden grob in den in Fig. 5 gezeigten Typ, der eine Positionsinformation durch Verwendung einer Änderung des Flächenwiderstands aufgrund der Berührung eines Fingers detektiert, und einen optischen Typ (nicht gezeigt) klassifiziert, der eine Positionsinformation durch Abrastern der x-y-Ebene und Detektieren der Abschirmung durch einen berührenden Finger gewinnt.
  • Wenn eine Benutzer(in) auf ein beliebiges Gebiet auf der Oberfläche eines Berührbedienfeldes mit seinem (ihrem) Finger drückt, gibt das Berührbedienfeld die Lage derjenigen Stelle, die mit dem Finger gedrückt wurde, als zweidimensionale x-y- Positionsinformation ab. Nunmehr wird unter Bezugnahme auf Fig. 5 eine Beispielstruktur eines Flächenwiderstands- Berührbedienfeldes kurz beschrieben. Für das Berührbedienfeld überlappen sich eine Schicht zum Detektieren der Position in x-Richtung und eine Schicht zum Detektieren der Position in y- Richtung. In Fig. 5 ist eine derartige Schicht für eine der Richtungen gezeigt. Die Schicht wird durch Anbringen von zwei rechteckigen, transparenten oder durchsichtigen Elektroden 2 und 4 bereitgestellt, die einander mit einer zwischenliegenden Schicht gegenüberliegen, die aus einem Fluidisolationsmaterial (nicht gezeigt) besteht. Zwischen einer Seite 6 der transparenten Elektrode 2 und einer gegenüberliegenden Seite 8 wird eine vorgegebene Gleichspannung V angelegt, und die andere transparente Elektrode 4 ist zum Beispiel an einer Seite 10 geerdet. Wenn dann ein Finger die transparente Elektrode 2 berührt, die dadurch die transparente Elektrode 4 kontaktiert, um einen Kurzschluss zu bewirken, ändert sich der Flächenwiderstand an der transparenten Elektrode 2, und die Änderung wird dazu verwendet, die Position derjenigen Stelle zu detektieren, die von dem Finger berührt wurde. Dieser Schichttyp wird sowohl für die x- als auch die y-Richtung verwendet, so dass der zweidimensionale Ort einer Berührung detektiert werden kann,
  • Nunmehr wird unter Bezugnahme auf Fig. 6 ein beispielhafter Vorgang erläutert, bei dem ein Finger dazu verwendet wird, ein derartiges Berührbedienfeld zu berühren. Fig. 6 ist eine Darstellung, die Informationen zeigt, die auf dem Anzeigeschirm eines Personalcomputers angezeigt werden, an dem ein Berührbedienfeld angebracht ist. Zwei Fenster 24 und 30 für Anwendungen 1 und 2 sind geöffnet gezeigt. Drei weitere Anwendungen sind durch Symbole repräsentiert, die an der unteren linken Seite des Bildschirms angezeigt werden.
  • Wenn das Fenster 24 für die Anwendung 1 transversal über den Anzeigeschirm hinweg zu erweitern ist, wie durch den Querpfeil angezeigt, wird ein Gebiet 16, das den vertikalen Rahmen auf der rechten Seite des Fensters 24 repräsentiert, mit einem Finger berührt, und während der Finger nach rechts in Kontakt mit dem Berührbedienfeld bewegt wird, wird das Gebiet 16 erweitert. In ähnlicher Weise wird, wenn das Fenster 24 in der durch den diagonalen unteren rechten Pfeil angezeigten Richtung zu vergrößern ist, die untere rechte Ecke 18 des Fensters mit einem Finger gedrückt und der Finger wird diagonal nach rechts unten bewegt, so dass das Fenster 24 vergrößert wird.
  • Wenn die Funktion, die durch ein Symbol "m" 20 in dem Fenster 24 repräsentiert wird, zu aktivieren ist, wird ein Finger innerhalb des Rahmens des Symbols 20 platziert, und der Rahmen wird einmal mit dem Finger angetippt (Einzel-Antippen), so dass die Funktion für das Symbol 20 aktiviert wird. In der gleichen Weise wird, wenn eine Bildlaufleiste zu betätigen ist, ein Finger innerhalb des Rahmens für einen Bildlaufpfeil 22 platziert, und eine Einzel-Antippung wird dazu verwendet, das Bild durchlaufen zu lassen.
  • Wenn das Fenster 24 zu schließen ist, wird ein Rahmen 14 an der oberen linken Ecke des Fensters 24 mit einem Finger doppelt angetippt (Doppel-Antippung). In ähnlicher Weise wird, wenn ein Symbol 12 an der unteren linken Ecke auf dem Bildschirm zu öffnen ist, innerhalb des Rahmens für das Symbol 12 eine Doppel-Antippung mit einem Finger durchgeführt.
  • Durch Verwenden des Berührbedienfeldes kann ein(e) Benutzer(in) seinen (ihren) Finger dazu verwenden, die Bewegung eines Zeigers auf einem Anzeigeschirm und das Anklicken mit dem Zeiger direkt zu steuern, was Funktionen darstellt, die üblicherweise durch Verwenden einer Maus und einer auf der Maus vorgesehenen Taste durchgeführt wird.
  • In der letzten Zeit werden jedoch, da die Auflösung der Anzeige für Personalcomputer erhöht wird und Anwendungsanzeigen kompliziert werden, die Abmessung der anzuzeigenden Fenster, die Abmessung der Anzeigen in den Fenstern sowie die Abmessungen von Symbolen reduziert. Des Weiteren sind, während ein Zeigen und Anklicken mit einer Maus leicht durchzuführen sind, vergleichbare Operationen schwierig, bei denen ein Finger dazu verwendet wird, direkte Anweisungen zu geben.
  • Insbesondere für das Doppel-Antippen eines Berührbedienfeldes mit einem Finger, was dem Doppelklicken einer Maus entspricht, ist eine präzise Durchführung äußerst schwierig, mit Ausnahme des Falles, in dem die Auflösung einer Anzeige und die Auflösung für eine Positionsdetektion auf einem Berührbedienfeld gering sind, und des Falles, in dem ein spezieller Prozess durchgeführt wird, um speziell ein Gebiet zu erweitern, für das ein Doppel-Antippen zur Verfügung steht.
  • Ein Dateneingabeverfahren, das ein Doppel-Antippen auf einem herkömmlichen Berührbedienfeld verwendet, würde erfordern, dass die exakt gleiche Stelle auf einem Berührbedienfeld innerhalb einer kurzen Zeit zweimal gedrückt wird. Diese Manipulation kann durchgeführt werden, solange ein Berührgebiet groß ist. Um jedoch Anwendungen in einer Mehrzahl von Fenstern auf einer Anzeige eines PC zu bewegen, ist eine höhere Auflösung erforderlich, die einen Effekt bereitstellt, der ähnlich jenem ist, der durch Doppelklicken unter Verwendung einer Maus und eines Zeigers bereitgestellt wird, und ein herkömmliches Doppel-Antippen kann den gewünschten Effekt nicht bereitstellen.
  • Wenngleich Berühreingabesysteme, die Finger verwenden, keine speziellen Vorrichtungen, wie einen Stift, erfordern und als Benutzerschnittstelle für Vorrichtungen exzellent sind, die von einer großen Anzahl von Menschen verwendet werden, wie Online-Terminals in Banken oder FA-Steuereinrichtungen, ist die Verwendung von Berührbedienfeldern aufgrund der vorstehend beschriebenen Probleme beschränkt. Tatsächlich wird in den vorstehenden Anwendungsgebieten lediglich eine Einzelantipp- Funktion aufgezeigt, und eine Doppelantipp-Funktion ist nicht vorgesehen.
  • Gegenwärtige Betriebssysteme (OSs) für allgemeine Zwecke, wie OS/2 (Markenname von IBM Corp.), und die meisten Anwendungsprogramme sind jedoch mit der Voraussetzung versehen, dass Einzelklicken und Doppelklicken der linken Taste einer Maus verwendet wird. Um diese Softwareprogramme mit einem Berührbedienfeld zu verwenden, muss das Berührbedienfeld irgendwie so gemacht sein, dass es das Doppel-Antippen erkennt.
  • Eine Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren zur Ansteuerung eines Berührbedienfeldes, durch welches das Erkennen eines Doppel-Antippens für ein Berührbedienfeld erleichtert wird, das sich auf einer Hochauflösungsanzeige befindet, die in einem Personalcomputer einer Fertigungsautomatisierungsvorrichtung angebracht ist, sowie ein Berühreingabeverfahren bereitzustellen.
  • Offenbarung der Erfindung
  • Um die vorstehende Aufgabe zu lösen, weisen ein Berührbedienfeld-Ansteuerverfahren und ein entsprechendes Berührbedienfeld gemäß der vorliegenden Erfindung, wie in den Ansprüchen 1 und 4 dargelegt, die Merkmale auf: Drücken einer gewünschten Stelle auf einem Berührbedienfeld, das sich auf einer Anzeige befindet, indem ein erstes drückendes Mittel verwendet wird, und Antippen einer Stelle, die sich von der gewünschten Stelle unterscheidet, indem ein zweites drückendes Mittel verwendet wird; Ausgeben von Koordinatendaten von dem Berührbedienfeld, die sich um ein vorgegebenes Maß von Koordinatendaten an der gewünschten Position unterscheiden; und Verwenden von Koordinatendaten, die von dem Berührbedienfeld ausgegeben werden und vor und nach der Durchführung des Antippens erhalten werden, um zu bestimmen, ob erkannt wird oder nicht, dass ein Doppel-Antippen an der gewünschten Position durchgeführt wurde.
  • Des Weiteren wird zur Lösung der vorstehenden Aufgabe ein Berühreingabeverfahren für ein Berührbedienfeld bereitgestellt, durch das eine Stelle, die sich von einer gewünschten Stelle unterscheidet, durch Verwenden eines zweiten drückenden Mittels angetippt wird, während die gewünschte Stelle auf dem Berührbedienfeld, das sich auf einer Anzeige befindet, durch Verwenden eines ersten drückenden Mittels gedrückt wird.
  • Außerdem dienen zur Lösung der vorstehenden Aufgabe die Finger eines Benutzers in dem Berühreingabeverfahren für ein Berührbedienfeld als das erste und das zweite drückende Mittel.
  • Gemäß der vorliegenden Erfindung muss anders als beim herkömmlichen Doppel-Antippen ein Finger nicht dazu verwendet werden, eine Zielstelle zweimal innerhalb einer kurzen Zeit zu drücken. Mit anderen Worten kann, da ein Finger nicht von der Zielstelle abgehoben werden muss, ein Doppel-Antippen präzise und leicht erkannt werden.
  • Gemäß der vorliegenden Erfindung wird ein Doppel-Antippen durch Verwenden einer Positionsinformation für einen ersten Finger vor und nach einer kurzen Zeitspanne identifiziert, während der durch einen zweiten Finger eine weitere Stelle angetippt wird. Selbst wenn der erste Finger, der gegen die Zielstelle gedrückt wird, unruhig ist und sich leicht bewegt, wird der gesamte Vorgang für ein Doppel-Antippen im Vergleich zu der Instabilität eines herkömmlichen Doppel-Antippens mit einem einzigen Finger beträchtlich verbessert.
  • Spezifische Ausführungsformen der Erfindung sind in den abhängigen Ansprüchen 2, 3, 5 und 6 angegeben.
  • Kurzbeschreibung der Zeichnungen
  • Nunmehr wird die bevorzugte Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf die Fig. 1 bis 6 beispielhaft beschrieben, in denen:
  • Fig. 1 eine Darstellung ist, die ein Berühreingabeverfahren gemäß einer Ausführungsform der vorliegenden Erfindung illustriert;
  • Fig. 2 eine graphische Darstellung ist, die das Berühreingabeverfahren gemäß der Ausführungsform der vorliegenden Erfindung zeigt;
  • Fig. 3 eine graphische Darstellung ist, die eine Berühreingabe durch herkömmliches Doppel-Antippen zeigt; .
  • Fig. 4 ein Flussdiagramm zur Erläuterung eines Berührbedienfeld-Ansteuerverfahrens gemäß der Ausführungsform der vorliegenden Erfindung ist;
  • Fig. 5 eine Darstellung zur Erläuterung des Aufbaus eines Berührbedienfeldes ist;
  • Fig. 6 eine Darstellung zur Erläuterung eines Eingabeverfahrens für ein Berührbedienfeld ist.
  • Detaillierte Beschreibung
  • Als erstes wird unter Bezugnahme auf Fig. 1 der Verfahrensablauf dafür beschrieben, es einem Berührbedienfeld zu ermöglichen, ein Doppel-Antippen zu erkennen. In Fig. 1(a) wird angenommen, dass ein Symbol 36, das durch Doppel-Antippen zu öffnen ist, auf einem Anzeigebildschirm vorliegt, an dem ein Berührbedienfeld 32 angebracht ist. Ein Zeigefinger 34 eines Benutzers wird innerhalb des Rahmens des Symbols 36 niedergedrückt. Die Stelle des Symbols 36, wo der Zeigefinger 34 platziert wird, wird durch das Berührbedienfeld 32 ausgegeben.
  • Während der Zeigefinger 34 mit dem Symbol 36 auf dem Berührbedienfeld 32 in Kontakt bleibt, wird eine andere Stelle auf dem Berührbedienfeld 32 zum Beispiel durch einen Mittelfinger 40 angetippt (siehe Fig. 1(b)). Auf einem herkömmlichen Flächenwiderstands-Berührbedienfeld wird, wenn eine Berühreingabe an zwei Stellen zu einer bestimmten Zeit aufgetreten ist, die mittlere Stelle zwischen den zwei Stellen als Koordinatendaten ausgegeben. Daher wird, solange das Berührbedienfeld 32 mit dem Mittelfinger 40 in Fig. 1(b) in Kontakt ist, eine Stelle, die durch das distale Ende eines Pfeils 42 angezeigt wird, d. h. eine Stelle am Mittelpunkt einer Linie, die von dem Zeigefinger 34 zu dem Mittelfinger 40 verläuft, von dem Berührbedienfeld 32 ausgegeben.
  • In Fig. 1(c) ist der Zustand gezeigt, bei dem das in Fig. 1(b) gezeigte Antippen innerhalb einer vorgegebenen Zeit durch den Mittelfinger 40 beendet wurde und der Zeigefinger 34 weiterhin das Symbol 36 auf dem Berührbedienfeld 32 kontaktiert. Zu diesem Zeitpunkt wird, wie durch das distale Ende eines Pfeiles angezeigt, die Position des Zeigefingers 34 auf dem Symbol 36 anstelle der Position an dem Mittelpunkt der Linie ausgegeben, die zwischen dem Zeigefinger 34 und dem Mittelfinger 40 verläuft.
  • Der Prozess zur Erkennung des Doppel-Antippens wurde erläutert. Danach wird der Zeigefinger 34 von dem Berührbedienfeld 32 gelöst, um einen nachfolgenden Prozess zu starten.
  • Während in Fig. 1 die Positionierung für den Prozess des Erkennens eines Doppel-Antippens gezeigt ist, wird die Ausführungsform der vorliegenden Erfindung außerdem unter Bezugnahme auf Fig. 2 detailliert beschrieben, in der eine Zeitserie verwendet wird, um den Prozessablauf zu beschreiben. In Fig. 2 repräsentiert die horizontale Achse die Zeit, und die vertikale Achse repräsentiert eine Positionsänderung in x- Richtung, die vom Berührbedienfeld 32 ausgegeben wird. Die Positionsänderung aufgrund der Bewegung eines Fingers, während das Berührbedienfeld 32 durch den Finger gedrückt wird, ist durch zwei Dimensionen in der x-y-Richtung repräsentiert. Um die Beschreibung leicht verständlich zu machen, wird jedoch speziell die Positionsänderung in x-Richtung herangezogen.
  • In Fig. 2 wird angenommen, dass die Zeit, in welcher das Bild des Symbols 36 beginnt, durch den Zeigefinger 34 gedrückt zu werden, eine Startposition 50 darstellt. Die Startposition 50 befindet sich zwischen zwei Bildkanten 36R und 36L des Symbols 36 in der x-Richtung.
  • Das Ausgangssignal von dem Berührbedienfeld 32, das als Ergebnis des Kontaktes durch den Zeigefinger 34 erzeugt wird, variiert in Übereinstimmung mit den Positionsänderungen des Zeigerfingers 34 während einer Zeit T1 innerhalb einer vorgegebenen Periode Twait (z. B. 0,5 Sekunden), die im Voraus durch einen Gerätetreiber des Berührbedienfeldes 32 bestimmt wird.
  • Nach T1 wird ein Antippen mit dem Mittelfinger 40 während einer Zeit T2 innerhalb einer vorgegebenen Periode Ttap (z. B. 0,2 Sekunden) durchgeführt, die durch den Gerätetreiber des Berührbedienfeldes 32 bestimmt wird. Das Ausgangssignal vom Berührbedienfeld 32 wird in eine Position 54 abgeändert, die den Mittelpunkt zwischen der Position 52, in der sich der Zeigefinger 34 zum Zeitpunkt T1 befindet, und der Position darstellt, wenn ein Antippen mit dem Mittelfinger 40 begonnen wurde.
  • Zu diesem Zeitpunkt werden, wenn der Wert der Position 54 ein vorgegebener Wert oder größer ist, der durch den Gerätetreiber bestimmt wird, der als Berührbedienfeldtreiber dient, die Koordinatendaten für die Position 52 als die erste Antipp- Position beim Doppel-Antippen betrachtet.
  • Wenn dann die Zeit T2, in der eine geringe Positionsänderung vorliegt, verstrichen ist und der Mittelfinger 40 von dem Berührbedienfeld 32 in einer Position 56 abgehoben wird, ist das Antippen beendet, und das Ausgangssignal 32 des Berührbedienfeldes 32 zeigt eine Position 58 an, in der das Berührbedienfeld 32 durch den Zeigefinger 34 gedrückt wird, wie durch die gestrichelte Linie angezeigt, selbst während des Antippens durch den Mittelfinger 40.
  • Wenn ein Unterschied zwischen der Position 52 und der Position 58 in einen erlaubten Bereich fällt, der durch den Gerätetreiber für das Berührbedienfeld 32 bestimmt wird, wird die Position 58 als die Position für das zweite Antippen betrachtet, und der Gerätetreiber zeigt dem System das Auftreten des Doppel-Antippens bei dem Symbol 36 an. Die Linie 60C repräsentiert die Position 52 des ersten Antippens, und zulässige Werte 60R und 60L, die vorgegebene Beträge darstellen, werden als die obere und die untere Grenze gesetzt, mit der Antipp-Position 52 als Mittelpunkt.
  • Danach wird der Zeigefinger 34 von dem Berührbedienfeld 32 an einer Endposition 62 abgehoben, und das Ausgangssignal von dem Berührbedienfeld 32 ist gleich 0. Gemäß dieser Ausführungsform wird, während das Berührbedienfeld, das sich auf einer Anzeige befindet, durch den Zeigefinger, der ein erstes drückendes Mittel darstellt, an einer gewünschten Position gedrückt wird, eine Position, die sich von der gewünschten Position unterscheidet, durch den Mittelfinger angetippt, der ein zweites drückendes Mittel darstellt. Koordinatendaten, die sich um ein vorgegebenes Maß von den Koordinatendaten für die gewünschte Position unterscheiden, werden von dem Berührbedienfeld ausgegeben. Und Koordinatendaten, die von dem Berührbedienfeld ausgegeben werden und die vor und nach dem Durchführen eines Antippens erhalten werden, werden dazu verwendet, zu bestimmen, ob erkannt wurde, dass ein Doppel- Antippen an der gewünschten Position durchgeführt wurde.
  • Wie vorstehend beschrieben, wird, während das Berührbedienfeld, das sich auf einer Anzeige befindet, an einer gewünschten Position durch den Zeigefinger gedrückt wird, der ein erstes drückendes Mittel darstellt, eine Position, die sich von der gewünschten Position unterscheidet, durch den Mittelfinger angetippt, der ein zweites drückendes Mittel darstellt, so dass das Doppel-Antippen des Berührbedienfeldes präzise erkannt werden kann, selbst bei einer Hochauflösungsanzeige.
  • Als Vergleichsbeispiel wird nunmehr ein herkömmliches Doppelantipp-Verfahren unter Bezugnahme auf Fig. 3 erläutert, welche die transienten Positionsänderungen für einen Finger in der x-Richtung zeigt. Beim herkömmlichen Doppel-Antippen wird die Kontinuität in der Zeit zur Aufrechterhaltung einer Position innerhalb eines gewünschten, zulässigen Bereiches zwischen dem ersten Antippen und dem zweiten Antippen unterbrochen, das mit einem einzigen Finger durchgeführt wird. Selbst wenn der positionelle Ort bis zu der Position 52, die durch das erste Antippen erhalten wird, somit der gleiche ist, wie in Fig. 2 gezeigt, ist wahrscheinlich die Abstandsdifferenz zwischen der Position 52 und der Position 64 beträchtlich, die durch das zweite Antippen erhalten wird.
  • Gemäß dem Verfahren der vorliegenden Erfindung zur Erkennung eines Doppel-Antippens kann, da das Berührbedienfeld 32 kontinuierlich durch den Zeigefinger gedrückt werden kann, die Differenz zwischen den Positionen des ersten und des zweiten Antippens, die innerhalb einer kurzen Zeitspanne durch Antippen mit dem Mittelfinger erreicht werden kann, in den zulässigen Bereich fallen.
  • Es ist leicht, das Programm eines Gerätetreibers für ein Berührbedienfeld zu ändern. Wenn die vorstehend beschriebene Serie von Phänomenen auftritt, zeigt ein ordnungsgemäß programmierter Gerätetreiber dem OS das Auftreten eines Doppel-Antippens an.
  • Nunmehr wird ein Ansteuerverfahren, das vom Berührbedienfeldtreiber (Gerätetreiber) gemäß der Ausführungsform der vorliegenden Erfindung durchgeführt wird, unter Bezugnahme auf das Flussdiagramm in Fig. 4 beschrieben.
  • Als erstes wird ein Test durchgeführt, um zu bestimmen, ob eine Berühreingabe an dem Berührbedienfeld 32 erfolgte oder nicht (Schritt 10). Wenn im Schritt 10 eine Berühreingabe bestätigt wird, wird ein Zeitgeber für vorgegebene Zeitspannen Twait und Ttap initialisiert, der zur Feststellung verwendet wird, ob die Berühreingabe ein Doppel-Antippen ist oder nicht (Schritt 20).
  • In den Schritten 30 und 40 wird, während die Zeit T1 gezählt wird, die Zeit T1 mit Twait verglichen, um zu bestimmen, ob die Eingabe (z. B. das Drücken unter Verwendung eines Fingers) im Schritt 10 während einer vorgegebenen Zeitspanne fortgesetzt wurde. Wenn T1 > Twait, wird angenommen, dass die Eingabe kein Doppel-Antippen ist, und der Prozessablauf wird danach beendet. Wenn T1 < Twait, wird angenommen, dass das erste Drücken durchgeführt wurde, und ein Test wird durchgeführt, um zu bestimmen, ob das Ausgangssignal von dem Berührbedienfeld 32 während jener Zeitspanne um einen vorgegebenen Wert oder mehr geändert wurde (Schritt 50). Wenn das Ausgangssignal von dem Berührbedienfeld 32 um den vorgegebenen Wert oder mehr geändert wurde, wird angenommen, dass das zweite. Drücken durchgeführt wurde.
  • Wenn das Ausgangssignal von dem Berührbedienfeld 32 im Schritt 50 um den vorgegebenen Wert oder mehr geändert wurde, werden die Koordinatendaten, welche die Drückposition basierend auf den Daten repräsentieren, die unmittelbar vor der Änderung des Ausgangssignals des Berührbedienfeldes 32 ausgegeben wurden, als die erste Antipp-Position gespeichert (Schritt 60).
  • Wenn in Schritt 50 das zweite Drücken angenommen wird, wird in den Schritten 70 und 80 die Zeit T2 mit Ttap verglichen, während die Zeit T2 gezählt wird. Wenn T2 > Ttap, wird angenommen, dass ein Doppel-Antippen nicht durchgeführt wurde, und der Prozess wird danach beendet. Wenn T2 < Ttap, wird das zweite Drücken als beendet angesehen, und dann wird ein Test durchgeführt, um zu bestimmen, ob das Ausgangssignal von dem Berührbedienfeld 32 um einen vorgegebenen Wert oder mehr geändert wurde (Schritt 90).
  • Wenn in Schritt. 90 das Ausgangssignal von dem Berührbedienfeld 32 um den vorgegebenen Wert oder mehr geändert wurde, werden die Koordinatendaten, welche die Drückposition basierend auf den Daten repräsentieren, die unmittelbar nach der Änderung des Ausgangssignals von dem Berührbedienfeld 32 ausgegeben wurden, als die zweite Antipp-Position gespeichert (Schritt 100).
  • In Anschluss daran wird ein Test durchgeführt, um zu bestimmen, ob die gespeicherte zweite Antipp-Position in einen vorgegebenen Bereich für die erste Antipp-Position fällt (Schritt 110). Wenn die zweite Antipp-Position innerhalb des vorgegebenen Bereichs liegt, wird festgestellt, dass ein Doppel-Antippen an der ersten Antipp-Position aufgetreten ist (Schritt 120). Wenn die zweite Antipp-Position aus dem vorgegebenen Bereich herausfällt, wird angenommen, dass ein Doppel-Antippen nicht aufgetreten ist, und der Prozessablauf wird danach beendet.
  • Die Länge der vorgegebenen Zeitspannen Twait und Ttap können in Übereinstimmung mit der Geschwindigkeit, mit der die Finger des Benutzers bewegt werden, geeignet bestimmt werden. Oder es kann die Zeitspanne innerhalb eines vorgegebenen Bereichs willkürlich geändert werden, während die Geschwindigkeit der Bewegung berücksichtigt wird. Des Weiteren kann ein vorgegebener Bereich für eine Änderung des Ausgangssignals von einem Berührbedienfeld in Übereinstimmung mit der Auflösung einer Anzeige, der Auflösung des Ausgangssignals eines Berührbedienfeldes und einer Anzeigeabmessung geeignet geändert werden.
  • Auf diese Weise ist keine spezielle Hardwarevorrichtung erforderlich, und schon eine einfache Änderung eines Gerätetreibers stellt eine präzise Doppelantipp-Funktion sicher. Des Weiteren besteht gemäß der vorliegenden Erfindung kein Bedarf, das OS und die Anwendungsprogramme umzuschreiben.
  • Außer der vorstehenden Ausführungsform stehen verschiedene weitere Modifikationen für die vorliegende Erfindung zur Verfügung. Wenngleich für diese Ausführungsform der vorliegenden Erfindung ein Schichtwiderstands-Berührbedienfeld verwendet wird, ist die vorliegende Erfindung nicht darauf beschränkt und kann in der gleichen Weise auf ein sogenanntes optisches Berührbedienfeld angewendet werden.
  • Außerdem können, wenngleich der Zeigefinger und der Mittelfinger für diese Ausführungsform als bevorzugte Berühreingabemittel verwendet werden, die Zeigefinger beider Hände verwendet werden. In diesem Fall kann, während das Symbol 36 durch einen der Zeigefinger gedrückt wird, der andere Zeigefinger zum Antippen verwendet werden. Des Weiteren sind die Berühreingabemittel nicht auf Finger beschränkt, und es kann ein Stift oder ein anderer ähnlicher stiftförmiger Gegenstand verwendet werden.
  • Wenngleich die Positionen 52 und 58 in dieser Ausführungsform als Doppelantipp-Positionen dienen, kann ein Gerätetreiber auch anders programmiert werden, und es kann eine Erfassung von Daten für die Position 52, die eine vorgegebene Zeitspanne zuvor erhalten wurden, und von Daten für die Position 58 durchgeführt werden, die eine vorgegebene Zeitspanne danach erhalten wurden, so dass diese Positionen als Positionen für eine Erkennung von Doppel-Antippen angesehen werden.

Claims (6)

1. Verfahren zum Betrieb eines Berührbedienfeldes (32), das folgende Schritte umfasst:
Detektieren von Berühreingabekoordinaten über eine Zeitspanne hinweg, während der das Bedienfeld kontinuierlich in einer Berühreingabesequenz berührt wird;
Vergleichen der Koordinaten während der Zeitspanne, um Änderungen darin zu bestimmen;
und Akzeptieren der Berühreingabesequenz als gültige Steuereingabe, wenn die Koordinaten von ihren Anfangswerten um mehr als ein vorgegebenes Maß (42) abweichen und anschließend zu Werten innerhalb des vorgegebenen Maßes ihrer anfänglichen Werte zurückkehren.
2. Verfahren nach Anspruch 1, das die weiteren Schritte der Zeitmessung einer Anfangsperiode (T1), während der die Koordinaten ihre Anfangswerte innerhalb des vorgegebenen Maßes halten, und, wenn die gemessene Anfangsperiode eine vorgegebene Periode (Twait) übersteigt, eines Zurückweisens der Berühreingabesequenz als gültige Steuereingabe umfasst.
3. Verfahren nach Anspruch 1 oder Anspruch 2, das den weiteren Schritt der Zeitmessung einer Zwischenperiode (T2), während der die Koordinaten um mehr als das vorgegebene Maß von ihren Anfangswerten abweichen, und, wenn die gemessene Zwischenperiode eine vorgegebene Periode (Ttap) übersteigt, eines Zurückweisens der Eingabesequenz als gültige Steuereingabe umfasst.
4. Berührbedienfeld (32) mit einem Treiberschaltkreis, wobei der Treiberschaltkreis Mittel zum Bestimmen der Koordinaten einer Berühreingabe beinhaltet und die Koordinaten zweier gleichzeitiger Berühreingaben mittelt;
Mitteln zum Speichern der Koordinaten einer anfänglichen Berühreingabe (36);
Mitteln zum Vergleichen erfasster Koordinaten mit den gespeicherten Anfangskoordinaten während einer Berühreingabesequenz über eine Zeitspanne hinweg und Akzeptieren der Berühreingabesequenz als gültige Steuereingabe, wenn die Koordinaten um mehr als ein vorgegebenes Maß (42) abweichen und anschließend zu einer Differenz von weniger als dem vorgegebenen Maß zurückkehren.
5. Berührbedienfeld nach Anspruch 4, das des Weiteren Zeitmessmittel zur Zeitmessung einer Anfangsperiode (T1) beinhaltet, während der die Koordinaten ihre Anfangswerte innerhalb des vorgegebenen Maßes halten, wobei die Vergleichsmittel die Berühreingabesequenz als gültige Steuereingabe zurückweisen, wenn die gemessene anfängliche Periode eine vorgegebene Periode (Twait) übersteigt.
6. Berührbedienfeld nach Anspruch 4 oder Anspruch 5, bei dem die Zeitmessmittel dazu angeordnet sind, eine Zwischenperiode (T2) zu messen, während der die Koordinaten um mehr als das vorgegebene Maß von ihren Anfangswerten abweichen, wobei die Vergleichsmittel die Berühreingabesequenz als gültige Steuereingabe zurückweisen, wenn die gemessene Zwischenperiode eine weitere vorgegebene Periode (Ttap) übersteigt.
DE69613656T 1995-11-09 1996-10-28 Betrieb eines berührungsempfindlichen Bildschirms Expired - Lifetime DE69613656T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29080195A JPH09146708A (ja) 1995-11-09 1995-11-09 タッチパネルの駆動方法及びタッチ入力方法

Publications (2)

Publication Number Publication Date
DE69613656D1 DE69613656D1 (de) 2001-08-09
DE69613656T2 true DE69613656T2 (de) 2002-05-29

Family

ID=17760675

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69613656T Expired - Lifetime DE69613656T2 (de) 1995-11-09 1996-10-28 Betrieb eines berührungsempfindlichen Bildschirms

Country Status (4)

Country Link
US (1) US5943043A (de)
EP (1) EP0773496B1 (de)
JP (1) JPH09146708A (de)
DE (1) DE69613656T2 (de)

Families Citing this family (357)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19720051A1 (de) * 1997-05-14 1998-11-19 Kerstin Muenker Verfahren zur Eingabe einer Information in einen Rechner
US6229529B1 (en) * 1997-07-11 2001-05-08 Ricoh Company, Ltd. Write point detecting circuit to detect multiple write points
JPH11110124A (ja) * 1997-10-03 1999-04-23 Fujitsu Takamisawa Component Ltd 座標検出装置
GB9722766D0 (en) 1997-10-28 1997-12-24 British Telecomm Portable computers
US7015896B2 (en) * 1998-01-23 2006-03-21 Digit Wireless, Llc Keyboards with both individual and combination key output
US7760187B2 (en) 2004-07-30 2010-07-20 Apple Inc. Visual expander
EP2256606B1 (de) * 1998-01-26 2017-08-09 Apple Inc. Verfahren und Vorrichtung zur Integration einer manuellen Eingabe
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
EP1717684A3 (de) 1998-01-26 2008-01-23 Fingerworks, Inc. Verfahren und Vorrichtung zur Integration von manuellen Eingaben
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
JP4178484B2 (ja) * 1998-04-06 2008-11-12 富士フイルム株式会社 モニタ付きカメラ
JP2000029612A (ja) * 1998-07-15 2000-01-28 Smk Corp タッチパネル入力装置
US6292173B1 (en) * 1998-09-11 2001-09-18 Stmicroelectronics S.R.L. Touchpad computer input system and method
US6346935B1 (en) * 1998-09-14 2002-02-12 Matsushita Electric Industrial Co., Ltd. Touch-sensitive tablet
US6256022B1 (en) 1998-11-06 2001-07-03 Stmicroelectronics S.R.L. Low-cost semiconductor user input device
US6246395B1 (en) * 1998-12-17 2001-06-12 Hewlett-Packard Company Palm pressure rejection method and apparatus for touchscreens
US6333735B1 (en) 1999-03-16 2001-12-25 International Business Machines Corporation Method and apparatus for mouse positioning device based on infrared light sources and detectors
JP4316733B2 (ja) * 1999-06-30 2009-08-19 富士通コンポーネント株式会社 座標入力装置及び記憶媒体
US6498600B1 (en) * 1999-08-18 2002-12-24 Ericsson Inc. Electronic devices including keypads that illuminate in response to proximity of a user and methods of operating such electronic devices
JP2001134382A (ja) 1999-11-04 2001-05-18 Sony Corp 図形処理装置
JP4540787B2 (ja) * 2000-02-07 2010-09-08 シャープ株式会社 座標入力装置および座標入力方法
JP3867226B2 (ja) 2000-02-15 2007-01-10 株式会社 ニューコム 複数の指示部位で操作可能なタッチパネルシステム
JP4878667B2 (ja) * 2000-02-17 2012-02-15 富士通コンポーネント株式会社 座標検出装置及び座標検出方法
JP4856804B2 (ja) * 2000-03-15 2012-01-18 株式会社リコー メニュー表示制御装置、情報処理装置、電子黒板システム、メニュー表示システムの制御方法、情報処理システムの制御方法およびこれらの方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
EP1191430A1 (de) * 2000-09-22 2002-03-27 Hewlett-Packard Company, A Delaware Corporation Graphische Benutzerschnittstelle für Geräte mit kleinen taktilen Displays
US6897853B2 (en) * 2000-11-10 2005-05-24 Microsoft Corp. Highlevel active pen matrix
JP2002215146A (ja) * 2001-01-18 2002-07-31 Kawai Musical Instr Mfg Co Ltd 電子楽器の指示入力装置
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP4768143B2 (ja) * 2001-03-26 2011-09-07 株式会社リコー 情報入出力装置、情報入出力制御方法およびプログラム
US20030067447A1 (en) * 2001-07-09 2003-04-10 Geaghan Bernard O. Touch screen with selective touch sources
WO2003032141A2 (de) * 2001-09-28 2003-04-17 Siemens Aktiengesellschaft Verfahren zur zweihandbedienung einer flächigen anzeige- und bedieneinheit, mit berührungssensitivem display, hmi gerät, automatisierungssystem und computerprogrammprodukt zur durchführung des verfahrens
US7254775B2 (en) * 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
US8339379B2 (en) * 2004-04-29 2012-12-25 Neonode Inc. Light-based touch screen
US9052777B2 (en) 2001-11-02 2015-06-09 Neonode Inc. Optical elements with alternating reflective lens facets
US8674966B2 (en) 2001-11-02 2014-03-18 Neonode Inc. ASIC controller for light-based touch screen
US9778794B2 (en) 2001-11-02 2017-10-03 Neonode Inc. Light-based touch screen
US6995752B2 (en) * 2001-11-08 2006-02-07 Koninklijke Philips Electronics N.V. Multi-point touch pad
JP2003167669A (ja) * 2001-11-22 2003-06-13 Internatl Business Mach Corp <Ibm> 情報処理装置、プログラム及び座標入力方法
JP2003173226A (ja) * 2001-11-27 2003-06-20 Internatl Business Mach Corp <Ibm> 情報処理装置、プログラム及び座標入力方法
JP2003303048A (ja) * 2002-02-06 2003-10-24 Fujitsu Component Ltd 入力装置、ポインタ制御方法
US7746325B2 (en) * 2002-05-06 2010-06-29 3M Innovative Properties Company Method for improving positioned accuracy for a determined touch input
US7532202B2 (en) * 2002-05-08 2009-05-12 3M Innovative Properties Company Baselining techniques in force-based touch panel systems
US7176897B2 (en) * 2002-05-17 2007-02-13 3M Innovative Properties Company Correction of memory effect errors in force-based touch panel systems
US7158122B2 (en) * 2002-05-17 2007-01-02 3M Innovative Properties Company Calibration of force based touch panel systems
US20030234763A1 (en) * 2002-06-24 2003-12-25 Xerox Corporation System and method for audible feedback for touch screen displays
US6999066B2 (en) * 2002-06-24 2006-02-14 Xerox Corporation System for audible feedback for touch screen displays
US7176898B2 (en) * 2002-09-13 2007-02-13 Xerox Corporation Removable control panel for multi-function equipment
US20040051746A1 (en) * 2002-09-13 2004-03-18 Xerox Corporation Embedded control panel for multi-function equipment
US8416217B1 (en) 2002-11-04 2013-04-09 Neonode Inc. Light-based finger gesture user interface
WO2004109455A2 (en) * 2003-05-30 2004-12-16 Privaris, Inc. An in-circuit security system and methods for controlling access to and use of sensitive data
US7714835B2 (en) 2003-06-02 2010-05-11 Koninklijke Philips Electronics N.V. Opto-electronic input device, method of manufacturing such a device and method of measuring the movement of an object by means of such a device
EP1658551A1 (de) * 2003-08-29 2006-05-24 Nokia Corporation Verfahren und einrichtung zum erkennen einer dual-point-benutzereingabe auf einem benutzereingabegerät auf berührungsbasis
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
NZ529518A (en) * 2003-11-13 2005-03-24 Andy Zheng Song Input method, system and device
US8164573B2 (en) * 2003-11-26 2012-04-24 Immersion Corporation Systems and methods for adaptive interpretation of input from a touch-sensitive input device
JP4137801B2 (ja) * 2004-01-05 2008-08-20 任天堂株式会社 ゲームプログラムおよびゲーム装置
JP4141389B2 (ja) * 2004-01-20 2008-08-27 任天堂株式会社 ゲーム装置及びゲームプログラム
JP4127536B2 (ja) * 2004-01-20 2008-07-30 任天堂株式会社 ゲーム装置及びゲームプログラム
US6856259B1 (en) 2004-02-06 2005-02-15 Elo Touchsystems, Inc. Touch sensor system to detect multiple touch events
US7180506B2 (en) * 2004-02-12 2007-02-20 Sentelic Corporation Method for identifying a movement of single tap on a touch device
US7222307B2 (en) * 2004-06-16 2007-05-22 Scenera Technologies, Llc Multipurpose navigation keys for an electronic imaging device
US8466893B2 (en) 2004-06-17 2013-06-18 Adrea, LLC Use of a two finger input on touch screens
JP5172334B2 (ja) * 2004-06-17 2013-03-27 アドレア エルエルシー タッチスクリーン上の2本指入力の使用
US7184031B2 (en) * 2004-07-06 2007-02-27 Sentelic Corporation Method and controller for identifying a drag gesture
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
KR101270847B1 (ko) * 2004-07-30 2013-06-05 애플 인크. 터치 감지 입력 장치용 제스처
US8744852B1 (en) 2004-10-01 2014-06-03 Apple Inc. Spoken interfaces
EP1677180A1 (de) * 2004-12-30 2006-07-05 Volkswagen Aktiengesellschaft Berührungsempfindlicher Bilschirm der zwei gleichzeitige Berührungspunkte erkennt
EP1834229A2 (de) 2004-12-30 2007-09-19 Volkswagon AG Eingabevorrichtung und verfahren zum betrieb derselben
DE102005038161A1 (de) 2004-12-30 2006-07-13 Volkswagen Ag Eingabevorrichtung
US7760189B2 (en) * 2005-01-21 2010-07-20 Lenovo Singapore Pte. Ltd Touchpad diagonal scrolling
US7685862B1 (en) * 2005-04-25 2010-03-30 The United States Of America As Represented By The Secretary Of The Navy Target system giving accuracy and energy
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US7649526B2 (en) * 2005-12-23 2010-01-19 Apple Inc. Soft key interaction indicator
WO2007127258A2 (en) * 2006-04-27 2007-11-08 Wms Gaming Inc. Wagering game with multi-point gesture sensing device
US8243027B2 (en) 2006-06-09 2012-08-14 Apple Inc. Touch screen liquid crystal display
CN104965621B (zh) 2006-06-09 2018-06-12 苹果公司 触摸屏液晶显示器及其操作方法
CN102147680B (zh) 2006-06-09 2015-07-22 苹果公司 触摸屏液晶显示器
KR100748469B1 (ko) * 2006-06-26 2007-08-10 삼성전자주식회사 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기
JP2008009668A (ja) * 2006-06-29 2008-01-17 Syn Sophia Inc タッチパネルの駆動方法及び入力方法
JP4087879B2 (ja) * 2006-06-29 2008-05-21 株式会社シンソフィア タッチパネルの文字認識方法及び文字入力方法
USD575298S1 (en) * 2006-06-30 2008-08-19 Hon Hai Precision Industry Co., Ltd. User interface for touch screen
US8717302B1 (en) * 2006-06-30 2014-05-06 Cypress Semiconductor Corporation Apparatus and method for recognizing a gesture on a sensing device
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
WO2008045464A2 (en) 2006-10-10 2008-04-17 Wms Gaming Inc. Multi-player, multi-touch table for use in wagering game systems
US8570278B2 (en) 2006-10-26 2013-10-29 Apple Inc. Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker
US7856605B2 (en) 2006-10-26 2010-12-21 Apple Inc. Method, system, and graphical user interface for positioning an insertion marker in a touch screen display
KR100794928B1 (ko) * 2006-12-29 2008-01-15 주식회사 켐트로닉스 연속 터치의 인식이 가능한 터치 감지 장치 및 방법
US8269727B2 (en) 2007-01-03 2012-09-18 Apple Inc. Irregular input identification
US7876310B2 (en) 2007-01-03 2011-01-25 Apple Inc. Far-field input identification
US8130203B2 (en) 2007-01-03 2012-03-06 Apple Inc. Multi-touch input discrimination
US8493330B2 (en) 2007-01-03 2013-07-23 Apple Inc. Individual channel phase delay scheme
GB2445372B (en) * 2007-01-03 2009-06-03 Motorola Inc Electronic device and method of touch screen input detection
US7855718B2 (en) * 2007-01-03 2010-12-21 Apple Inc. Multi-touch input discrimination
US7907125B2 (en) 2007-01-05 2011-03-15 Microsoft Corporation Recognizing multiple input point gestures
US9710095B2 (en) 2007-01-05 2017-07-18 Apple Inc. Touch screen stack-ups
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US20080235627A1 (en) * 2007-03-21 2008-09-25 Microsoft Corporation Natural interaction by flower-like navigation
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
WO2008138046A1 (en) * 2007-05-11 2008-11-20 Rpo Pty Limited Double touch inputs
JP5236346B2 (ja) * 2007-07-30 2013-07-17 京セラ株式会社 入力装置
WO2009024971A2 (en) 2007-08-19 2009-02-26 Saar Shai Finger-worn devices and related methods of use
JP5737823B2 (ja) * 2007-09-03 2015-06-17 株式会社日立メディコ 超音波診断装置
US20100179864A1 (en) * 2007-09-19 2010-07-15 Feldman Michael R Multimedia, multiuser system and associated methods
US8600816B2 (en) * 2007-09-19 2013-12-03 T1visions, Inc. Multimedia, multiuser system and associated methods
US8583491B2 (en) * 2007-09-19 2013-11-12 T1visions, Inc. Multimedia display, multimedia system including the display and associated methods
US9953392B2 (en) 2007-09-19 2018-04-24 T1V, Inc. Multimedia system and associated methods
US9965067B2 (en) 2007-09-19 2018-05-08 T1V, Inc. Multimedia, multiuser system and associated methods
KR101961052B1 (ko) 2007-09-24 2019-03-21 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US20090125848A1 (en) * 2007-11-14 2009-05-14 Susann Marie Keohane Touch surface-sensitive edit system
TWI353546B (en) * 2007-12-19 2011-12-01 Asustek Comp Inc Touch panel
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US9720501B2 (en) 2008-01-04 2017-08-01 Tactus Technology, Inc. Dynamic tactile interface
US9128525B2 (en) 2008-01-04 2015-09-08 Tactus Technology, Inc. Dynamic tactile interface
US8922510B2 (en) 2008-01-04 2014-12-30 Tactus Technology, Inc. User interface system
US9013417B2 (en) 2008-01-04 2015-04-21 Tactus Technology, Inc. User interface system
US8456438B2 (en) 2008-01-04 2013-06-04 Tactus Technology, Inc. User interface system
US20160187981A1 (en) 2008-01-04 2016-06-30 Tactus Technology, Inc. Manual fluid actuator
US9552065B2 (en) 2008-01-04 2017-01-24 Tactus Technology, Inc. Dynamic tactile interface
US9063627B2 (en) 2008-01-04 2015-06-23 Tactus Technology, Inc. User interface and methods
US8570295B2 (en) 2008-01-04 2013-10-29 Tactus Technology, Inc. User interface system
US9557915B2 (en) 2008-01-04 2017-01-31 Tactus Technology, Inc. Dynamic tactile interface
US9052790B2 (en) 2008-01-04 2015-06-09 Tactus Technology, Inc. User interface and methods
US9298261B2 (en) 2008-01-04 2016-03-29 Tactus Technology, Inc. Method for actuating a tactile interface layer
US9423875B2 (en) 2008-01-04 2016-08-23 Tactus Technology, Inc. Dynamic tactile interface with exhibiting optical dispersion characteristics
US8199124B2 (en) * 2009-01-05 2012-06-12 Tactus Technology User interface system
US8547339B2 (en) * 2008-01-04 2013-10-01 Tactus Technology, Inc. System and methods for raised touch screens
US8553005B2 (en) 2008-01-04 2013-10-08 Tactus Technology, Inc. User interface system
US8947383B2 (en) 2008-01-04 2015-02-03 Tactus Technology, Inc. User interface system and method
US8179375B2 (en) 2008-01-04 2012-05-15 Tactus Technology User interface system and method
US9588683B2 (en) 2008-01-04 2017-03-07 Tactus Technology, Inc. Dynamic tactile interface
US9430074B2 (en) 2008-01-04 2016-08-30 Tactus Technology, Inc. Dynamic tactile interface
US9274612B2 (en) 2008-01-04 2016-03-01 Tactus Technology, Inc. User interface system
US9612659B2 (en) 2008-01-04 2017-04-04 Tactus Technology, Inc. User interface system
US8154527B2 (en) * 2008-01-04 2012-04-10 Tactus Technology User interface system
US8243038B2 (en) * 2009-07-03 2012-08-14 Tactus Technologies Method for adjusting the user interface of a device
US20090207140A1 (en) * 2008-02-19 2009-08-20 Sony Ericsson Mobile Communications Ab Identifying and responding to multiple time-overlapping touches on a touch panel
US8650507B2 (en) 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US8201109B2 (en) 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
US8717305B2 (en) * 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
JP2009276819A (ja) * 2008-05-12 2009-11-26 Fujitsu Ltd ポインティング装置の制御方法およびポインティング装置、並びにコンピュータプログラム
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8493355B2 (en) * 2008-05-14 2013-07-23 3M Innovative Properties Company Systems and methods for assessing locations of multiple touch inputs
JP5080383B2 (ja) * 2008-06-25 2012-11-21 スリーエム イノベイティブ プロパティズ カンパニー 操作者識別装置、操作者識別方法及び車載装置
US20090322686A1 (en) * 2008-06-25 2009-12-31 Parakrama Jayasinghe Control And Navigation For A Device Implementing a Touch Screen
US8241912B2 (en) * 2008-06-26 2012-08-14 Wms Gaming Inc. Gaming machine having multi-touch sensing device
US20090322700A1 (en) * 2008-06-30 2009-12-31 Tyco Electronics Corporation Method and apparatus for detecting two simultaneous touches and gestures on a resistive touchscreen
US20090322701A1 (en) * 2008-06-30 2009-12-31 Tyco Electronics Corporation Method and apparatus for detecting two simultaneous touches and gestures on a resistive touchscreen
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
TWI387914B (zh) * 2008-08-13 2013-03-01 Au Optronics Corp 投影式電容觸控裝置、及識別不同接觸位置之方法
CA2740401C (en) * 2008-09-23 2014-11-18 Aerovironment, Inc. Predictive pulse width modulation for an open delta h-bridge driven high efficiency ironless permanent magnet machine
EP2352077B1 (de) * 2008-10-30 2016-02-10 NEC Corporation Tragbares endgerät, datenmanipulationsverarbeitungsverfahren und datenmanipulationsverarbeitungsprogramm
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
WO2010078597A1 (en) 2009-01-05 2010-07-08 Tactus Technology, Inc. User interface system
US9588684B2 (en) 2009-01-05 2017-03-07 Tactus Technology, Inc. Tactile interface for a computing device
US8487975B2 (en) 2009-01-27 2013-07-16 Lifesize Communications, Inc. Conferencing system utilizing a mobile communication device as an interface
US8775023B2 (en) 2009-02-15 2014-07-08 Neanode Inc. Light-based touch controls on a steering wheel and dashboard
US8345019B2 (en) 2009-02-20 2013-01-01 Elo Touch Solutions, Inc. Method and apparatus for two-finger touch coordinate recognition and rotation gesture recognition
US20100235734A1 (en) 2009-03-16 2010-09-16 Bas Ording Methods and Graphical User Interfaces for Editing on a Multifunction Device with a Touch Screen Display
US8294680B2 (en) * 2009-03-27 2012-10-23 Sony Mobile Communications Ab System and method for touch-based text entry
KR20100116058A (ko) * 2009-04-21 2010-10-29 삼성전자주식회사 휴대단말에서 멀티터치 입력 처리 방법
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9009612B2 (en) * 2009-06-07 2015-04-14 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
CN105260110A (zh) 2009-07-03 2016-01-20 泰克图斯科技公司 用户界面增强系统
JP5238635B2 (ja) * 2009-07-29 2013-07-17 京セラ株式会社 情報処理装置及びアプリケーションプログラムの起動方法
TWI420379B (zh) * 2009-12-09 2013-12-21 Telepaq Technology Inc 觸控螢幕之選擇功能選單方法
CN102725716B (zh) 2009-12-21 2016-04-13 泰克图斯科技公司 用户界面系统
CN102782617B (zh) 2009-12-21 2015-10-07 泰克图斯科技公司 用户接口系统
TWM383159U (en) * 2009-12-31 2010-06-21 Minlead Ltd Touch panel
US9239623B2 (en) 2010-01-05 2016-01-19 Tactus Technology, Inc. Dynamic tactile interface
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US8977584B2 (en) 2010-01-25 2015-03-10 Newvaluexchange Global Ai Llp Apparatuses, methods and systems for a digital conversation management platform
US8339364B2 (en) 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
CA2746481C (en) 2010-02-03 2017-06-13 Nintendo Co., Ltd. Game system, controller device, and game process method
US8814686B2 (en) 2010-02-03 2014-08-26 Nintendo Co., Ltd. Display device, game system, and game method
US8913009B2 (en) 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8416215B2 (en) 2010-02-07 2013-04-09 Itay Sherman Implementation of multi-touch gestures using a resistive touch display
US8619035B2 (en) 2010-02-10 2013-12-31 Tactus Technology, Inc. Method for assisting user input to a device
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US20110225524A1 (en) * 2010-03-10 2011-09-15 Cifra Christopher G Multi-Touch Editing in a Graphical Programming Language
WO2011112984A1 (en) 2010-03-11 2011-09-15 Tactus Technology User interface system
TWI400645B (zh) * 2010-04-01 2013-07-01 Mstar Semiconductor Inc 觸碰判斷方法及相關之觸控手勢判斷方法
WO2011133605A1 (en) 2010-04-19 2011-10-27 Tactus Technology Method of actuating a tactile interface layer
KR20110121888A (ko) * 2010-05-03 2011-11-09 삼성전자주식회사 휴대용 단말기에서 팝업 메뉴를 확인하기 위한 장치 및 방법
US8707195B2 (en) 2010-06-07 2014-04-22 Apple Inc. Devices, methods, and graphical user interfaces for accessibility via a touch-sensitive surface
KR101741662B1 (ko) 2010-07-19 2017-05-30 삼성전자 주식회사 디스플레이장치 및 그 제어방법
JP6243586B2 (ja) 2010-08-06 2017-12-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US8452600B2 (en) 2010-08-18 2013-05-28 Apple Inc. Assisted reader
US10150033B2 (en) 2010-08-20 2018-12-11 Nintendo Co., Ltd. Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method
JP5840386B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP5840385B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
TWI564757B (zh) 2010-08-31 2017-01-01 萬國商業機器公司 具有觸控螢幕的電腦裝置與其操作方法及電腦可讀媒體
WO2012029833A1 (ja) * 2010-09-01 2012-03-08 新世代株式会社 操作判定装置、操作判定方法、及び、操作判定プログラム
JP5630160B2 (ja) * 2010-09-07 2014-11-26 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
CN102445982B (zh) * 2010-09-30 2016-03-30 联想(北京)有限公司 一种信息输入方法及数据处理设备
JP2012088762A (ja) 2010-10-15 2012-05-10 Touch Panel Systems Kk タッチパネル入力装置およびジェスチャ検出方法
CN103124946B (zh) 2010-10-20 2016-06-29 泰克图斯科技公司 用户接口系统及方法
EP2630562A1 (de) 2010-10-20 2013-08-28 Tactus Technology Benutzeroberflächensystem
KR101364826B1 (ko) 2010-11-01 2014-02-20 닌텐도가부시키가이샤 조작 장치 및 조작 시스템
US9122341B2 (en) 2010-11-08 2015-09-01 Microsoft Technology Licensing, Llc Resolving merged touch contacts
KR101314262B1 (ko) * 2010-11-11 2013-10-14 (주) 에스엔아이솔라 시각 장애인에 의한 객체 조작이 가능한 터치스크린 장치 및 그 장치에서의 객체 조작 방법
US8804056B2 (en) * 2010-12-22 2014-08-12 Apple Inc. Integrated touch screens
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US8725443B2 (en) 2011-01-24 2014-05-13 Microsoft Corporation Latency measurement
US8988087B2 (en) 2011-01-24 2015-03-24 Microsoft Technology Licensing, Llc Touchscreen testing
US9542092B2 (en) 2011-02-12 2017-01-10 Microsoft Technology Licensing, Llc Prediction-based touch contact tracking
US8982061B2 (en) 2011-02-12 2015-03-17 Microsoft Technology Licensing, Llc Angular contact geometry
US8773377B2 (en) 2011-03-04 2014-07-08 Microsoft Corporation Multi-pass touch contact tracking
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
JP5689014B2 (ja) 2011-04-07 2015-03-25 任天堂株式会社 入力システム、情報処理装置、情報処理プログラム、および3次元位置算出方法
AU2012242519B2 (en) * 2011-04-13 2015-11-05 Google Llc Click disambiguation on a touch-sensitive input device
US8786561B2 (en) 2011-05-18 2014-07-22 Microsoft Corporation Disambiguating intentional and incidental contact and motion in multi-touch pointing devices
US8719695B2 (en) 2011-05-31 2014-05-06 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8751971B2 (en) 2011-06-05 2014-06-10 Apple Inc. Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface
US8959459B2 (en) 2011-06-15 2015-02-17 Wms Gaming Inc. Gesture sensing enhancement system for a wagering game
US9204094B2 (en) 2011-06-28 2015-12-01 Lifesize Communications, Inc. Adjusting volume of a videoconference using touch-based gestures
US8605873B2 (en) 2011-06-28 2013-12-10 Lifesize Communications, Inc. Accessing settings of a videoconference using touch-based gestures
US8605872B2 (en) 2011-06-28 2013-12-10 Lifesize Communications, Inc. Muting a videoconference using touch-based gestures
US8913019B2 (en) 2011-07-14 2014-12-16 Microsoft Corporation Multi-finger detection and component resolution
US8782525B2 (en) 2011-07-28 2014-07-15 National Insturments Corporation Displaying physical signal routing in a diagram of a system
US9047007B2 (en) 2011-07-28 2015-06-02 National Instruments Corporation Semantic zoom within a diagram of a system
US8713482B2 (en) 2011-07-28 2014-04-29 National Instruments Corporation Gestures for presentation of different views of a system diagram
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US9378389B2 (en) 2011-09-09 2016-06-28 Microsoft Technology Licensing, Llc Shared item account selection
CN102426495A (zh) * 2011-09-22 2012-04-25 深圳市同洲电子股份有限公司 移动终端遥控数字电视接收终端的方法及移动终端
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US8769624B2 (en) 2011-09-29 2014-07-01 Apple Inc. Access control utilizing indirect authentication
US9785281B2 (en) 2011-11-09 2017-10-10 Microsoft Technology Licensing, Llc. Acoustic touch sensitive testing
US8914254B2 (en) 2012-01-31 2014-12-16 Microsoft Corporation Latency measurement
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US8881269B2 (en) 2012-03-31 2014-11-04 Apple Inc. Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader
US9086732B2 (en) 2012-05-03 2015-07-21 Wms Gaming Inc. Gesture fusion
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US11209961B2 (en) 2012-05-18 2021-12-28 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US20140028554A1 (en) * 2012-07-26 2014-01-30 Google Inc. Recognizing gesture on tactile input device
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
WO2014047656A2 (en) 2012-09-24 2014-03-27 Tactus Technology, Inc. Dynamic tactile interface and methods
US9405417B2 (en) 2012-09-24 2016-08-02 Tactus Technology, Inc. Dynamic tactile interface and methods
US9317147B2 (en) 2012-10-24 2016-04-19 Microsoft Technology Licensing, Llc. Input testing tool
US8949735B2 (en) 2012-11-02 2015-02-03 Google Inc. Determining scroll direction intent
US9092093B2 (en) 2012-11-27 2015-07-28 Neonode Inc. Steering wheel user interface
US12032817B2 (en) 2012-11-27 2024-07-09 Neonode Inc. Vehicle user interface
KR101412431B1 (ko) * 2012-12-11 2014-06-25 에스케이씨앤씨 주식회사 멀티 터치와 탭핑을 결합하여 사용자 명령을 입력하는 방식의 사용자 인터페이스 방법 및 이를 적용한 전자 기기
DE112014000709B4 (de) 2013-02-07 2021-12-30 Apple Inc. Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
WO2014144949A2 (en) 2013-03-15 2014-09-18 Apple Inc. Training an at least partial voice command system
US8922516B2 (en) * 2013-03-27 2014-12-30 Tianjin Funayuanchuang Technology Co., Ltd. Touch panel and multi-points detecting method
US9576422B2 (en) 2013-04-18 2017-02-21 Bally Gaming, Inc. Systems, methods, and devices for operating wagering game machines with enhanced user interfaces
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
HK1220268A1 (zh) 2013-06-09 2017-04-28 苹果公司 用於實現跨數字助理的兩個或更多個實例的會話持續性的設備、方法、和圖形用戶界面
US9678591B2 (en) 2013-06-10 2017-06-13 The Board Of Trustees Of The Leland Stanford Junior University Method and apparatus for sensing touch
EP3008964B1 (de) 2013-06-13 2019-09-25 Apple Inc. System und verfahren für durch sprachsteuerung ausgelöste notrufe
US9557813B2 (en) 2013-06-28 2017-01-31 Tactus Technology, Inc. Method for reducing perceived optical distortion
US9612736B2 (en) * 2013-07-17 2017-04-04 Korea Advanced Institute Of Science And Technology User interface method and apparatus using successive touches
KR101749009B1 (ko) 2013-08-06 2017-06-19 애플 인크. 원격 디바이스로부터의 활동에 기초한 스마트 응답의 자동 활성화
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
EP3149728B1 (de) 2014-05-30 2019-01-16 Apple Inc. Eingabeverfahren durch einzelne äusserung mit mehreren befehlen
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
CN104699341A (zh) * 2015-03-24 2015-06-10 深圳市华星光电技术有限公司 内嵌式电容触摸屏及其驱动方法
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
CN106527829A (zh) * 2015-09-15 2017-03-22 神盾股份有限公司 电容式感测装置及其信号处理方法
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
KR101714302B1 (ko) * 2016-01-29 2017-03-08 현대자동차주식회사 3차원 터치 인식 장치 및 방법
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
KR102429485B1 (ko) 2016-12-13 2022-08-05 현대자동차주식회사 사용자 인터페이스 장치 및 방법
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
JP6832725B2 (ja) * 2017-01-31 2021-02-24 シャープ株式会社 表示装置、表示方法及びプログラム
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
KR102301599B1 (ko) 2017-09-09 2021-09-10 애플 인크. 생체측정 인증의 구현
US10901529B2 (en) * 2018-07-19 2021-01-26 Stmicroelectronics S.R.L. Double-tap event detection device, system and method
CN113165515B (zh) 2018-11-28 2021-11-02 内奥诺德公司 驾驶员用户界面传感器
DE202018006400U1 (de) 2018-12-18 2020-07-27 Volkswagen Aktiengesellschaft Bedienvorrichtung für ein Kraftfahrzeug
CA3071758C (en) 2019-02-07 2025-05-13 1004335 Ontario Inc. TWO-POINT TOUCH DETECTION METHODS WITH TOUCH RESISTANCE SENSOR AND RELATED DEVICES AND SYSTEMS
WO2022072331A1 (en) 2020-09-30 2022-04-07 Neonode Inc. Optical touch sensor

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4914624A (en) * 1988-05-06 1990-04-03 Dunthorn David I Virtual button for touch screen
US5402151A (en) * 1989-10-02 1995-03-28 U.S. Philips Corporation Data processing system with a touch screen and a digitizing tablet, both integrated in an input device
EP0490001B1 (de) * 1990-12-14 1996-07-10 International Business Machines Corporation Koordinatenprozessor für ein Rechnersystem mit einer Zeigeranordnung
JPH07281810A (ja) * 1994-04-02 1995-10-27 Wacom Co Ltd マルチデバイス入力システムを有するコンピュータシステム
US5579036A (en) * 1994-04-28 1996-11-26 At&T Global Information Solutions Company Touch screen device and shielding bracket therefor
US5570113A (en) * 1994-06-29 1996-10-29 International Business Machines Corporation Computer based pen system and method for automatically cancelling unwanted gestures and preventing anomalous signals as inputs to such system

Also Published As

Publication number Publication date
DE69613656D1 (de) 2001-08-09
JPH09146708A (ja) 1997-06-06
US5943043A (en) 1999-08-24
EP0773496A1 (de) 1997-05-14
EP0773496B1 (de) 2001-07-04

Similar Documents

Publication Publication Date Title
DE69613656T2 (de) Betrieb eines berührungsempfindlichen Bildschirms
DE19514651B4 (de) Informationseingabevorrichtung, welche sowohl als Berührungstablett als auch als Digitalisiertablett funktioniert, sowie ein Verfahren zum Betreiben dieser Informationseingabevorrichtung
DE69321626T2 (de) Interaktives Anzeigesystem und Verfahren zur Auswahl von Menüs
DE69225550T2 (de) Verfahren und Vorrichtung zum Reduzieren des Betriebsaufwandes für einen berührungsempfindlichen Schirm
DE4230494C2 (de) Handschrifteingabevorrichtung für die Eingabe handschriftlicher Daten aus beliebiger Richtung
DE69717729T2 (de) Koordinateneingabegerät
DE102006060068B4 (de) Anzeigegerät und Verfahren, das für kleine Handgeräte angepasst ist
DE69707070T2 (de) Verfahren und Vorrichtung zur Organisation eines Arbeitsraums für ein rechnergesteuertes Anzeigesystem mit Anwendung von Rändern und Regionen
DE69534404T2 (de) Verfahren zum kompensieren von unbeabsichtigten Bewegungen bei einer Antipgeste auf einer Berührungssensorfläche
DE69718721T2 (de) Verfahren und Vorrichtung zum Organisieren und zur Anzeige von langen Datenlisten in einem Arbeitsraum eines Rechneranzeigesystems
DE69231270T2 (de) Gerät zur auf einem Anzeigeschirm angezeigten Manipulation eines Objektes
DE69827875T2 (de) Verfahren und Vorrichtung zur Informationsverschiebung einer Anzeige in einer Mobilfunkstation
DE69521617T2 (de) Positiondetektor eines objektes mit kantenbewegungsmerkmal
DE19751262A1 (de) Koordinateneingabevorrichtung
DE202008005342U1 (de) Elektronische Vorrichtung
DE8407989U1 (de) Dateneingabetafel zum Eingeben von Daten in einen Computer
DE202012101478U1 (de) Berührungssensor mit Gegenkapazitätselektroden und Eigenkapazitätselektroden
DE69626601T2 (de) Positionierung eines Zeigers auf einem Bildschirm
DE202008007776U1 (de) Berührungsbildschirme mit Widerständen aus transparentem leitenden Material
DE102018100809A1 (de) Verfahren, vorrichtung und endgerät zum anzeigen einer virtuellen tastatur
DE19744861A1 (de) Verfahren zum Einsatz einer dreidimensionalen Mouse im WINDOWS-Betriebssystem
DE69221204T2 (de) Datenverarbeitungsgerät zur Fensterpositionensteuerung
DE102006005527A1 (de) Hybrid-Zeigevorrichtung
DE10247313A1 (de) Berührungs- und druckpegelempfindliche Oberfläche
DE102012211163A1 (de) Verfahren zum Empfangen einer Eingabe auf einem berührungsempfindlichen Feld

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
8328 Change in the person/name/address of the agent

Representative=s name: DUSCHER, R., DIPL.-PHYS. DR.RER.NAT., PAT.-ANW., 7