DE112009000003T5 - Programmierschnittstelle für ein Berührungsereignismodell - Google Patents
Programmierschnittstelle für ein Berührungsereignismodell Download PDFInfo
- Publication number
- DE112009000003T5 DE112009000003T5 DE112009000003T DE112009000003T DE112009000003T5 DE 112009000003 T5 DE112009000003 T5 DE 112009000003T5 DE 112009000003 T DE112009000003 T DE 112009000003T DE 112009000003 T DE112009000003 T DE 112009000003T DE 112009000003 T5 DE112009000003 T5 DE 112009000003T5
- Authority
- DE
- Germany
- Prior art keywords
- touch
- event
- gesture
- events
- web page
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Verfahren in einem Webbrowser, das umfasst:
Empfangen eines mit einem Gestenereignis assoziierten Drehwertes; und
dynamisches Drehen eines Elementes einer Webseite, das mit dem Gestenelement in dem Webbrowser assoziiert ist, basierend auf dem Drehwert, wobei der Drehwert ein relatives Delta in Grad darstellt.
Empfangen eines mit einem Gestenereignis assoziierten Drehwertes; und
dynamisches Drehen eines Elementes einer Webseite, das mit dem Gestenelement in dem Webbrowser assoziiert ist, basierend auf dem Drehwert, wobei der Drehwert ein relatives Delta in Grad darstellt.
Description
- TECHNISCHES GEBIET
- Dieser Erfindungsgegenstand bezieht sich im Allgemeinen auf Webbrowserdienste.
- HINTERGRUND
- Webseiten werden unter Verwendung einer Auszeichnungssprache erzeugt, die Mittel zur Verfügung stellt, um eine Struktur textbasierter Information in einem Dokument zu beschreiben und diesen Text mit interaktiven Formularen, eingebetteten Bildern und anderen Objekten zu ergänzen. Eine beliebte Auszeichnungssprache ist HyperText Markup Language (HTML), die in der Form von in gewinkelten Klammern eingeschlossenen Kennsätzen geschrieben wird. HTML kann die Erscheinung und Semantik einer Webseite beschreiben und kann eingebetteten Scriptsprachencode (z. B. JavaScript®) enthalten, welche das Verhalten von Webbrowsern und anderen HTML Prozessoren beeinflussen kann. JavaScript® stellt Entwicklern die Möglichkeit zur Verfügung, Mausereignisverarbeitungsfunktionen oder Ereigniserfassungsfunktionen zu einer Webseite hinzuzufügen. Diese Mausereignisverarbeitungsfunktionen sind spezifischen Bereichen der Webseite zugeordnet und können konfiguriert werden, um Mausereignisse in diesen Bereichen, wie z. B. Maus-nach-oben- oder Maus-nach-unten-Ereignisse, zu empfangen.
- Im Gegensatz dazu müssen Webseiten, durch die mit Hilfe einer berührungsempfindlichen Vorrichtung navigiert wird, oft auf Berührungsereignisse reagieren, die durch einen Benutzer erzeugt werden, der eine Webseite mit einem oder mehreren Fingern berührt und Gesten ausführt. Herkömmliche Mausereignisverarbeitungsfunktionen können diese Berührungsereignisse nicht korrekt interpretieren. Daher benötigen Berührungsereignisse ein anderes Berührungsereignismodell, um Berührungsereignisse korrekt zu interpretieren und es Benutzern zu ermöglichen, die Fähigkeiten einer berührungsempfindlichen Anzeige oder Vorrichtung in vollem Umfang zu nutzen.
- ZUSAMMENFASSUNG
- Ein oder mehrere Berührungseingangssignale können von einer berührungsempfindlichen Vorrichtung erhalten werden. Ein Berührungsereignismodell kann verwendet werden, um Berührungs- und/oder Gestenereignisse basierend auf den Berührungseingangssignalen festzustellen. Die Berührungs- und/oder Gestenereignisse können mit Berührungseingangssignalen assoziiert sein, die an verschiedenen Bereichen einer auf der berührungsempfindlichen Vorrichtung angezeigten Webseite erzeugt werden. Über eine Programmierschnittstelle kann Zugang zu wenigstens einem Berührungs- oder Gestenereignis ermöglicht werden.
- In einigen Implementierungen enthält ein Webbrowser ein Verfahren, das umfasst: Empfangen eines mit einem Gestenereignis assoziierten Drehwertes; und dynamisches Drehen eines Elements einer Webseite, das mit dem Gestenelement in dem Webbrowser assoziiert ist, basierend auf dem Drehwert, wobei der Drehwert ein relatives Delta in Grad darstellt. Das Gestenereignis kann zwei oder mehrere Berührungsereignisse enthalten.
- In einigen Implementierungen enthält ein Webbrowser ein Verfahren, das umfasst: Empfangen eines Skalierungswertes, der mit einem Gestenereignis assoziiert ist; dynamisches Anpassen der Größe eines Elements einer Webseite, das mit dem Gestenelement in dem Webbrowser assoziiert ist, basierend auf dem Skalierungswert, wobei der Skalierungswert ein relatives Delta in Dokumentenpixel darstellt. Das Gestenereignis kann mit zwei oder mehreren Berührungsereignissen assoziiert sein.
- In einigen Implementierungen weist ein Webbrowser ein Verfahren auf, das umfasst: Empfangen einer Berührungsliste, wobei die Berührungsliste Berührungsdaten enthält, die zur Identifizierung einer oder mehrerer Berührungen auf einer Webseite dienen, wobei die Berührungsdaten einen Berührungsbezeichner und wenigstens einen Satz von Berührungspositionstkoordinaten enthalten, wobei die Berührungsliste des Weiteren Daten für jeweils ein Berührungsereignisziel enthält, das mit jeder Berührung assoziiert ist, wobei der wenigstens eine Satz von Berührungspositionskoordinaten einen Satz von Clientkoordinaten, einen Satz von Seitenkoordinaten und einen Satz von Bildschirmkoordinaten enthält. Die Berührungsdaten können eine oder mehrere geänderte Berührungen identifizieren.
- Andere Implementierungen werden offenbart, die sich auf Systeme, Verfahren und computerlesbare Medien beziehen.
- BESCHREIBUNG DER ZEICHNUNGEN
-
1 illustriert ein beispielhaftes Webseitendokument. -
2 illustriert einen Verarbeitungsstapel einer beispielhaften mehrfachberührungsfähigen Vorrichtung -
3 ist ein Flussdiagramm eines beispielhaften Verfahrens zur Verarbeitung von Berührungsereignissen. -
4 illustriert eine beispielhafte mehrfachberührungsfähige Vorrichtung. -
5 ist ein Blockdiagramm einer beispielhaften Netzwerkbetriebsumgebung für die mehrfachberührungsfähige Vorrichtung aus4 . -
6 ist ein Blockdiagramm einer beispielhaften Implementierung der mehrfachberührungsfähigen Vorrichtung aus4 . - DETAILLIERTE BESCHREIBUNG
- Beispielhafte Webseitenstruktur und DOM
-
1A zeigt eine beispielhafte Webseite100 , die auf einem Browser angezeigt werden kann. Der Browser kann auf einer tragbaren Vorrichtung als Host, wie z. B. der mehrfachberührungsfähigen Vorrichtung400 aus4 vorliegen. Ein oder mehrere Elemente, Element102 („Element 1”), Element104 („Element 2”), und Element106 („Element 3”) können auf der Webseite100 angezeigt werden. Die Elemente102 ,104 ,106 können zu Bereichen auf der Webseite100 korrespondieren, die ein Benutzer auswählen kann und zusätzliche Funktionalität kann als ein Ergebnis der Auswahl bereitgestellt werden. Die Elemente können beispielsweise zu Knöpfen auf der Webseite100 korrespondieren. Die Elemente können auch verschachtelt sein, so dass ein Element ein anderes Element enthält. Beispielsweise enthält das Element104 das Element108 . In dem gezeigten Beispiel, ist das Element108 eine in das Element104 eingebettete Positionssteuerung, die beispielsweise eine Medienspielerbenutzerschnittstelle sein kann. - In einigen Implementierungen kann ein Benutzer verschiedene Funktionen mit den Elementen auf der Webseite
100 ausführen, wobei ein Finger statt einer Maus verwendet wird. Der Benutzer kann beispielsweise die Elemente der Webseite100 unter Verwendung der berührungsempfindlichen Anzeigevorrichtung402 aus4 verwenden. In einem Beispiel kann der Benutzer ein Element auswählen, indem er das Element mit einem oder mehreren Fingern berührt und/oder eine Geste ausführt, wie z. B. eine ziehende, kneifende oder drehende Bewegung. Um Berührungseingangssignale zu erkennen, können bestimmte Bereiche der Webseite100 mit Berührungsereignisverarbeitungsfunktionen assoziiert sein. Dies kann mit Hilfe eines DOM und einer eingebetteten Scriptsprache erreicht werden, wie in Bezug auf1B nachfolgend beschrieben. -
1B ist ein beispielhaftes DOM150 , das mit der Webseite100 assoziiert ist. Das DOM150 stellt eine strukturelle Darstellung der Webseite100 dar und beschreibt den Webseiteninhalt als ein Satz von Objekten, die eine Scriptsprache (z. B. JavaScript®) interpretieren kann. In einigen Implementierungen stellt das DOM150 Zugang zu der Struktur einer Webseite dadurch bereit, dass die Elemente102 ,104 ,106 und108 in der Webseite100 individuellen Knoten eines Baums zugeordnet werden. Beispielsweise korrespondiert Element102 zum Knoten154 . Element104 korrespondiert zum Knoten156 . Element106 korrespondiert zum Knoten158 . Element108 korrespondiert zum Knoten160 . Der Wurzelknoten152 korrespondiert zu der gesamten Webseite100 . - In einigen Implementierungen können ein oder mehrere Elemente
102 ,104 ,106 ,108 in der Webseite100 mit einer oder mehreren korrespondierenden Berührungsereignisverarbeitungsfunktionen assoziiert sein, indem korrespondierende Knoten in dem DOM150 mit den Berührungsereignisverarbeitungsfunktionen assoziiert werden. Berührungsereignisverarbeitungsfunktionen können in HTML Kennsätze der Webseite100 eingefügt werden und eine Scriptsprache ausführen, um eine Aktion durchzuführen, wenn beispielsweise ein Benutzer innerhalb eines der Elemente auf der Webseite100 berührt oder dort eine Geste ausführt. Beispielsweise kann JavaScript® mit dem DOM150 zusammenarbeiten, um verschiedene Berührungsereignisse mit Aktionen zu verbinden. - In einigen Implementierungen können ein oder mehrere der Elemente
102 ,104 ,106 ,108 Berührungseingaben empfangen, die durch eine Ereignisverarbeitungsfunktion oder eine Ereigniserfassungsfunktion detektiert werden. Die Berührungseingabe kann durch ein Berührungsereignismodell, das in ein oder mehreren Schichten eines Softwarestapels wie in Bezug auf2 beschrieben implementiert sein kann, detektiert und in Berührungsereignisse verarbeitet werden. Die Berührungsereignisse können des Weiteren durch die Webseite100 verarbeitet werden. Die Berührungsereignisse können in einem Format (z. B. Attribute) vorliegen, das in einer Anwendung einfacher zu verwenden ist, als rohe Berührungs eingabesignale, wie sie durch die berührungsempfindliche Vorrichtung erzeugt werden. Beispielsweise kann jedes Berührungsereignis einen Satz von Koordinaten enthalten, an denen eine Berührung gegenwärtig auftritt. - Jedes Element in der Webseite
100 und seine assoziierte Ereignisverarbeitungsfunktion können Berührungsereignisse empfangen, prozessieren und verarbeiten. Wenn beispielsweise der Treiber202 (2 ) einen mit dem Element102 assoziierten Berührungspunkt110 erfasst, oder eine mit dem Element104 assoziierten Berührungspunkt112 , so kann jede der mit den Elementen102 oder104 assoziierten Ereignisverarbeitungsfunktionen jeweils ein separates Berührungsereignis empfangen, das anzeigt, dass das Element berührt wurde, und kann optional das Berührungsereignis an die Webseite100 zur weiteren Verarbeitung weiterleiten. In einigen Implementierungen kann ein Browser in der Anwendungsschicht214 anstelle der Webseite100 die Eingabe verarbeiten, wenn ein Bereich der Webseite100 berührt wird, der nicht zu einer Ereignisverarbeitungsfunktion korrespondiert. - In einigen Implementierungen kann ein Berührungsereignis pro Finger und Knoten in dem DOM
150 detektiert werden. Beispielsweise kann ein Benutzer die berührungsempfindliche Anzeige402 in einem Berührungspunkt110 und einem Berührungspunkt112 im Wesentlichen gleichzeitig berühren und zwei separate Berührungsereignisse können durch das Berührungsereignismodell detektiert werden. Ein separates Berührungsereignis kann jeweils für den Berührungspunkt110 und den Berührungspunkt112 detektiert werden, weil jeder Knoten102 und jeder Knoten104 in dem DOM150 mit jeweils einer separaten Berührungsereignisverarbeitungsfunktion assoziiert sind. - In einigen Implementierungen können Berührungsereignisse als Ereignisziele an die Webseite
100 geliefert werden. Einige Beispiele für Berührungsereignisse können Berührungsstart, Berührungsbewegung, Berührungsende und Berührungsabbruch umfassen. Auch andere Berührungsereignisse sind möglich. Berührungsstart ist ein Berührungsereignis, das detektiert wird, wenn ein Benutzer erstmals einen Finger auf die berührungsempfindliche Anzeigevorrichtung402 in einem Bereich der Webseite100 platziert, der mit einer Berührungsverarbeitungsfunktion assoziiert ist. Wenn der Benutzer seinen Finger auf der Webseite100 herumbewegt, können ein oder mehrere Berührungsbewegungsereignisse detektiert werden. Wenn der Benutzer seinen Finger von der Webseite100 abhebt, wird ein Berührungsendeereignis detektiert. Der Berührungsabbruch kann detektiert werden, wenn das System die reguläre Ereignisverarbeitung unterbricht. Beispielsweise kann ein Berührungsabbruchereignis auftreten, wenn die berührungsempfindliche Anzeigevorrichtung402 gesperrt wird, um versehentliche Berührungen zu verhindern. - In einigen Implementierungen können Gestenereignisse auch durch kombinieren von zwei oder mehr Berührungsereignissen detektiert werden. Wie Berührungsereignisse können auch die Gestenereignisse (GestenEreignisse) als Ereignisziele an die Webseite
100 geliefert werden. Einige Beispiele für Gestenereignisse können Gestenstart, Gestenänderung und Gestenende umfassen. Die Gestenereignisse können Skalierungs- und/oder Drehungsinformation enthalten. Die Drehungsinformation kann einen Drehwert enthalten, der ein relatives Delta in Grad darstellt. Ein Element der Webseite100 kann basierend auf dem Drehwert dynamisch gedreht werden. Die Skalierungsinformation kann einen Skalierungswert enthalten, der ein relatives Delta in Dokumentenpixel darstellt. Ein mit dem Gestenereignis assoziiertes Element auf der Webseite100 kann basierend auf dem Skalierungswert dynamisch in seiner Größe verändert werden. Auch andere Gestenereignisse sind möglich. - In einigen Implementierungen kann eine Berührungsliste empfangen werden, die Berührungsereignisdaten zur Identifizierung einer oder mehrerer Berührungen der Webseite
100 enthält. Die Berührungsereignisdaten können einen Berührungsbezeichner und wenigstens einen Satz von Berührungspositionskoordinaten enthalten. Die Berührungsliste kann auch Berührungsereignisdaten zu jeweils einem Berührungsziel enthalten, das mit jeder Berührung assoziiert ist. In einigen Imp lementierungen kann der eine Satz von Berührungspositionskoordinaten Clientkoordinaten, Seitenkoordinaten und Bildschirmkoordinaten umfassen. In einigen Implementierungen können die Berührungsereignisdaten eine oder mehrere veränderte Berührungen identifizieren. - In einigen Implementierungen können Gestenereignisse vor Berührungsereignissen an die Webseite
100 gesendet werden. Wenn beispielsweise ein Benutzer Finger auf den Berührungspunkt110 und den Berührungspunkt112 platziert, dann eine Drehgeste mit diesen Fingern im Uhrzeigersinn oder entgegen dem Uhrzeigersinn auf der berührungsempfindlichen Anzeigevorrichtung ausführt, so detektiert das Berührungsereignismodell diese mehrfachen Berührungsereignisse und kombiniert die Berührungsereignisse in ein Gestenereignis. Das Gestenereignis kann dann an die Webseite100 gesendet werden, gefolgt von den Berührungsereignissen, die kombiniert wurden, um das Gestenereignis zu bilden. Auf diese Weise hat ein Entwickler Zugang zu einem Gestenereignis und den individuellen Berührungsereignissen des Gestenereignisses, wodurch dem Entwickler eine höhere Flexibilität bei der Entwicklung einer Webanwendung zur Verfügung gestellt wird. - In einigen Implementierungen werden die Berührungsereignisse in der folgenden Reihenfolge empfangen. Ein Berührungsstartereignis, ein oder mehrere Berührungsbewegungsereignisse und ein Berührungsende- oder Berührungsabbruchereignis. Unter Verwendung des Beispiels von
1A wird eine Berührungsstartereignis durch eine erste mit dem Element102 assoziierte Berührungsereignisverarbeitungsfunktion detektiert, wenn der Benutzer den Berührungspunkt110 berührt. Wenn der Benutzer den Berührungspunkt112 berührt, wird ein zweites Berührungsstartereignis durch eine mit dem Element104 assoziierte zweite Berührungsereignisverarbeitungsfunktion detektiert. Sobald der Benutzer seine Finger dreht ohne dabei seine Finger abzuheben, detektieren die ersten und zweiten Berührungsereignisverarbeitungsfunktionen Berührungsbewegungsereignisse, die durch das Berührungsereignismodell als ein Drehgestenereignis interpretiert wer den können. Wenn der Benutzer die Drehung beendet und seine Finger von der Webseite100 abhebt, detektieren die ersten und zweiten Berührungsereignisverarbeitungsfunktionen Berührungsendeereignisse. Alle oder einige dieser Berührungsereignisse können den Entwicklern durch eine Berührungsereignis-Anwendungsprogrammierungsschnittstelle (API) zur Verfügung gestellt werden. Die Berührungs-API kann Entwicklern als ein Softwareentwicklungskit (SDK) oder als Teil einer Anwendung (z. B. als Teil eines Browsertoolkits) zur Verfügung gestellt werden. Die Berührungsereignis-API kann sich auf andere Dienste, Frameworks und ein Betriebssystem stützen, um seine verschiedenen Funktionen auszuführen. Diese Dienste, Frameworks und das Betriebssystem können Teil einer Software oder eines Prozessstapels sein, wie in Bezug auf2 beschrieben, wobei die Berührungsereignisse mit Attributen assoziiert sind, die in Dokumente eingefügt werden können, um Ereignisaktionen in einer Anwendung zu definieren. - Beispiel IDL
- Ein beispielhaftes Berührungsereignismodell wird nun in Schnittstellenbeschreibungssprache (IDL) beschrieben. Auf die Funktionalität und Datenstrukturen der IDL kann durch ein API durch einen Webdesigner oder Anwendungsentwickler zugegriffen werden. Der Zugriff auf Berührungsereignisse und/oder Gestenereignisse kann mit Attributen assoziiert sein, die in ein Auszeichnungssprachendokument (z. B. HTML, XML) eingefügt werden, um Ereignisaktionen in einer Anwendung zu definieren. Beispielsweise können die Attribute in ein oder mehrere HTML Kennsätze in einem HTML Dokument zur Erzeugung der auf der berührungsempfindlichen Anzeigevorrichtung
402 angezeigten Webseite eingefügt werden. Die Ereignisaktionen können das Ausführen eines eingebetteten Scripts (z. B. JavaScript®) umfassen. - Es folgt ein Beispiel eines HTML Codeausschnitts zur Verarbeitung von Berührungsereignisen unter Verwendung der Beispiels IDL von oben. Die folgende HTML zeigt beispielsweise, dass die Berührungsereigniserfassungsfunktionen Berührungsstart (TouchStart) und Gestenstart (GestureStart) zu einem Element innerhalb des HTML Codes hinzugefügt wurden:
-
- Beispielhafter Prozessstapel für eine Mehrfachberührungsvorrichtung
-
2 ist ein Diagramm eines Prozessstapels einer beispielhaften mehrfachberührungsfähigen Vorrichtung. Das oben beschriebene Berührungsereignismodell kann in ein oder mehreren Bereichen des Prozessstapels implementiert werden und verschiedene Ressourcen des Stapels verwenden. Die Hardwareschicht200 kann verschiedene Hardwareschnittstellenkomponenten aufweisen, wie z. B. eine berührungsempfindliche oder -fähige Vorrichtung oder eine berührungsempfindliche Anzeige. Die berührungsempfindliche Vorrichtung kann eine Anzeige und ein Feld enthalten, das gleichzeitig mehrere Berührungen erfasst. Die Hardwareschicht200 kann auch einen Beschleunigungsmesser zur Detektierung einer Orientierung (z. B. Hochformat, Querformat) der berührungsempfindlichen Anzeigevorrichtung oder Vorrichtung umfassen. Somit können die Orientierung anzeigende Signale durch das Berührungsereignismodell verwendet werden, um Webseiten für eine optimale Anzeige zu skalieren. - Ein oder mehrere Treiber in einer Treiberschicht
202 können mit der Hardware200 kommunizieren. Beispielsweise können die Treiber Berührungseingangssignale empfangen und verarbeiten, die durch die berührungsempfindliche Anzeige oder Vorrichtung in der Hardwareschicht200 erzeugt werden. Ein Kernbetriebssystem (OS)204 kann mit dem oder den Treiber(n) kommunizieren. Das Kern OS204 kann Roheingangsdaten, die von dem oder den Treiber(n) empfangen werden, verarbeiten. In einigen Ausführungsformen können die Treiber als Teil des Kern-OS204 betrachtet werden. - Ein Satz von OS Anwendungsprogrammierschnittstellen (APIs)
206 kann mit dem Kern OS204 kommunizieren. Diese APIs können ein Satz von APIs sein, die normalerweise in einem Betriebssystem enthalten sind (wie z. B. Linux oder UNIX APIs). Ein Satz von Kernbasis APIs208 kann die OS APIs206 verwenden und ein Satz von Basis APIs210 kann die Kernbasis APIs208 verwenden. - Ein Webseiten-Softwareentwicklungskit (SDK)
210 kann einen Satz von APIs enthalten, die zur Verwendung durch auf der Vorrichtung ablaufende Anwendungen entworfen sind. Die Berührungsereignis APIs können beispielsweise in dem Webseiten SDK210 enthalten sein. Die APIs des Webseiten SDK210 können die Basis APIs208 verwenden. Das Webseiten SDK210 kann beispielsweise das von Apple Inc. zur Verfügung gestellte Web KIT enthalten. Das Webseiten SDK210 kann als ein API angeboten werden oder darauf kann durch eine Anwendung, wie beispielsweise einem Browser wie z. B. SAFARI®, der durch Apple Inc. geliefert wird, zugegriffen werden. - Auf der Vorrichtung ablaufende Anwendungen
214 können die APIs des Webseiten SDK210 verwenden, um Webseiten zu erzeugen. Die APIs des Webseiten SDK210 können andersherum mit Elementen auf niedrigeren Schichten kommunizieren und so schließlich mit der berührungsempfindlichen Anzeige oder Vorrichtung und verschiedener andere Benutzerschnittstellenhardware kommunizieren. Während jede Schicht die unter ihr liegende Schicht verwenden kann, ist dies nicht immer erforderlich. In einigen Ausführungsformen können Anwendungen214 beispielsweise zeitweise mit OS APIs206 kommunizieren. - Beispiel Berührungsereignisprozess
-
3 ist ein Flussdiagramm eines Verfahrens300 zur Bereitstellung eines Zugangs zu Berührungs- und/oder Gestenereignissen durch ein API. Das Verfahren300 kann damit beginnen, dass ein oder mehrere Berührungseingangssignale erhalten werden (302 ). Die Berührungseingangssignale können von einer berührungsempfindlichen Anzeige oder Vorrichtung erhalten werden. Eine Feststellung von Berührungsereignissen und/oder Gesten kann basierend auf den Berührungseingangssignalen unter Verwendung eines Berührungsereignismodells erfolgen (304 ). Die Berührungsereignisse können mit Bereichen einer auf einer berührungsempfindlichen Anzeige oder Vorrichtung angezeigten Webseite assoziiert sein. Beispielsweise kann die berührungsempfindliche Anzeige eine Anzeige auf einem Mobiltelefon sein und eine berührungsempfindliche Vorrichtung kann ein berührungsempfindliches Feld auf einem Notebookcomputer sein. Zugang zu Berührungsereignissen und/oder Gestenereignissen kann durch eine Programmierschnittstelle bereitgestellt werden (306 ). Beispielsweise kann in Bezug auf den oben unter Bezugnahme auf2 beschriebenen HTML Ausschnitt der Aus schnitt durch den Webentwickler in ein HTML Dokument eingefügt werden, um dem Entwickler Zugang zu Berührungs- und/oder Gestenereignissen zu ermöglichen. Die Berührungsereignisse und/oder Gestenereignisse können durch Code in dem HTML Dokument weiter verarbeitet werden, um Ereignisaktionen zu initiieren (306 ). - Übersicht mobile Vorrichtung
-
4 ist ein Blockdiagramm einer beispielhaften mehrfachberührungsfähigen Vorrichtung400 . In einigen Implementierungen weist die mehrfachberührungsfähige Vorrichtung400 eine berührungsempfindliche Anzeige402 auf. Die berührungsempfindliche Anzeige402 kann Flüssigkristallanzeigetechnologie (LCD), Lichtemittierende Polymeranzeigetechnologie (LPD) oder eine andere Anzeigetechnologie implementieren. Die berührungsempfindliche Anzeige402 kann für haptischen und/oder taktilen Kontakt mit einem Benutzer empfindlich sein. - In einigen Implementierungen kann die berührungsempfindliche Anzeige
402 eine mehrfachberührungsempfindliche Anzeige402 umfassen. Eine berührungsempfindliche Anzeige402 kann beispielsweise mehrere gleichzeitig auftretende Berührungspunkte verarbeiten einschließlich der Verarbeitung von Daten, die sich auf den Druck, Grad und/oder die Position jedes Berührungspunkts beziehen. Eine solche Verarbeitung ermöglicht Gesten und Interaktionen mit mehreren Fingern, von Akkorden und anderen Interaktionen. Andere berührungsempfindliche Anzeigetechnologien können ebenso verwendet werden, beispielsweise eine Anzeige, bei der ein Kontakt unter Verwendung eines Stifts oder einer anderen Zeigevorrichtung hergestellt wird. Einige Beispiele für mehrfachberührungsempfindliche Anzeigetechnologien werden in denUS-Patenten Nr. 6,323,846 ,6,570,557 ,6,677,932 , und der , beschrieben, von denen jede hiermit in ihrer Gesamtheit per Verweis aufgenommen wird. In einigen Implementierungen kann die mehrfachberührungsfähige VorrichtungUS-Patentveröffentlichung 2002/0015024 A1 400 eine oder mehrere graphische Benutzerschnittstellen auf der berührungsempfindli chen Anzeige402 anzeigen, um dem Benutzer Zugang zu verschiedenen Systemobjekten zu ermöglichen und um Informationen an den Benutzer zu übermitteln. - Beispiel mehrfachberührungsfähige Vorrichtungsfunktionalität
- In einigen Implementierungen kann die mehrfachberührungsfähige Vorrichtung
400 mehrere Vorrichtungsfunktionalitäten implementieren, wie z. B. ein Telefongerät, ein E-Mail-Gerät, eine Netzwerkdatenkommunikationsvorrichtung, eine Wi-Fi-Basisstationsvorrichtung sowie eine Medienverarbeitungsvorrichtung. In einigen Implementierungen kann die mehrfachberührungsfähige Vorrichtung400 einen Webbrowser404 zur Anzeige von Webseiten (z. B. Webseite100 ) enthalten. Die berührungsempfindliche Anzeige402 kann Berührungseingangssignale empfangen, die auf der Webseite100 erzeugt wurden und das oben beschriebene Berührungsmodell kann verwendet werden, um auf den Berührungseingangssignalen basierende Berührungs- und/oder Gestenereignisse festzustellen. In einigen Implementierungen kann die mehrfachberührungsfähige Vorrichtung400 eine Netzwerksverteilungsfunktionalität implementieren. In einigen Implementierungen kann die berührungsempfindliche Anzeige402 gesperrt werden, wenn sich die mehrfachberührungsempfindliche Vorrichtung400 in der Nähe des Ohres des Benutzers befindet. Dieses Sperren würde ein Berührungsabbruchereignis, wie in Bezug auf1B beschrieben, bewirken. - In einigen Implementierungen kann ein Beschleunigungsmesser
472 verwendet werden, um eine Bewegung der mehrfachberührungsfähigen Vorrichtung400 zu detektieren, wie durch den gerichteten Pfeil474 angezeigt. Entsprechend können Anzeigeobjekte und/oder Medien gemäß einer detektierten Orientierung (z. B. Hochformat oder Querformat) dargestellt werden. In einigen Implementierungen kann die mehrfachberührungsfähige Vorrichtung400 Schaltkreise und Sensoren zur Unterstützung einer Positionsbestimmungsfähigkeit enthalten, wie z. B. die durch das globale Positionierungssystem (GPS) oder andere Positionierungssysteme (z. B. Systeme, die Wi-Fi-Basisstationen, Fernsehsignale, zellulare Netze, Uniform Resource Locators (URLs) verwenden) zur Verfügung gestellten. In einigen Implementierungen kann ein Positionierungssystem (z. B. ein GPS Empfänger) in die mehrfachberührungsfähige Vorrichtung400 integriert sein oder als eine separate Vorrichtung zu Verfügung gestellt werden, die an die mehrfachberührungsfähige Vorrichtung400 über eine Schnittstelle gekoppelt werden kann, um Zugang zu positionsbasierten Diensten zu ermöglichen. Die mehrfachberührungsfähige Vorrichtung400 kann auch ein oder mehrere Drahtloskommunikationssubsysteme enthalten. - In einigen Implementierungen können ein Anschlussgerät, beispielsweise ein Universal Serial Bus(USB)-Anschluss, oder ein Dockinganschluss oder eine andere drahtgebundene Anschlussverbindung enthalten sein. Das Anschlussgerät kann beispielsweise verwendet werden, um eine drahtgebundene Verbindung zu anderen Computervorrichtungen herzustellen, wie z. B. anderen mehrfachberührungsfähigen Vorrichtungen
400 , Netzwerkzugangsvorrichtungen, einem Personalcomputer, einem Drucker oder anderen Verarbeitungsvorrichtungen, die in der Lage sind, Daten zu empfangen und/oder zu senden. In einigen Implementierungen ermöglicht das Anschlussgerät die mehrfachberührungsfähige Vorrichtung400 mit einer Hostvorrichtung unter Verwendung eines oder mehrere Protokolle, wie z. B. dem TCP/IP, HTTP, UDP oder einem anderen bekannten Protokoll, zu synchronisieren. - Netzwerkbetriebsumgebung
-
5 ist ein Blockdiagramm einer beispielhaften Netzwerkbetriebsumgebung600 für die mehrfachberührungsfähige Vorrichtung400 aus4 . Die mehrfachberührungsfähige Vorrichtung400 aus4 kann beispielsweise über ein oder mehrere drahtgebundene und/oder drahtlose Netzwerke510 in Form von Datenkommunikationen kommunizieren. Beispielsweise kann ein drahtloses Netzwerk512 , z. B. ein zellulares Netzwerk, mit einem Weitverkehrsnetzwerk (WAN)514 wie z. B. dem Internet unter Verwendung eines Gateways516 kommunizieren. - Ähnlich kann ein Zugangspunkt
518 , wie z. B. ein 802.11 g Drahtloszugangspunkt einen Kommunikationszugang zu dem Weitverkehrsnetz514 bereitstellen. In einigen Implementierungen können sowohl Sprach- als auch Datenkommunikation über das drahtlose Netzwerk512 und den Zugangspunkt518 etabliert werden. Beispielsweise kann die mehrfachberührungsfähige Vorrichtung400a Telefonanrufe absetzen und empfangen (z. B. unter Verwendung von VoIP Protokollen), E-Mail-Nachrichten senden und empfangen (z. B. unter Verwendung eines POP3 Protokolls) und elektronische Dokumente und/oder Streams, wie z. B. Webseiten, Fotografien und Videos über das drahtlose Netzwerk512 , den Gateway516 und das Weitverkehrsnetzwerk514 (z. B. unter Verwendung von TCP/IP oder UDP Protokollen) abrufen. Ähnlich kann die mehrfachberührungsfähige Vorrichtung400b Telefonanrufe absetzen und empfangen, E-Mail-Nachrichten senden und empfangen und elektronische Dokumente über den Zugangspunkt518 und das Weitverkehrsnetz514 abrufen. In einigen Implementierungen kann die mehrfachberührungsfähige Vorrichtung400 physikalisch mit dem Zugangspunkt518 unter Verwendung eines oder mehrerer Kabel verbunden sein und der Zugangspunkt518 kann ein Personalcomputer sein. In dieser Konfiguration kann die mehrfachberührungsfähige Vorrichtung400 als eine „angebundene” Vorrichtung bezeichnet werden. - Die mehrfachberührungsfähigen Vorrichtungen
400a und400b können auch Kommunikation über andere Mittel herstellen. Beispielsweise kann die mehrfachberührungsfähige Vorrichtung400a mit anderen drahtlosen Vorrichtungen, z. B. anderen mehrfachberührungsfähigen Vorrichtungen400 , Mobiltelefonen usw. über das Drahtlosnetzwerk512 kommunizieren. Ähnlich können die mehrfachberührungsfähigen Vorrichtungen400a und400b peer-to-peer Kommunikation520 , z. B. ein Personal Area Network (persönliches Bereichsnetzwerk) unter Verwendung eines oder mehrerer Kommunikationssubsysteme, wie z. B. des in4 gezeigten BluetoothTM Kommunikationsgerät488 herstellen. Andere Kommunikationsprotokolle und Topologien können ebenso implementiert werden. - Die mehrfachberührungsfähige Vorrichtung
400 kann beispielsweise mit einer Netzwerkresource530 über das eine oder die mehreren drahtgebundenen und/oder drahtlosen Netzwerke510 kommunizieren. Die Netzwerkresource kann beispielsweise ein Webserver zur Bereitstellung von Webseiten sein, der wie in Bezug auf die1 und2 beschrieben über das Berührungsmodell berührt werden kann. - Andere Dienste können ebenso bereitgestellt werden, einschließlich eines Softwareaktualisierungsdienstes, der automatisch feststellt, ob für Software auf der mehrfachberührungsfähigen Vorrichtung
400 Softwareaktualisierungen vorliegen, und der dann die Softwareaktualisierungen auf die mehrfachberührungsfähige Vorrichtung400 herunter lädt, wo sie manuell oder automatisch entpackt und/oder installiert werden kann. - Beispiel Architektur der mobilen Vorrichtung
-
6 ist ein Blockdiagramm600 einer beispielhaften Implementierung der mehrfachberührungsfähigen Vorrichtung400 aus4 . Die mehrfachberührungsfähige Vorrichtung400 kann eine Speicherschnittstelle602 , einen oder mehrere Datenprozessoren, Bildprozessoren und/oder zentrale Prozessoreinheiten604 sowie eine Peripherieschnittstelle606 aufweisen. Die Speicherschnittstelle602 , der eine oder die mehreren Prozessoren604 und/oder die Peripherieschnittstelle606 können separate Komponenten sein oder sie können in eine oder mehrere integrierte Schaltungen integriert sein. Die verschiedenen Komponenten in der mehrfachberührungsfähigen Vorrichtung400 können über eine(n) oder mehrere Kommunikationsbusse oder Signalleitungen gekoppelt sein. - Sensoren, Vorrichtungen und Subsysteme können an die Peripherieschnittstelle
606 gekoppelt sein, um verschiedene Funktionalitäten zu ermöglichen. Beispielsweise können ein Bewegungssensor610 , ein Lichtsensor612 und ein Nährungssensor614 an die Peripherieschnittstelle606 gekoppelt sein, um die in Bezug auf4 beschriebenen Orientierungs-, Beleuchtungs- und Nährungsfunktionen zu ermöglichen. Andere Sensoren616 , wie z. B. ein Positionierungssystem (z. B. GPS Empfänger), ein Temperatursensor, ein biometrischer Sensor oder eine andere Messvorrichtung, können ebenso mit der Peripherieschnittstelle606 verbunden sein, um entsprechende Funktionalitäten zu ermöglichen. Ein Kamerasubsystem620 und ein optischer Sensor622 , z. B. eine ladungsgekoppelte Vorrichtung (CCD) oder ein auf komplementären Metalloxidhalbleitern (CMOS) basierter optischer Sensor können verwendet werden, um Kamerafunktionen wie z. B. das Aufnehmen von Fotografien und Videoclips zu ermöglichen. - Kommunikationsfunktionen können durch ein oder mehrere drahtlose Kommunikationssubsysteme
624 ermöglicht werden, die Hochfrequenzempfänger und -sender und/oder optische (z. B. Infrarot) Empfänger und Sender umfassen können. Das spezifische Design und die Implementierung des Kommunikationssubsystems624 können von dem oder den Kommunikationsnetzwerk(en) abhängen, über das bzw. die die mehrfachberührungsfähige Vorrichtung400 betrieben werden soll. Beispielsweise kann eine mehrfachberührungsfähige Vorrichtung400 Kommunikationssubsysteme624 enthalten, die für den Betrieb über ein GSM Netzwerk, ein GPRS Netzwerk, ein EDGE Netzwerk, ein Wi-Fi oder WiMax Netzwerk oder ein BluetoothTM Netzwerk vorgesehen sind. Insbesondere können die drahtlosen Kommunikationssubsysteme624 Hostprotokolle aufweisen, so dass die Vorrichtung500 als eine Basisstation für andere drahtlose Vorrichtungen konfiguriert werden kann. - Ein Audiosubsystem
626 kann an einen Lautsprecher628 und ein Mikrofon630 gekoppelt sein, um sprachbasierte Funktionen wie z. B. Spracherkennung, Sprachnachbildung, digitale Aufnahme und Telefonfunktionen zu ermöglichen. - Das I/O Subsystem
640 kann eine Berührungsbildschirmsteuerung624 und/oder eine oder mehrer Eingabesteuerung(en)644 umfassen. Die Berührungsbildschirmsteuerung642 kann an einen Berührungsbildschirm646 gekoppelt sein. - Der Berührungsbildschirm
646 und die Berührungsbildschirmsteuerung642 können beispielsweise einen Kontakt und seine Bewegung oder seine Unterbrechung unter Verwendung einer Mehrzahl von berührungsempfindlichen Technologien einschließlich, ohne darauf beschränkt zu sein, von kapazitiven, widerstandsbasierten, infrarotbasierten und auf akustischen Oberflächenwellen basierten Technologien, sowie Nährungssensorfeldern oder anderen Elementen zur Bestimmung eines oder mehrerer Kontaktpunkte auf dem Berührungsbildschirm646 , detektieren. - Die andere(n) Eingabesteuerung(en)
644 kann bzw. können an andere Eingabe-/Steuerungsvorrichtungen648 , wie z. B. eine oder mehrere Tasten, Kippschalter, Daumenräder, Infrarotanschlüsse, USB Anschlüsse und/oder eine Zeigevorrichtung, wie z. B. einen Stift, gekoppelt sein. Der eine oder die mehreren Tasten (nicht gezeigt) können einen Laut/Leise-Taste zur Lautstärkesteuerung des Lautsprechers648 und/oder des Mikrofons630 enthalten. - In einer Implementierung kann das Drücken der Taste für eine erste Zeitspanne eine Sperrung des Berührungsbildschirms
646 aufheben; und ein Drücken der Taste für eine Zeitspanne, die länger ist als die erste Zeitspanne, kann die mehrfachberührungsfähige Vorrichtung400 ein- oder ausschalten. Der Benutzer kann in der Lage sein, eine Funktionalität eines oder mehrerer der Tasten seinen Bedürfnissen anzupassen. Der Berührungsbildschirm646 kann beispielsweise auch verwendet werden, um virtuelle oder Softtasten und/oder ein Tastenfeld oder eine Tastatur zu implementieren. - In einigen Implementierungen kann die mehrfachberührungsfähige Vorrichtung aufgenommene Audio- und/oder Videodateien, wie z. B. MP3, AAC und MPEG Dateien darstellen. In einigen Implementierungen kann die mehrfachberührungsfähige Vorrichtung
400 die Funktionalität eines MP3 Spielers, wie z. B. eines i-PodTM enthalten. Die mehrfachberührungsfähige Vorrichtung400 kann daher ei nen 32-pin Anschluss aufweisen, der mit dem iPod kompatibel ist. Andere Eingabe-/Ausgabe- und Steuerungsvorrichtungen können ebenso verwendet werden. - Die Speicherschnittstelle
602 kann an den Speicher650 gekoppelt sein. Der Speicher650 kann einen Hochgeschwindigkeitsspeicher mit wahlfreiem Zugriff und/oder einen nichtflüchtigen Speicher, wie z. B. eine oder mehrere Magnetplattenspeichervorrichtungen, eine oder mehrere optische Speichervorrichtungen und/oder Flashspeicher (z. B. NAND, NOR) enthalten. Der Speicher650 kann ein Betriebssystem652 wie z. B. Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS, oder ein eingebettetes Betriebssystem wie z. B. VxWorks, speichern. Das Betriebssystem652 kann Anweisungen zur Verarbeitung von grundlegenden Systemdiensten und zur Ausführung von hardwareabhängigen Aufgaben enthalten. - Der Speicher
650 kann auch Kommunikationsanweisungen654 speichern, um die Kommunikation mit einer oder mehreren zusätzlichen Vorrichtungen, einem oder mehreren Computer und/oder einem oder mehreren Servern zu ermöglichen. Der Speicher650 kann enthalten graphische Benutzerschnittstellenanweisungen656 , um die Verarbeitung für eine graphische Benutzerschnittstelle zu ermöglichen; Sensorverarbeitungsanweisungen658 zu Ermöglichung sensorbezogener Verarbeitungen und Funktionen; Telefonanweisungen660 zur Ermöglichung telefonbezogener Prozesse und Funktionen; elektronische Nachrichtenanweisungen662 zur Ermöglichung auf elektronische Nachrichten bezogener Prozesse und Funktionen; Webbrowseranweisungen664 zur Ermöglichung von auf Webbrowsing bezogener Prozesse und Funktionen; Medienverarbeitungsanweisungen666 zur Ermöglichung medienverarbeitungsbezogener Prozesse und Funktionen; GPS/Navigationsanweisungen668 zur Ermöglichung von GPS und navigationsbezogener Prozesse und Instruktionen; Kameraanweisungen670 zur Ermöglichung kamerabezogener Prozesse und Funktionen; und/oder andere Nachrichtenanweisungen672 zur Ermöglichung von Prozessen und Funktion wie in Bezug auf die1 bis5 beschrieben. - Jede der oben genannten Anweisungen und Anwendungen kann zu einem Satz von Anweisungen zur Ausführung einer oder mehrerer der oben beschriebenen Funktionen korrespondieren. Diese Anweisungen müssen nicht als separate Softwareprogramme, Prozeduren oder Module implementiert sein. Der Speicher
650 kann zusätzliche Anweisungen oder weniger Anweisungen enthalten. Des Weiteren können verschiedene Funktionen der mehrfachberührungsfähigen Vorrichtung400 in Hardware und/oder in Software, einschließlich einer oder mehrerer signalverarbeitungs- und/oder anwendungsspezifischer integrierter Schaltungen, implementiert sein. - Die beschriebenen Merkmale können in digitaler elektronischer Schaltungstechnik oder in Computerhardware, Firmware, Software oder in Kombinationen daraus implementiert sein. Die Merkmale können in einem Computerprogrammprodukt zur Ausführung durch einen programmierbaren Prozessor implementiert sein, das in einem Informationsträger körperlich vorliegt, z. B. in einem maschinenlesbaren Speichergerät oder in einem gesendeten Signal; und Verfahrensschritte können durch einen programmierbaren Prozessor ausgeführt werden, der ein Programm aus Anweisungen ausführt, um Funktionen der beschriebenen Implementierungen durch Anwendung auf Eingabedaten und die Erzeugung von Ausgaben auszuführen.
- Die beschriebenen Merkmale können vorteilhaft in einem oder mehreren Computerprogrammen implementiert werden, die auf einem programmierbaren System ausführbar sind, das wenigstens einen programmierbaren Prozessor, der an ein Datenspeichersystem gekoppelt ist, um davon Daten und Anweisungen zu erhalten und Daten und Anweisungen dorthin zu senden, sowie wenigstens eine Ausgabevorrichtung aufweist. Ein Computerprogramm ist ein Satz von Anweisungen, die direkt oder indirekt in einem Computer verwendet werden können, um eine bestimmte Aktivität auszuführen oder ein bestimmtes Ergebnis zu erreichen. Ein Computerprogramm kann in jeder Form einer Programmiersprache geschrieben sein (z. B. Objective-C, Java) einschließlich kompilierter oder interpretierter Spra chen und es kann in jeglicher Form, einschließlich als alleinstehendes Programm oder als Modul, Komponente, Subroutine oder als eine andere zur Verwendung in einer Computerumgebung passende Einheit ausgeführt sein.
- Passende Prozessoren für die Ausführung eines Programms mit Anweisungen umfassen beispielsweise sowohl Universal- als auch Spezialmikroprozessoren sowie den einzigen Prozessor oder einen von mehreren Prozessoren oder Kernen einer beliebigen Art von Computer. Im Allgemeinen wird ein Prozessor Anweisungen und Daten von einem Nur-Lese-Speicher oder einem Speicher mit wahlfreiem Zugriff oder beidem empfangen. Die wesentlichen Elemente eines Computers sind ein Prozessor zur Ausführung der Anweisungen und ein oder mehrere Speicher zur Abspeicherung von Anweisungen und Daten. Im Allgemeinen wird ein Computer ebenso eine oder mehrere Massenspeichervorrichtungen zur Speicherung von Datendateien enthalten oder daran operativ gekoppelt sein, um damit zu kommunizieren; solche Vorrichtungen umfassen Magnetplatten, wie z. B. interne Festplatten und entfernbare Platten; magnetoptische Platten; und optische Platten. Passende Speichervorrichtungen zur Verkörperung von Computerprogrammanweisungen und Daten umfassen alle Formen von nichtflüchtigem Speicher, einschließlich beispielsweise von Halbleiterspeichervorrichtungen, wie z. B. EPROM, EEPROM und Flashspeichervorrichtungen; Magnetplatten wie z. B. interne Festplatten und entfernbare Platten; magnetoptische Platten; und CD-ROM und DVD-ROM Platten. Der Prozessor und der Speicher können durch ASICs (applikationsspezifische integrierte Schaltkreise) ergänzt oder darin integriert sein.
- Um eine Interaktion mit einem Benutzer zu ermöglichen, können die Merkmale auf einem Computer implementiert sein, der eine Anzeigevorrichtung wie z. B. einen CRT-(Kathodenstrahlröhre) oder LCD-(Flüssigkristallanzeige)-Monitor zur Anzeige von Informationen an den Benutzer sowie eine Tastatur und eine Zeigevorrichtung wie z. B. eine Maus oder einen Trackball, mit der bzw. dem der Benutzer Eingaben am Computer machen kann, aufweist.
- Die Merkmale können auf einem Computersystem implementiert werden, das eine Back-end-Komponente, wie z. B. einen Datenserver enthält, oder das eine Mittelwarekomponente wie z. B. einen Applikationsserver oder einen Internetserver enthält, oder das eine Front-end-Komponente wie z. B. einen Clientcomputer mit einer graphischen Benutzerschnittstelle oder einem Internetbrowser oder jede Kombination daraus enthält. Die Komponenten des Systems können über jede Form eines Mediums zur digitalen Datenkommunikation wie z. B. ein Kommunikationsnetzwerk verbunden sein. Beispiele für Kommunikationsnetzwerke umfassen beispielsweise ein LAN, ein WAN und die das Internet bildenden Computer und Netzwerke.
- Das Computersystem kann Clients und Server enthalten. Ein Client und ein Server befinden sich im Allgemeinen entfernt voneinander und interagieren typischerweise über ein Netzwerk. Die Beziehung zwischen Client und Server entsteht mit Hilfe von Computerprogrammen, die auf den entsprechenden Computern ablaufen und zueinander in einer Client-Server-Beziehung stehen.
- Eine Anzahl von Implementierungen wurde beschrieben. Nichtsdestotrotz versteht es sich, dass verschiedene Modifikationen erfolgen können. Beispielsweise können Elemente einer oder mehrerer Implementierungen kombiniert, weggelassen, modifiziert oder ergänzt werden, um weitere Implementierungen zu bilden. Als ein weiteres Beispiel erfordern die in den Figuren dargestellten logischen Abläufe nicht die spezielle gezeigte Reihenfolge oder sequentielle Reihenfolge, um erwünschte Ergebnisse zu erreichen. Zusätzlich können in den beschriebenen Abläufen weitere Schritte vorgesehen sein oder Schritte können entfallen und andere Komponenten können den beschriebenen Systemen hinzugefügt oder daraus entfernt werden. Entsprechend liegen andere Implementierungen innerhalb des Umfangs der nachfolgenden Ansprüche.
- Zusammenfassung
- Ein oder mehrere Berührungseingangssignale können von einer berührungsempfindlichen Vorrichtung erhalten werden. Ein Berührungsereignismodell kann verwendet werden, um Berührungs- und/oder Gestenereignisse basierend auf den Berührungseingangssignalen festzustellen. Die Berührungs- und Gestenereignisse können mit Berührungseingangssignalen assoziiert sein, die in verschiedenen Bereichen einer auf der berührungsempfindlichen Anzeigevorrichtung angezeigten Webseite erzeugt werden. Ein Zugang kann zu wenigstens einem Berührungs- oder Gestenereignis über eine Programmierschnittstelle bereitgestellt werden.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- - US 6323846 [0037]
- - US 6570557 [0037]
- - US 6677932 [0037]
- - US 2002/0015024 A1 [0037]
Claims (12)
- Verfahren in einem Webbrowser, das umfasst: Empfangen eines mit einem Gestenereignis assoziierten Drehwertes; und dynamisches Drehen eines Elementes einer Webseite, das mit dem Gestenelement in dem Webbrowser assoziiert ist, basierend auf dem Drehwert, wobei der Drehwert ein relatives Delta in Grad darstellt.
- Verfahren nach Anspruch 1, wobei das Gestenereignis zwei oder mehrere Berührungsereignisse umfasst.
- Verfahren in einem Webbrowser, das umfasst: Empfangen eines mit einem Gestenereignis assoziierten Skalierungswertes; dynamisches Ändern der Größe eines Elements einer Webseite, das mit dem Gestenereignis in dem Webbrowser assoziiert ist, basierend auf dem Skalierungswert, wobei der Skalierungswert ein relatives Delta in Dokumentenpixel darstellt.
- Verfahren nach Anspruch 3, wobei das Gestenereignis mit zwei oder mehreren Berührungsereignissen assoziiert ist.
- Verfahren in einem Webbrowser, das umfasst: Empfangen einer Berührungsliste, wobei die Berührungsliste Berührungsereignisdaten zur Identifikation einer oder mehrerer Berührungen auf einer Webseite enthält, wobei die Berührungsereignisdaten einen Berührungsbezeichner und wenigstens einen Satz von Berührungspositionskoordinaten ent hält, wobei die Berührungsliste des Weiteren Berührungsereignisdaten für jeweils ein Berührungsereignisziel enthält, das mit jeder Berührung assoziiert ist, wobei der wenigstens eine Satz von Berührungspositionskoordinaten wenigstens entweder Clientkoordinaten, Seitenkoordinaten oder Bildschirmkoordinaten enthält.
- Verfahren nach Anspruch 5, wobei die Berührungsereignisdaten eine oder mehrere geänderte Berührungen identifizieren.
- Computerlesbares Medium mit darauf gespeicherten Anweisungen, welche bei ihrer Ausführung durch einen Prozessor den Prozessor veranlassen, Operationen auszuführen, die umfassen: Empfangen eines Drehwertes, der mit einem mit einer Webseite assoziierten Gestenereignis assoziiert ist; und dynamisches Drehen eines Elements einer Webseite, das mit dem Gestenereignis in dem Webbrowser assoziiert ist, basierend auf dem Drehwert, wobei der Drehwert ein relatives Delta in Grad darstellt.
- Computerlesbares Medium nach Anspruch 1, wobei das Gestenereignis zwei oder mehrere Berührungsereignisse umfasst.
- Computerlesbares Medium mit darauf gespeicherten Anweisungen, welche, wenn sie durch einen Prozessor ausgeführt werden, den Prozessor veranlassen, Operationen auszuführen, die umfassen: Empfangen eines Skalierungswertes, der mit einem mit einer Webseite assoziierten Gestenereignis assoziiert ist; dynamisches Verändern der Größe eines Elements einer Webseite, das mit dem Gestenereignis in dem Webbrowser assoziiert ist, basierend auf dem Skalierungswert, wobei der Skalierungswert ein relatives Delta in Dokumentenpixel darstellt.
- Computerlesbares Medium nach Anspruch 3, wobei das Gestenereignis mit zwei oder mehreren Berührungsereignissen assoziiert ist.
- Computerlesbares Medium mit darauf gespeicherten Anweisungen, welche, wenn sie durch einen Prozessor ausgeführt werden, den Prozessor veranlassen, Operationen auszuführen, die umfassen: Empfangen einer Berührungsliste, wobei die Berührungsliste Berührungsereignisdaten zur Identifizierung einer oder mehrerer Berührungen auf einer Webseite enthält, wobei die Berührungsereignisdaten einen Berührungsbezeichner und wenigstens eine Satz von Berührungspositionskoordinaten enthalten, wobei die Berührungsliste des Weiteren Berührungsereignisdaten für jeweils ein Berührungsereignisziel enthalten, das mit jeder Berührung assoziiert ist, wobei der wenigstens eine Satz von Berührungspositionskoordinaten zumindest entweder Clientkoordinaten, Seitenkoordinaten oder Bildschirmkoordinaten enthält.
- Computerlesbares Medium nach Anspruch 11, wobei die Berührungsereignisdaten eine oder mehrere geänderte Berührungen identifizieren.
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US12/042,299 | 2008-03-04 | ||
| US12/042,299 US8416196B2 (en) | 2008-03-04 | 2008-03-04 | Touch event model programming interface |
| PCT/US2009/035874 WO2009111469A2 (en) | 2008-03-04 | 2009-03-03 | Touch event model programming interface |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE112009000003T5 true DE112009000003T5 (de) | 2010-01-21 |
| DE112009000003B4 DE112009000003B4 (de) | 2019-11-21 |
Family
ID=41053098
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE112009000003.7T Active DE112009000003B4 (de) | 2008-03-04 | 2009-03-03 | Programmierschnittstelle für ein Berührungsereignismodell |
Country Status (6)
| Country | Link |
|---|---|
| US (4) | US8416196B2 (de) |
| EP (5) | EP2405346A3 (de) |
| JP (9) | JP4979811B2 (de) |
| CN (2) | CN103761044B (de) |
| DE (1) | DE112009000003B4 (de) |
| WO (1) | WO2009111469A2 (de) |
Families Citing this family (109)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2005088437A1 (en) * | 2004-03-11 | 2005-09-22 | Redsky Mobile Inc. | Restricted user interface navigation |
| US20080168402A1 (en) | 2007-01-07 | 2008-07-10 | Christopher Blumenberg | Application Programming Interfaces for Gesture Operations |
| US7844915B2 (en) | 2007-01-07 | 2010-11-30 | Apple Inc. | Application programming interfaces for scrolling operations |
| US20080168478A1 (en) | 2007-01-07 | 2008-07-10 | Andrew Platzer | Application Programming Interfaces for Scrolling |
| US8392529B2 (en) | 2007-08-27 | 2013-03-05 | Pme Ip Australia Pty Ltd | Fast file server methods and systems |
| US20090119572A1 (en) * | 2007-11-02 | 2009-05-07 | Marja-Riitta Koivunen | Systems and methods for finding information resources |
| US10311541B2 (en) | 2007-11-23 | 2019-06-04 | PME IP Pty Ltd | Multi-user multi-GPU render server apparatus and methods |
| US8548215B2 (en) | 2007-11-23 | 2013-10-01 | Pme Ip Australia Pty Ltd | Automatic image segmentation of a volume by comparing and correlating slice histograms with an anatomic atlas of average histograms |
| WO2009067675A1 (en) | 2007-11-23 | 2009-05-28 | Mercury Computer Systems, Inc. | Client-server visualization system with hybrid data processing |
| US9904969B1 (en) | 2007-11-23 | 2018-02-27 | PME IP Pty Ltd | Multi-user multi-GPU render server apparatus and methods |
| WO2011065929A1 (en) | 2007-11-23 | 2011-06-03 | Mercury Computer Systems, Inc. | Multi-user multi-gpu render server apparatus and methods |
| US9720501B2 (en) | 2008-01-04 | 2017-08-01 | Tactus Technology, Inc. | Dynamic tactile interface |
| US9274612B2 (en) | 2008-01-04 | 2016-03-01 | Tactus Technology, Inc. | User interface system |
| US9760172B2 (en) | 2008-01-04 | 2017-09-12 | Tactus Technology, Inc. | Dynamic tactile interface |
| US9552065B2 (en) | 2008-01-04 | 2017-01-24 | Tactus Technology, Inc. | Dynamic tactile interface |
| US8947383B2 (en) | 2008-01-04 | 2015-02-03 | Tactus Technology, Inc. | User interface system and method |
| US9588683B2 (en) | 2008-01-04 | 2017-03-07 | Tactus Technology, Inc. | Dynamic tactile interface |
| US9557915B2 (en) | 2008-01-04 | 2017-01-31 | Tactus Technology, Inc. | Dynamic tactile interface |
| US9430074B2 (en) | 2008-01-04 | 2016-08-30 | Tactus Technology, Inc. | Dynamic tactile interface |
| US9063627B2 (en) | 2008-01-04 | 2015-06-23 | Tactus Technology, Inc. | User interface and methods |
| US9612659B2 (en) | 2008-01-04 | 2017-04-04 | Tactus Technology, Inc. | User interface system |
| US9013417B2 (en) | 2008-01-04 | 2015-04-21 | Tactus Technology, Inc. | User interface system |
| US9423875B2 (en) | 2008-01-04 | 2016-08-23 | Tactus Technology, Inc. | Dynamic tactile interface with exhibiting optical dispersion characteristics |
| US9280224B2 (en) | 2012-09-24 | 2016-03-08 | Tactus Technology, Inc. | Dynamic tactile interface and methods |
| US8174502B2 (en) * | 2008-03-04 | 2012-05-08 | Apple Inc. | Touch event processing for web pages |
| US8645827B2 (en) | 2008-03-04 | 2014-02-04 | Apple Inc. | Touch event model |
| US8717305B2 (en) | 2008-03-04 | 2014-05-06 | Apple Inc. | Touch event model for web pages |
| US8416196B2 (en) * | 2008-03-04 | 2013-04-09 | Apple Inc. | Touch event model programming interface |
| US8169414B2 (en) * | 2008-07-12 | 2012-05-01 | Lim Seung E | Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface |
| US8466879B2 (en) | 2008-10-26 | 2013-06-18 | Microsoft Corporation | Multi-touch manipulation of application objects |
| US8477103B2 (en) | 2008-10-26 | 2013-07-02 | Microsoft Corporation | Multi-touch object inertia simulation |
| CN101739252A (zh) * | 2008-11-26 | 2010-06-16 | 鸿富锦精密工业(深圳)有限公司 | 浏览器屏幕键盘程序的开发及应用方法 |
| US9588684B2 (en) | 2009-01-05 | 2017-03-07 | Tactus Technology, Inc. | Tactile interface for a computing device |
| US9311112B2 (en) | 2009-03-16 | 2016-04-12 | Apple Inc. | Event recognition |
| US9684521B2 (en) | 2010-01-26 | 2017-06-20 | Apple Inc. | Systems having discrete and continuous gesture recognizers |
| US8566045B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
| US8285499B2 (en) | 2009-03-16 | 2012-10-09 | Apple Inc. | Event recognition |
| US8566044B2 (en) * | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
| US8355007B2 (en) | 2009-05-11 | 2013-01-15 | Adobe Systems Incorporated | Methods for use with multi-touch displays for determining when a touch is processed as a mouse event |
| US8487888B2 (en) * | 2009-12-04 | 2013-07-16 | Microsoft Corporation | Multi-modal interaction on multi-touch display |
| KR101541811B1 (ko) * | 2009-12-11 | 2015-08-04 | 삼성전자주식회사 | 통신 단말기에서 북마크 서비스 제공 방법 및 장치 |
| US20110224896A1 (en) * | 2010-03-09 | 2011-09-15 | Nokia Corporation | Method and apparatus for providing touch based routing services |
| WO2011112984A1 (en) | 2010-03-11 | 2011-09-15 | Tactus Technology | User interface system |
| US8407319B1 (en) | 2010-03-24 | 2013-03-26 | Google Inc. | Event-driven module loading |
| US8600460B2 (en) * | 2010-04-12 | 2013-12-03 | Blackberry Limited | Handheld electronic communication device including touch-sensitive display and method |
| KR20130141344A (ko) | 2010-04-19 | 2013-12-26 | 택투스 테크놀로지, 아이엔씨. | 촉각 인터페이스층의 구동 방법 |
| US8453049B1 (en) | 2010-05-19 | 2013-05-28 | Google Inc. | Delayed code parsing for reduced startup latency |
| US8552999B2 (en) * | 2010-06-14 | 2013-10-08 | Apple Inc. | Control selection approximation |
| US20120050183A1 (en) | 2010-08-27 | 2012-03-01 | Google Inc. | Switching display modes based on connection state |
| WO2012054781A1 (en) | 2010-10-20 | 2012-04-26 | Tactus Technology | User interface system and method |
| EP3982242B1 (de) * | 2010-12-20 | 2024-05-01 | Apple Inc. | Ereigniserkennung |
| US8446363B1 (en) * | 2010-12-30 | 2013-05-21 | Google Inc. | Enhanced input using touch screen |
| CN102541336B (zh) * | 2010-12-31 | 2014-05-07 | 联芯科技有限公司 | 一种模拟操作触摸屏的方法、装置及系统 |
| US8438473B2 (en) | 2011-01-05 | 2013-05-07 | Research In Motion Limited | Handling of touch events in a browser environment |
| US8589950B2 (en) | 2011-01-05 | 2013-11-19 | Blackberry Limited | Processing user input events in a web browser |
| US9298363B2 (en) | 2011-04-11 | 2016-03-29 | Apple Inc. | Region activation for touch sensitive surface |
| US9323415B2 (en) * | 2011-06-29 | 2016-04-26 | Nokia Technologies Oy | Apparatus and associated methods related to touch sensitive displays |
| US9727227B2 (en) * | 2011-07-28 | 2017-08-08 | Microsoft Technology Licensing, Llc | Multi-touch remoting |
| KR101790017B1 (ko) * | 2011-09-30 | 2017-10-25 | 삼성전자 주식회사 | 제스처 기반의 통신 채널 운용 제어 방법 및 이를 지원하는 휴대 단말기 시스템 |
| US8796566B2 (en) | 2012-02-28 | 2014-08-05 | Grayhill, Inc. | Rotary pushbutton and touchpad device and system and method for detecting rotary movement, axial displacement and touchpad gestures |
| US9575652B2 (en) | 2012-03-31 | 2017-02-21 | Microsoft Technology Licensing, Llc | Instantiable gesture objects |
| US20130298034A1 (en) * | 2012-05-02 | 2013-11-07 | Google, Inc. | Delayed command servicing in an application executed on a network accessible device |
| US20130328811A1 (en) * | 2012-06-07 | 2013-12-12 | Kontera Technologies, Inc. | Interactive layer on touch-based devices for presenting web and content pages |
| CN103513899A (zh) * | 2012-06-21 | 2014-01-15 | 北京睿思汇通移动科技有限公司 | 一种移动终端浏览器的分割屏幕方法及操控浏览器的方法 |
| US8904304B2 (en) * | 2012-06-25 | 2014-12-02 | Barnesandnoble.Com Llc | Creation and exposure of embedded secondary content data relevant to a primary content page of an electronic book |
| US9405417B2 (en) | 2012-09-24 | 2016-08-02 | Tactus Technology, Inc. | Dynamic tactile interface and methods |
| US20140089779A1 (en) * | 2012-09-26 | 2014-03-27 | Chidopi Co., Ltd. | Electronic Book Generation Method of Composite Layer and Hypertext Markup Language and Reading Program |
| KR101990976B1 (ko) * | 2012-10-12 | 2019-06-20 | 에스케이플래닛 주식회사 | 터치 오류 정정 시스템 및 방법 |
| US20140257897A1 (en) * | 2013-03-05 | 2014-09-11 | Page-Out, LLC | Responder personnel on-call availability system |
| US20140282246A1 (en) * | 2013-03-12 | 2014-09-18 | Sas Institute Inc. | List for touch screens |
| US10070839B2 (en) | 2013-03-15 | 2018-09-11 | PME IP Pty Ltd | Apparatus and system for rule based visualization of digital breast tomosynthesis and other volumetric images |
| US11244495B2 (en) | 2013-03-15 | 2022-02-08 | PME IP Pty Ltd | Method and system for rule based display of sets of images using image content derived parameters |
| US9509802B1 (en) | 2013-03-15 | 2016-11-29 | PME IP Pty Ltd | Method and system FPOR transferring data to improve responsiveness when sending large data sets |
| US11183292B2 (en) | 2013-03-15 | 2021-11-23 | PME IP Pty Ltd | Method and system for rule-based anonymized display and data export |
| US8976190B1 (en) | 2013-03-15 | 2015-03-10 | Pme Ip Australia Pty Ltd | Method and system for rule based display of sets of images |
| US10540803B2 (en) | 2013-03-15 | 2020-01-21 | PME IP Pty Ltd | Method and system for rule-based display of sets of images |
| JP2014191545A (ja) * | 2013-03-27 | 2014-10-06 | Nec Commun Syst Ltd | 入力装置、入力方法及びプログラム |
| CN103176659A (zh) * | 2013-03-28 | 2013-06-26 | 成都信息工程学院 | 一种基于移动web的触摸响应加速方法 |
| US9733716B2 (en) | 2013-06-09 | 2017-08-15 | Apple Inc. | Proxy gesture recognizer |
| US20140372923A1 (en) * | 2013-06-14 | 2014-12-18 | Microsoft Corporation | High Performance Touch Drag and Drop |
| US20140372935A1 (en) * | 2013-06-14 | 2014-12-18 | Microsoft Corporation | Input Processing based on Input Context |
| US9557813B2 (en) | 2013-06-28 | 2017-01-31 | Tactus Technology, Inc. | Method for reducing perceived optical distortion |
| CN103324743B (zh) * | 2013-06-28 | 2016-08-17 | 北京奇虎科技有限公司 | 一种电子设备上网页缩放和对齐的方法和装置 |
| TWI496070B (zh) * | 2013-07-30 | 2015-08-11 | Pegatron Corp | 使觸碰點禁能之方法及電子裝置 |
| US9229612B2 (en) | 2013-08-27 | 2016-01-05 | Industrial Technology Research Institute | Electronic device, controlling method for screen, and program storage medium thereof |
| CN103631520A (zh) * | 2013-11-11 | 2014-03-12 | 北京飞流九天科技有限公司 | 通过手势来控制电子设备的方法及对应电子设备 |
| US9639083B2 (en) | 2013-12-18 | 2017-05-02 | Mitutoyo Corporation | System and method for programming workpiece feature inspection operations for a coordinate measuring machine |
| CN104123338B (zh) * | 2014-06-23 | 2019-04-23 | 小米科技有限责任公司 | 信息推荐方法和装置 |
| WO2016022985A1 (en) * | 2014-08-07 | 2016-02-11 | Tactus Technology, Inc. | Tactile interface for a computing device |
| CN111651159A (zh) * | 2014-11-21 | 2020-09-11 | 习得智交互软件开发公司 | 提供原型设计工具的方法及非暂时性计算机可解读的媒介 |
| US10120735B2 (en) | 2015-03-30 | 2018-11-06 | Microsoft Technology Licensing, Llc | Touch application programming interfaces |
| US10795558B2 (en) | 2015-06-07 | 2020-10-06 | Apple Inc. | Device, method, and graphical user interface for providing and interacting with a virtual drawing aid |
| US11599672B2 (en) | 2015-07-31 | 2023-03-07 | PME IP Pty Ltd | Method and apparatus for anonymized display and data export |
| US9984478B2 (en) | 2015-07-28 | 2018-05-29 | PME IP Pty Ltd | Apparatus and method for visualizing digital breast tomosynthesis and other volumetric images |
| US9924291B2 (en) | 2016-02-16 | 2018-03-20 | Sony Corporation | Distributed wireless speaker system |
| US9826330B2 (en) | 2016-03-14 | 2017-11-21 | Sony Corporation | Gimbal-mounted linear ultrasonic speaker assembly |
| CN105912319B (zh) * | 2016-03-31 | 2019-03-12 | 百度在线网络技术(北京)有限公司 | 反向控制移动端页面的方法和装置 |
| US10621271B2 (en) | 2017-05-25 | 2020-04-14 | Microsoft Technology Licensing, Llc | Reordering a multi-level layout using a hierarchical tree |
| US10521106B2 (en) * | 2017-06-27 | 2019-12-31 | International Business Machines Corporation | Smart element filtering method via gestures |
| US10909679B2 (en) | 2017-09-24 | 2021-02-02 | PME IP Pty Ltd | Method and system for rule based display of sets of images using image content derived parameters |
| US20190258368A1 (en) * | 2018-02-21 | 2019-08-22 | Bose Corporation | Methods and systems for a device having a generic key handler |
| US10970139B2 (en) * | 2018-03-28 | 2021-04-06 | Google Llc | Controlling the triggering of function calls from content items |
| CN109656466B (zh) | 2019-03-14 | 2019-05-24 | 北京小米移动软件有限公司 | 系统信息传输方法、装置及计算机可读存储介质 |
| CN111104041A (zh) * | 2019-12-24 | 2020-05-05 | 北京东土科技股份有限公司 | 一种手势操作的识别方法 |
| US11443737B2 (en) | 2020-01-14 | 2022-09-13 | Sony Corporation | Audio video translation into multiple languages for respective listeners |
| CN112879776A (zh) * | 2021-02-13 | 2021-06-01 | 北京泽桥传媒科技股份有限公司 | 一种基于用户行为的内容推荐展示方法及装置 |
| EP4348408A1 (de) | 2021-06-03 | 2024-04-10 | Apple Inc. | Vorrichtungen und verfahren zur verarbeitung von berührungseingaben |
| US11755146B2 (en) * | 2021-06-03 | 2023-09-12 | Apple Inc. | Devices and methods for processing touch inputs |
| CN120523383B (zh) * | 2025-07-22 | 2025-10-17 | 浪潮企业云科技(山东)有限公司 | 基于Vue指令的触摸手势动态识别方法、设备及介质 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6323846B1 (en) | 1998-01-26 | 2001-11-27 | University Of Delaware | Method and apparatus for integrating manual input |
| US6570557B1 (en) | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
| US6677932B1 (en) | 2001-01-28 | 2004-01-13 | Finger Works, Inc. | System and method for recognizing touch typing under limited tactile feedback conditions |
Family Cites Families (431)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4455452A (en) | 1982-09-13 | 1984-06-19 | Touch Activated Switch Arrays, Inc. | Touch activated controller for generating X-Y output information |
| JPH02140822U (de) | 1989-04-26 | 1990-11-26 | ||
| US5252951A (en) | 1989-04-28 | 1993-10-12 | International Business Machines Corporation | Graphical user interface with gesture recognition in a multiapplication environment |
| JP2862626B2 (ja) | 1990-03-22 | 1999-03-03 | 株式会社東芝 | 電子辞書及び情報検索方法 |
| US5046434A (en) | 1990-05-02 | 1991-09-10 | Penda Corporation | Plastic reinforced thermoformed pallet |
| JP2827612B2 (ja) | 1991-10-07 | 1998-11-25 | 富士通株式会社 | タッチパネル装置およびタッチパネル装置におけるオブジェクトの表示方法。 |
| US5233547A (en) | 1991-11-12 | 1993-08-03 | Ncr Corporation | Electronic checking account apparatus and method having a digitizer to receive information as a check is being written |
| JP2787523B2 (ja) | 1992-04-15 | 1998-08-20 | 沖電気工業株式会社 | キーボード |
| US5880411A (en) | 1992-06-08 | 1999-03-09 | Synaptics, Incorporated | Object position detector with edge motion feature and gesture recognition |
| US5488204A (en) | 1992-06-08 | 1996-01-30 | Synaptics, Incorporated | Paintbrush stylus for capacitive touch sensor pad |
| US7084859B1 (en) | 1992-09-18 | 2006-08-01 | Pryor Timothy R | Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics |
| US5463725A (en) | 1992-12-31 | 1995-10-31 | International Business Machines Corp. | Data processing system graphical user interface which emulates printed material |
| US5513309A (en) | 1993-01-05 | 1996-04-30 | Apple Computer, Inc. | Graphic editor user interface for a pointer-based computer system |
| DE4406668C2 (de) | 1993-04-27 | 1996-09-12 | Hewlett Packard Co | Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts |
| JP2986047B2 (ja) | 1993-04-29 | 1999-12-06 | インターナショナル・ビジネス・マシーンズ・コーポレイション | ディジタル入力用表示装置並びに入力処理装置および方法 |
| DE69432199T2 (de) | 1993-05-24 | 2004-01-08 | Sun Microsystems, Inc., Mountain View | Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen |
| US6035343A (en) | 1993-06-11 | 2000-03-07 | Fujitsu Limited | Method for executing software formed of software components and a system for executing such software |
| US5818455A (en) | 1993-07-21 | 1998-10-06 | Xerox Corporation | Method and apparatus for operating on the model data structure of an image to produce human perceptible output using a viewing operation region having explicit multiple regions |
| CA2124505C (en) | 1993-07-21 | 2000-01-04 | William A. S. Buxton | User interface having simultaneously movable tools and cursor |
| US5581670A (en) | 1993-07-21 | 1996-12-03 | Xerox Corporation | User interface having movable sheet with click-through tools |
| US5627959A (en) | 1993-09-20 | 1997-05-06 | Oracle Corporation | Method for manipulating graphic objects |
| US5564112A (en) | 1993-10-14 | 1996-10-08 | Xerox Corporation | System and method for generating place holders to temporarily suspend execution of a selected command |
| US5454960A (en) | 1993-11-10 | 1995-10-03 | Advanced Building Technologies, Inc. | Oil change and recycling system |
| US5534893A (en) | 1993-12-15 | 1996-07-09 | Apple Computer, Inc. | Method and apparatus for using stylus-tablet input in a computer system |
| US5686940A (en) | 1993-12-24 | 1997-11-11 | Rohm Co., Ltd. | Display apparatus |
| US5566337A (en) | 1994-05-13 | 1996-10-15 | Apple Computer, Inc. | Method and apparatus for distributing events in an operating system |
| JP2939119B2 (ja) | 1994-05-16 | 1999-08-25 | シャープ株式会社 | 手書き文字入力表示装置および方法 |
| US5570113A (en) | 1994-06-29 | 1996-10-29 | International Business Machines Corporation | Computer based pen system and method for automatically cancelling unwanted gestures and preventing anomalous signals as inputs to such system |
| CA2154951C (en) | 1994-09-12 | 2004-05-25 | John E. Warnock | Method and apparatus for viewing electronic documents |
| EP0712825B1 (de) | 1994-11-15 | 1998-03-11 | Uop | Verfahren zur adsorptiven Abtrennung von meta-Xylol von aromatischen Kohlenwasserstoffen |
| US5495566A (en) | 1994-11-22 | 1996-02-27 | Microsoft Corporation | Scrolling contents of a window |
| JP2944439B2 (ja) | 1994-12-27 | 1999-09-06 | シャープ株式会社 | 手書き文字入力装置および方法 |
| US5708460A (en) | 1995-06-02 | 1998-01-13 | Avi Systems, Inc. | Touch screen |
| US6496182B1 (en) | 1995-06-07 | 2002-12-17 | Microsoft Corporation | Method and system for providing touch-sensitive screens for the visually impaired |
| JPH0926769A (ja) | 1995-07-10 | 1997-01-28 | Hitachi Ltd | 画像表示装置 |
| JPH0969037A (ja) | 1995-08-31 | 1997-03-11 | Sharp Corp | データ処理装置 |
| JP3636792B2 (ja) * | 1995-10-18 | 2005-04-06 | 株式会社リコー | ペン先座標入力装置 |
| US5676064A (en) | 1996-04-22 | 1997-10-14 | Shuert; Lyle H. | Pallet and pallet package |
| US5745116A (en) | 1996-09-09 | 1998-04-28 | Motorola, Inc. | Intuitive gesture-based graphical user interface |
| US5903902A (en) | 1996-09-09 | 1999-05-11 | Design Intelligence, Inc. | Design engine with tree and component structure |
| US5995083A (en) | 1996-11-20 | 1999-11-30 | Alps Electric Co., Ltd. | Coordinates input apparatus |
| US5917477A (en) | 1997-02-28 | 1999-06-29 | Samsung Electronics Co., Ltd. | Touch screen input apparatus for chip mounter, chip mounter including the same and method for controlling the chip mounter |
| US6141018A (en) | 1997-03-12 | 2000-10-31 | Microsoft Corporation | Method and system for displaying hypertext documents with visual effects |
| CA2281725A1 (en) | 1997-03-13 | 1998-09-17 | International Business Machines Corporation | Kiosk and server connected to computer network |
| JPH1185354A (ja) | 1997-09-04 | 1999-03-30 | Internatl Business Mach Corp <Ibm> | キーボード組込み型座標指示装置、キーボード・ユニット、及び情報処理機器 |
| US9098297B2 (en) | 1997-05-08 | 2015-08-04 | Nvidia Corporation | Hardware accelerator for an object-oriented programming language |
| US5983190A (en) | 1997-05-19 | 1999-11-09 | Microsoft Corporation | Client server animation system for managing interactive user interface characters |
| FI115689B (fi) | 1997-05-21 | 2005-06-15 | Nokia Corp | Menetelmä ja järjestely matkaviestimen näytöllä esitettävän tiedon vierittämiseksi |
| US6028602A (en) | 1997-05-30 | 2000-02-22 | Telefonaktiebolaget Lm Ericsson | Method for managing contents of a hierarchical data model |
| JP3968477B2 (ja) | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
| JPH1173271A (ja) * | 1997-08-28 | 1999-03-16 | Sharp Corp | 指示装置、処理装置および記憶媒体 |
| US6034688A (en) | 1997-09-15 | 2000-03-07 | Sony Corporation | Scrolling navigational display system |
| US7663607B2 (en) | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
| US7844914B2 (en) | 2004-07-30 | 2010-11-30 | Apple Inc. | Activating virtual keys of a touch-screen virtual keyboard |
| US20070177804A1 (en) | 2006-01-30 | 2007-08-02 | Apple Computer, Inc. | Multi-touch gesture dictionary |
| US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
| US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
| US9292111B2 (en) | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
| US7834855B2 (en) | 2004-08-25 | 2010-11-16 | Apple Inc. | Wide touchpad on a portable computer |
| US7840912B2 (en) | 2006-01-30 | 2010-11-23 | Apple Inc. | Multi-touch gesture dictionary |
| US20040080541A1 (en) | 1998-03-20 | 2004-04-29 | Hisashi Saiga | Data displaying device |
| US7346850B2 (en) | 1998-06-12 | 2008-03-18 | Cygnus Systems, Inc. | System and method for iconic software environment management |
| US6429846B2 (en) | 1998-06-23 | 2002-08-06 | Immersion Corporation | Haptic feedback for touchpads and other touch controls |
| US6061063A (en) | 1998-06-30 | 2000-05-09 | Sun Microsystems, Inc. | Method and apparatus for providing feedback while scrolling |
| US6570594B1 (en) | 1998-06-30 | 2003-05-27 | Sun Microsystems, Inc. | User interface with non-intrusive display element |
| US6188391B1 (en) | 1998-07-09 | 2001-02-13 | Synaptics, Inc. | Two-layer capacitive touchpad and method of making same |
| US7559039B2 (en) | 1998-07-14 | 2009-07-07 | Brad Ridgley | Method and device for finding, collecting and acting upon units of information |
| US6068124A (en) | 1998-08-27 | 2000-05-30 | Nanya Plastics | Plastic pallet and separator for packaging yarn spools |
| US6628835B1 (en) | 1998-08-31 | 2003-09-30 | Texas Instruments Incorporated | Method and system for defining and recognizing complex events in a video sequence |
| US20020018051A1 (en) | 1998-09-15 | 2002-02-14 | Mona Singh | Apparatus and method for moving objects on a touchscreen display |
| US6985178B1 (en) | 1998-09-30 | 2006-01-10 | Canon Kabushiki Kaisha | Camera control system, image pick-up server, client, control method and storage medium therefor |
| JP4159674B2 (ja) | 1998-10-22 | 2008-10-01 | 富士通株式会社 | オブジェクト指向業務システムおよび方法 |
| JP4542637B2 (ja) | 1998-11-25 | 2010-09-15 | セイコーエプソン株式会社 | 携帯情報機器及び情報記憶媒体 |
| JP2000163443A (ja) | 1998-11-25 | 2000-06-16 | Seiko Epson Corp | 携帯情報機器及び情報記憶媒体 |
| US6963937B1 (en) | 1998-12-17 | 2005-11-08 | International Business Machines Corporation | Method and apparatus for providing configurability and customization of adaptive user-input filtration |
| US6259436B1 (en) | 1998-12-22 | 2001-07-10 | Ericsson Inc. | Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch |
| US6643824B1 (en) | 1999-01-15 | 2003-11-04 | International Business Machines Corporation | Touch screen region assist for hypertext links |
| US7469381B2 (en) | 2007-01-07 | 2008-12-23 | Apple Inc. | List scrolling and document translation, scaling, and rotation on a touch-screen display |
| JP2000222130A (ja) | 1999-02-02 | 2000-08-11 | Toshiba Corp | 入力装置および方法および記憶媒体 |
| US20060061551A1 (en) | 1999-02-12 | 2006-03-23 | Vega Vista, Inc. | Motion detection and tracking system to control navigation and display of portable displays including on-chip gesture detection |
| US6486896B1 (en) | 1999-04-07 | 2002-11-26 | Apple Computer, Inc. | Scalable scroll controller |
| JP4939682B2 (ja) | 1999-04-27 | 2012-05-30 | エーユー オプトロニクス コーポレイション | 表示装置 |
| US6714936B1 (en) | 1999-05-25 | 2004-03-30 | Nevin, Iii Rocky Harry W. | Method and apparatus for displaying data stored in linked nodes |
| AUPQ439299A0 (en) | 1999-12-01 | 1999-12-23 | Silverbrook Research Pty Ltd | Interface system |
| US6639584B1 (en) | 1999-07-06 | 2003-10-28 | Chuang Li | Methods and apparatus for controlling a portable electronic device using a touchpad |
| US6636242B2 (en) | 1999-08-31 | 2003-10-21 | Accenture Llp | View configurer in a presentation services patterns environment |
| EP1094383A3 (de) | 1999-10-18 | 2005-11-02 | Honeywell International, Inc. | Verfahren und Vorrichtung zur Kursorsteuerung |
| EP1208476A2 (de) | 1999-10-20 | 2002-05-29 | Koninklijke Philips Electronics N.V. | Gerät und verfahren zum durchblättern einer bildersammlung |
| JP2001134382A (ja) | 1999-11-04 | 2001-05-18 | Sony Corp | 図形処理装置 |
| JP2001167227A (ja) * | 1999-12-07 | 2001-06-22 | Hitachi Ltd | 情報端末装置 |
| US6778992B1 (en) | 1999-12-21 | 2004-08-17 | Lockstream Corporation | Flexible and hierarchical user interfaces defined using a data definition language |
| US6809724B1 (en) | 2000-01-18 | 2004-10-26 | Seiko Epson Corporation | Display apparatus and portable information processing apparatus |
| US6820237B1 (en) | 2000-01-21 | 2004-11-16 | Amikanow! Corporation | Apparatus and method for context-based highlighting of an electronic document |
| WO2001056007A1 (en) | 2000-01-28 | 2001-08-02 | Intersense, Inc. | Self-referenced tracking |
| US6856326B1 (en) | 2000-01-28 | 2005-02-15 | International Business Machines Corporation | Smooth scrolling system and method |
| US7138983B2 (en) * | 2000-01-31 | 2006-11-21 | Canon Kabushiki Kaisha | Method and apparatus for detecting and interpreting path of designated position |
| JP4803883B2 (ja) | 2000-01-31 | 2011-10-26 | キヤノン株式会社 | 位置情報処理装置及びその方法及びそのプログラム。 |
| US6590595B1 (en) | 2000-02-08 | 2003-07-08 | Sun Microsystems, Inc. | Mechanism for providing intuitive scrolling feedback |
| JP2003528377A (ja) | 2000-03-17 | 2003-09-24 | ビジブル. コム インコーポレーティッド | 三次元空間ユーザ・インタフェース |
| US7142205B2 (en) | 2000-03-29 | 2006-11-28 | Autodesk, Inc. | Single gesture map navigation graphical user interface for a personal digital assistant |
| AU2001289299A1 (en) | 2000-03-30 | 2001-10-15 | Qualcomm Incorporated | Method and apparatus for notifying a mobile station application of specified events |
| JP4124402B2 (ja) | 2000-03-31 | 2008-07-23 | 株式会社リコー | 画像入力装置 |
| AU2001251202A1 (en) | 2000-04-07 | 2001-10-23 | Rsa Security, Inc. | System and method for authenticating a user |
| US6765557B1 (en) | 2000-04-10 | 2004-07-20 | Interlink Electronics, Inc. | Remote control having touch pad to screen mapping |
| US7009626B2 (en) | 2000-04-14 | 2006-03-07 | Picsel Technologies Limited | Systems and methods for generating visual representations of graphical data and digital document processing |
| JP2001299733A (ja) | 2000-04-27 | 2001-10-30 | Konica Corp | Pci放射線画像処理装置、pci放射線画像検出処理装置、pci放射線画像出力装置及びpci画像診断支援装置 |
| US6559869B1 (en) | 2000-05-04 | 2003-05-06 | Microsoft Corporation | Adaptive auto-scrolling merge for hand written input |
| GB2380918C3 (en) | 2000-05-11 | 2016-03-30 | Nes Stewart Irvine | Zeroclick |
| US6446083B1 (en) | 2000-05-12 | 2002-09-03 | Vastvideo, Inc. | System and method for classifying media items |
| US6912694B1 (en) | 2000-06-28 | 2005-06-28 | Intel Corporation | Providing a scrolling function for a multiple frame web page |
| US6677965B1 (en) | 2000-07-13 | 2004-01-13 | International Business Machines Corporation | Rubber band graphical user interface control |
| GB0017793D0 (en) * | 2000-07-21 | 2000-09-06 | Secr Defence | Human computer interface |
| US6704024B2 (en) | 2000-08-07 | 2004-03-09 | Zframe, Inc. | Visual content browsing using rasterized representations |
| US20020015064A1 (en) * | 2000-08-07 | 2002-02-07 | Robotham John S. | Gesture-based user interface to multi-level and multi-modal sets of bit-maps |
| JP2002062983A (ja) | 2000-08-21 | 2002-02-28 | Hitachi Ltd | ポインティングデバイス |
| US6791530B2 (en) | 2000-08-29 | 2004-09-14 | Mitsubishi Electric Research Laboratories, Inc. | Circular graphical user interfaces |
| US6562929B2 (en) | 2000-08-30 | 2003-05-13 | Jsr Corporation | Conjugated diene-based rubber and method of producing the same, oil extended rubber and rubber composition containing the same |
| US6912462B2 (en) | 2000-08-31 | 2005-06-28 | Sony Corporation | Information processing apparatus, information processing method and program storage media |
| US20020138617A1 (en) | 2000-09-06 | 2002-09-26 | Jacob Christfort | Providing content from multiple services |
| US6757673B2 (en) | 2000-10-09 | 2004-06-29 | Town Compass Llc | Displaying hierarchial relationship of data accessed via subject index |
| US6735583B1 (en) | 2000-11-01 | 2004-05-11 | Getty Images, Inc. | Method and system for classifying and locating media content |
| US7072501B2 (en) | 2000-11-22 | 2006-07-04 | R2 Technology, Inc. | Graphical user interface for display of anatomical information |
| US20020054029A1 (en) * | 2000-11-28 | 2002-05-09 | Glancy John Thomas | Interactive display system |
| US7184796B2 (en) | 2000-12-04 | 2007-02-27 | International Business Machines Corporation | Personal communication device having a built in projection display |
| US7240291B2 (en) | 2000-12-21 | 2007-07-03 | Xerox Corporation | Methods, systems, and computer program products for display of information relating to a virtual three-dimensional book |
| US6839721B2 (en) | 2001-01-12 | 2005-01-04 | Hewlett-Packard Development Company, L.P. | Integration of a database into file management software for protecting, tracking, and retrieving data |
| US7030861B1 (en) | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
| US20040027398A1 (en) | 2001-02-15 | 2004-02-12 | Denny Jaeger | Intuitive graphic user interface with universal tools |
| US6571870B2 (en) | 2001-03-01 | 2003-06-03 | Schlumberger Technology Corporation | Method and apparatus to vibrate a downhole component |
| US6972776B2 (en) | 2001-03-20 | 2005-12-06 | Agilent Technologies, Inc. | Scrolling method using screen pointing device |
| GB2373778B (en) | 2001-03-30 | 2003-08-06 | Robin Lewis | Corner elements for packaging |
| US6741996B1 (en) | 2001-04-18 | 2004-05-25 | Microsoft Corporation | Managing user clips |
| JP2005507102A (ja) | 2001-05-02 | 2005-03-10 | ビットストリーム インコーポレーティッド | 可変スケール・ファクタにより縮小された情報媒体を表示するための方法、システム、及びプログラム |
| US20020194589A1 (en) | 2001-05-08 | 2002-12-19 | Cristofalo Michael | Technique for optimizing the delivery of advertisements and other programming segments by making bandwidth tradeoffs |
| US20050024341A1 (en) | 2001-05-16 | 2005-02-03 | Synaptics, Inc. | Touch screen with user interface enhancement |
| US7730401B2 (en) | 2001-05-16 | 2010-06-01 | Synaptics Incorporated | Touch screen with user interface enhancement |
| US6498590B1 (en) | 2001-05-24 | 2002-12-24 | Mitsubishi Electric Research Laboratories, Inc. | Multi-user touch surface |
| TW521205B (en) | 2001-06-05 | 2003-02-21 | Compal Electronics Inc | Touch screen capable of controlling amplification with pressure |
| US20030011640A1 (en) * | 2001-07-12 | 2003-01-16 | Green Brett A. | System and methods for implementing peripheral device front menu panels |
| US6985137B2 (en) | 2001-08-13 | 2006-01-10 | Nokia Mobile Phones Ltd. | Method for preventing unintended touch pad input due to accidental touching |
| US6661409B2 (en) | 2001-08-22 | 2003-12-09 | Motorola, Inc. | Automatically scrolling handwritten input user interface for personal digital assistants and the like |
| US6690365B2 (en) | 2001-08-29 | 2004-02-10 | Microsoft Corporation | Automatic scrolling |
| US6972749B2 (en) | 2001-08-29 | 2005-12-06 | Microsoft Corporation | Touch-sensitive device for scrolling a document on a display |
| US6907575B2 (en) | 2001-09-06 | 2005-06-14 | Danger, Inc. | Method of scrolling a display window |
| JP2003173237A (ja) | 2001-09-28 | 2003-06-20 | Ricoh Co Ltd | 情報入出力システム、プログラム及び記憶媒体 |
| US20030071850A1 (en) | 2001-10-12 | 2003-04-17 | Microsoft Corporation | In-place adaptive handwriting input method and system |
| US7345671B2 (en) | 2001-10-22 | 2008-03-18 | Apple Inc. | Method and apparatus for use of rotational user inputs |
| US7046230B2 (en) | 2001-10-22 | 2006-05-16 | Apple Computer, Inc. | Touch pad handheld device |
| TW528981B (en) | 2001-10-25 | 2003-04-21 | Compal Electronics Inc | Portable computer and related method for preventing input interruption by write-tracking input region |
| US7009599B2 (en) | 2001-11-20 | 2006-03-07 | Nokia Corporation | Form factor for portable device |
| CA2366183A1 (en) | 2001-12-21 | 2003-06-21 | Ibm Canada Limited-Ibm Canada Limitee | Dynamic status tree facility |
| US6690387B2 (en) | 2001-12-28 | 2004-02-10 | Koninklijke Philips Electronics N.V. | Touch-screen image scrolling system and method |
| US6957392B2 (en) | 2002-01-16 | 2005-10-18 | Laszlo Systems, Inc. | Interface engine providing a continuous user interface |
| GB0201074D0 (en) | 2002-01-18 | 2002-03-06 | 3G Lab Ltd | Graphic user interface for data processing device |
| US7603627B2 (en) | 2002-02-05 | 2009-10-13 | Microsoft Corporation | Systems and methods for creating and managing graphical user interface lists |
| JP3951727B2 (ja) | 2002-02-06 | 2007-08-01 | 松下電器産業株式会社 | 情報処理装置 |
| US7075512B1 (en) | 2002-02-07 | 2006-07-11 | Palmsource, Inc. | Method and system for navigating a display screen for locating a desired item of information |
| AU2003220400A1 (en) | 2002-03-19 | 2003-10-08 | America Online, Inc. | Controlling content display |
| US20030184525A1 (en) | 2002-03-29 | 2003-10-02 | Mitac International Corp. | Method and apparatus for image processing |
| JP2003296024A (ja) | 2002-04-01 | 2003-10-17 | Nec Engineering Ltd | タッチパネル制御方式 |
| US7466307B2 (en) | 2002-04-11 | 2008-12-16 | Synaptics Incorporated | Closed-loop sensor on a solid-state object position detector |
| US20030197689A1 (en) | 2002-04-23 | 2003-10-23 | May Gregory J. | Input device that allows multiple touch key input |
| US7203911B2 (en) | 2002-05-13 | 2007-04-10 | Microsoft Corporation | Altering a display on a viewing device based upon a user proximity to the viewing device |
| TWI238348B (en) | 2002-05-13 | 2005-08-21 | Kyocera Corp | Portable information terminal, display control device, display control method, and recording media |
| EP1505484B1 (de) | 2002-05-16 | 2012-08-15 | Sony Corporation | Eingabeverfahren und eingabevorrichtung |
| US7519918B2 (en) | 2002-05-30 | 2009-04-14 | Intel Corporation | Mobile virtual desktop |
| FI20021655L (fi) | 2002-06-19 | 2003-12-20 | Nokia Corp | Menetelmä lukituksen avaamiseksi ja kannettava elektroninen laite |
| US7023427B2 (en) | 2002-06-28 | 2006-04-04 | Microsoft Corporation | Method and system for detecting multiple touches on a touch-sensitive screen |
| US7062090B2 (en) | 2002-06-28 | 2006-06-13 | Microsoft Corporation | Writing guide for a free-form document editor |
| US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
| JP4338364B2 (ja) | 2002-07-02 | 2009-10-07 | ソニー株式会社 | 携帯情報通信端末、プログラムおよび該プログラムを記録した記録媒体 |
| TW591488B (en) | 2002-08-01 | 2004-06-11 | Tatung Co | Window scrolling method and device thereof |
| US20040021698A1 (en) | 2002-08-05 | 2004-02-05 | Baldwin Amanda K. | Intuitive touchscreen interface for a multifunction device and method therefor |
| JP2004084111A (ja) | 2002-08-26 | 2004-03-18 | Tsudakoma Corp | 織機の情報表示装置 |
| US7002560B2 (en) | 2002-10-04 | 2006-02-21 | Human Interface Technologies Inc. | Method of combining data entry of handwritten symbols with displayed character data |
| GB0223883D0 (en) | 2002-10-15 | 2002-11-20 | Seamless Display Ltd | Visual display screen arrangement |
| US7281248B2 (en) | 2002-11-19 | 2007-10-09 | Microsoft Corporation | Virtualized and realized user interface controls |
| DE60212976T2 (de) | 2002-11-20 | 2006-11-16 | Nokia Corp. | Verfahren und Benutzerschnittstelle zur Zeicheneingabe |
| KR100709480B1 (ko) | 2002-11-21 | 2007-04-18 | 엘지.필립스 엘시디 주식회사 | 액정표시장치 제조방법 |
| US6903927B2 (en) | 2002-12-17 | 2005-06-07 | Nokia Corporation | Convertible mobile computing device |
| US20040125136A1 (en) | 2002-12-30 | 2004-07-01 | Jukka Wallenius | Provision of services through a display system |
| US20040135817A1 (en) | 2003-01-14 | 2004-07-15 | Daughtery Joey L. | Interface for selecting and performing operations on objects |
| US7117453B2 (en) | 2003-01-21 | 2006-10-03 | Microsoft Corporation | Media frame object visualization system |
| US20040160419A1 (en) | 2003-02-11 | 2004-08-19 | Terradigital Systems Llc. | Method for entering alphanumeric characters into a graphical user interface |
| US20040155888A1 (en) | 2003-02-11 | 2004-08-12 | Padgitt David Gary | Method for displaying the contents of a collection of media objects |
| US7894177B2 (en) | 2005-12-29 | 2011-02-22 | Apple Inc. | Light activated hold switch |
| US7088374B2 (en) | 2003-03-27 | 2006-08-08 | Microsoft Corporation | System and method for managing visual structure, timing, and animation in a graphics processing system |
| KR100465969B1 (ko) | 2003-04-11 | 2005-01-13 | (주)모비솔 | 손가락 표면을 이용한 소형 포인팅 장치 |
| US8484576B2 (en) | 2003-04-17 | 2013-07-09 | Supersonic Aerospace International, Llc | System and method for customizing multiple windows of information on a display |
| US7102626B2 (en) | 2003-04-25 | 2006-09-05 | Hewlett-Packard Development Company, L.P. | Multi-function pointing device |
| US7627343B2 (en) | 2003-04-25 | 2009-12-01 | Apple Inc. | Media player system |
| GB2424535A (en) | 2003-04-30 | 2006-09-27 | Hewlett Packard Co | Editing an image and associating sound with it |
| US8555165B2 (en) | 2003-05-08 | 2013-10-08 | Hillcrest Laboratories, Inc. | Methods and systems for generating a zoomable graphical user interface |
| US7173623B2 (en) | 2003-05-09 | 2007-02-06 | Microsoft Corporation | System supporting animation of graphical display elements through animation object instances |
| KR20070012570A (ko) | 2003-05-21 | 2007-01-25 | 가부시키가이샤 히다치 하이테크놀로지즈 | 지문센서내장 휴대 단말장치 |
| EP1639439A2 (de) | 2003-06-13 | 2006-03-29 | The University Of Lancaster | Benutzerschnittstelle |
| US7567239B2 (en) | 2003-06-26 | 2009-07-28 | Motorola, Inc. | Method and system for message and note composition on small screen devices |
| WO2005008444A2 (en) | 2003-07-14 | 2005-01-27 | Matt Pallakoff | System and method for a portbale multimedia client |
| US20050027666A1 (en) | 2003-07-15 | 2005-02-03 | Vente, Inc | Interactive online research system and method |
| KR100522940B1 (ko) | 2003-07-25 | 2005-10-24 | 삼성전자주식회사 | 활성영역을 설정 가능한 터치스크린 시스템 및 그 제어방법 |
| JP2005056286A (ja) | 2003-08-07 | 2005-03-03 | Nec Engineering Ltd | ウェブブラウザにおける拡大表示方法および拡大表示プログラム |
| CA2466951C (en) | 2003-08-21 | 2012-04-10 | Microsoft Corporation | Focus management using in-air points |
| JP4360871B2 (ja) | 2003-09-10 | 2009-11-11 | 富士通テン株式会社 | 情報端末における入力装置 |
| US7411575B2 (en) | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
| JP2007507782A (ja) | 2003-09-30 | 2007-03-29 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ディスプレイ上のコンテンツウィンドウの位置、サイズ及び/又はコンテンツを規定するためのジェスチャ |
| US7034834B2 (en) | 2003-10-24 | 2006-04-25 | Microsoft Corporation | Communication protocol for synchronizing animation systems |
| US20050183035A1 (en) | 2003-11-20 | 2005-08-18 | Ringel Meredith J. | Conflict resolution for graphic multi-user interface |
| US7962862B2 (en) | 2003-11-24 | 2011-06-14 | International Business Machines Corporation | Method and data processing system for providing an improved graphics design tool |
| US7298367B2 (en) * | 2003-11-25 | 2007-11-20 | 3M Innovative Properties Company | Light emitting stylus and user input device using same |
| US7814419B2 (en) | 2003-11-26 | 2010-10-12 | Nokia Corporation | Changing an orientation of a user interface via a course of motion |
| US7337412B2 (en) | 2003-12-15 | 2008-02-26 | International Business Machines Corporation | Methods, systems and computer program products for providing multi-dimensional tree diagram graphical user interfaces |
| US20050162402A1 (en) | 2004-01-27 | 2005-07-28 | Watanachote Susornpol J. | Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback |
| US7366995B2 (en) | 2004-02-03 | 2008-04-29 | Roland Wescott Montague | Combination tool that zooms in, zooms out, pans, rotates, draws, or manipulates during a drag |
| FI117308B (fi) | 2004-02-06 | 2006-08-31 | Nokia Corp | Eleohjausjärjestelmä |
| US7319457B2 (en) | 2004-02-12 | 2008-01-15 | Sentelic Corporation | Method of scrolling window screen by means of controlling electronic device |
| US7358965B2 (en) | 2004-02-18 | 2008-04-15 | Microsoft Corporation | Tapping to create writing |
| GB2411331A (en) | 2004-02-19 | 2005-08-24 | Trigenix Ltd | Rendering user interface using actor attributes |
| US20050193015A1 (en) | 2004-02-19 | 2005-09-01 | Sandraic Logic, Llc A California Limited Liability Company | Method and apparatus for organizing, sorting and navigating multimedia content |
| FR2866726B1 (fr) | 2004-02-23 | 2006-05-26 | Jazzmutant | Controleur par manipulation d'objets virtuels sur un ecran tactile multi-contact |
| JP4438448B2 (ja) | 2004-02-26 | 2010-03-24 | セイコーエプソン株式会社 | 構造化文書表示処理装置、構造化文書表示方法、構造化文書表示プログラム |
| US7327349B2 (en) | 2004-03-02 | 2008-02-05 | Microsoft Corporation | Advanced navigation techniques for portable devices |
| JP2005275652A (ja) * | 2004-03-24 | 2005-10-06 | Canon Inc | 入力軌跡処理装置および入力軌跡処理方法 |
| EP1735733A1 (de) | 2004-04-02 | 2006-12-27 | Nokia Corporation | Vorrichtung und verfahren zur handschrifterkennung |
| US7623119B2 (en) | 2004-04-21 | 2009-11-24 | Nokia Corporation | Graphical functions by gestures |
| EP1625513B1 (de) | 2004-04-30 | 2018-04-18 | Microsoft Technology Licensing, LLC | Regelrahmen zum definieren und ausführen von endbenutzer-regellogik |
| JP4387242B2 (ja) | 2004-05-10 | 2009-12-16 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体及びゲーム装置 |
| US7624355B2 (en) | 2004-05-27 | 2009-11-24 | Baneth Robin C | System and method for controlling a user interface |
| JP4855654B2 (ja) | 2004-05-31 | 2012-01-18 | ソニー株式会社 | 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体 |
| US7358962B2 (en) | 2004-06-15 | 2008-04-15 | Microsoft Corporation | Manipulating association of data with a physical object |
| US7773950B2 (en) | 2004-06-16 | 2010-08-10 | Telefonaktiebolaget Lm Ericsson (Publ) | Benign interference suppression for received signal quality estimation |
| US7864161B2 (en) | 2004-06-17 | 2011-01-04 | Adrea, LLC | Use of a two finger input on touch screens |
| US7519223B2 (en) | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
| WO2006003591A2 (en) | 2004-06-29 | 2006-01-12 | Koninklijke Philips Electronics, N.V. | Discontinuous zoom |
| JP2008505381A (ja) | 2004-06-29 | 2008-02-21 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 表示装置の汚れを防ぐ方法及び装置 |
| JP4903371B2 (ja) | 2004-07-29 | 2012-03-28 | 任天堂株式会社 | タッチパネルを用いたゲーム装置およびゲームプログラム |
| KR100958491B1 (ko) * | 2004-07-30 | 2010-05-17 | 애플 인크. | 터치 감지 입력 장치용 모드 기반 그래픽 사용자 인터페이스 |
| US7653883B2 (en) | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
| EP1774427A2 (de) | 2004-07-30 | 2007-04-18 | Apple Computer, Inc. | Auf modus basierende graphische benutzeroberflächen für berührungsempfindliche eingabeeinrichtungen |
| US7506799B2 (en) | 2004-07-30 | 2009-03-24 | Nokia Corporation | Method for the monitoring of system security in electronic devices |
| US7724242B2 (en) | 2004-08-06 | 2010-05-25 | Touchtable, Inc. | Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter |
| US7728821B2 (en) | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
| US20070046643A1 (en) | 2004-08-06 | 2007-03-01 | Hillis W Daniel | State-Based Approach to Gesture Identification |
| US7721197B2 (en) | 2004-08-12 | 2010-05-18 | Microsoft Corporation | System and method of displaying content on small screen computing devices |
| US7181373B2 (en) | 2004-08-13 | 2007-02-20 | Agilent Technologies, Inc. | System and methods for navigating and visualizing multi-dimensional biological data |
| US7434173B2 (en) | 2004-08-30 | 2008-10-07 | Microsoft Corporation | Scrolling web pages using direct interaction |
| US20060055669A1 (en) | 2004-09-13 | 2006-03-16 | Mita Das | Fluent user interface for text entry on touch-sensitive display |
| JP4355639B2 (ja) * | 2004-09-15 | 2009-11-04 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
| US7728823B2 (en) | 2004-09-24 | 2010-06-01 | Apple Inc. | System and method for processing raw data of track pad device |
| JP3786669B2 (ja) | 2004-10-06 | 2006-06-14 | 株式会社バンダイナムコゲームス | ゲームシステム、プログラム及び情報記憶媒体 |
| US20060077183A1 (en) | 2004-10-08 | 2006-04-13 | Studt Peter C | Methods and systems for converting touchscreen events into application formatted data |
| WO2006045530A2 (en) | 2004-10-22 | 2006-05-04 | Novo Nordisk A/S | An apparatus and a method of providing information to a user |
| JP4507206B2 (ja) * | 2004-10-28 | 2010-07-21 | 富士通株式会社 | インターネット情報収集装置、プログラム及び方法 |
| JP3770499B1 (ja) | 2004-11-02 | 2006-04-26 | 任天堂株式会社 | ゲーム装置及びゲームプログラム |
| US7925996B2 (en) | 2004-11-18 | 2011-04-12 | Microsoft Corporation | Method and system for providing multiple input connecting user interface |
| US7665031B2 (en) | 2004-12-08 | 2010-02-16 | Microsoft Corporation | Method and system of taskbar button interfaces |
| US20060136833A1 (en) | 2004-12-15 | 2006-06-22 | International Business Machines Corporation | Apparatus and method for chaining objects in a pointer drag path |
| WO2006067711A2 (en) | 2004-12-21 | 2006-06-29 | Koninklijke Philips Electronics N.V. | Method and device for displaying animated buttons |
| CN100377055C (zh) | 2004-12-22 | 2008-03-26 | 盛群半导体股份有限公司 | 触控感应装置的判读方法 |
| CA2594428A1 (en) | 2005-01-05 | 2006-07-13 | Jaewoo Ahn | Method and apparatus for inputting character through pointing device |
| US20060156249A1 (en) | 2005-01-12 | 2006-07-13 | Blythe Michael M | Rotate a user interface |
| US20070185876A1 (en) | 2005-02-07 | 2007-08-09 | Mendis Venura C | Data handling system |
| GB0503253D0 (en) | 2005-02-17 | 2005-03-23 | Univ Northumbria Newcastle | User control of a hand-held device |
| US8819569B2 (en) | 2005-02-18 | 2014-08-26 | Zumobi, Inc | Single-handed approach for navigation of application tiles using panning and zooming |
| KR101492761B1 (ko) | 2005-03-04 | 2015-02-12 | 애플 인크. | 다기능 휴대용 장치 |
| CN1841284A (zh) | 2005-03-28 | 2006-10-04 | 上海桐港信息科技有限公司 | 触摸屏式移动设备微浏览器页面显示漂移方法 |
| US7750893B2 (en) | 2005-04-06 | 2010-07-06 | Nintendo Co., Ltd. | Storage medium storing input position processing program, and input position processing device |
| CN1845046A (zh) | 2005-04-07 | 2006-10-11 | 技嘉科技股份有限公司 | 具有触控式功能键的键盘和鼠标 |
| US7355595B2 (en) | 2005-04-15 | 2008-04-08 | Microsoft Corporation | Tactile device for scrolling |
| US7673255B2 (en) | 2005-04-22 | 2010-03-02 | Microsoft Corporation | Interface and system for manipulating thumbnails of live windows in a window manager |
| US7692637B2 (en) | 2005-04-26 | 2010-04-06 | Nokia Corporation | User input device for electronic device |
| US7499027B2 (en) | 2005-04-29 | 2009-03-03 | Microsoft Corporation | Using a light pointer for input on an interactive display surface |
| US20060262104A1 (en) | 2005-05-19 | 2006-11-23 | Sullivan Darius M | Systems and methods for distinguishing contact-induced plate vibrations from acoustic noise-induced plate vibrations |
| US20070024646A1 (en) | 2005-05-23 | 2007-02-01 | Kalle Saarinen | Portable electronic apparatus and associated method |
| US7487447B1 (en) * | 2005-05-25 | 2009-02-03 | Google Inc. | Web page zoom feature |
| US7561159B2 (en) | 2005-05-31 | 2009-07-14 | Magnifi Group Inc. | Control of animation timeline |
| US20090049388A1 (en) | 2005-06-02 | 2009-02-19 | Ronnie Bernard Francis Taib | Multimodal computer navigation |
| US9019209B2 (en) | 2005-06-08 | 2015-04-28 | 3M Innovative Properties Company | Touch location determination involving multiple touch location processes |
| KR20060133389A (ko) | 2005-06-20 | 2006-12-26 | 엘지전자 주식회사 | 이동 단말기의 데이터 처리 장치 및 그 방법 |
| TW200701082A (en) | 2005-06-23 | 2007-01-01 | Elan Microelectronics Corp | Scroll control method used in the touch panel |
| US7463263B2 (en) | 2005-07-15 | 2008-12-09 | Sap Portals Israel Ltd. | Declarative specification of model visualizations |
| US7808478B2 (en) | 2005-08-22 | 2010-10-05 | Samsung Electronics Co., Ltd. | Autonomous handheld device having a drawing tool |
| US7568035B2 (en) | 2005-08-30 | 2009-07-28 | Microsoft Corporation | Command binding determination and implementation |
| US20070061126A1 (en) | 2005-09-01 | 2007-03-15 | Anthony Russo | System for and method of emulating electronic input devices |
| CN101243382B (zh) | 2005-09-15 | 2013-01-30 | 苹果公司 | 处理跟踪板装置的原始数据的系统和方法 |
| US7694231B2 (en) | 2006-01-05 | 2010-04-06 | Apple Inc. | Keyboards for portable electronic devices |
| US20070064004A1 (en) | 2005-09-21 | 2007-03-22 | Hewlett-Packard Development Company, L.P. | Moving a graphic element |
| US7633076B2 (en) | 2005-09-30 | 2009-12-15 | Apple Inc. | Automated response to and sensing of user activity in portable devices |
| CN1949161B (zh) | 2005-10-14 | 2010-05-26 | 鸿富锦精密工业(深圳)有限公司 | 多层次菜单显示装置及显示控制方法 |
| US20070109275A1 (en) | 2005-11-16 | 2007-05-17 | Chen-Ting Chuang | Method for controlling a touch screen user interface and device thereof |
| JP2007148927A (ja) | 2005-11-29 | 2007-06-14 | Alps Electric Co Ltd | 入力装置及びこれを用いたスクロール制御方法 |
| US20070128693A1 (en) | 2005-12-06 | 2007-06-07 | Advantek Serum Laboratories Limited3/F | Method for the inactivation and removal of dengue virus from biological samples |
| US9069877B2 (en) | 2005-12-07 | 2015-06-30 | Ziilabs Inc., Ltd. | User interface with variable sized icons |
| US20070132789A1 (en) | 2005-12-08 | 2007-06-14 | Bas Ording | List scrolling in response to moving contact over list of index symbols |
| JP4908518B2 (ja) | 2005-12-08 | 2012-04-04 | ノキア コーポレイション | 電子デバイスの改善された文章入力 |
| US7480870B2 (en) | 2005-12-23 | 2009-01-20 | Apple Inc. | Indication of progress towards satisfaction of a user input condition |
| US7786975B2 (en) | 2005-12-23 | 2010-08-31 | Apple Inc. | Continuous scrolling list with acceleration |
| US7650137B2 (en) | 2005-12-23 | 2010-01-19 | Apple Inc. | Account information display for portable communication device |
| US7657849B2 (en) | 2005-12-23 | 2010-02-02 | Apple Inc. | Unlocking a device by performing gestures on an unlock image |
| US7509588B2 (en) | 2005-12-30 | 2009-03-24 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
| EP1969452A2 (de) | 2005-12-30 | 2008-09-17 | Apple Inc. | Tragbares elektronisches gerät mit mehrfach-berührungseingang |
| US8018440B2 (en) | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
| US7860536B2 (en) | 2006-01-05 | 2010-12-28 | Apple Inc. | Telephone interface for a portable communication device |
| US7574672B2 (en) | 2006-01-05 | 2009-08-11 | Apple Inc. | Text entry interface for a portable communication device |
| US20070174257A1 (en) | 2006-01-18 | 2007-07-26 | Bruce Thomas Howard | Systems and methods for providing sorted search results |
| US20070176903A1 (en) | 2006-01-31 | 2007-08-02 | Dahlin Jeffrey J | Capacitive touch sensor button activation |
| US8312479B2 (en) | 2006-03-08 | 2012-11-13 | Navisense | Application programming interface (API) for sensory events |
| US20070214436A1 (en) | 2006-03-13 | 2007-09-13 | Myers Raymond L Jr | Positional navigation graphic link system |
| US8587526B2 (en) | 2006-04-12 | 2013-11-19 | N-Trig Ltd. | Gesture recognition feedback for a dual mode digitizer |
| US20070242607A1 (en) | 2006-04-13 | 2007-10-18 | Tellabs Operations, Inc. | Method and system for controlling distribution of network topology information |
| KR20070113025A (ko) | 2006-05-24 | 2007-11-28 | 엘지전자 주식회사 | 터치스크린 장치 및 이의 작동방법 |
| US8077153B2 (en) | 2006-04-19 | 2011-12-13 | Microsoft Corporation | Precise selection techniques for multi-touch screens |
| TWI328185B (en) | 2006-04-19 | 2010-08-01 | Lg Electronics Inc | Touch screen device for potable terminal and method of displaying and selecting menus thereon |
| US9063647B2 (en) | 2006-05-12 | 2015-06-23 | Microsoft Technology Licensing, Llc | Multi-touch uses, gestures, and implementation |
| US7844661B2 (en) | 2006-06-15 | 2010-11-30 | Microsoft Corporation | Composition of local media playback with remotely generated user interface |
| US8169421B2 (en) | 2006-06-19 | 2012-05-01 | Cypress Semiconductor Corporation | Apparatus and method for detecting a touch-sensor pad gesture |
| GB0612624D0 (en) | 2006-06-26 | 2006-08-02 | Symbian Software Ltd | Speed of gesture |
| US8269725B2 (en) | 2006-06-28 | 2012-09-18 | Microsoft Corporation | Input simulation system for touch based devices |
| US8086971B2 (en) | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
| US9069417B2 (en) | 2006-07-12 | 2015-06-30 | N-Trig Ltd. | Hover and touch detection for digitizer |
| JP4762070B2 (ja) * | 2006-07-19 | 2011-08-31 | 富士通株式会社 | 手書き入力装置、手書き入力方法、及びコンピュータプログラム |
| JP4280759B2 (ja) | 2006-07-27 | 2009-06-17 | キヤノン株式会社 | 情報処理装置およびユーザインタフェース制御方法 |
| EP2057527B1 (de) | 2006-08-15 | 2013-05-22 | N-trig Ltd. | Gestendetektion für einen digitalisierer |
| US20080043020A1 (en) | 2006-08-18 | 2008-02-21 | Microsoft Corporation | User interface for viewing street side imagery |
| US7941760B2 (en) | 2006-09-06 | 2011-05-10 | Apple Inc. | Soft keyboard display for a portable multifunction device |
| US7864163B2 (en) | 2006-09-06 | 2011-01-04 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
| US7843427B2 (en) | 2006-09-06 | 2010-11-30 | Apple Inc. | Methods for determining a cursor position from a finger contact with a touch screen display |
| US8106856B2 (en) | 2006-09-06 | 2012-01-31 | Apple Inc. | Portable electronic device for photo management |
| US8253695B2 (en) | 2006-09-06 | 2012-08-28 | Apple Inc. | Email client for a portable multifunction device |
| CN101529367B (zh) | 2006-09-06 | 2016-02-17 | 苹果公司 | 用于便携式多功能设备的语音邮件管理器 |
| US20080114614A1 (en) | 2006-11-15 | 2008-05-15 | General Electric Company | Methods and systems for healthcare application interaction using gesture-based interaction enhanced with pressure sensitivity |
| US7694240B2 (en) | 2006-11-22 | 2010-04-06 | General Electric Company | Methods and systems for creation of hanging protocols using graffiti-enabled devices |
| JP5191119B2 (ja) | 2006-12-06 | 2013-04-24 | 株式会社ジャパンディスプレイウェスト | 表示装置、表示装置の制御方法、及びプログラム |
| TW200828089A (en) | 2006-12-29 | 2008-07-01 | Inventec Appliances Corp | Method for zooming image |
| US8489783B2 (en) | 2007-01-03 | 2013-07-16 | Apple Inc. | Multi buffer asynchronous scheme for processing incoming information |
| US7777732B2 (en) | 2007-01-03 | 2010-08-17 | Apple Inc. | Multi-event input system |
| US8214768B2 (en) | 2007-01-05 | 2012-07-03 | Apple Inc. | Method, system, and graphical user interface for viewing multiple application windows |
| US7907125B2 (en) | 2007-01-05 | 2011-03-15 | Microsoft Corporation | Recognizing multiple input point gestures |
| US8656295B2 (en) | 2007-01-05 | 2014-02-18 | Apple Inc. | Selecting and manipulating web content |
| US7924271B2 (en) | 2007-01-05 | 2011-04-12 | Apple Inc. | Detecting gestures on multi-event sensitive devices |
| US7956847B2 (en) | 2007-01-05 | 2011-06-07 | Apple Inc. | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
| US8519963B2 (en) | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display |
| US7844915B2 (en) | 2007-01-07 | 2010-11-30 | Apple Inc. | Application programming interfaces for scrolling operations |
| US7903115B2 (en) | 2007-01-07 | 2011-03-08 | Apple Inc. | Animations |
| US7966578B2 (en) | 2007-01-07 | 2011-06-21 | Apple Inc. | Portable multifunction device, method, and graphical user interface for translating displayed content |
| US20080168395A1 (en) | 2007-01-07 | 2008-07-10 | Bas Ording | Positioning a Slider Icon on a Portable Multifunction Device |
| US20080168402A1 (en) | 2007-01-07 | 2008-07-10 | Christopher Blumenberg | Application Programming Interfaces for Gesture Operations |
| US20080168478A1 (en) | 2007-01-07 | 2008-07-10 | Andrew Platzer | Application Programming Interfaces for Scrolling |
| US7872652B2 (en) | 2007-01-07 | 2011-01-18 | Apple Inc. | Application programming interfaces for synchronization |
| US8665225B2 (en) | 2007-01-07 | 2014-03-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for interpreting a finger gesture |
| US8091045B2 (en) | 2007-01-07 | 2012-01-03 | Apple Inc. | System and method for managing lists |
| JP4793287B2 (ja) | 2007-02-28 | 2011-10-12 | ブラザー工業株式会社 | 通信装置および通信システム |
| KR101383709B1 (ko) | 2007-03-07 | 2014-04-09 | 삼성디스플레이 주식회사 | 표시 장치 및 그의 구동 방법 |
| US8436815B2 (en) | 2007-05-25 | 2013-05-07 | Microsoft Corporation | Selective enabling of multi-input controls |
| JP5117121B2 (ja) | 2007-06-18 | 2013-01-09 | パイオニア株式会社 | Av機器の操作制御システム |
| US8171432B2 (en) | 2008-01-06 | 2012-05-01 | Apple Inc. | Touch screen device, method, and graphical user interface for displaying and selecting application options |
| US8181122B2 (en) | 2007-07-30 | 2012-05-15 | Perceptive Pixel Inc. | Graphical user interface for large-scale, multi-user, multi-touch systems |
| US20090051671A1 (en) | 2007-08-22 | 2009-02-26 | Jason Antony Konstas | Recognizing the motion of two or more touches on a touch-sensing surface |
| KR101348721B1 (ko) | 2007-09-03 | 2014-01-08 | 엘지전자 주식회사 | 휴대 단말기 및 그 휴대 단말기의 터치 인식 방법 |
| KR20090024541A (ko) | 2007-09-04 | 2009-03-09 | 삼성전자주식회사 | 하이퍼링크 선택 방법 및 이를 이용하는 이동통신 단말기 |
| WO2009049331A2 (en) | 2007-10-08 | 2009-04-16 | Van Der Westhuizen Willem Mork | User interface |
| US7917584B2 (en) | 2007-10-22 | 2011-03-29 | Xcerion Aktiebolag | Gesture-based collaboration |
| WO2009062124A1 (en) | 2007-11-09 | 2009-05-14 | Wms Gaming, Inc. | Interface for wagering game environments |
| US20090207140A1 (en) | 2008-02-19 | 2009-08-20 | Sony Ericsson Mobile Communications Ab | Identifying and responding to multiple time-overlapping touches on a touch panel |
| TWI352924B (en) | 2008-02-21 | 2011-11-21 | Wintek Corp | Touch panel and driving method of touch panel |
| US8416196B2 (en) | 2008-03-04 | 2013-04-09 | Apple Inc. | Touch event model programming interface |
| US8717305B2 (en) | 2008-03-04 | 2014-05-06 | Apple Inc. | Touch event model for web pages |
| US8645827B2 (en) | 2008-03-04 | 2014-02-04 | Apple Inc. | Touch event model |
| US8174502B2 (en) | 2008-03-04 | 2012-05-08 | Apple Inc. | Touch event processing for web pages |
| US8352877B2 (en) | 2008-03-06 | 2013-01-08 | Microsoft Corporation | Adjustment of range of content displayed on graphical user interface |
| US20090231281A1 (en) | 2008-03-11 | 2009-09-17 | Microsoft Corporation | Multi-touch virtual keyboard |
| US8289289B2 (en) | 2008-04-03 | 2012-10-16 | N-trig, Ltd. | Multi-touch and single touch detection |
| KR101513024B1 (ko) | 2008-04-22 | 2015-04-17 | 엘지전자 주식회사 | 단말기 및 이것의 이미지 인식 방법 |
| US8526767B2 (en) | 2008-05-01 | 2013-09-03 | Atmel Corporation | Gesture recognition |
| US20100177053A2 (en) | 2008-05-09 | 2010-07-15 | Taizo Yasutake | Method and apparatus for control of multiple degrees of freedom of a display |
| US20090282332A1 (en) | 2008-05-12 | 2009-11-12 | Nokia Corporation | Apparatus, method and computer program product for selecting multiple items using multi-touch |
| US9268483B2 (en) | 2008-05-16 | 2016-02-23 | Microsoft Technology Licensing, Llc | Multi-touch input platform |
| US8584048B2 (en) | 2008-05-29 | 2013-11-12 | Telcordia Technologies, Inc. | Method and system for multi-touch-based browsing of media summarizations on a handheld device |
| US20090309847A1 (en) | 2008-06-12 | 2009-12-17 | You I Labs, Inc. | Apparatus and method for providing multi-touch interface capability |
| US7864037B2 (en) | 2008-06-16 | 2011-01-04 | International Business Machines Corporation | Pattern-driven communication architecture |
| US20090322699A1 (en) | 2008-06-25 | 2009-12-31 | Sony Ericsson Mobile Communications Ab | Multiple input detection for resistive touch panel |
| US8754855B2 (en) | 2008-06-27 | 2014-06-17 | Microsoft Corporation | Virtual touchpad |
| US20090322700A1 (en) | 2008-06-30 | 2009-12-31 | Tyco Electronics Corporation | Method and apparatus for detecting two simultaneous touches and gestures on a resistive touchscreen |
| JP2010015238A (ja) | 2008-07-01 | 2010-01-21 | Sony Corp | 情報処理装置、及び補助情報の表示方法 |
| US8154428B2 (en) | 2008-07-15 | 2012-04-10 | International Business Machines Corporation | Gesture recognition control of electronic devices using a multi-touch device |
| US8237807B2 (en) | 2008-07-24 | 2012-08-07 | Apple Inc. | Image capturing device with touch screen for adjusting camera settings |
| US8390577B2 (en) | 2008-07-25 | 2013-03-05 | Intuilab | Continuous recognition of multi-touch gestures |
| KR101482120B1 (ko) | 2008-08-01 | 2015-01-21 | 엘지전자 주식회사 | 스케줄 관리가 가능한 휴대 단말기 및 그 제어방법 |
| US8135171B2 (en) | 2008-08-19 | 2012-03-13 | Au Optronics Corp. | Multipoint tracking method and related device |
| CN101661361A (zh) | 2008-08-27 | 2010-03-03 | 比亚迪股份有限公司 | 多点触摸检测系统 |
| US20100107116A1 (en) | 2008-10-27 | 2010-04-29 | Nokia Corporation | Input on touch user interfaces |
| JP4853507B2 (ja) | 2008-10-30 | 2012-01-11 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
| US8732576B2 (en) | 2008-12-04 | 2014-05-20 | Nvidia Corporation | Operating system providing multi-touch support for applications in a mobile device |
| TW201023018A (en) | 2008-12-12 | 2010-06-16 | Asustek Comp Inc | Touch panel with multi-touch function and multi-touch detecting method thereof |
| US8217909B2 (en) | 2008-12-19 | 2012-07-10 | Cypress Semiconductor Corporation | Multi-finger sub-gesture reporting for a user interface device |
| US8869070B2 (en) | 2008-12-30 | 2014-10-21 | T-Mobile Usa, Inc. | Handwriting manipulation for conducting a search over multiple databases |
| KR101521932B1 (ko) | 2009-01-19 | 2015-05-20 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
| US20110321125A1 (en) | 2009-02-10 | 2011-12-29 | Satoshi Kyohgoku | Authentication device, authentication method and program for causing computer to execute the same |
| US9684521B2 (en) | 2010-01-26 | 2017-06-20 | Apple Inc. | Systems having discrete and continuous gesture recognizers |
| US8285499B2 (en) | 2009-03-16 | 2012-10-09 | Apple Inc. | Event recognition |
| US9311112B2 (en) | 2009-03-16 | 2016-04-12 | Apple Inc. | Event recognition |
| US8566045B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
| US8566044B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
| KR101510484B1 (ko) | 2009-03-31 | 2015-04-08 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기의 제어 방법 |
| US20100281435A1 (en) | 2009-04-30 | 2010-11-04 | At&T Intellectual Property I, L.P. | System and method for multimodal interaction using robust gesture processing |
| US8427440B2 (en) | 2009-05-05 | 2013-04-23 | Microsoft Corporation | Contact grouping and gesture recognition for surface computing |
| US8375295B2 (en) | 2009-05-21 | 2013-02-12 | Sony Computer Entertainment Inc. | Customization of GUI layout based on history of use |
| US20110069021A1 (en) | 2009-06-12 | 2011-03-24 | Hill Jared C | Reducing false touchpad data by ignoring input when area gesture does not behave as predicted |
| KR101608532B1 (ko) | 2009-08-11 | 2016-04-01 | 엘지전자 주식회사 | 이동 통신 단말기에서의 데이터 표시방법 및 이를 적용한 이동 통신 단말기 |
| US8310459B2 (en) | 2009-09-23 | 2012-11-13 | Nokia Corporation | Touch detection |
| TWI400638B (zh) | 2009-10-20 | 2013-07-01 | Acer Inc | 觸控顯示裝置、觸控顯示系統及其調整觸控區域之方法 |
| KR20110047349A (ko) | 2009-10-30 | 2011-05-09 | 주식회사 팬택 | 휴대용 단말기에서 터치와 가압을 이용하는 사용자 인터페이스 장치 및 방법 |
| US8957918B2 (en) | 2009-11-03 | 2015-02-17 | Qualcomm Incorporated | Methods for implementing multi-touch gestures on a single-touch touch surface |
| US8390600B2 (en) | 2009-11-13 | 2013-03-05 | Microsoft Corporation | Interactive display system with contact geometry interface |
| US20100085323A1 (en) | 2009-12-04 | 2010-04-08 | Adam Bogue | Segmenting a Multi-Touch Input Region by User |
| US8432368B2 (en) | 2010-01-06 | 2013-04-30 | Qualcomm Incorporated | User interface methods and systems for providing force-sensitive input |
| US8140570B2 (en) | 2010-03-11 | 2012-03-20 | Apple Inc. | Automatic discovery of metadata |
| US8296332B2 (en) | 2010-04-01 | 2012-10-23 | Apple Inc. | Visual manipulation of database schema |
| KR20110110940A (ko) | 2010-04-02 | 2011-10-10 | 삼성전자주식회사 | 휴대용 단말기의 터치 입력 장치 및 방법 |
| US9146751B2 (en) | 2010-04-07 | 2015-09-29 | Apple Inc. | Device, method, and graphical user interface for navigation of multiple applications |
| US20110252357A1 (en) | 2010-04-07 | 2011-10-13 | Imran Chaudhri | Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications |
| US8131898B2 (en) | 2010-05-27 | 2012-03-06 | Adobe Systems Incorporated | Event handling in an integrated execution environment |
| EP2390766B1 (de) | 2010-05-28 | 2013-09-25 | BlackBerry Limited | Elektronische Vorrichtung mit berührungsempfindlicher Anzeige und Verfahren zu deren Steuerung |
| US20130120280A1 (en) | 2010-05-28 | 2013-05-16 | Tim Kukulski | System and Method for Evaluating Interoperability of Gesture Recognizers |
| US8669946B2 (en) | 2010-05-28 | 2014-03-11 | Blackberry Limited | Electronic device including touch-sensitive display and method of controlling same |
| CN102262890A (zh) | 2010-05-31 | 2011-11-30 | 鸿富锦精密工业(深圳)有限公司 | 电子装置及其标记方法 |
| JP5663980B2 (ja) | 2010-06-29 | 2015-02-04 | ブラザー工業株式会社 | 画像処理装置 |
| TWI407346B (zh) | 2010-07-30 | 2013-09-01 | Ind Tech Res Inst | 觸控輸入裝置之軌跡補償方法與系統,及其電腦程式產品 |
| US20120242584A1 (en) | 2011-03-22 | 2012-09-27 | Nokia Corporation | Method and apparatus for providing sight independent activity reports responsive to a touch gesture |
| AU2011202182B1 (en) | 2011-05-11 | 2011-10-13 | Frequency Ip Holdings, Llc | Creation and presentation of selective digital content feeds |
| US9071970B2 (en) | 2011-12-05 | 2015-06-30 | Sony Corporation | Terminal device |
| US9046958B2 (en) | 2012-03-15 | 2015-06-02 | Nokia Technologies Oy | Method, apparatus and computer program product for user input interpretation and input error mitigation |
-
2008
- 2008-03-04 US US12/042,299 patent/US8416196B2/en active Active
-
2009
- 2009-03-03 EP EP11184226A patent/EP2405346A3/de not_active Ceased
- 2009-03-03 CN CN201410028534.5A patent/CN103761044B/zh active Active
- 2009-03-03 EP EP09700007.9A patent/EP2137598B1/de active Active
- 2009-03-03 JP JP2010502358A patent/JP4979811B2/ja active Active
- 2009-03-03 CN CN200980000013.6A patent/CN101790715B/zh active Active
- 2009-03-03 DE DE112009000003.7T patent/DE112009000003B4/de active Active
- 2009-03-03 EP EP11184224A patent/EP2405345A3/de not_active Ceased
- 2009-03-03 EP EP11184222A patent/EP2405343A3/de not_active Ceased
- 2009-03-03 WO PCT/US2009/035874 patent/WO2009111469A2/en not_active Ceased
- 2009-03-03 EP EP11184223A patent/EP2405344A3/de not_active Ceased
-
2011
- 2011-06-17 US US13/163,624 patent/US8836652B2/en active Active
- 2011-06-17 US US13/163,626 patent/US8723822B2/en active Active
-
2012
- 2012-04-09 JP JP2012088747A patent/JP5715590B2/ja active Active
-
2013
- 2013-03-08 US US13/791,621 patent/US9323335B2/en active Active
-
2014
- 2014-12-10 JP JP2014250268A patent/JP5968411B2/ja active Active
-
2016
- 2016-07-05 JP JP2016133582A patent/JP6265394B2/ja active Active
-
2017
- 2017-12-13 JP JP2017238833A patent/JP6426262B2/ja active Active
-
2018
- 2018-10-24 JP JP2018200268A patent/JP6731028B2/ja active Active
-
2020
- 2020-07-03 JP JP2020115933A patent/JP7111772B2/ja active Active
-
2022
- 2022-07-21 JP JP2022116537A patent/JP7369833B2/ja active Active
-
2023
- 2023-10-16 JP JP2023178344A patent/JP7766660B2/ja active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6323846B1 (en) | 1998-01-26 | 2001-11-27 | University Of Delaware | Method and apparatus for integrating manual input |
| US20020015024A1 (en) | 1998-01-26 | 2002-02-07 | University Of Delaware | Method and apparatus for integrating manual input |
| US6677932B1 (en) | 2001-01-28 | 2004-01-13 | Finger Works, Inc. | System and method for recognizing touch typing under limited tactile feedback conditions |
| US6570557B1 (en) | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE112009000003T5 (de) | Programmierschnittstelle für ein Berührungsereignismodell | |
| DE112009000002B4 (de) | Verarbeitung von Berührungsereignissen für Webseiten | |
| DE112009000001T5 (de) | Berührungsmodell für Webseiten | |
| US10324619B2 (en) | Touch-based gesture recognition and application navigation | |
| JP5956694B2 (ja) | フィードバック・ユーザ・インターフェース要素に関連するアニメーション・シーケンス | |
| DE202009019125U1 (de) | Bewegungsgesteuerte Ansichten auf mobilen Computergeräten | |
| US20130036380A1 (en) | Graphical User Interface for Tracking and Displaying Views of an Application | |
| DE202016005219U1 (de) | Benutzerschnittstelle zum Navigieren und Wiedergeben von Inhalt | |
| DE202014004555U1 (de) | Vorrichtung zur Erzeugung von Benutzerschnittstellen aus einer Vorlage | |
| DE202008000259U1 (de) | Tragbare Multifunktionseinrichtung | |
| DE112016001104T5 (de) | Aktivierung von virtuellen Assistenten | |
| DE212006000087U1 (de) | Tragbare elektronische Vorrichtung mit Schnittstellenrekonfigurationsmodus | |
| DE102013004214A1 (de) | Alternative Entsperrungsmuster | |
| JP2018045721A (ja) | ユーザ・インターフェース内のコンポーネントの位置調整 | |
| DE202016001483U1 (de) | Geräte zur Steuerung einer Medienpräsentation | |
| DE112013002409T5 (de) | Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt | |
| DE112020004536T5 (de) | Dynamische flexschaltung für kamera mit bewegbarem bildsensor | |
| US9075884B2 (en) | Collecting web pages/links from communications and documents for later reading | |
| DE202013011826U1 (de) | Vorrichtung und grafische Benutzerschnittstelle zum Zugreifen auf eine Anwendung in einer gesperrten Vorrichtung | |
| DE202008000260U1 (de) | Tragbare Multifunktionsvorrichtung | |
| DE112012006165T5 (de) | Touchscreen-Anwenderschnittstelle mit Spracheingabe | |
| CN107209756B (zh) | 在标记语言文档中支持数字墨水 | |
| CN116368468A (zh) | 用于经由操作系统用户界面提供选项卡预览的系统和方法 | |
| EP3262581A1 (de) | Öffnen eines neuen anwendungsfensters als reaktion auf eine fernressourcenteilung | |
| US10606924B2 (en) | Contextual file manager |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| OP8 | Request for examination as to paragraph 44 patent law | ||
| R016 | Response to examination communication | ||
| R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06F0003041000 Ipc: G06F0003048000 Effective date: 20130304 |
|
| R016 | Response to examination communication | ||
| R018 | Grant decision by examination section/examining division | ||
| R020 | Patent grant now final |