[go: up one dir, main page]

DE102008061039A1 - Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle - Google Patents

Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle Download PDF

Info

Publication number
DE102008061039A1
DE102008061039A1 DE102008061039A DE102008061039A DE102008061039A1 DE 102008061039 A1 DE102008061039 A1 DE 102008061039A1 DE 102008061039 A DE102008061039 A DE 102008061039A DE 102008061039 A DE102008061039 A DE 102008061039A DE 102008061039 A1 DE102008061039 A1 DE 102008061039A1
Authority
DE
Germany
Prior art keywords
movement
coordinate
signal
optical touch
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102008061039A
Other languages
English (en)
Inventor
Chih Chien San Chung Liao
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KYE Systems Corp
Original Assignee
KYE Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KYE Systems Corp filed Critical KYE Systems Corp
Publication of DE102008061039A1 publication Critical patent/DE102008061039A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle, das ein Objekt auf der grafischen Benutzerschnittstelle steuern kann und folgende Schritte enthält: das erste optische Touchfenster erzeugt ein erstes Bewegungssignal und das zweite optische Touchfenster erzeugt ein zweites Bewegungssignal; aus dem ersten Bewegungssignal wird eine erste Bewegungsrichtung und aus dem zweiten Bewegungssignal wird eine zweite Bewegungsrichtung erhalten; und aus der Relativbeziehung der ersten und zweiten Bewegungsrichtung wird ein entsprechendes Steuersignal erzeugt, das die Bewegung eines Objektes auf der grafischen Schnittstelle steuert.

Description

  • Technisches Gebiet
  • Die Erfindung betrifft ein Verfahren zur Steuerung der grafischen Benutzerschnittstelle, insbesondere ein Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle.
  • Stand der Technik
  • Eingabegeräte können Koordinatensignale an ein Computersystem (wie PC, Notebook, PDA usw.) senden und enthalten Maus, Trackball, Touchpad, Digitalisiertablett, Joystick usw. Auf der Maus ist ferner ein Scrollrad vorgesehen, das die horizontale und vertikale Bildlaufleiste auf der grafischen Benutzerschnittstelle steuern kann. Unter dem Scrollrad ist ein Tastschalter vorgesehen, der durch einen Druck auf das Scrollrad betätigt werden kann, wodurch ein Befehl erzeugt wird.
  • Multitouch ist ein System zur Mensch-Maschine-Interaktion. Durch diese Technik kann der Benutzer mit Fingern die grafische Benutzerschnittstelle bedienen, so dass die Steuerung der grafischen Benutzerschnittstelle erleichtert wird. Diese Technik kann durch eine Projected Capacitive Touchscreen verwirklicht werden.
  • Das Projected Capacitive Touchscreen weist eine strukturierte ITO(Indium-Tin-Oxid)-Beschichtung auf, die ein Sensorarray bildet, das die Touchposition präzis erfassen kann und somit eine Multitouch-Bedienung gestattet. Ein Projected Capacitive Touchscreen für Handy benötigt mindestens 15 Leitungen. Je höher die Auflösung ist, desto komplizierter ist die Verkabelung. Wenn das Projected Capacitive Touchscreen verkleinert wird, wird seine Empfindlichkeit auch reduziert. Zudem kann die Erfassungsgenauigkeit durch die Temperatur und Feuchtigkeit beeinflußt werden.
  • Aus diesem Grund hat der Erfinder die vorliegende Erfindung entwickelt.
  • Aufgabe der Erfindung
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle zu schaffen, das durch zwei optische Touchfenster auf einem Eingabegerät die grafische Benutzer schnittstelle steuern kann, so dass die Steuerung der grafischen Benutzerschnittstelle erleichtert wird.
  • Diese Aufgabe wird durch das erfindungsgemäße Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle gelöst, das ein Objekt auf der grafischen Benutzerschnittstelle steuern kann und folgende Schritte enthält: das erste optische Touchfenster erzeugt ein erstes Bewegungssignal und das zweite optische Touchfenster erzeugt ein zweites Bewegungssignal; aus dem ersten Bewegungssignal wird eine erste Bewegungsrichtung und aus dem zweiten Bewegungssignal wird eine zweite Bewegungsrichtung erhalten; und aus der Relativbeziehung der ersten und zweiten Bewegungsrichtung wird ein entsprechendes Steuersignal erzeugt, das die Bewegung eines Objektes auf der grafischen Schnittstelle steuert.
  • Bei der Erfindung sind auf dem Eingabegerät zwei opitsche Touchfenster vorgesehen, durch die zwei Bewegungssignale erzeugt werden, aus denen zwei Bewegungsrichtungen erhalten werden, durch die ein Steuersignal an den Computer gesendet wird, das die Bewegung eines Objektes auf der grafischen Benutzerschnittstelle steuert. Daher ist ein Sensorarray nicht erforderlich, wodurch der Aufbau vereinfacht wird. Zudem wird der Einfluß durch Temperatur und Feuchtigkeit reduziert, so dass die Erfassungsgenauigkeit erhöht wird.
  • Im folgenden wird die Erfindung anhand der beigefügten Zeichnungen näher erläutert.
  • Kurze Beschreibung der Zeichnungen
  • 1 eine Darstellung des erfindungsgemäßen Computersystems,
  • 2A ein Ablaufdiagramm des ersten Ausführungsbeispiels der Erfindung,
  • 2B ein Ablaufdiagramm des zweiten Ausführungsbeispiels der Erfindung,
  • 3A eine Darstellung der Anwendung der Erfindung auf ein tragbares elektronisches Produkt, wie Handy und PDA,
  • 3B eine weitere Darstellung der Anwendung der Erfindung auf ein tragbares elektronisches Produkt, wie Handy und PDA,
  • 4A eine Darstellung der Touchsteuerung der Erfindung,
  • 4B eine weitere Darstellung der Touchsteuerung der Erfindung,
  • 4C eine nochmals weitere Darstellung der Touchsteuerung der Erfindung,
  • 4D eine nochmals weitere Darstellung der Touchsteuerung der Erfindung,
  • 4E eine nochmals weitere Darstellung der Touchsteuerung der Erfindung,
  • 4F eine nochmals weitere Darstellung der Touchsteuerung der Erfindung,
  • 4G eine nochmals weitere Darstellung der Touchsteuerung der Erfindung,
  • 4H eine nochmals weitere Darstellung der Touchsteuerung der Erfindung.
  • Wege zur Ausführung der Erfindung
  • Das erfindungsgemäße Eingabegerät für Computer kann Maus, Trackball, Touchpad, Gamepad usw. sein oder in einem elektronischen Produkt mit einer grafischen Benutzerschnittstelle, wie Notebook, PDA, Digitalfotorahmen, usw. eingebaut werden. Die beigefügten Figuren dienen nur zur Darstellung der Erfindung. Darauf ist die Erfindung nicht be schränkt. Nachfolgend wird die Anwendung der Erfindung auf eine Maus für einen Tischcomputer beschrieben.
  • Wie aus 1 ersichtlich ist, umfaßt das Computersystem 50 ein Eingabegerät 10 und einen Computer 20, wobei das Eingabegerät 10 eine Maus und der Computer 20 ein Tischcomputer ist. Die Maus kann ein verdrahtete oder drahtlose Maus sein und auf einer Tischfläche bewegt werden. Die Bewegung der Maus kann optisch oder mechanisch in ein entsprechendes Bewegungssignal umgesetzt werden, durch das der Cursor auf der grafischen Benutzerschnittstelle (wie Windows) gesteuert werden kann. Die Maus weist ein erstes optisches Touchfenster 11 und ein zweites optisches Touchfenster 12 auf, die das Scrollrad der Maus ersetzen können. Wenn der Benutzer mit zwei Fingern einer Hand oder einem Finger der beiden Hände oder einem anderen Gegenstand über das erste und zweite optische Touchfenster 11, 12 führt, können sie Bilder von den Fingern oder des Gegenstands aufnehmen und ein entsprechendes Steuersignal erzeugen. Das erste und zweite optische Touchfenster 11, 12 sind durch Bildsensoren, wie CCD und CMOS, gebildet, die die Bildänderung durch die Bewegung des Fingers erfassen können, wie aus US 7298362 dieses Anmelders bekannt ist. Sie können auch Strahlungssensoren sein, die die physikalische Änderung der Strahlung erfassen können, wie aus US 6872931 bekannt ist.
  • 2A zeigt ein Ablaufdiagramm des ersten Ausführungsbeispiels des erfindungsgemäßen Verfahrens, wobei das Eingabegerät ein Objekt auf der grafischen Benutzerschnittstelle des Computers steuern kann. Das Objekt kann eine Grafik, der Cursor oder ein Text sein. Wie dargestellt, enthält das erfindungsgemäße Verfahren folgende Schritte: Zunächst erzeugt das erste optische Touchfenster ein erstes Bewegungssignal und das zweite optische Touchfenster ein zweites Bewegungssignal (Schritt 100). Das erste und zweite optische Touchfenster können an der gleichen Seiten oder an den beiden Seiten des Eingabegeräts angeordnet sein. Der Benutzer kann mit Fingern oder einem Gegenstand das erste und zweite optische Touchfenster berühren. Der Mikroprozessor (nicht dargestellt) im Eingabegerät kann durch die Koordinaten der Anfangsposition und der Endpositon des Fingers auf dem ersten optischen Touchfenster das erste Bewegungssignal und durch die Koordinaten der Anfangsposition und der Endpositon des Fingers auf dem zweiten optischen Touchfenster das zweite Bewegungssignal erzeugen. Es ist auch denkbar, im Schritt 100 mehr als zwei (z. B. drei) optische Touchfenster vorzusehen.
  • Aus dem ersten Bewegungssignal wird eine erste Bewegungsrichtung und aus dem zweiten Bewegungssignal wird eine zweite Bewegungsrichtung erhalten (Schritt 110). Die erste Bewegungsrichtung wird durch die Änderung der X- und Y-Koordinate des ersten Bewegungssignals, d. h. durch die Koordinatenbeziehung der Anfangsposition und der Endpositon des ersten Bewegungssignals ermittelt. Dadurch können die Bewegungsrichtung des Fingers auf dem ersten optischen Touchfenster (erste Bewegungsrichtung) sowie die Bewegungsstrecke auf der X- und Y-Achse erhalten werden. Die zweite Bewegungsrichtung wird durch die Änderung der X- und Y-Koordinate des zweiten Bewegungssignals, d. h. durch die Koordinatenbeziehung der Anfangsposition und der Endpositon des zweiten Bewegungssignals ermittelt. Dadurch können die Bewegungsrichtung des Fingers auf dem zweiten optischen Touchfenster (zweite Bewegungsrichtung) sowie die Bewegungsstrecke auf der X- und Y-Achse erhalten werden.
  • Aus der Relativbeziehung der ersten und zweiten Bewegungsrichtung wird ein entsprechendes Steuersignal an den Computer gesendet, um z. B. ein Objekt auf der grafischen Schnittstelle zu bewegen (Schritt 120). Tabelle 1 zeigt die Steuersignale aus der Relativbeziehung der ersten und zweiten Bewegungsrichtung:
    Änderung der X-Koordinate der ersten Bewegungsrichtung Änderung der Y-Koordinate der ersten Bewegungsrichtung Änderung der X-Koordinate der zweiten Bewegungsrichtung Änderung der Y-Koordinate der zweiten Bewegungsrichtung Steuer-signal
    null steigend null steigend nach oben schieben
    null sinkend null sinkend nach unten schieben
    sinkend null sinkend null nach links schieben
    steigend null steigend null nach rechts schieben
    null steigend null sinkend nach links drehen
    null sinkend null steigend nach rechts drehen
    steigend null sinkend null vergrößern
    sinkend null steigend null verkleinern
    Tabelle 1
  • Die Bewegung des Objektes im Schritt 120 kann die Verschiebung auf die letzte Seite oder die nächste Seite oder die Verschiebung nach oben, unten, links, rechts, links oben, links unten, rechts oben, rechts unten oder die Drehung nach links oder rechts oder eine Vergrößerung und eine Verkleinerung sein. Die Steuersignale können auch von dem Be nutzer definiert werden (z. B. Wiedergeben, Stoppen oder Stummschalten eines Multimedia-Spielers).
  • 2B zeigt ein Ablaufdiagramm des zweiten Ausführungsbeispiels des erfindungsgemäßen Verfahrens, wobei das Eingabegerät ein Objekt auf der grafischen Benutzerschnittstelle des Computers steuern kann. Das Objekt kann eine Grafik, der Cursor oder ein Text sein. Wie dargestellt, enthält das erfindungsgemäße Verfahren folgende Schritte: Zunächst erzeugt das erste optische Touchfenster ein erstes Bewegungssignal und das zweite optische Touchfenster ein zweites Bewegungssignal (Schritt 150). Das erste und zweite optische Touchfenster können an der gleichen Seiten oder an den beiden Seiten des Eingabegeräts angeordnet sein. Der Benutzer kann mit Fingern oder einem Gegenstand das erste und zweite optische Touchfenster berühren. Der Mikroprozessor (nicht dargestellt) im Eingabegerät kann durch die Koordinaten der Anfangsposition und der Endpositon des Fingers auf dem ersten optischen Touchfenster das erste Bewegungssignal und durch den Koordinatenwert der Anfangsposition und der Endpositon des Fingers auf dem zweiten optischen Touchfenster das zweite Bewegungssignal erzeugen. Es ist auch denkbar, im Schritt 150 mehr als zwei (z. B. drei) optische Touchfenster vorzusehen.
  • Durch die Änderung der X- und Y-Koordinate des ersten Bewegungssignals wird eine erste Bewegungsrichtung und durch die Änderung der X- und Y-Koordinate des zweiten Bewegungssignals wird eine zweite Bewegungsrichtung erhalten (Schritt 160). Dabei können durch die Koordinatenbeziehung der Anfangsposition und der Endpositon des ersten Bewegungssignals die erste Bewegungsrichtung sowie die Bewegungsstrecke auf der X- und Y-Achse ermittelt werden.
  • Gleichfalls können durch die Koordinatenbeziehung der Anfangsposition und der Endpositon des zweiten Bewegungssignals die zweite Bewegungsrichtung sowie die Bewegungsstrecke auf der X- und Y-Achse ermittelt werden.
  • Aus der Relativbeziehung der ersten und zweiten Bewegungsrichtung wird ein entsprechendes Steuersignal erzeugt, um z. B. ein Bild auf einem Bildschirm zu steuern oder ein Multimedia-Spieler zu betätigen (Schritt 170). Die Steuersignale sind gleich wie in Tabelle 1.
  • Die 3A und 3B zeigen die Anwendung der Erfindung auf ein tragbares elektronisches Produkt, wie Handy und PDA. Der Benutzer kann durch das erste optische Touchfenster 11 und das zweite optische Touchfenster 12 auf dem tragbaren elektronischen Produkt 300 ein Bild, d. h. ein Objekt 210, auf der grafischen Benutzerschnittstelle 200 (oder ein Bild auf einem Bildschirm 30) steuern. Der Benutzer kann mit zwei Fingern einer Hand oder einem Finger der beiden Hände oder einem anderen Gegenstand das erste und zweite optische Touchfenster 11, 12 berühren.
  • 4A zeigt eine Darstellung der Touchsteuerung der Erfindung. Wenn der Benutzer zunächst den Finger auf dem ersten optischen Touchfenster 11 nach oben bewegt, wird ein erstes Bewegungssignal erzeugt, aus dem eine erste Bewegungsrichtung 11a erhalten wird. Wenn der Benutzer den Finger auf dem zweiten optischen Touchfenster 12 nach oben bewegt, wird ein zweites Bewegungssignal erzeugt, aus dem eine zweite Bewegungsrichtung 12a erhalten wird. Aus der Relativbeziehung der ersten und zweiten Bewegungsrichtung 11a, 12a wird ein Steuersignal an den Computer gesendet, um ein Objekt 210 zu steuern. Da die erste und zweite Bewegungsrichtung beide in der steigenden Richtung der Y- Koordinate fallen, wird das Objekt 210 auf der grafischen Benutzerschnittstelle 200 nach oben bis die Position des Objektes 220 verschoben.
  • 4B zeigt eine weitere Darstellung der Touchsteuerung der Erfindung. Wenn der Benutzer zunächst den Finger auf dem ersten optischen Touchfenster 11 nach unten bewegt, wird ein erstes Bewegungssignal erzeugt, aus dem eine erste Bewegungsrichtung 11a erhalten wird. Wenn der Benutzer den Finger auf dem zweiten optischen Touchfenster 12 nach unten bewegt, wird ein zweites Bewegungssignal erzeugt, aus dem eine zweite Bewegungsrichtung 12a erhalten wird. Aus der Relativbeziehung der ersten und zweiten Bewegungsrichtung 11a, 12a wird ein Steuersignal an den Computer gesendet, um ein Objekt 210 zu steuern. Da die erste und zweite Bewegungsrichtung beide in der sinkenden Richtung der Y-Koordinate fallen, wird das Objekt 210 auf der grafischen Benutzerschnittstelle 200 nach unten bis die Position des Objektes 220 verschoben.
  • 4C zeigt eine nochmals weitere Darstellung der Touchsteuerung der Erfindung. Wenn der Benutzer zunächst den Finger auf dem ersten optischen Touchfenster 11 nach links bewegt, wird ein erstes Bewegungssignal erzeugt, aus dem eine erste Bewegungsrichtung 11a erhalten wird. Wenn der Benutzer den Finger auf dem zweiten optischen Touchfenster 12 nach links bewegt, wird ein zweites Bewegungssignal erzeugt, aus dem eine zweite Bewegungsrichtung 12a erhalten wird. Aus der Relativbeziehung der ersten und zweiten Bewegungsrichtung 11a, 12a wird ein Steuersignal an den Computer gesendet, um ein Objekt 210 zu steuern. Da die erste und zweite Bewegungsrichtung beide in der sinkenden Richtung der X-Koordinate fallen, wird das Objekt 210 auf der grafischen Benutzerschnittstelle 200 nach links bis die Position des Objektes 220 verschoben.
  • 4D zeigt eine nochmals weitere Darstellung der Touchsteuerung der Erfindung. Wenn der Benutzer zunächst den Finger auf dem ersten optischen Touchfenster 11 nach rechts bewegt, wird ein erstes Bewegungssignal erzeugt, aus dem eine erste Bewegungsrichtung 11a erhalten wird. Wenn der Benutzer den Finger auf dem zweiten optischen Touchfenster 12 nach rechts bewegt, wird ein zweites Bewegungssignal erzeugt, aus dem eine zweite Bewegungsrichtung 12a erhalten wird. Aus der Relativbeziehung der ersten und zweiten Bewegungsrichtung 11a, 12a wird ein Steuersignal an den Computer gesendet, um ein Objekt 210 zu steuern. Da die erste und zweite Bewegungsrichtung beide in der steigenden Richtung der X-Koordinate fallen, wird das Objekt 210 auf der grafischen Benutzerschnittstelle 200 nach rechts bis die Position des Objektes 220 verschoben.
  • 4E zeigt eine nochmals weitere Darstellung der Touchsteuerung der Erfindung. Wenn der Benutzer zunächst den Finger auf dem ersten optischen Touchfenster 11 nach oben bewegt, wird ein erstes Bewegungssignal erzeugt, aus dem eine erste Bewegungsrichtung 11a erhalten wird. Wenn der Benutzer den Finger auf dem zweiten optischen Touchfenster 12 nach unten bewegt, wird ein zweites Bewegungssignal erzeugt, aus dem eine zweite Bewegungsrichtung 12a erhalten wird. Aus der Relativbeziehung der ersten und zweiten Bewegungsrichtung 11a, 12a wird ein Steuersignal an den Computer gesendet, um ein Objekt 210 zu steuern. Da die erste Bewegungsrichtung in der steigenden Richtung der Y-Koordinate und die zweite Bewegungsrichtung in der sinkenden Richtung der Y-Koordinate fällt, wird das Objekt 210 auf der grafischen Benutzerschnittstelle 200 nach links bis die Position des Objektes 220 gedreht.
  • 4F zeigt eine nochmals weitere Darstellung der Touchsteuerung der Erfindung. Wenn der Benutzer zunächst den Finger auf dem ersten optischen Touchfenster 11 nach unten bewegt, wird ein erstes Bewegungssignal erzeugt, aus dem eine erste Bewegungsrichtung 11a erhalten wird. Wenn der Benutzer den Finger auf dem zweiten optischen Touchfenster 12 nach oben bewegt, wird ein zweites Bewegungssignal erzeugt, aus dem eine zweite Bewegungsrichtung 12a erhalten wird. Aus der Relativbeziehung der ersten und zweiten Bewegungsrichtung 11a, 12a wird ein Steuersignal an den Computer gesendet, um ein Objekt 210 zu steuern. Da die erste Bewegungsrichtung in der sinkenden Richtung der Y-Koordinate und die zweite Bewegungsrichtung in der steigenden Richtung der Y-Koordinate fällt, wird das Objekt 210 auf der grafischen Benutzerschnittstelle 200 nach rechts bis die Position des Objektes 220 gedreht.
  • 4G zeigt eine nochmals weitere Darstellung der Touchsteuerung der Erfindung. Wenn der Benutzer zunächst den Finger auf dem ersten optischen Touchfenster 11 nach links bewegt, wird ein erstes Bewegungssignal erzeugt, aus dem eine erste Bewegungsrichtung 11a erhalten wird. Wenn der Benutzer den Finger auf dem zweiten optischen Touchfenster 12 nach rechts bewegt, wird ein zweites Bewegungssignal erzeugt, aus dem eine zweite Bewegungsrichtung 12a erhalten wird. Aus der Relativbeziehung der ersten und zweiten Bewegungsrichtung 11a, 12a wird ein Steuersignal an den Computer gesendet, um ein Objekt 210 zu steuern. Da die erste Bewegungsrichtung in der sinkenden Richtung der X-Koordinate und die zweite Bewegungsrichtung in der steigenden Richtung der X-Koordinate fällt, wird das Objekt 210 auf der grafischen Benutzerschnittstelle 200 bis die Größe des Objektes 220 verkleinert.
  • 4H zeigt eine nochmals weitere Darstellung der Touchsteuerung der Erfindung. Wenn der Benutzer zunächst den Finger auf dem ersten optischen Touchfenster 11 nach rechts bewegt, wird ein erstes Bewegungssignal erzeugt, aus dem eine erste Bewegungsrichtung 11a erhalten wird. Wenn der Benutzer den Finger auf dem zweiten optischen Touchfenster 12 nach links bewegt, wird ein zweites Bewegungssignal erzeugt, aus dem eine zweite Bewegungsrichtung 12a erhalten wird. Aus der Relativbeziehung der ersten und zweiten Bewegungsrichtung 11a, 12a wird ein Steuersignal an den Computer gesendet, um ein Objekt 210 zu steuern. Da die erste Bewegungsrichtung in der steigenden Richtung der X-Koordinate und die zweite Bewegungsrichtung in der sinkenden Richtung der X-Koordinate fällt, wird das Objekt 210 auf der grafischen Benutzerschnittstelle 200 bis die Größe des Objektes 220 vergrößert.
  • Außerdem können durch die Bewegungsstrecke auf der X- und Y-Achse des ersten und zweiten Bewegungssignals der Verschiebungsstrecke, der Drehwinkel, der Vergrößerungs- und Verkleinerungsfaktor erhalten werden.
  • Hierbei ist darauf hinzuweisen, dass wenn das erste und zweite optische Touchfenster 11, 12 klein und nahe aneinander liegen, der Benutzer mit einem Finger einer Hand gleichzeitig das erste und zweite optische Touchfenster 11, 12 berühren kann. Z. B. wenn der Finger nach oben bewegt wird, können gleichzeitig das erste und zweite Bewegungssignal wie in 4A erzeugt werden. Wenn der Finger nach unten bewegt wird, können gleichzeitig das erste und zweite Bewegungssignal wie in 4B erzeugt werden. Wenn der Finger nach links oder rechts bewegt wird, können gleichzeitig das erste und zweite Bewegungssignal wie in 4C oder 4D erzeugt werden. Wenn der Finger im Uhrzeigersinn oder gegen den Uhrzeigersinn bewegt wird, können gleichzeitig das erste und zweite Bewegungssignal wie in 4E oder 4F erzeugt werden. In diesem Ausführungsbeispiel können die Bewegungssignale in 4G und 4H nicht erzeugt werden.
  • Zusammenfassend ist festzustellen, dass die Erfindung durch zwei optische Touchfenster auf dem Eingabegerät Bewegungssignale erzeugt, durch die die Bewegungsrichtungen erhalten werden, wodurch die entsprechenden Steuersignale an dem Computer gesendet werden, so dass die Bewegung eines Objektes auf der grafischen Benutzerschnittstelle gesteuert werden kann. Bei der Erfindung ist ein Sensorarray nicht erforderlich, wodurch der Aufbau vereinfacht wird. Zudem wird der Einfluß durch Temperatur und Feuchtigkeit reduziert, so dass die Erfassungsgenauigkeit erhöht wird.
  • Die vorstehende Beschreibung stellt nur die bevorzugten Ausführungsbeispiele der Erfindung dar und soll nicht als Definition der Grenzen und des Bereiches der Erfindung dienen. Alle gleichwertige Änderungen und Modifikationen gehören zum Schutzbereich dieser Erfindung. Bezugszeichenliste
    10 Eingabegerät
    11 erstes optisches Touchfenster
    11a erste Bewegungsrichtung
    12 zweites optisches Touchfenster
    12a zweite Bewegungsrichtung
    20 Computer
    30 Bildschirm
    50 Computersystem
    200 grafische Benutzerschnittstelle
    210 Objekt
    220 Objekt
    300 tragbares elektronisches Produkt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 7298362 [0024]
    • - US 6872931 [0024]

Claims (12)

  1. Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle, das ein Objekt auf der grafischen Benutzerschnittstelle steuern kann und folgende Schritte enthält: das erste optische Touchfenster erzeugt ein erstes Bewegungssignal und das zweite optische Touchfenster erzeugt ein zweites Bewegungssignal; aus dem ersten Bewegungssignal wird eine erste Bewegungsrichtung und aus dem zweiten Bewegungssignal wird eine zweite Bewegungsrichtung erhalten; und aus der Relativbeziehung der ersten und zweiten Bewegungsrichtung wird ein entsprechendes Steuersignal er zeugt, das die Bewegung eines Objektes auf der grafischen Schnittstelle steuert.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die erste Bewegungsrichtung durch die Änderung der X- und Y-Koordinate des ersten Bewegungssignals und die zweite Bewegungsrichtung durch die Änderung der X- und Y-Koordinate des zweiten Bewegungssignals ermittelt wird.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass wenn die erste und zweite Bewegungsrichtung in der steigenden Richtung der Y-Koordinate fallen, das Objekt nach oben bewegt wird.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass wenn die erste und zweite Bewegungsrichtung in der sinkenden Richtung der Y-Koordinate fallen, das Objekt nach unten bewegt wird.
  5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass wenn die erste und zweite Bewegungsrichtung in der sinkende Richtung der X-Koordinate fallen, das Objekt nach links bewegt wird.
  6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass wenn die erste und zweite Bewegungsrichtung in der steigenden Richtung der X-Koordinate fallen, das Objekt nach rechts bewegt wird.
  7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass wenn die erste Bewegungsrichtung in der steigenden Richtung der Y-Koordinate und die zweite Bewe gungsrichtung in der sinkenden Richtung der Y-Koordinate fällt, das Objekt nach links gedreht wird.
  8. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass wenn die erste Bewegungsrichtung in der sinkenden Richtung der Y-Koordinate und die zweite Bewegungsrichtung in der steigenden Richtung der Y-Koordinate fällt, das Objekt nach rechts gedreht wird.
  9. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass wenn die erste Bewegungsrichtung in der sinkenden Richtung der X-Koordinate und die zweite Bewegungsrichtung in der steigenden Richtung der X-Koordinate fällt, das Objekt verkleinert wird.
  10. verfahren nach Anspruch 1, dadurch gekennzeichnet, dass wenn die erste Bewegungsrichtung in der steigenden Richtung der X-Koordinate und die zweite Bewegungsrichtung in der sinkenden Richtung der X-Koordinate fällt, das Objekt vergrößert wird.
  11. Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle, das mindestens folgende Schritte enthält: das erste optische Touchfenster erzeugt ein erstes Bewegungssignal und das zweite optische Touchfenster erzeugt ein zweites Bewegungssignal; durch die Änderung der X- und Y-Koordinate des ersten Bewegungssignals wird eine erste Bewegungsrichtung und durch die Änderung der X- und Y-Koordinate des zweiten Bewegungssignals wird eine zweite Bewegungsrichtung erhalten; und aus der Relativbeziehung der ersten und zweiten Bewegungsrichtung wird ein entsprechendes Steuersignal erzeugt.
  12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass durch das Steuersignal ein Bild auf einem Bildschirm gesteuert oder ein Multimedia-Spieler betätigt wird.
DE102008061039A 2008-09-05 2008-12-03 Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle Withdrawn DE102008061039A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW097134278 2008-09-05
TW097134278A TW201011618A (en) 2008-09-05 2008-09-05 Optical multi-point touch-to-control method of windows-based interface

Publications (1)

Publication Number Publication Date
DE102008061039A1 true DE102008061039A1 (de) 2010-03-11

Family

ID=41650898

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008061039A Withdrawn DE102008061039A1 (de) 2008-09-05 2008-12-03 Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle

Country Status (3)

Country Link
US (1) US20100064262A1 (de)
DE (1) DE102008061039A1 (de)
TW (1) TW201011618A (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8698845B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface with interactive popup views
US20110252357A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
US9823831B2 (en) 2010-04-07 2017-11-21 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9513801B2 (en) 2010-04-07 2016-12-06 Apple Inc. Accessing electronic notifications and settings icons with gestures
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
JP5990011B2 (ja) * 2012-02-28 2016-09-07 キヤノン株式会社 情報処理装置及びその制御方法
US9477404B2 (en) 2013-03-15 2016-10-25 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9658740B2 (en) 2013-03-15 2017-05-23 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9229612B2 (en) 2013-08-27 2016-01-05 Industrial Technology Research Institute Electronic device, controlling method for screen, and program storage medium thereof
US10637986B2 (en) 2016-06-10 2020-04-28 Apple Inc. Displaying and updating a set of application views
CN107678818B (zh) * 2017-09-22 2019-11-22 维沃移动通信有限公司 一种用户界面控制方法及移动终端
USD920976S1 (en) * 2018-02-13 2021-06-01 Kye Systems Corp. Keyboard
USD879097S1 (en) * 2018-02-13 2020-03-24 Kye Systems Corp. Keyboard

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6872931B2 (en) 2000-11-06 2005-03-29 Koninklijke Philips Electronics N.V. Optical input device for measuring finger movement
US7298362B2 (en) 2003-07-31 2007-11-20 Kye Systems Corp. Pointing device with finger-contact control

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10254197B4 (de) * 2002-11-20 2006-05-04 Siemens Ag Vorrichtung und Verfahren zum Erkennen der Sitzbelegung in einem Fahrzeug
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
TWI460621B (zh) * 2008-01-21 2014-11-11 Elan Microelectronics Corp 可供進行多物件操作之觸控板及應用其中之方法
US20100053111A1 (en) * 2008-09-04 2010-03-04 Sony Ericsson Mobile Communications Ab Multi-touch control for touch sensitive display

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6872931B2 (en) 2000-11-06 2005-03-29 Koninklijke Philips Electronics N.V. Optical input device for measuring finger movement
US7298362B2 (en) 2003-07-31 2007-11-20 Kye Systems Corp. Pointing device with finger-contact control

Also Published As

Publication number Publication date
TW201011618A (en) 2010-03-16
US20100064262A1 (en) 2010-03-11

Similar Documents

Publication Publication Date Title
DE102008061039A1 (de) Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle
DE102008063354B4 (de) Selektive Zurückweisung von Berührungskontakten in einem Kantenbereich einer Berührungsoberfläche
DE69231270T2 (de) Gerät zur auf einem Anzeigeschirm angezeigten Manipulation eines Objektes
DE102006060068B4 (de) Anzeigegerät und Verfahren, das für kleine Handgeräte angepasst ist
DE69534404T2 (de) Verfahren zum kompensieren von unbeabsichtigten Bewegungen bei einer Antipgeste auf einer Berührungssensorfläche
DE102012109058B4 (de) Steuerverfahren und elektronische Einrichtung
DE202005021492U1 (de) Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
DE202008007940U1 (de) Benutzerschnittstelle für eine modusabhängige Verarbeitung von Berührungsdaten
DE102012014603B4 (de) Betriebssystem und Verfahren für den synchronisierten Betrieb einer Touch-Vorrichtung
DE112018002775T5 (de) Verfahren und vorrichtung zum erfassen von ebenen und/oder quadtrees zur verwendung als ein virtuelles substrat
DE202009007458U1 (de) Optisches Eingabegerät
DE102013112251A1 (de) Touchpad-Betriebsmodus
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
EP2795451A1 (de) Verfahren zum betrieb einer mehrfachberührungsfähigen anzeige und vorrichtung mit einer mehrfachberührungsfähigen anzeige
EP2877910B1 (de) Eingabevorrichtung mit versenkbarer berührungsempfindlicher oberfläche
DE102012013115A1 (de) Verfahren und System für Multi-Touch-Steuerung
WO2004034241A2 (de) Schnell-eingabevorrichtung
DE102016204692A1 (de) Steuerung der Mehrfachauswahl auf berührungsempfindlichen Flächen
DE102011000771A1 (de) Eingabegerät, Maus, Fernsteuerung, Steuerkreis, elektronisches System und Verfahren zur Steuerung
DE69535004T2 (de) Eine mensch/maschinenschnittstelle für rechnervorrichtungen
EP1881398B1 (de) Verfahren zur Positionierung eines Cursors auf einem berührungsempfindlichen Bildschirm
WO2003042802A2 (de) Eingabegerät, webcam und bildschirm mit spracheingabefunktion
DE102018002783B4 (de) Numerische Steuereinheit
DE202015007114U1 (de) Vorrichtung zum Bestimmen der Pupillenmitte
EP2842022A1 (de) Telekommunikationsgerät mit einer projektionseinrichtung und verfahren zum betrieb eines telekommunikationsgeräts mit einer projektionseinrichtung

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003037000

Ipc: G06F0003048000

Effective date: 20130304

R082 Change of representative

Representative=s name: ELBPATENT - MARSCHALL & PARTNER PARTGMBB, DE

Representative=s name: MARSCHALL & PARTNER, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee