[go: up one dir, main page]

DE102008000001B4 - Integrierte Hardware- und Softwarebenutzerschnittstelle - Google Patents

Integrierte Hardware- und Softwarebenutzerschnittstelle Download PDF

Info

Publication number
DE102008000001B4
DE102008000001B4 DE200810000001 DE102008000001A DE102008000001B4 DE 102008000001 B4 DE102008000001 B4 DE 102008000001B4 DE 200810000001 DE200810000001 DE 200810000001 DE 102008000001 A DE102008000001 A DE 102008000001A DE 102008000001 B4 DE102008000001 B4 DE 102008000001B4
Authority
DE
Germany
Prior art keywords
tactile
user
tactile features
sensory
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE200810000001
Other languages
English (en)
Other versions
DE102008000001A1 (de
Inventor
Michael J. Andrews
Michael D. Tschirhart
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visteon Global Technologies Inc
Original Assignee
Visteon Global Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visteon Global Technologies Inc filed Critical Visteon Global Technologies Inc
Publication of DE102008000001A1 publication Critical patent/DE102008000001A1/de
Application granted granted Critical
Publication of DE102008000001B4 publication Critical patent/DE102008000001B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft eine integrierte Benutzerschnittstelle (10, 110) und ein Verfahren zur Integrierung von Hardware- und Softwarefunktionen für die Benutzerschnittstelle (10, 110). Die integrierte Benutzerschnittstelle (10, 110) umfasst Folgendes: – eine sensorische Oberfläche, die dafür konfiguriert ist, ein Auswahlsignal von einem Benutzer/einer Benutzerin zu empfangen, woraus ein entsprechendes Befehlssignal innerhalb eines Softwaresystems entsteht, wobei die sensorische Oberfläche eine Lautstärkesteuerleiste (28) mit einem Lautstärkesteuerkästchen (30) bereitstellt, mit der der Benutzer/die Benutzerin die Lautstärke verringern oder erhöhen kann, – eine Softwareprogrammschnittstelle, die geeignet ist, an mehreren unterschiedlichen Positionen der sensorischen Oberfläche Auswahlsignale von einem Benutzer/einer Benutzerin zu empfangen, und – mindestens einen Abschnitt eines Rahmens (14, 114), der angrenzend an die Lautstärkesteuerleiste (28) angeordnet ist, wobei der Abschnitt des Rahmens (14, 114) mehrere als konvexe oder erhöhte Erhebungen auf der Oberfläche des Rahmens (14, 114) angeordnete taktile Merkmale (32, 132, 134, 136, 138, 140) aufweist, wobei mindestens einige der mehreren unterschiedlichen Positionen der sensorischen Oberfläche entlang der Lautstärkesteuerleiste (28) an die taktilen Merkmale (32, 132, 134, 136, 138, 140) angrenzen und mit ihnen physisch korrespondieren, womit die taktilen Merkmale (32, 132, 134, 136, 138, 140) derart angeordnet sind, dass das Auswahlsignal von der sensorischen Oberfläche gleichzeitig mit der Berührung eines taktilen Merkmals (32, 132, 134, 136, 138, 140) der mehreren taktilen Merkmale (32, 132, 134, 136, 138, 140) durch den Finger eines Benutzers/einer Benutzerin empfangen werden kann, wobei die taktilen Merkmale (32, 132, 134, 136, 138, 140) für den/die Benutzer/in eine taktile Rückmeldung bereitstellen, die dem von der sensorischen Oberfläche empfangenen Auswahlsignal entspricht.

Description

  • Die vorliegende Erfindung betrifft allgemein Benutzerschnittstellen für sensorische Oberflächen. Insbesondere betrifft die Erfindung Benutzerschnittstellen für sensorische Oberflächen mit einer berührungsempfindlichen Funktion.
  • Anzeigebildschirme von elektronischen Geräten weisen häufig Benutzerschnittstellen auf, über die der/die Benutzer/in eine Auswahl hinsichtlich verschiedener, auf dem Anzeigebildschirm angezeigter Bilder vornehmen kann. Bei einem Mobiltelefon zum Beispiel tippt der/die Benutzer/in mit Hilfe einer Tastatur eine Telefonnummer ein, was bewirkt, dass die Telefonnummer auf dem Bildschirm angezeigt wird. Wenn der/die Benutzer/in eine „Ruf”- oder „Gespräch”-Taste drückt, zeigt der Bildschirm, dass das Telefon die eingegebene Nummer wählt.
  • Derzeitige Anzeigeanwendungen können allgemein in zwei Hauptarten unterteilt werden: 1) Anzeigebildschirme mit off-screen (nicht auf dem Bildschirm befindlicher) Harttastensteuerung und 2) Anzeigebildschirme mit Touch-Screen-Funktion (Bildschirmberührungsfunktion). Einige Geräte ermöglichen die Verwendung beider Funktionsweisen. Zum Beispiel kann ein Persönlicher Digitaler Assistent (PDA) einem Benutzer ermöglichen, Bilder entweder mit Hilfe eines Touch-Screens oder mit Hilfe einer Hart-Taste auszuwählen. Andere Geräte stellen bisher durch Anordnen von Hart-Tasten neben einem Bildschirm eine gewisse Verbindung von Hart- und Soft-Tastenmerkmalen bereit, so dass eine Hart-Taste gedrückt werden kann, um ein Bild auszuwählen, das angrenzend an die Hart-Taste auf dem Anzeigebildschirm angezeigt wird.
  • Touch-Screens können in größerem Umfang Funktionen ermöglichen als Hart-Tasten, da die von der Software bereitgestellten Anzeigen für verschiedene Navigationsbildschirme verändert werden können, was eine bessere Anpassung an Kundenwünsche und eine bessere Konfigurierbarkeit mit unterschiedlichen Funktionen auf unterschiedlichen Bildschirmen ermöglicht. Das Softwareprogramm kann jede Touch-Screen-Auswahltaste passend neu belegen, während der/die Benutzer/in durch verschiedene Touch-Screens navigiert, was dem/der Benutzer/in „Umschalt”-Funktionen/Vorgänge erspart und die Zahl der notwendigen Hart-Tasten auf einem Minimum hält.
  • Touch-Screens können jedoch für Benutzer/innen schwieriger zu bedienen sein, da es dem Benutzer möglicherweise schwer fällt genau zu erkennen, wo die Touch-Screen-Taste angeordnet ist oder wie weit eine Schiebetaste oder ein Schiebefeld über den Anzeigebildschirm zu bewegen ist, um die gewünschte Funktion zu erhalten. Mit anderen Worten kann es einem Benutzer/einer Benutzerin schwer fallen, die Lage der virtuellen Touch-Screen-Taste zu erkennen. Diese Schwierigkeit kann auftreten, weil der/die Benutzer/in von einem Touch-Screen nicht die gleiche Art sensorischer Rückmeldung erhält, wie sie der/die Benutzer/in von Hart-Tasten erhält (das Gefühl des Einrastens oder den Klang mehrerer umlaufender Klicks zum Beispiel) und durch den Umstand, dass der/die Benutzer/in möglicherweise nicht direkt auf den Touch-Screen blickt, wenn der Touch-Screen in ein Fahrzeug integriert ist. Mit anderen Worten beanspruchen bestimmte Touch-Screen-Funktionen ein höheres Maß an Aufmerksamkeit und bringen mehr visuelle Belastung für den Benutzer als Hart-Tasten oder Drehknöpfe.
  • Ein Gerät, das ein höheres Maß an visueller Aufmerksamkeit oder kognitiver Belastung vom Benutzer erfordert, ist problematisch, da Benutzer/innen wünschen, mehrere Geräte gleichzeitig bedienen und/oder einer Hauptaufgabe Beachtung schenken zu können, ohne all ihre visuellen Sinne auf ein Gerät richten zu müssen. Zum Beispiel kann ein Benutzer/eine Benutzerin wünschen, während des Führens eines Fahrzeugs die Lautstärke einer Freisprechanlage zu erhöhen. Wenn die Lautstärkefunktion nur als eine virtuelle Schiebetaste auf einem Touch-Screen existiert, kann es dem/der Benutzer/in schwer fallen, die virtuelle Lautstärketaste zu lokalisieren und sicher auf das gewünschte Maß zu schieben, während er sich der Hauptaufgabe des Fahrens widmet.
  • Angesichts des Vorangegangenen ist offensichtlich, dass ein Bedarf an einer berührungsempfindlichen Benutzerschnittstelle besteht, die sich zu nicht-visuellem Gebrauch eignet.
  • In der US 5,748,185 A ist ein Touch-Pad mit mehreren Teilbereichen beschrieben, wobei das Touch-Pad mit verschiedenen Befehlen oder Funktionen einer grafischen Benutzerschnittstelle verbunden ist. Das Touch-Pad umfasst einen Bereich zur Cursorsteuerung, einen Bereich zur Scrollsteuerung und einen Bereich zur Schwenksteuerung. Die verschiedenen Teilbereiche des Touch-Pads können einerseits auf einer einzigen Touch-Pad-(Gesamt)-Einheit angeordnet sein, andererseits kann jeder Bereich auch einer separaten Tochpad-Einheit entsprechen. So ist zum Beispiel eine rechteckige Öffnung für alle drei genannten Bereiche vorgesehen, die an das gesamte Tochpad angrenzt. Dabei sind in die Oberfläche der Touch-Pad-Einheit ein horizontaler Steg und ein vertikaler Steg integriert, um die drei Bereiche der Cursorsteuerung, der Scrollsteuerung und der Schwenksteuerung gegeneinander abzugrenzen. Dabei liefern die Stege einem Benutzer taktile Informationen, um durch Berührung zu bestimmen, in welchem der Teilbereiche Kontakt mit einem Touch-Pad besteht. Allerdings ist so nur eine grobe Bestimmung darüber möglich, in welchem Bereich sich der Finger des Benutzers/der Benutzerin befindet. Eine taktile Information darüber, an welcher Stelle auf dem Touch-Pad genau sich der Finger befindet, wie für eine Lautstärkerregelung erforderlich, ist durch die Stege nicht möglich.
  • Aus der DE 31 23 596 A1 ist ein Handapparat für ein Mobilfunkgerät bekannt, das ein Tastenfeld auf dem rückseitigen Gehäuseteil aufweist. Am Umfang des Tastenfeldes sind Mulden von der Größe einer Fingerkuppe, aber auch dreieckige und rechteckig geformte Mulden ausgebildet. Diese Mulden dienen zusammen mit weiteren Erhebungen, die innerhalb der Mulden neben den Tasten auf dem Boden des Tastenfeldes ausgebildet sind, dem Auffinden der Tasten, die sich jeweils innen neben den Mulden befinden. Eine Übertragung dieser Lösung für das nichtvisuelle Auffinden von Tasten auf Sensoroberflächen ist prinzipiell möglich, jedoch hat diese Lösung den Nachteil, dass die Tasten nicht gleichzeitig mit den Mulden, sondern erst nach Abfühlen der jeweils benachbarten Mulde berührt werden.
  • Die Aufgabe der Erfindung besteht darin, eine berührungsempfindliche Benutzerschnittstelle bereitzustellen, die sich zu einem schnellen nicht-visuellen Gebrauch eignet und dabei eine Lautstärkeregelung ermöglicht.
  • Zur Deckung des oben genannten Bedarfes sowie zur Überwindung der aufgezählten Nachteile und anderen Beschränkungen des Standes der Technik stellt die vorliegende Erfindung eine integrierte Benutzerschnittstelle mit einer sensorischen Oberfläche (wie etwa einem Touch-Screen, einem kapazitiven Berührungssensor, einem Feldeffekt-Sensor oder anderen Oberflächen) bereit, die fähig ist, ein Bewegungs- oder ein Berührungssignal von einem Benutzer/einer Benutzerin zu empfangen und innerhalb eines Softwaresystems ein entsprechendes Befehlssignal zu versenden. Angrenzend an die sensorische Oberfläche ist ein Blendenmerkmal angeordnet. Das Blendenmerkmal weist mehrere taktile Merkmale auf, die fähig sind, für einen Benutzer eine taktile Rückmeldung bereitzustellen, die dem Bewegungs- oder Berührungssignal entsprechen, das von der sensorischen Oberfläche empfangen wurde.
  • Genauer gesagt, besteht die Losung der Aufgabe in einer integrierten Benutzerschnittstelle, Folgendes umfassend:
    • – eine sensorische Oberfläche, die dafür konfiguriert ist, ein Auswahlsignal von einem Benutzer/einer Benutzerin zu empfangen, woraus ein entsprechendes Befehlssignal innerhalb eines Softwaresystems entsteht, wobei die sensorische Oberfläche eine Lautstärkesteuerleiste mit einem Lautstärkesteuerkästchen bereitstellt, mit der der Benutzer/die Benutzerin die Lautstärke verringern oder erhöhen kann,
    • – eine Softwareprogrammschnittstelle, die geeignet ist, an mehreren unterschiedlichen Positionen der sensorischen Oberfläche Auswahlsignale von einem Benutzer/einer Benutzerin zu empfangen, und
    • – mindestens einen Abschnitt eines Rahmens, der angrenzend an die Lautstärkesteuerleiste angeordnet ist, wobei der Abschnitt des Rahmens mehrere als konvexe oder erhöhte Erhebungen auf der Oberfläche des Rahmens angeordnete taktile Merkmale aufweist, wobei mindestens einige der mehreren unterschiedlichen Positionen der sensorischen Oberfläche entlang der Lautstärkesteuerleiste an die taktilen Merkmale angrenzen und mit ihnen physisch korrespondieren, womit die taktilen Merkmale derart angeordnet sind, dass das Auswahlsignal von der sensorischen Oberfläche gleichzeitig mit der Berührung eines taktilen Merkmals der mehreren taktilen Merkmale durch den Finger eines Benutzers/einer Benutzerin empfangen werden kann, wobei die taktilen Merkmale für den/die Benutzer/in eine taktile Rückmeldung bereitstellen, die dem von der sensorischen Oberfläche empfangenen Auswahlsignal entspricht.
  • In einer vorteilhaften Ausgestaltung der Erfindung weist jedes taktile Merkmal eine Oberflächeneigenschaft auf, wobei die Oberflächeneigenschaft eine taktile Rückmeldung für den/die Benutzer/in bereitstellt. Vorzugsweise unterscheidet sich die Oberflächeneigenschaft mindestens zweier taktiler Merkmale voneinander. Speziell können sich auch die Oberflächeneigenschaften aneinander angrenzender taktiler Merkmale voneinander unterscheiden.
  • In einer weiteren Ausführungsform der erfindungsgemäßen integrierten Benutzerschnittstelle unterscheidet sich ein erstes taktiles Merkmal der mehreren taktilen Merkmale in der Struktur von einem zweiten taktilen Merkmal der mehreren taktilen Merkmale. Des Weiteren kann sich ein erstes taktiles Merkmal der mehreren taktilen Merkmale auch in der Größe von einem zweiten taktilen Merkmal der mehreren taktilen Merkmale unterscheiden.
  • Gemäß einer bevorzugten Ausführungsform der Erfindung ist die sensorische Oberfläche ein Anzeigebildschirm. Vorteilhafterweise ist das sensorische Signal fähig, das Auswahlsignal durch Berührung zu empfangen. Die taktilen Merkmale können über die sensorische Oberfläche hinausragen.
  • In einem weiteren Aspekt wird ein Verfahren zur Integrierung der Hardware- und der Softwarefunktionen für eine Benutzerschnittstelle bereitgestellt. Das Verfahren umfasst das Anordnen einer Blendenstruktur (Abschnitt eines Rahmens) angrenzend an eine Lautstärkesteuerleiste mit einem Lautstärkesteuerkästchen, mit der der Benutzer/die Benutzerin die Lautstärke verringern oder erhöhen kann und welche durch eine sensorische Oberfläche bereitgestellt wird. Die Blendenstruktur weist mehrere taktile Merkmale und die Sensoroberfläche eine Softwareschnittstelle auf, wobei die taktilen Merkmale als konvexe oder erhöhte Erhebungen auf der Oberfläche des Rahmens beziehungsweise der Blendenstruktur angeordnet sind. Das Verfahren umfasst ferner das Konfigurieren der Benutzerschnittstelle derart, dass die Softwareschnittstelle fähig ist, Auswahlsignale eines Benutzers/einer Benutzerin an mehreren Positionen zu empfangen. Das Verfahren umfasst das Konfigurieren der Lage mindestens eines Abschnittes der Positionen derart, dass die Positionen an die taktilen Merkmale angrenzen und physisch mit den taktilen Merkmalen korrespondieren. Die taktilen Merkmale stellen entsprechend den von der Benutzerschnittstelle empfangenen Auswahlsignalen eine taktile Rückmeldung an den Benutzer/die Benutzerin bereit.
  • Gemäß einer Ausgestaltung umfasst das Verfahren ferner den Schritt des Bildens der taktilen Merkmale mit einer Oberflächeneigenschaft, wobei sich die Oberflächeneigenschaften aneinander angrenzender taktiler Merkmale voneinander unterscheiden.
  • Die sensorische Oberfläche wird bevorzugt als ein Anzeigebildschirm bereitgestellt. Gemäß einer weiteren Ausgestaltung umfasst das Verfahren ferner den Schritt des Konfigurierens der sensorischen Oberfläche zum Empfangen der Auswahlsignale durch Berührung.
  • Vorzugsweise umfasst das Verfahren ferner den Schritt des Anordnens der zum Empfangen der Auswahlsignale fähigen Positionen relativ zu den jeweils entsprechenden taktilen Merkmalen, um gleichzeitig von einem normalen Finger eines Benutzers/einer Benutzerin berührt zu werden.
  • Entsprechend einer weiteren vorteilhaften Ausführungsform umfasst das Verfahren ferner den Schritt des Anordnens der zum Empfangen der Auswahlsignale fähigen Positionen relativ zu den jeweils entsprechenden taktilen Merkmalen derart, dass die Positionen fähig sind, die Auswahlsignale gleichzeitig zu empfangen, wenn die jeweils entsprechenden taktilen Merkmale von einem Finger eines Benutzers/einer Benutzerin berührt werden.
  • Weitere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung erschließen sich dem Fachmann ohne weiteres aus dem Studium der folgenden Beschreibung anhand der Zeichnungen und Ansprüche, die der vorliegenden Patentschrift beigefügt sind und deren Bestandteile sie bilden.
  • 1 ist eine Vorderansicht einer ersten Ausführungsform einer integrierten Benutzerschnittstelle, die die Prinzipien der vorliegenden Erfindung umsetzt.
  • 2 ist eine Vorderansicht einer zweiten Ausführungsform einer integrierten Benutzerschnittstelle, die die Prinzipien der vorliegenden Erfindung umsetzt.
  • In 1 ist eine integrierte Benutzerschnittstelle dargestellt und mit 10 bezeichnet, die die Prinzipien der vorliegenden Erfindung umsetzt. Als ihre Hauptkomponenten umfasst die integrierte Benutzerschnittstelle 10 eine sensorische Oberfläche und eine daran angrenzend angeordnete Hardwarekomponente.
  • In der dargestellten Ausführungsform der 1 ist die sensorische Oberfläche ein Anzeigebildschirm 12. Die sensorische Oberfläche muss kein Anzeigebildschirm sein; stattdessen kann die sensorische Oberfläche jede beliebige Oberfläche mit sensorischen Funktionen sein. Zum Beispiel kann die sensorische Oberfläche eine kapazitive Oberfläche sein, bei der die Bewegungs- oder Berührungssignale vom Benutzer an die Oberfläche übermittelt werden können, selbst wenn die Oberfläche keine Anzeige aufweist. Alternativ kann die sensorische Oberfläche eine auf einer Kamera basierende Oberfläche sein, ein Feldeffekt-Schalter oder sie kann auf irgendeiner anderen Technologie mit ähnlicher Funktion basieren.
  • Auf dem Anzeigebildschirm 12 sind verschiedene Symbole 16 oder andere visuelle Anzeigen 26 angeordnet, wobei einige davon berührungsempfindlich sind. Mit anderen Worten können die Symbole 16 eine Softtastenfunktion aufweisen, die auch „Touch-Screen”-Funktionsweise genannt wird, wie dem Durchschnittsfachmann bekannt ist. Die „Touch-Screen”-Symbole 16 sind fähig, ein taktiles oder Berührungssignal von einem Benutzer zu empfangen und innerhalb eines Softwaresystems ein entsprechendes Befehlssignal zu versenden, um die gewünschte Funktion des Systems zu aktivieren. In der Ausführungsform der 1 sind die Symbole 16 fähig, die Funktionen eines Audioausgangssignals „Play” (Abspielen), „Stop” (Stopp), „Fast Forward” (Vorlauf) und „Rewind” (Rücklauf) zu aktivieren. Eine visuelle Anzeige 26 stellt eine visuelle Darstellung des Audioausgangssignals bereit.
  • Der Anzeigebildschirm 12 kann auch eine Lautstärkesteuerleiste 28 bereitstellen, die ebenfalls solch eine „Touch-Screen”-Funktion aufweist. Wenn ein Benutzer/eine Benutzerin den Anzeigebildschirm 12 über einem Lautstärkesteuerkästchen 30 berührt, das auf dem Anzeigebildschirm 12 abgebildet ist, kann der/die Benutzer/in das Lautstärkesteuerkästchen 30 auf dem Anzeigebildschirm 12 aufwärts oder abwärts „ziehen” und somit die Lautstärke eines Audiosignals verringern oder erhöhen, das von Lautsprechern (nicht dargestellt) wiedergegeben wird, welche an das Gerät angeschlossen sind, das mit der integrierten Benutzerschnittstelle 10 verbunden ist.
  • Wie oben erwähnt, weist die integrierte Benutzerschnittstelle eine Hardwarekomponente auf. In der in 1 dargestellten Ausführungsform ist die Hardwarekomponente ein Rahmen oder eine Blende 14, die angrenzend an mindestens einen Abschnitt des Anzeigebildschirmes 12 angeordnet ist. Der Rahmen 14 weist taktile Merkmale 32 auf, die von verschiedener Größe und Form sein können und über die Oberfläche des Anzeigebildschirmes 12 hinausragen können. So ist eine Anordnung der fühlbaren Merkmale 32 die von konvexen oder erhöhten Erhebungen auf der Oberfläche des Rahmens 14. Das taktile Merkmal ist angrenzend an den Anzeigebildschirm 12 an der Kante des Rahmens 14, entlang der Kante 15 des Rahmens 14, die den Anzeigebildschirm begrenzt, angeordnet, so dass der Finger eines Benutzers gleichzeitig sowohl das taktile Merkmal 32 als auch den Anzeigebildschirm 12 berühren kann. Die Softwareprogrammschnittstelle, die zusammen mit dem Anzeigebildschirm 12 verwendet wird, ist derart gestaltet, dass mindestens einige der virtuellen Tasten auf dem Anzeigebildschirm 12, der Lautstärkesteuerleiste 28 und dem Lautstärkesteuerkästchen 30 in 1 mit den taktilen Merkmalen 32 korrespondieren, die auf dem Rahmen 14 angeordnet sind. Somit sind die Hardware- und die Softwarebenutzerschnittstellen funktional miteinander integriert.
  • Wenn ein/e Benutzer/in das Steuerkästchen 30 aufwärts schiebt, berührt der Finger des Benutzers/der Benutzerin das taktile Merkmal 32. Somit stellt das taktile Merkmal 32 eine Rückmeldung für den/die Benutzer/in bereit, wie weit der/die Benutzer/in das Lautstärkesteuerkästchen 30 bewegt hat, da der/die Benutzer/in die Anzahl der taktilen Merkmale 32 fühlen kann, an denen er/sie das Steuerkästchen 30 vorbeigezogen hat. Da der/die Benutzer/in von den taktilen Merkmalen 32 eine taktile Rückmeldung empfängt, kennt der/die Benutzer/in ohne viel visuelle Anstrengung mit Gewissheit das Lautstärkemaß, das der/die Benutzer/in entlang der Lautstärkeleiste 28 auf dem Anzeigebildschirm 12 einstellt.
  • Eine in 2 gezeigte zweite Ausführungsform einer integrierten Benutzerschnittstelle, die die Prinzipien der vorliegenden Erfindung umsetzt, ist allgemein als 110 dargestellt. Wie in der ersten Ausführungsform weist die integrierte Benutzerschnittstelle 110 einen Anzeigebildschirm 112 auf, der von einem Rahmen 114 umgeben ist. Die Symbole 116, 118, 120, 122, 124 weisen eine „Touch-Screen”-Funktion auf und weitere visuelle Anzeigen 126 sind auf dem Anzeigebildschirm 112 sichtbar.
  • Entlang mindestens eines Abschnittes des Rahmens 114 ist ein Blendenmerkmal 115 bereitgestellt, das angrenzend an den Anzeigebildschirm 112 angeordnet ist und sich teilweise über den Anzeigebildschirm 112 erstreckt. Das Blendenmerkmal 115 weist die taktilen Merkmale 132, 134, 136, 138, 140 auf. Die mit dem Anzeigebildschirm 112 verwendete Softwareprogrammschnittstelle ist derart gestaltet, dass die Lage der Symbole 116, 118, 120, 122, 124 der Lage der taktilen Merkmale 132, 134, 136, 138, 140 entspricht. Somit sind die Hardware- und die Softwarebenutzerschnittstelle miteinander integriert.
  • Die taktilen Merkmale 132, 134, 136, 138, 140 der in 2 gezeigten Ausführungsform sind allgemein konkav und weisen die Oberflächeneigenschaften 142, 144, 146, 148 auf, die entlang der konkaven Oberflächen der taktilen Merkmale 132, 134, 136, 138, 140 angeordnet sind. Die Oberflächeneigenschaften 142, 144, 146, 148 der verschiedenen taktilen Merkmale 132, 134, 136, 138, 140 unterscheiden sich voneinander. Dies soll für den/die Benutzer/in eine taktile Rückmeldung darüber bereitstellen, welches Symbol der/die Benutzer/in unter Verwendung der Touch-Screen-Funktion ausgewählt hat, ohne große visuelle Anstrengung von Seiten des Benutzers/der Benutzerin zu erfordern.
  • Wenn in 2 zum Beispiel der/die Benutzer/in auf das „Play”-Symbol drücken und dadurch ein entsprechendes Gerät aktivieren möchte, um eine Audio- oder Videoausgabe zu erzeugen, legt er/sie seine/ihren Finger in das konkave taktile Merkmal 132 mit der glatten Oberflächeneigenschaft 142, das seinen/ihren Finger in Berührung mit dem „Play”-Symbol 118 auf den Anzeigebildschirm 112 bringt. In gleicher Weise legt der/die Benutzer/in, wenn er/sie die Audio- oder Videoausgabe „Fast Forward” wünscht, seinen/ihren Finger in das vertiefte taktile Merkmal 140 mit einer spitz gezahnten Oberflächeneigenschaft 148, das seinen/ihren Finger in Berührung mit dem „Fast-Forward”- oder Skip-Forward-Symbol (Vorwärts-Springen-Symbol) 124 auf dem Anzeigebildschirm 112 bringt, wodurch die „Fast-Forward”-Auswahl aktiviert wird. In ähnlicher Weise sind das „Rewind”- oder Skip-Back-Symbol (Rückwärts-Springen-Symbol) 122 und das „Stop”-Symbol 120 mit unterschiedlichen Oberflächeneigenschaften 146, 144 versehen, wie etwa mit einer rund gezahnten Oberfläche beziehungsweise einer segmentierten Oberfläche.
  • Eines der konkaven taktilen Merkmale 132 kann mit einer Grundstruktur versehen sein, die sich von den anderen taktilen Merkmalen 134, 136, 138, 140 unterscheidet. Zum Beispiel kann das taktile Merkmal 132 mit dem ihm zugeordneten „Sound”-Symbol (Klang-Symbol) 116 mit einer rechteckigen konkaven Struktur versehen sein, während die anderen taktilen Merkmale 134, 136, 138, 140 mit einer kreisförmigen oder gerundeten Struktur versehen sind. Ebenso können andere taktile Oberflächen anderen Funktionen entsprechen.
  • Da der/die Benutzer/in entweder die unterschiedlichen Strukturen der taktilen Merkmale 132, 134, 136, 138, 140 oder deren unterschiedliche Oberflächeneigenschaften 142, 144, 146, 148 fühlen kann, stellen die taktilen Merkmale 132, 134, 136, 138, 140 eine taktile Rückmeldung für den/die Benutzer/in darüber bereit, welches Symbol 116, 118, 120, 122, 124 der/die Benutzer/in mit dem „Touch-Screen”-Merkmal des Anzeigebildschirms 112 auswählt. Deshalb ist mit der integrierten Benutzerschnittstelle 110 beabsichtigt, dem/der Benutzer/in ohne viel visuelle Anstrengung die „Touch-Screen”-Auswahl zu ermöglichen, da der/die Benutzer/in, basierend auf seinem/ihrem Berührungssinn, in der Lage ist zu erkennen, welche Symbole 116, 118, 120, 122, 124 er/sie auswählt. Nachdem der/die Benutzer/in mit den Anzeigemerkmalen und -funktionen eines konkreten Softwareprogramms auf dem Anzeigebildschirm 112 vertraut geworden ist, kann er/sie sich, basierend auf dem Berührungsgefühl, leicht erinnern, welche taktilen Merkmale 132, 134, 136, 138, 140 welchen Funktionen entsprechen.
  • Die vorliegende Erfindung zieht außerdem ein Verfahren zur Integrierung von Hardware- und Softwarefunktionalität in eine Benutzerschnittstelle in Betracht. Das Verfahren umfasst das Anordnen einer Blendenstruktur angrenzend an eine sensorische Oberfläche, wie einem Anzeigebildschirm 12 mit einer Softwareschnittstelle. Die Blendenstruktur weist mehrere taktile Merkmale 32 auf, die im Wesentlichen denen ähneln, die im Vorangegangenen in Bezug zu entweder 1 oder zu 2 beschrieben sind, die durch Bezugnahme hierin aufgenommen sind.
  • Das Verfahren umfasst ferner das Konfigurieren der Benutzerschnittstelle derart, dass die Softwareschnittstelle fähig ist, an verschiedenen Positionen des Anzeigebildschirms 12 taktile Signale von einem Benutzer/einer Benutzerin zu empfangen. Mit anderen Worten ist der Anzeigebildschirm mit „Touch-Screen”-Funktionen konfiguriert. Die sensorische Oberfläche kann alternativ eine kapazitive Oberfläche sein, die fähig ist, auf Berührung zu reagieren, oder jede beliebige andere sensorische Oberfläche, die dafür konfiguriert sein kann, auf Berührung oder Bewegung in einem Nahfeld zu reagieren.
  • Des Weiteren schließt das durch die vorliegende Erfindung in Betracht gezogene Verfahren das Konfigurieren der Lage mindestens eines Abschnittes der Positionen, die zum Empfangen des taktilen Signals in der Lage sind, derart auf dem Bildschirm ein, dass die Lage und die Positionen physisch mit den taktilen Merkmalen 32 korrespondieren, was ermöglicht, dass die taktilen Merkmale 32 und die Positionen auf dem Anzeigebildschirm 12 von dem/der Benutzer/in der Schnittstelle 10 gleichzeitig berührt werden. Das System kann so konfiguriert werden, dass einige der Positionen den taktilen Merkmalen 32 entsprechen, wie das Lautstärkesteuerkästchen 30, andere, wie ein Symbol mit fester Position 16, jedoch nicht. Im Ergebnis der vorliegenden Erfindung stellen die taktilen Merkmale 32 eine taktile Rückmeldung an den/die Benutzer/in bereit, die den taktilen Signalen entsprechen, welche von der Softwareschnittstelle empfangen werden, wenn die sensorische Oberfläche von dem/der Benutzer/in berührt wird.
  • Bezugszeichenliste
  • 10
    Benutzerschnittstelle
    12
    Anzeigebildschirm
    14
    Rahmen oder Blende
    15
    Kante
    16
    Symbole
    26
    visuelle Anzeige
    28
    Lautstärkesteuerleiste
    30
    Lautstärkesteuerkästchen
    32
    taktile Merkmale
    110
    Benutzerschnittstelle
    112
    Anzeigebildschirm
    114
    Rahmen
    115
    Blendenmerkmal
    116
    Symbol
    118
    Symbol
    120
    Symbol
    122
    Symbol
    124
    Symbol
    126
    visuelle Anzeigen
    132
    taktiles Merkmal
    134
    taktiles Merkmal
    136
    taktiles Merkmal
    138
    taktiles Merkmal
    140
    taktiles Merkmal
    142
    Oberflächeneigenschaft
    144
    Oberflächeneigenschaft
    146
    Oberflächeneigenschaft
    148
    Oberflächeneigenschaft

Claims (15)

  1. Integrierte Benutzerschnittstelle (10, 110), Folgendes umfassend: – eine sensorische Oberfläche, die dafür konfiguriert ist, ein Auswahlsignal von einem Benutzer/einer Benutzerin zu empfangen, woraus ein entsprechendes Befehlssignal innerhalb eines Softwaresystems entsteht, wobei die sensorische Oberfläche eine Lautstärkesteuerleiste (28) mit einem Lautstärkesteuerkästchen (30) bereitstellt, mit der der Benutzer/die Benutzerin die Lautstärke verringern oder erhöhen kann, – eine Softwareprogrammschnittstelle, die geeignet ist, an mehreren unterschiedlichen Positionen der sensorischen Oberfläche Auswahlsignale von einem Benutzer/einer Benutzerin zu empfangen, und – mindestens einen Abschnitt eines Rahmens (14, 114), der angrenzend an die Lautstärkesteuerleiste (28) angeordnet ist, wobei der Abschnitt des Rahmens (14, 114) mehrere als konvexe oder erhöhte Erhebungen auf der Oberfläche des Rahmens (14, 114) angeordnete taktile Merkmale (32, 132, 134, 136, 138, 140) aufweist, wobei mindestens einige der mehreren unterschiedlichen Positionen der sensorischen Oberfläche entlang der Lautstärkesteuerleiste (28) an die taktilen Merkmale (32, 132, 134, 136, 138, 140) angrenzen und mit ihnen physisch korrespondieren, womit die taktilen Merkmale (32, 132, 134, 136, 138, 140) derart angeordnet sind, dass das Auswahlsignal von der sensorischen Oberfläche gleichzeitig mit der Berührung eines taktilen Merkmals (32, 132, 134, 136, 138, 140) der mehreren taktilen Merkmale (32, 132, 134, 136, 138, 140) durch den Finger eines Benutzers/einer Benutzerin empfangen werden kann, wobei die taktilen Merkmale (32, 132, 134, 136, 138, 140) für den/die Benutzer/in eine taktile Rückmeldung bereitstellen, die dem von der sensorischen Oberfläche empfangenen Auswahlsignal entspricht.
  2. Integrierte Benutzerschnittstelle (10, 110) nach Anspruch 1, dadurch gekennzeichnet, dass jedes taktile Merkmal (32, 132, 134, 136, 138, 140) eine Oberflächeneigenschaft (142, 144, 146, 148) aufweist und die Oberflächeneigenschaft (142, 144, 146, 148) eine taktile Rückmeldung für den/die Benutzer/in bereitstellt.
  3. Integrierte Benutzerschnittstelle (10, 110) nach Anspruch 2, dadurch gekennzeichnet, dass sich die Oberflächeneigenschaft (142, 144, 146, 148) mindestens zweier taktiler Merkmale (32, 132, 134, 136, 138, 140) voneinander unterscheidet.
  4. Integrierte Benutzerschnittstelle (10, 110) nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass sich die Oberflächeneigenschaften (142, 144, 146, 148) aneinander angrenzender taktiler Merkmale (32, 132, 134, 136, 138, 140) voneinander unterscheiden.
  5. Integrierte Benutzerschnittstelle (10, 110) nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass sich ein erstes taktiles Merkmal (32, 132, 134, 136, 138, 140) der mehreren taktilen Merkmale (32, 132, 134, 136, 138, 140) in der Struktur von einem zweiten taktilen Merkmal (32, 132, 134, 136, 138, 140) der mehreren taktilen Merkmale (32, 132, 134, 136, 138, 140) unterscheidet.
  6. Integrierte Benutzerschnittstelle (10, 110) nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass sich ein erstes taktiles Merkmal (32, 132, 134, 136, 138, 140) der mehreren taktilen Merkmale (32, 132, 134, 136, 138, 140) in der Größe von einem zweiten taktilen Merkmal (32, 132, 134, 136, 138, 140) der mehreren taktilen Merkmale (32, 132, 134, 136, 138, 140) unterscheidet.
  7. Integrierte Benutzerschnittstelle (10, 110) nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die sensorische Oberfläche ein Anzeigebildschirm (12, 112) ist.
  8. Integrierte Benutzerschnittstelle (10, 110) nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass das sensorische Signal fähig ist, das Auswahlsignal durch Berührung zu empfangen.
  9. Integrierte Benutzerschnittstelle (10, 110) nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die taktilen Merkmale (32, 132, 134, 136, 138, 140) über die sensorische Oberfläche hinausragen.
  10. Verfahren zur Integrierung von Hardware- und Softwarefunktionen für eine Benutzerschnittstelle (10, 110), Folgendes umfassend: – Anordnen eines Abschnittes eines Rahmens (14, 114) angrenzend an eine Lautstärkesteuerleiste (28) mit einem Lautstärkesteuerkästchen (30), mit der der Benutzer/die Benutzerin die Lautstärke verringern oder erhöhen kann und welche durch eine sensorische Oberfläche bereitgestellt wird, die eine Softwareschnittstelle umfasst, wobei der Abschnitt des Rahmens (14, 114) mehrere taktile Merkmale (32, 132, 134, 136, 138, 140) aufweist, welche als konvexe oder erhöhte Erhebungen auf der Oberfläche des Rahmens (14, 114) angeordnet sind, – Konfigurieren der Softwareschnittstelle derart, dass die Softwareschnittstelle fähig ist, an mehreren Positionen Auswahlsignale von einem Benutzer/einer Benutzerin zu empfangen, und – Konfigurieren der Lage mindestens einiger der mehreren Positionen entlang der Lautstärkesteuerleiste (28) derart, dass die Positionen an die taktilen Merkmale (32, 132, 134, 136, 138, 140) angrenzen und mit ihnen physisch korrespondieren, wobei die taktilen Merkmale (32, 132, 134, 136, 138, 140) für den/die Benutzer/in eine taktile Rückmeldung bereitstellen, die den von der Softwareschnittstelle empfangenen Auswahlsignalen entspricht.
  11. Verfahren nach Anspruch 10, ferner umfassend den Schritt des Bildens der taktilen Merkmale (32, 132, 134, 136, 138, 140) mit einer Oberflächeneigenschaft (142, 144, 146, 148), wobei sich die Oberflächeneigenschaften (142, 144, 146, 148) aneinander angrenzender taktiler Merkmale (32, 132, 134, 136, 138, 140) voneinander unterscheiden.
  12. Verfahren nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass die sensorische Oberfläche als ein Anzeigebildschirm (12, 112) bereitgestellt wird.
  13. Verfahren nach einem der Ansprüche 10 bis 12, ferner umfassend den Schritt des Konfigurierens der sensorischen Oberfläche zum Empfangen der Auswahlsignale durch Berührung.
  14. Verfahren nach Anspruch 13, ferner umfassend den Schritt des Anordnens der zum Empfangen der Auswahlsignale fähigen Positionen relativ zu den jeweils entsprechenden taktilen Merkmalen (32, 132, 134, 136, 138, 140), um gleichzeitig von einem normalen Finger eines Benutzers/einer Benutzerin berührt zu werden.
  15. Verfahren nach einem der Ansprüche 10 bis 14, ferner umfassend den Schritt des Anordnens der zum Empfangen der Auswahlsignale fähigen Positionen relativ zu den jeweils entsprechenden taktilen Merkmalen (32, 132, 134, 136, 138, 140) derart, dass die Positionen fähig sind, die Auswahlsignale gleichzeitig zu empfangen, wenn die jeweils entsprechenden taktilen Merkmale (32, 132, 134, 136, 138, 140) von einem Finger eines Benutzers/einer Benutzerin berührt werden.
DE200810000001 2007-01-05 2008-01-02 Integrierte Hardware- und Softwarebenutzerschnittstelle Expired - Fee Related DE102008000001B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/620,638 2007-01-05
US11/620,638 US8963842B2 (en) 2007-01-05 2007-01-05 Integrated hardware and software user interface

Publications (2)

Publication Number Publication Date
DE102008000001A1 DE102008000001A1 (de) 2008-07-10
DE102008000001B4 true DE102008000001B4 (de) 2012-02-09

Family

ID=38858272

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200810000001 Expired - Fee Related DE102008000001B4 (de) 2007-01-05 2008-01-02 Integrierte Hardware- und Softwarebenutzerschnittstelle

Country Status (3)

Country Link
US (1) US8963842B2 (de)
DE (1) DE102008000001B4 (de)
GB (1) GB2445445B (de)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6914551B2 (en) * 2002-04-12 2005-07-05 Apple Computer, Inc. Apparatus and method to facilitate universal remote control
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US20090156251A1 (en) * 2007-12-12 2009-06-18 Alan Cannistraro Remote control protocol for media systems controlled by portable devices
US8659555B2 (en) 2008-06-24 2014-02-25 Nokia Corporation Method and apparatus for executing a feature using a tactile cue
US20090319893A1 (en) * 2008-06-24 2009-12-24 Nokia Corporation Method and Apparatus for Assigning a Tactile Cue
US9716774B2 (en) 2008-07-10 2017-07-25 Apple Inc. System and method for syncing a user interface on a server device to a user interface on a client device
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
KR20110067755A (ko) * 2009-12-15 2011-06-22 삼성전자주식회사 휴대용 단말기에서 오디오 신호 출력 방법 및 장치
US8239785B2 (en) * 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US20110191719A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Cut, Punch-Out, and Rip Gestures
US9274682B2 (en) * 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US20110209098A1 (en) * 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
US8539384B2 (en) 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US9075522B2 (en) 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US8473870B2 (en) 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture
US8707174B2 (en) 2010-02-25 2014-04-22 Microsoft Corporation Multi-screen hold and page-flip gesture
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
DE102010063189A1 (de) * 2010-12-16 2012-06-21 BSH Bosch und Siemens Hausgeräte GmbH Bedienvorrichtung für ein Hausgerät sowie Hausgerät, insbesondere Backofen, mit einer Bedienvorrichtung
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
FR2993069B1 (fr) * 2012-07-09 2015-02-27 Ece Cadre ergonomique pour interface de commande tactile et interface de commande correspondante
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
KR102094886B1 (ko) * 2013-02-28 2020-03-30 엘지전자 주식회사 택타일 피드백 및 비주얼 피드백을 선택적으로 출력하는 디스플레이 디바이스 및 그 제어 방법
US9395816B2 (en) 2013-02-28 2016-07-19 Lg Electronics Inc. Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same
US20140300555A1 (en) * 2013-04-05 2014-10-09 Honeywell International Inc. Avionic touchscreen control systems and program products having "no look" control selection feature
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
US10429930B2 (en) * 2015-01-30 2019-10-01 Ncr Corporation Accessible tactile features for blind and partially sighted PIN entry and touchscreen usage
US20160334901A1 (en) * 2015-05-15 2016-11-17 Immersion Corporation Systems and methods for distributing haptic effects to users interacting with user interfaces
US10340593B2 (en) 2016-02-25 2019-07-02 Raytheon Company Systems and methods for phased array beam control
DE102016214692B4 (de) * 2016-08-08 2018-02-15 Audi Ag Verfahren und Benutzerschnittstelle, betreffend eine haptische Rückmeldung für einen Bildschirm
JP6747941B2 (ja) * 2016-11-04 2020-08-26 アルパイン株式会社 タッチ式入力装置および操作検出方法
JP2019087054A (ja) * 2017-11-07 2019-06-06 富士通コンポーネント株式会社 入力装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3123596A1 (de) * 1981-06-13 1983-01-05 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Handapparat fuer ein mobilfunkgeraet, insbesondere autotelefon
US5748185A (en) * 1996-07-03 1998-05-05 Stratos Product Development Group Touchpad with scroll and pan regions

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4940346A (en) * 1987-04-01 1990-07-10 Liljenquist Don C Keyboard assembly and typing method
JPH03105462A (ja) * 1989-09-20 1991-05-02 Hitachi Ltd 現金自動取引装置のデータ入力方法
FR2697935B1 (fr) * 1992-11-12 1995-01-13 Sextant Avionique Terminal de communication compact et ergonomique muni de surfaces de détection de proximité.
JPH08194856A (ja) * 1995-01-17 1996-07-30 Hitachi Ltd 入力装置
JP3195724B2 (ja) * 1995-04-26 2001-08-06 シャープ株式会社 情報処理装置
US6049328A (en) 1995-10-20 2000-04-11 Wisconsin Alumni Research Foundation Flexible access system for touch screen devices
US6639577B2 (en) * 1998-03-04 2003-10-28 Gemstar-Tv Guide International, Inc. Portable information display device with ergonomic bezel
US6757002B1 (en) 1999-11-04 2004-06-29 Hewlett-Packard Development Company, L.P. Track pad pointing device with areas of specialized function
JP2002111813A (ja) * 2000-08-24 2002-04-12 Sony Internatl Europ Gmbh 無線通信システムの携帯型通信装置
US20020070915A1 (en) * 2000-12-08 2002-06-13 Mazza Thomas A. Trading system controller
US6972749B2 (en) * 2001-08-29 2005-12-06 Microsoft Corporation Touch-sensitive device for scrolling a document on a display
US7091964B2 (en) * 2001-11-30 2006-08-15 Palm, Inc. Electronic device with bezel feature for receiving input
JP3784355B2 (ja) 2002-09-20 2006-06-07 クラリオン株式会社 電子機器
US7187394B2 (en) * 2002-10-04 2007-03-06 International Business Machines Corporation User friendly selection apparatus based on touch screens for visually impaired people
US7453442B1 (en) * 2002-12-03 2008-11-18 Ncr Corporation Reconfigurable user interface systems
WO2005008444A2 (en) * 2003-07-14 2005-01-27 Matt Pallakoff System and method for a portbale multimedia client
FR2874714A1 (fr) 2004-09-02 2006-03-03 France Telecom Dispositif de selection tactile
US7355595B2 (en) * 2005-04-15 2008-04-08 Microsoft Corporation Tactile device for scrolling
US20070257889A1 (en) * 2006-05-05 2007-11-08 Clemens Croy Display lit soft keys that have multiple states of activation potentially associated with each soft key
US8100594B2 (en) * 2006-10-27 2012-01-24 Symbol Technologies, Inc. Data input arrangement with a shaped interface
US8004501B2 (en) * 2008-01-21 2011-08-23 Sony Computer Entertainment America Llc Hand-held device with touchscreen and digital tactile pixels

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3123596A1 (de) * 1981-06-13 1983-01-05 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Handapparat fuer ein mobilfunkgeraet, insbesondere autotelefon
US5748185A (en) * 1996-07-03 1998-05-05 Stratos Product Development Group Touchpad with scroll and pan regions

Also Published As

Publication number Publication date
GB2445445A8 (en) 2008-07-10
GB2445445B (en) 2011-03-23
GB0721821D0 (en) 2007-12-19
GB2445445A (en) 2008-07-09
US20080164982A1 (en) 2008-07-10
DE102008000001A1 (de) 2008-07-10
US8963842B2 (en) 2015-02-24

Similar Documents

Publication Publication Date Title
DE102008000001B4 (de) Integrierte Hardware- und Softwarebenutzerschnittstelle
DE102007061993B4 (de) Mobiles Endgerät mit einer Anzeigeeinheit sowie Anzeigeverfahren für ein mobiles Endgerät
DE69731299T2 (de) Berührungsbildschirm
DE60022030T2 (de) Kommunikationssystem und -verfahren
DE202011106886U1 (de) Modusumschaltung
DE102010048745A1 (de) Benutzerschnittstelle und Verfahren zum Bedienen einer Benutzerschnittstelle
DE202008005344U1 (de) Elektronische Vorrichtung mit schaltbarer Benutzerschnittstelle und elektronische Vorrichtung mit zugreifbarer Berührbedienung
EP3535154B1 (de) Anordnung einer grafischen benutzerschnittstelle in einem fahrzeug und verfahren zum bereitstellen einer grafischen benutzerschnittstelle in einem fahrzeug
EP3282352B1 (de) Verfahren und bedienvorrichtung zum bedienen einer einrichtung
DE202008005342U1 (de) Elektronische Vorrichtung
DE102018100197A1 (de) Verfahren zum Betreiben einer Mensch-Maschinen-Schnittstelle sowie Mensch-Maschinen-Schnittstelle
EP3270278B1 (de) Verfahren zum betreiben eines bediensystems und bediensystem
EP2924551B1 (de) Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug
EP2867762A1 (de) Verfahren zum empfangen einer eingabe auf einem berührungsempfindlichen feld
EP2930603B1 (de) Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug
EP3418861A1 (de) Verfahren zum betreiben einer anzeigevorrichtung sowie ein kraftfahrzeug
EP2930051A1 (de) Vorrichtung und Verfahren zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug
EP3372436B1 (de) Verfahren und bediensystem zum bereitstellen einer benutzerschnittstelle
EP3538977A1 (de) Verfahren zum betreiben eines bediensystems und bediensystem
DE102007058307A1 (de) Verfahren zum Steuern eines Eingabeteils sowie Eingabevorrichtung und elektronisches Gerät, die dieses Verfahren verwenden
DE102012020164A1 (de) Bedienelement für eine Anzeigevorrichtung in einem Kraftfahrzeug
DE102017109254A1 (de) Digitalkamera
DE102014200609B4 (de) Berührungssensitive Bedienvorrichtung mit Mulde
DE102016010920A1 (de) Smart touch
DE20007972U1 (de) Berührungsempfindlicher Bildschirm

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20120510

R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee