[go: up one dir, main page]

DE202008000260U1 - Tragbare Multifunktionsvorrichtung - Google Patents

Tragbare Multifunktionsvorrichtung Download PDF

Info

Publication number
DE202008000260U1
DE202008000260U1 DE202008000260U DE202008000260U DE202008000260U1 DE 202008000260 U1 DE202008000260 U1 DE 202008000260U1 DE 202008000260 U DE202008000260 U DE 202008000260U DE 202008000260 U DE202008000260 U DE 202008000260U DE 202008000260 U1 DE202008000260 U1 DE 202008000260U1
Authority
DE
Germany
Prior art keywords
view
information
display
touch screen
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202008000260U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE202008000260U1 publication Critical patent/DE202008000260U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1656Details related to functional adaptations of the enclosure, e.g. to provide protection against EMI, shock, water, or to host detachable peripherals like a mouse or removable expansions units like PCMCIA cards, or to provide access to internal components for maintenance or to removable storage supports like CDs or DVDs, or to mechanically mount accessories
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Facsimiles In General (AREA)

Abstract

Tragbare Multifunktionsvorrichtung, aufweisend:
eine Berührungsbildschirmanzeige;
einen oder mehrere Beschleunigungsmesser;
einen oder mehrere Prozessoren; Speicher; und
ein oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und konfiguriert sind durch den einen oder die mehreren Prozessoren ausgeführt zu werden, die Programme weisen auf:
Anweisungen zum Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer Porträtansicht oder einer Landschaftsansicht basierend auf einer Analyse von Daten, die von dem einen oder den mehreren Beschleunigungsmessern empfangen werden;
Anweisungen zum Erfassen einer ersten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationen in einer ersten Ansicht angezeigt werden;
Anweisungen zum Anzeigen der Informationen in einer zweiten Ansicht und sperren der Informationsanzeige in der zweiten Ansicht, unabhängig von der Orientierung der Vorrichtung in Antwort auf ein Erfassen der ersten vorbestimmten Fingergeste;
Anweisungen zum Erfassen einer zweiten vorbestimmten Fingergeste auf oder...

Description

  • TECHNISCHER BEREICH
  • Die offenbarten Ausführungsformen beziehen sich generell auf tragbare elektronische Vorrichtungen und insbesondere auf Portrait-Landschaft Rotationsheuristiken für tragbare Vorrichtungen.
  • HINTERGRUND
  • Mit kompakter werden tragbarer elektronischer Vorrichtungen und der Zunahme der Anzahl der Funktionen, die von einer gegebenen Vorrichtung ausgeführt werden, ist es eine signifikante Herausforderung geworden, Benutzerschnittstellen zu entwickeln, die es Benutzern erlauben, einfach mit einer Multifunktionsvorrichtung zu interagieren. Diese Herausforderung ist besonders signifikant für handgehaltene, tragbare Vorrichtungen, die viel kleinere Bildschirme als Desktop oder Laptop Computer haben. Diese Situation ist unglücklich, weil die Benutzerschnittstelle die Schnittstelle ist, durch welche Benutzer nicht nur Inhalt sondern auch Antworten auf Benutzeraktion oder Verhalten erhalten, darunter Benutzerversuche auf Eigenschaften, Werkzeuge und Funktionen einer Vorrichtung zuzugreifen. Einige tragbare Kommunikationsvorrichtungen (z. B. mobile Telefone, die manchmal Mobiltelefone genannt werden, Zelltelefone, zellulare Telefone und ähnliches) sind dazu übergegangen, mehr Druckknöpfe hinzuzufügen, die Dichte an Druckknöpfen zu erhöhen, die Funktionen von Druckknöpfen zu überladen oder komplexe Menüsysteme zu verwenden, um einem Benutzer Zugriff, Speichern und Manipulieren von Daten zu ermöglichen. Diese gewöhnlichen Benutzerschnittstellen resultieren oft in komplizierten Tastenfolgen und Menühierarchien, die sich ein Benutzer merken muss.
  • Viele gewöhnliche Benutzerschnittstellen, wie jene, die physikalische Druckknöpfe aufweisen, sind ebenfalls inflexibel. Dies ist unglücklich, weil es Benutzerschnittstellen davon abhält, konfiguriert und/oder adaptiert zu werden, von irgendeiner Anwendung, die auf der tragbaren Vorrichtung oder von Benutzern ausgeführt wird. In Verbindung mit der zeitraubenden Voraussetzung, mehrere Tastenfolgen und Menühierarchien im Gedächtnis zu behalten, und der Schwierigkeit, einen gewünschten Druckknopf zu aktivieren, ist diese Inflexibilität für die meisten Benutzer frustrierend.
  • Einige tragbare Vorrichtungen benutzen einen oder mehrere Beschleunigungsmesser, um automatisch die Orientierung von Informationen auf dem Bildschirm anzupassen. In diesen Vorrichtungen wird Information auf dem Display in einer Portraitansicht oder einer Landschaftsansicht basierend auf einer Analyse von Daten, die von dem einen oder von mehreren Beschleunigungsmessern empfangen werden, angezeigt. Für diese Vorrichtungen kann der Benutzer gelegentlich die Orientierung, die basierend auf den Beschleunigungsmesserdaten angezeigt wird, aufheben. Gegenwärtig enthalten solche Vorrichtungen wenige, keine oder verwirrende Heuristiken zum Beenden der Benutzeraufhebung der Orientierung, die basierend auf den Beschleunigungsmesserdaten angezeigt wird.
  • Demgemäß gibt es einen Bedarf nach tragbaren Multifunktionsvorrichtungen mit transparenteren und intuitiveren Portrait-Landschafts Rotationsheuristiken. Solche Oberflächen erhöhen die Effektivität, Effizienz und Benutzerzufriedenheit, mit tragbaren Kommunikationsvorrichtungen.
  • ZUSAMMENFASSUNG
  • Die obigen Nachteile und andere Probleme, die mit Benutzerschnittstellen für tragbare Vorrichtungen zusammenhängen, werden reduziert oder eliminiert, durch die offenbarte, tragbare Multifunktionsvorrichtung. In einigen Ausführungsbei spielen weist die Vorrichtung einen berührungssensitiven Bildschirm (auch bekannt als "Berührungsbildschirm") mit einer graphischen Benutzerschnittstelle (graphical user interface, GUI), einen oder mehrere Prozessoren, Speicher und einen oder mehrere Module, Programme oder Gruppen von Anweisungen, die in dem Speicher gespeichert sind, zum Ausführen mehrerer Funktionen. Der Benutzer kann mit der GUI interagieren, primär durch Fingerkontakte und Gesten auf dem berührungsempfindlichen Bildschirm. Die Funktionen können beinhalten Telefonieren, Videokonferenzen, E-Mail, Sofortnachrichten, Blogging, digitale Fotographie, digitales Video, Webbrowsing, digitales Musikabspielen und/oder digitales Videoabspielen. Anweisungen zum Ausführen dieser Funktionen können in einem Computerprogrammprodukt beinhaltet sein, das konfiguriert ist, durch eine oder mehrere Prozessoren ausgeführt zu werden.
  • Ein computerimplementiertes Verfahren kann auf einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige und einem oder mehreren Beschleunigungsmessern ausgeführt werden. Das Verfahren beinhaltet das Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht, basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden. Das Verfahren beinhaltet auch die Erfassung einer ersten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Information in einer ersten Ansicht angezeigt wird und in Antwort auf ein Erfassen der ersten vorbestimmten Fingergeste anzeigen der Information in einer zweiten Ansicht und Sperren der Informationsanzeige in der zweiten Ansicht unabhängig von der Orientierung der Vorrichtung. Das Verfahren beinhaltet weiter Erfassen einer zweiten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationsanzeige in der zweiten Ansicht gesperrt ist und in Antwort auf ein Erfassen der zweiten vorbestimmten Fingergeste, Entriegeln der Informationsanzeige in der zweiten Ansicht.
  • Ein computerimplementiertes Verfahren kann auf einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige und einem oder mehreren Beschleunigungsmessern ausgeführt werden. Das Verfahren beinhaltet Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden. Das Verfahren beinhaltet auch Erfassen einer vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationen in einer ersten Ansicht angezeigt werden und in Antwort auf eine Erfassung der vorbestimmten Fingergesten, Anzeigen der Informationen in einer zweiten Ansicht und Sperren der Informationsanzeige in der zweiten Ansicht. Das Verfahren beinhaltet weiter Entsperren der Informationsanzeige in der zweiten Ansicht, wenn die Vorrichtung in eine Orientierung gebracht wird, in welcher die zweite Ansicht angezeigt wird, basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden.
  • Ein computerimplementiertes Verfahren kann auf einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige ausgeführt werden, wobei die Berührungsbildschirmanzeige eine Portraitansicht und eine Landschaftsansicht aufweist. Das Verfahren beinhaltet Erfassen, dass sich die Vorrichtung in einer ersten Orientierung befindet und Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer ersten Ansicht, während sich die Vorrichtung in der ersten Orientierung befindet. Das Verfahren beinhaltet weiterhin Erfassen, dass sich die Vorrichtung in einer zweiten Orientierung befindet und in Antwort auf die Erfassung, dass sich die Vorrichtung in der zweiten Orientierung befindet, Anzeigen der Informationen in einer zweiten Ansicht. Das Verfahren beinhaltet weiter Erfassen einer vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationen in der zweiten Ansicht angezeigt werden und in Antwort auf eine Erfassung der vorbestimmten Fingergeste Anzeigen der Informationen in der ersten Ansicht und vorübergehend die Informationsanzeige in der ersten Ansicht sperren. Das Verfahren beinhaltet auch Ent sperren der Informationsanzeige in der ersten Ansicht, wenn die Vorrichtung im Wesentlichen in die erste Orientierung zurückgebracht wird.
  • Ein computerimplementiertes Verfahren kann auf einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige ausgeführt werden, wobei die Berührungsbildschirmanzeige eine Portraitansicht und eine Landschaftsansicht aufweist. Das Verfahren beinhaltet Erfassen, dass sich die Vorrichtung in einer ersten Orientierung befindet und Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer ersten Ansicht, während sich die Vorrichtung in der ersten Orientierung befindet. Das Verfahren beinhaltet weiterhin Erfassen, dass sich die Vorrichtung in einer zweiten Orientierung befindet und in Antwort auf eine Erfassung, dass sich die Vorrichtung in der zweiten Orientierung befindet, Anzeigen der Informationen in einer zweiten Ansicht. Das Verfahren beinhaltet weiter Erfassen einer ersten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationen in der zweiten Ansicht angezeigt werden und in Antwort auf eine Erfassung der vorbestimmten Fingergeste Anzeigen der Informationen in der ersten Ansicht und vorübergehend die Informationsanzeige in der ersten Ansicht sperren. Die Steuervorrichtung beinhaltet auch Erfassen einer zweiten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationsanzeige in der ersten Ansicht gesperrt ist, und in Antwort auf ein Erfassen der zweiten vorbestimmten Fingergeste Entsperren der Informationsanzeige in der ersten Ansicht.
  • In Übereinstimmung mit einigen Ausführungsbeispielen, weist eine tragbare Multifunktionsvorrichtung eine Berührungsbildschirmanzeige, einen oder mehrere Beschleunigungsmesser, einen oder mehrere Prozessoren, Speicher und ein oder mehrere Programme, die in dem Speicher gespeichert sind und eingerichtet sind durch den einen oder die mehreren Prozessoren ausgeführt zu werden, auf. Die Programme beinhalten Anweisungen zum: Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden; Erfassen einer ersten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationen in einer ersten Ansicht angezeigt werden; Anzeigen der Informationen in einer zweiten Ansicht und Sperren der Informationsanzeige in der zweiten Ansicht unabhängig von der Orientierung der Vorrichtung in Antwort auf ein Erfassen der ersten vorbestimmten Fingergeste; Erfassen einer zweiten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationsanzeige in der zweiten Ansicht gesperrt ist und Entsperren der Informationsanzeige in der zweiten Ansicht in Antwort auf Erfassen der zweiten vorbestimmten Fingergeste.
  • In Übereinstimmung mit einigen Ausführungsbeispielen weist eine tragbare Multifunktionsvorrichtung eine Berührungsbildschirmanzeige, einen oder mehrere Beschleunigungsmesser, einen oder mehrere Prozessoren, Speicher und ein oder mehrere Programme, die in dem Speicher gespeichert sind und eingerichtet sind durch den einen oder die mehreren Prozessoren ausgeführt zu werden, auf. Die Programme beinhalten Anweisungen zum: Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht, basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden; Erfassen einer vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationen in einer ersten Ansicht angezeigt werden; Anzeigen der Informationen in einer zweiten Ansicht und Sperren der Informationsanzeige in der zweiten Ansicht in Antwort auf eine Erfassung einer vorbestimmten Fingergeste; und Entsperren der Informationsanzeige in der zweiten Ansicht, wenn die Vorrichtung in eine Orientierung gebracht wird, in der die zweite Ansicht angezeigt wird, basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden.
  • In Übereinstimmung mit einigen Ausführungsbeispielen weist eine tragbare Multifunktionsvorrichtung eine Berührungsbildschirmanzeige, wobei die Berührungsbildschirmanzeige eine Portraitansicht und eine Landschaftsansicht aufweist; ei nen oder mehrere Prozessoren, Speicher; und ein oder mehrere Programme, die in dem Speicher gespeichert sind und eingerichtet sind, durch den einen oder die mehreren Prozessoren ausgeführt zu werden, auf. Die Programme beinhalten Anweisungen zum: Erfassen, dass sich die Vorrichtung in einer ersten Orientierung befindet; Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer ersten Ansicht, während sich die Vorrichtung in der ersten Orientierung befindet; Erfassen, dass sich die Vorrichtung in einer zweiten Orientierung befindet; Anzeigen der Informationen in einer zweiten Ansicht in Antwort auf ein Erfassen, dass sich die Vorrichtung in der zweiten Orientierung befindet; Erfassen einer vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationen in der zweiten Ansicht angezeigt werden; Anzeigen der Informationen in der ersten Ansicht und vorübergehend die Informationsanzeige in der ersten Ansicht sperren, in Antwort auf ein Erfassen der vorbestimmten Fingergeste; und Entsperren der Informationsanzeige in der ersten Ansicht, wenn die Vorrichtung im Wesentlichen in die erste Orientierung zurückgebracht wird.
  • In Übereinstimmung mit einigen Ausführungsbeispielen weist eine tragbare Multifunktionsvorrichtung eine Berührungsbildschirmanzeige, wobei die Berührungsbildschirmanzeige eine Portraitansicht und eine Landschaftsansicht aufweist; einen oder mehrere Prozessoren, Speicher; und ein oder mehrere Programme, die in dem Speicher gespeichert sind und eingerichtet sind, durch den einen oder die mehreren Prozessoren ausgeführt zu werden, auf. Die Programme beinhalten Anweisungen zum: Erfassen, dass sich die Vorrichtung in einer ersten Orientierung befindet; Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer ersten Ansicht, während sich die Vorrichtung in der ersten Orientierung befindet; Erfassen, dass sich die Vorrichtung in einer zweiten Orientierung befindet; Anzeigen der Informationen in einer zweiten Ansicht in Antwort auf ein Erfassen, dass sich die Vorrichtung in der zweiten Orientierung befindet; Erfassen einer vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationen in der zweiten Ansicht angezeigt werden; Anzei gen der Informationen in der ersten Ansicht und Sperren der Informationsanzeige in der ersten Ansicht in Antwort auf ein Erfassen der ersten vorbestimmten Fingergeste; Erfassen einer zweiten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationsanzeige in der ersten Ansicht gesperrt ist; und Entsperren der Informationsanzeige in der ersten Ansicht in Antwort auf ein Erfassen der zweiten vorbestimmten Fingergeste.
  • In Übereinstimmung mit einigen Ausführungsbeispielen weist ein Computerprogrammprodukt ein computerlesbares Speichermedium und einen darin eingebetteten Computerprogrammmechanismus auf. Der Computerprogrammmechanismus beinhaltet Anweisungen, welche, wenn sie von einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige und einem oder mehreren Beschleunigungsmessern aufgeführt werden, die Vorrichtung veranlassen zum: Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht, basierend auf einer Analyse von Daten, die von dem einen oder den mehreren Beschleunigungsmessern empfangen werden; Erfassen einer ersten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationen in einer ersten Ansicht angezeigt werden; Anzeigen der Informationen in einer zweiten Ansicht und Sperren der Informationsansicht in der zweiten Ansicht, unabhängig von der Orientierung der Vorrichtung in Antwort auf ein Erfassen der ersten vorbestimmten Fingergeste; Erfassen einer zweiten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationsanzeige in der zweiten Ansicht gesperrt ist; und Entsperren der Informationsanzeige in der zweiten Ansicht in Antwort auf ein Erfassen der zweiten vorbestimmten Fingergeste.
  • In Übereinstimmung mit einigen Ausführungsbeispielen weist ein Computerprogrammprodukt ein computerlesbares Speichermedium und einen darin eingebetteten Computerprogrammmechanismus auf. Der Computerprogrammmechanismus beinhaltet Anweisungen, welche, wenn sie auf einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige und einem oder mehreren Be schleunigungsmessern ausgeführt werden, die Vorrichtung veranlassen zum: Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht, basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden; Erfassen einer vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationen in einer ersten Ansicht angezeigt werden; Anzeigen der Informationen in einer zweiten Ansicht und Sperren der Informationsanzeige in der zweiten Ansicht in Antwort auf ein Erfassen der vorbestimmten Fingergeste; und Entsperren der Informationsanzeige in der zweiten Ansicht, wenn die Vorrichtung in eine Orientierung gebracht wird, in der die zweite Ansicht angezeigt wird, basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden.
  • In Übereinstimmung mit einigen Ausführungsbeispielen weist ein Computerprogrammprodukt ein computerlesbares Speichermedium und einen darin eingebetteten Computerprogrammmechanismus auf. Der Computerprogrammmechanismus beinhaltet Anweisungen, welche, wenn sie auf einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige, wobei die Berührungsbildschirmanzeige eine Portraitansicht und eine Landschaftsansicht aufweist, ausgeführt werden, die Vorrichtung veranlassen zum: Erfassen, dass sich die Vorrichtung in einer ersten Orientierung befindet; Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer ersten Ansicht, während die Vorrichtung sich in der ersten Orientierung befindet; Erfassen, dass sich die Vorrichtung in einer zweiten Orientierung befindet; Anzeigen der Informationen in einer zweiten Ansicht in Antwort auf ein Erfassen, dass sich die Vorrichtung in der zweiten Orientierung befindet; Erfassen einer vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationen in der zweiten Ansicht angezeigt werden; Anzeigen der Informationen in der ersten Ansicht und vorübergehend die Informationsanzeige in der ersten Ansicht sperren, in Antwort auf ein Erfassen der vorbestimmten Fingergeste; und Entsperren der Informati onsanzeige in der ersten Ansicht, wenn die Vorrichtung im Wesentlichen in die erste Orientierung gebracht wird.
  • In Übereinstimmung mit einigen Ausführungsbeispielen weist ein Computerprogrammprodukt ein computerlesbares Speichermedium und einen darin eingebetteten Computerprogrammmechanismus auf. Der Computerprogrammmechanismus beinhaltet Anweisungen, welche, wenn sie auf einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige, wobei die Berührungsbildschirmanzeige eine Portraitansicht und eine Landschaftsansicht aufweist, ausgeführt werden, die Vorrichtung veranlassen zum: Erfassen, dass sich die Vorrichtung in einer ersten Orientierung befindet; Anzeigen von Informationen auf er Berührungsbildschirmanzeige in einer ersten Ansicht, während die Vorrichtung sich in der ersten Orientierung befindet; Erfassen, dass sich die Vorrichtung in einer zweiten Orientierung befindet; Anzeigen der Informationen in einer zweiten Ansicht in Antwort auf ein Erfassen, dass sich die Vorrichtung in der zweiten Orientierung befindet; Erfassen einer ersten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationen in der zweiten Ansicht angezeigt werden; Anzeigen der Informationen in der ersten Ansicht und Sperren der Informationsanzeige in der ersten Ansicht in Antwort auf ein Erfassen der ersten vorbestimmten Fingergeste; Erfassen einer zweiten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationsanzeige in der ersten Ansicht gesperrt ist; und Entsperren der Informationsanzeige in der ersten Ansicht in Antwort auf ein Erfassen der zweiten vorbestimmten Fingergeste.
  • In Übereinstimmung mit einigen Ausführungsbeispielen beinhaltet eine tragbare Kommunikationsvorrichtung mit einer Berührungsbildschirmanzeige und einem oder mehreren Beschleunigungsmessern: Mittel zum Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht basierend auf einer Analyse von Daten, die von dem einen oder von mehreren Beschleunigungsmessern empfangen werden; Mittel zum Erfassen einer ersten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationen in einer ersten Ansicht angezeigt werden; Mittel zum Anzeigen von Informationen in einer zweiten Ansicht und zum Sperren der Informationsanzeige in der zweiten Ansicht unabhängig von der Orientierung der Vorrichtung in Antwort auf ein Erfassen der ersten vorbestimmten Fingergeste; Mittel zum Erfassen einer zweiten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationsanzeige in der zweiten Ansicht gesperrt ist; und Mittel zum Entsperren der Informationsanzeige in der zweiten Ansicht in Antwort auf ein Erfassen der zweiten vorbestimmten Fingergeste.
  • Eine tragbare Kommunikationsvorrichtung mit einer Berührungsbildschirmanzeige und einem oder mehreren Beschleunigungsmessern beinhaltet: Mittel zum Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht, basierend auf einer Analyse von Daten, die von dem einen oder von mehreren Beschleunigungsmessern empfangen werden; Mittel zum Erfassen einer ersten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationen in einer ersten Ansicht angezeigt werden; Mittel zum Anzeigen der Informationen in einer zweiten Ansicht und zum Sperren der Informationsanzeige in der zweiten Ansicht in Antwort auf Erfassung der vorbestimmten Fingergeste; Mittel zum Entsperren der Informationsanzeige in der zweiten Ansicht, wenn die Vorrichtung in eine Orientierung gebracht wird, in der die zweite Ansicht angezeigt wird, basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden.
  • Eine tragbare Kommunikationsvorrichtung mit einer Berührungsbildschirmanzeige, wobei die Berührungsbildschirmanzeige eine Portraitansicht oder einer Landschaftsansicht beinhaltet: Mittel zum Erfassen, dass sich die Vorrichtung in einer ersten Orientierung befindet; Mittel zum Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer ersten Ansicht, während sich die Vorrich tung in der ersten Orientierung befindet; Mittel zum Erfassen, dass sich die Vorrichtung in einer zweiten Orientierung befindet; Mittel zum Anzeigen der Informationen in einer zweiten Ansicht in Antwort auf ein Erfassen, dass sich die Vorrichtung in der zweiten Orientierung befindet; Mittel zum Erfassen einer ersten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationen in der zweiten Ansicht angezeigt werden; Mittel zum Anzeigen der Informationen in der ersten Ansicht und zum vorübergehenden Sperren der Informationsanzeige in der ersten Ansicht in Antwort auf ein Erfassen der vorbestimmten Fingergeste; Mittel zum Entsperren der Informationsanzeige in der zweiten Ansicht, wenn die Vorrichtung im Wesentlichen in die erste Orientierung zurückgebracht wird.
  • Eine tragbare Kommunikationsvorrichtung mit einer Berührungsbildschirmanzeige, wobei die Berührungsbildschirmanzeige eine Portraitansicht und eine Landschaftsansicht aufweist, beinhaltet: Mittel zum Erfassen, dass sich die Vorrichtung in einer ersten Orientierung befindet; Mittel zum Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer ersten Ansicht, während die Vorrichtung sich in der ersten Orientierung befindet; Mittel zum Erfassen, dass sich die Vorrichtung in einer zweiten Orientierung befindet; Mittel zum Anzeigen der Informationen in einer zweiten Ansicht in Antwort auf ein Erfassen, dass sich die Vorrichtung in der zweiten Orientierung befindet; Mittel zum Erfassen einer ersten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationen in der zweiten Ansicht angezeigt werden; Mittel zum Anzeigen der Informationen in der ersten Ansicht und zum Sperren der Informationsanzeige in der ersten Ansicht in Antwort auf ein Erfassen der ersten vorbestimmten Fingergeste; Mittel zum Erfassen einer ersten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige, während die Informationsanzeige in der ersten Ansicht gesperrt ist und Mittel zum Entsperren der Informationsanzeige in der ersten Ansicht in Antwort auf eine Erfassung der zweiten vorbestimmten Fingergeste.
  • Damit stellt die Erfindung eine tragbare Kommunikationsvorrichtung mit transparenten und intuitiven Portrait-Landschafts Rotationsheuristiken bereit.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Für ein besseres Verständnis der zuvor genannten Ausführungsbeispielen der Erfindung sowie zusätzlicher Ausführungsbeispiele davon wird nun Bezug genommen auf die Beschreibung der Ausführungsbeispiele, wie sie unten gegeben sind, in Verbindung mit den folgenden Zeichnungen, in welche sich ähnliche Bezugszeichen auf entsprechende Teile über die Figuren hinweg beziehen.
  • 1A und 1B sind Blockdiagramme, die tragbare Multifunktionsvorrichtungen mit berührungsempfindlichen Anzeigen in Übereinstimmung mit einigen Ausführungsbeispielen darstellen.
  • 2 stellt eine tragbare Multifunktionsvorrichtung dar, die einen Berührungsbildschirm in Übereinstimmung mit einigen Ausführungsbeispielen aufweist.
  • 3 stellt eine beispielhafte Benutzerschnittstelle zum Entsperren einer tragbaren Multifunktionsvorrichtung dar.
  • 4A und 4B stellen beispielhafte Benutzerschnittstellen für ein Menü von Anwendungen auf einer tragbaren Multifunktionsvorrichtung dar.
  • 5A bis 5J stellen Portrait-Landschaft Rotationsheuristiken dar.
  • 6A bis 6D sind Flussdiagramme, die Prozesse für Portrait-Landschafts Rotationsheuristiken darstellen.
  • BESCHREIBUNG DER AUSFÜHRUNGFORMEN
  • Es wird nun im Detail Bezug genommen auf Ausführungsformen, von denen Beispiele in den beigefügten Zeichnungen dargestellt sind. In der folgenden detaillierten Beschreibung werden zahlreiche spezifische Details gegeben, um ein ver tieftes Verständnis der vorliegenden Erfindung zu ermöglichen. Jedoch ist es für den Fachmann ersichtlich, dass die vorliegende Erfindung ohne diese spezifischen Details ausgeführt werden kann. An anderen Stellen werden wohlbekannte Verfahren, Prozeduren, Komponenten, Schaltkreise und Netzwerke nicht im Detail beschrieben, um nicht unnötig Aspekte der Ausführungsbeispiele zu verdecken.
  • Es ist auch verständlich, dass obwohl die Begriffe erster, zweiter, usw. hierin verwendet werden können, um verschiedene Elemente zu beschreiben, diese Elemente nicht auf diese Begriffe begrenzt sein sollten. Diese Begriffe werden nur verwendet, um ein Element von einem anderen zu unterscheiden. Zum Beispiel könnte eine erste Geste auch eine zweite Geste genannt werden und ähnlich eine zweite Geste könnte eine erste Geste genannt werden, ohne den Bereich der vorliegenden Erfindung zu verlassen.
  • Die Terminologie, die hier in der Beschreibung der Erfindung verwendet wird, ist nur zum Zwecke der Beschreibung spezieller Ausführungsbeispiele und hat nicht die Intention, die Erfindung zu begrenzen. Wie in der Beschreibung der Erfindung und den angefügten Ansprüchen verwendet, haben die Einzahlformen "ein", "eine" und "der, die, das" nicht die Intention, Pluralformen ebenso zu umfassen, falls der Kontext nichts anderes klar andeutet. Es ist auch verständlich, dass der Begriff "und/oder", wie er hier gebraucht wird, sich bezieht auf und umfasst jede aller möglichen Kombinationen und eines oder mehrere der zugeordneten aufgelisteten Elemente. Es ist weiter verständlich, dass die Begriffe "aufweist" und/oder "aufweisend", wenn in dieser Spezifikation benutzt, die Anwesenheit der genannten Eigenschaften ganzen Zahlen, Schritten, Operationen, Elemente und/oder Komponenten spezifiziert, aber nicht die Anwesenheit oder Hinzufügen einer oder mehrerer anderer Eigenschaften, ganzen Zahlen, Schritten, Operationen, Elemente Komponenten und/oder Gruppen davon, ausschließt.
  • Ausführungsbeispiele einer tragbaren Multifunktionsvorrichtung sind beschrieben. In einigen Ausführungsbeispielen ist die Vorrichtung eine tragbare Kommu nikationsvorrichtung, wie z. B. ein Mobiltelefon, das auch andere Funktionen, wie z. B. PDA und/oder Musikabspielfunktionen aufweist.
  • Die Benutzerschnittstelle kann ein physikalisches Klickrad zusätzlich zu einem Berührungsbildschirm oder ein virtuelles Klickrad, das auf dem Berührungsbildschirm angezeigt wird, aufweisen. Ein Klickrad ist eine Benutzerschnittstellenvorrichtung, die Navigationsbefehle bereitstellen kann, basierend auf einer Winkelverstellung des Rades oder eines Kontaktpunktes mit dem Rad von einem Benutzer der Vorrichtung. Ein Klickrad kann auch verwendet werden, um einen Benutzerbefehl, der zu einer Wahl eines oder mehrerer Elemente korrespondiert, bereitzustellen, z. B. wenn der Benutzer der Vorrichtung zumindest einen Teil des Rades oder das Zentrum des Rades herunterdrückt. Alternativ kann eine Unterbrechung des Kontakts mit einem Klickradbild auf einer Berührungsbildschirmoberfläche einen Benutzerbefehl anzeigen, der einer Wahl entspricht. Der Einfachheit halber, wird in der folgenden Diskussion eine tragbare Multifunktionsvorrichtung, die einen Berührungsbildschirm aufweist, als eine beispielhafte Ausführungsform verwendet. Es sollte jedoch verstanden werden, dass einige der Benutzerschnittstellen und zugeordneten Prozesse auf andere Vorrichtungen angewandt werden können, wie z. B. Personalcomputer und Laptopcomputer, die eine oder mehrere andere physikalische Benutzerschnittstellenvorrichtungen aufweisen können, wie z. B. ein physikalisches Klickrad, eine physikalische Tastatur, eine Maus und/oder einen Joystick.
  • Die Vorrichtung unterstützt eine Vielzahl von Anwendungen, wie z. B. Telefonanwendungen, eine Videokonferenzanwendung, eine E-Mailanwendung, eine Sofortnachrichtenanwendung, eine Blogginganwendung, eine Digitalkameraanwendung, eine digital Videokameraanwendung, eine Webbrowsinganwendung, eine digitale Musikabspielanwendung und/oder eine digitale Videospieleanwendung.
  • Die verschiedenen Anwendungen, die auf der Vorrichtung ausgeführt werden können, können zumindest eine gemeinsame physikalische Benutzerschnittstel lenvorrichtung, wie z. B. den Berührungsbildschirm verwenden. Eine oder mehrere Funktionen des Berührungsbildschirms, sowie entsprechende angezeigte Informationen auf der Vorrichtung können angepasst und/oder variiert werden, von einer Anwendung zur nächsten und/oder innerhalb einer entsprechenden Anwendung. Auf diese Weise kann eine gemeinsame physikalische Architektur (wie z. B. der Berührungsbildschirm) der Vorrichtung die Vielzahl an Anwendungen mit Benutzerschnittstellen, die intuitiv und transparent sind, unterstützen.
  • Die Benutzerschnittstellen können eine oder mehrere Softtastaturausführungsformen aufweisen. Die Softtastaturausführungsformen können Standard (QWERTY) und/oder Nicht-Standard-Konfigurationen von Symbolen auf den dargestellten Ikonen der Tastatur aufweisen, wie z. B. jene, die beschrieben sind in U.S. Patent Anmeldung Nr. 11/459,606, "Keyboards For Portable Electronic Devices" eingereicht am 24. Juli 2006, und 11/459,615, "Touch Screen Keyboards For Portable Electronic Devices" eingereicht am 24. Juli 2006, deren Inhalte durch Bezugnahme in ihrer Gesamtheit eingebunden sind. Die Tastaturausführungsformen können eine reduzierte Anzahl an Ikonen (oder Softtasten) aufweisen, in Bezug auf die Anzahl an Tasten in existierenden physikalischen Tastaturen, wie z. B. jener für eine Schreibmaschine. Diese macht es für Benutzer einfacher, eine oder mehrere Ikonen der Tastatur zu wählen und damit ein oder mehrere entsprechende Symbole. Die Tastaturausführungsformen können anpassbar sein. Zum Beispiel können angezeigte Ikonen in Übereinstimmung mit Benutzeraktionen modifiziert werden, wie z. B. Wahl einer oder mehrerer Ikonen und/oder einer oder mehrerer korrespondierender Symbole. Eine oder mehrere Anwendungen auf der tragbaren Vorrichtung können gemeinsame und/oder verschiedene Tastaturausführungsformen verwenden. Damit können die verwendeten Tastaturausführungsformen zumindest auf einige der Anwendungen zugeschnitten werden. In einigen Ausführungsbeispielen können eine oder mehrere Tastaturausführungsformen auf einen entsprechenden Benutzer zugeschnitten werden. Zum Beispiel können eine oder mehrere Tastaturausführungsformen auf einen entsprechenden Benutzer basierend auf einer Wortbenutzungshistorie (Lexikographie, Jargon, individuelle Benut zung) des entsprechenden Benutzers, zugeschnitten werden. Einige der Tastaturausführungsformen können angepasst werden, um die Wahrscheinlichkeit eines Benutzerfehlers zu reduzieren, wenn eine oder mehrere Ikonen und damit ein oder mehrere Symbole gewählt werden, wenn die Softtastaturausführungsformen verwendet werden.
  • Die Aufmerksamkeit wird nun auf Ausführungsbeispiele der Vorrichtung gerichtet. 1A und 1B sind Blockdiagramme, die tragbare Multifunktionsvorrichtungen 100 mit berührungsempfindlichen Anzeigen 112 in Übereinstimmung mit einigen Ausführungsbeispielen darstellen. Die berührungsempfindliche Anzeige 112 wird manchmal auch ein Berührungsbildschirm der Einfachheit halber genannt und kann auch bekannt sein als oder genannt werden ein berührungsempfindliches Anzeigensystem. Die Vorrichtung 100 kann einen Speicher 102 (der eine oder mehrere computerlesbare Speichermedien enthalten kann), ein Speichersteuervorrichtung 122, eine oder mehrere Verarbeitungseinheiten (CPU's) 120, eine Peripherigeräteschnittstelle 118, Hochfrequenz (radio frequency RF) Schaltkreise 108, Audioschaltkreise 110, einen Lautsprecher 111, ein Mikrophon 113 und ein Eingabe/Ausgabe (Input/Output, I/O) Untersystem 106, andere Eingabe- oder Steuervorrichtungen 116 und einen externen Anschluss 124 aufweisen. Die Vorrichtung 100 kann einen oder mehrere optische Sensoren 164 aufweisen. Diese Komponenten können über einen oder mehrere Kommunikationsbusse oder Signallinien 103 kommunizieren.
  • Es sollte betont werden, dass die Vorrichtung 100 nur ein Beispiel einer tragbaren Multifunktionsvorrichtung 100 ist, und dass die Vorrichtung 100 mehr oder weniger Komponenten als gezeigt haben kann und zwei oder mehr Komponenten kombinieren kann, oder eine unterschiedliche Konfiguration oder Anordnung der Komponenten aufweisen kann. Die verschiedenen Komponenten, die in den 1A und 1B gezeigt sind, können in Hardware, Software oder einer Kombination von Hardware und Software implementiert sein, darunter ein oder mehrere signalverarbeitungs- und/oder anwendungsspezifische, integrierte Schaltkreise.
  • Der Speicher 102 kann High Speed Random Access Speicher aufweisen und auch nichtvolatilen Speicher aufweisen, wie z. B. eine oder mehrere magnetische Plattenspeichervorrichtungen, Flashspeichervorrichtungen, und andere nicht volatile Festkörperspeichervorrichtungen. Zugriff auf den Speicher 102 kann durch andere Komponenten der Vorrichtung 100, wie z. B. der CPU 120 und der Peripherigeräteschnittstelle 118, durch die Speichersteuervorrichtung 122 gesteuert werden.
  • Die Peripherigeräteschnittstelle 118 verbindet die Eingabe und Ausgabe der Peripheriegerätevorrichtung mit der CPU 120 und dem Speicher 102. Der eine oder die mehreren Prozessoren 120 betreiben oder führen verschiedene Softwareprogramme und/oder Gruppen an Anweisungen aus, die in Speicher 102 gespeichert sind, um verschiedene Funktionen für die Vorrichtung 100 auszuführen und um Daten zu verarbeiten.
  • In einigen Ausführungsbeispielen kann die Peripherigeräteschnittstelle 118 die CPU 120 und die Speichersteuervorrichtung 122 auf einem einzigen Chip implementiert sein, wie z. B. ein Chip 104. In einigen anderen Ausführungsbeispielen können sie auf separaten Chips implementiert sein.
  • Der RF (radio frequency) Schaltkreis 108 empfängt und sendet RF Signale, auch elektromagnetische Signale genannt. Der RF Schaltkreis 108 konvertiert elektrische Signale zu/von elektromagnetischen Signalen und kommuniziert mit Kommunikationsnetzwerken und anderen Kommunikationsvorrichtungen über die elektromagnetischen Signale. Der RF Schaltkreis 108 kann wohlbekannte Schaltkreise zum Ausführen dieser Funktionen aufweisen, darunter, aber nicht beschränkt auf ein Antennensystem, ein RF Transceiver, einen oder mehrere Verstärker, einen Empfänger, einen oder mehrere Oszillatoren, einen digitalen Signalprozessor, ein CODEC Chipsatz, ein Subscriber Identity Module (SIM) Card, Speicher, usw. Der RF Schaltkreis 108 kann mit Netzwerken kommunizieren, wie z. B. das Internet, auf das auch Bezug genommen wird als World Wide Web (WWW), ein Intranet und/oder ein Drahtlosnetzwerk, wie z. B. ein zellulares Telefonnetzwerk, ein Wireless Lan Area Network (LAN) und/oder ein Metropolitan Area Network (MAN) und andere Vorrichtungen über drahtlose Kommunikation. Die drahtlose Kommunikation kann jede aus einer Vielzahl an Kommunikationsstandards, Protokollen und Technologien verwenden, darunter aber nicht beschränkt auf, Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), high-speed downlink packet access (HSDPA), wide-band code division multiple access (W-CDMA), code division multiple access (CDMA), time division multiple access (TDMA), Bluetooth, Wireless Fidelity (Wi-Fi) (e. g., IEEE 802.11a, IEEE 802.11b. IEEE 802.11g und/oder IEEE 802.11n), Voice over Internet Protocol (VoIP), Wi-MAX, ein Protokoll für E-Mail (z. B. Internet message access protocol (IMAP) und/oder post office protocol (POP)), Sofortmitteilungen (z. B. extensible Messaging and Presence Protokoll (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), und/oder Instant Messaging and Presence Service (IMPS), und/oder Short Message Service (SMS)), oder jedes andere geeignete Kommunikationsprotokoll, darunter Kommunikationsprotokolle, die zum Zeitpunkt der Anmeldung diese Dokuments noch nicht entwickelt sind.
  • Der Audioschaltkreis 110, der Lautsprecher 111, und das Mikrophon 113 stellen eine Audioschnittstelle zwischen einem Benutzer und der Vorrichtung 100 bereit. Der Audioschaltkreis 110 empfängt Audiodaten von der Peripherigeräteschnittstelle 118, wandelt die Audiodaten in ein elektrisches Signal und überträgt das elektrische Signal zu dem Lautsprecher 111. Der Lautsprecher 111 wandelt die elektrischen Signale in vom Menschen wahrnehmbare Schallwellen um. Der Audioschaltkreis 110 empfangt auch elektrische Signale, die von dem Mikrophon 113 von Schallwellen umgewandelt wurden. Der Audioschaltkreis 110 wandelt das elektrische Signal zu Audiodaten und überträgt die Audiodaten zu der Peripherigeräteschnittstelle 118 zur Verarbeitung. Audiodaten können abgerufen werden von und/oder übertragen werden zu Speicher 102 und/oder dem RF Schaltkreis 108 durch die Peripherigeräteschnittstelle 118. In einigen Ausfüh rungsbeispielen kann der Audioschaltkreis 110 auch einen Sprechgarnituranschluss aufweisen (z. B. 212, 2). Der Sprechgarnituranschlussstecker stellt eine Schnittstelle zwischen dem Audioschaltkreis 110 und entfernbare Audioeingabe-/Ausgabeperipheriegeräten bereit, wie z. B. Nur-Ausgabe-Kopfhörer oder einer Sprechgarnitur mit beidem, sowohl Ausgabe (z. B. einem Kopfhörer für ein oder beide Ohren) als auch Eingabe (z. B. ein Mikrophon).
  • Das I/O Untersystem 106 verbindet Eingabe-/Ausgabeperipheriegeräte auf der Vorrichtung 100 sowie dem Berührungsbildschirm 112 und andere Eingabe/Steuervorrichtungen 116 zu der Peripheriegeräteschnittstelle 118. Das I/O Untersystem 106 kann eine Anzeigensteuervorrichtung 156 aufweisen und eine oder mehrere Steuervorrichtungen 160 für andere Eingabe- oder Steuervorrichtungen. Das eine oder mehrere Eingabesteuervorrichtungen 160 empfangen/senden elektrische Signale von/zu anderen Eingabe- oder Steuervorrichtungen 116. Die anderen Eingabe-/Steuervorrichtungen 116 können physikalische Knöpfe (z. B. Druckknöpfe, Kipphebel, etc.), Wählscheiben, Schiebeschalter, Joysticks, Klickräder usw. aufweisen. In einigen anderen Ausführungsbeispiele kann die Eingabesteuervorrichtung(en) 116 zu jedem oder keinem der folgenden verbunden sein: Eine Tastatur, Infrarotanschluss, USB-Anschluss und/oder ein Zeigegerät, wie eine Maus. Der eine oder mehrere Knöpfe (z. B. 208, 2) kann einen Aufwärts-/Abwärtsknopf zur Lautstärkeregelung des Lautsprecher 111 und/oder des Mikrophons 113 aufweisen. Der eine oder mehrere Knöpfe können einen Druckknopf (z. B. 206, 2) aufweisen. Ein kurzes Drücken des Druckknopfes kann eine Sperre des Berührungsbildschirms 112 entsperren, oder einen Prozess beginnen, der Gesten auf dem Berührungsbildschirm verwendet, um die Vorrichtung zu entsperren, wie beschrieben in U.S. Patent Anmeldung Nr. 11/322,549, "Unlocking a Device by Performing Gestures an an Unlock Image," eingereicht am 23. Dezember 2005, welches hiermit referenzierend in seiner Gesamtheit eingebunden ist. Ein längeres Drücken des Druckknopfes (z. B. 206) kann die Leistung zu der Vorrichtung 100 an oder ausschalten. Der Benutzer kann in der Lage sein, eine Funktionalität von einem oder mehreren der Knöpfe zu verändern. Der Berührungs bildschirm 112 wird verwendet, virtuelle oder Softknöpfe und ein oder mehrere Softkeyboards zu implementieren.
  • Der berührungsempfindliche Berührbildschirm 112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen der Vorrichtung und einem Benutzer bereit. Die Anzeigensteuervorrichtung 156 empfangt und/oder sendet elektrische Signale von/zu dem Berührungsbildschirm 112. Der Berührungsbildschirm 112 zeigt visuelle Ausgaben an den Benutzer an. Die visuellen Ausgaben können Graphik, Text, Ikonen, Video und jede Kombination davon (zusammengefasst als "Graphiken" bezeichnet) aufweisen. In einigen Varianten können einige oder alle der visuellen Ausgaben zu Benutzerschnittstellenobjekten korrespondieren, von denen weitere Details unten beschrieben sind.
  • Ein Berührungsbildschirm 112 hat eine berührungsempfindliche Oberfläche, einen Sensor oder eine Gruppe an Sensoren, die Eingabe von einem Benutzer basierend auf haptischen und/oder taktilem Kontakt akzeptiert. Der Berührungsbildschirm 112 und die Anzeigensteuervorrichtung 156 (zusammen mit jedem zugehörigen Modul und/oder Gruppen an Instruktionen in Speicher 102) erfassen Kontakt (und jede Bewegung oder Unterbrechung des Kontaktes) auf dem Berührungsbildschirm 112 und wandeln den erfassten Kontakt in Interaktion mit Benutzerschnittstellenobjekten (z. B. eine oder mehrere Softtasten, Ikonen, Webseiten oder Bilder) die auf dem Berührungsbildschirm angezeigt werden. In einer beispielhaften Ausführungsform korrespondiert ein Kontaktpunkt zwischen einem Berührungsbildschirm 112 und dem Benutzer mit einem Finger des Benutzers.
  • Der Berührungsbildschirm 112 kann LCD (liquid crystal display) Technologie oder LPD (light emitting polymer display) Technologie verwenden, obwohl andere Displayanzeigentechnologien in anderen Ausführungsbeispielen verwendet werden können. Der Berührungsbildschirm 112 und die Anzeigensteuervorrichtung 156 können Kontakt und jede Bewegung oder Unterbrechung davon erfassen, unter Verwendung jeder von einer Vielzahl an berührungsempfindlichen Technologien, die jetzt bekannt sind, oder später entwickelt werden, darunter aber nicht beschränkt auf kapazitive, resistive, infrarot und akustischeoberflächenwellen Technologie sowie andere Nahbereichsensorfelder oder andere Elemente zum Bestimmen einer oder mehrerer Kontaktpunkte mit einem Berührungsbildschirm 112.
  • Eine berührungsempfindliche Anzeige kann in einigen Ausführungsbeispielen des Berührungsbildschirm 112 analog zu den vielfachberührungsempfindlichen Tafeln sein, die in den folgenden U.S. Patenten beschrieben sind:
    6,323,846 (Westerman et al.), 6,570,557 (Westerman et al.), und/oder 6,677,932 (Westerman), und/oder U.S. Patent Veröffentlichung 2002/0015024A1 , von denen jede hier referenzierend in ihrer Gesamtheit eingebunden ist. Jedoch zeigt ein Berührungsbildschirm 112 visuelle Ausgaben von der tragbaren Vorrichtung 100 an, wohingegen berührungssensitive Tafeln keine visuellen Ausgaben bereitstellen.
  • Eine berührungsempfindliche Anzeige in einigen Ausführungsbeispielen des Berührungsbildschirms 112 kann wie die folgenden Anmeldungen beschrieben sein:
    (1) U.S. 11/381,313, "Multipoint Touch Surface Controller" eingereicht am 2. Mai 2006; (2) U.S. Patent Anmeldung Nr. 10/840,862, "Multipoint Touch Screen", eingereicht am 6. Mai 2004; (3) U.S. Patent Anmeldung Nr. 10/903,964, "Gestures For Touch Sensitive Input Devices", eingereicht am 30. Juli 2004; (4) U.S. Patent Anmeldung Nr. 11/048,264, "Gestures For Touch Sensitive Input Devices", eingereicht am 31. Januar 2005; (5) U.S. Patent Anmeldung Nr. 11/038,590, "Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices", eingereicht am 18. Januar 2005; (6) U.S. Patent Anmeldung Nr. 11/228,758, "Virtual Input Device Placement On A Touch Screen User Interface", eingereicht am 16. September 2005; (7) U.S. Patent Anmeldung Nr. 11/228,700, "Operation Of A Computer With A Touch Screen Interface", eingereicht am 16. September 2005; (8) U.S. Patent Anmeldung Nr. 11/228,737, "Activating Virtual Keys Of A Touch Screen Virtual Keyboard", eingereicht am 16. September 2005; and (9) U.S. Pat ent Anmeldung Nr. 11/367,749, "Multi-Functional Hand-Held Device", eingereicht am 3. März 2006. Alle diese Anmeldungen sind hiermit in ihrer Gesamtheit referenzierend eingebunden.
  • Der Berührungsbildschirm 112 kann eine Auflösung höher als 100 dpi haben. In einer beispielhaften Ausführungsform hat der Berührungsbildschirm eine Auflösung von ungefähr 160 dpi. Der Benutzer kann mit dem Berührungsbildschirm 112 in Kontakt treten unter Verwendung irgendeines geeigneten Objektes oder Anhangs, wie z. B. einen Stift, einen Finger, usw. In einigen Ausführungsbeispielen ist die Benutzerschnittstelle entwickelt, um primär mit fingerbasierten Kontakten und Gesten zu arbeiten, die viel weniger präziser als stiftbasierte Eingaben sind, aufgrund des größeren Kontaktbereiches eines Fingers auf dem Berührungsbildschirm. In einigen Ausführungsbeispielen übersetzt die Vorrichtung die groben, fingerbasierten Eingaben in eine präzise Zeiger-/Cursorposition und Befehl zum Ausführen der vom Benutzer gewünschten Aktionen.
  • In einigen Ausführungsbeispielen kann die Vorrichtung 100 zusätzlich zu dem Berührungsbildschirm ein Berührungsfeld (nicht gezeigt) zum Aktivieren oder Deaktivieren bestimmter Funktionen aufweisen. In einigen Ausführungsbeispielen ist das Berührfeld ein berührungsempfindlicher Bereich der Vorrichtung, der im Gegensatz zu dem Berührungsbildschirm Nicht-visuelle-Ausgaben anzeigt. Das Berührfeld kann eine berührungsempfindliche Oberfläche sein, die von dem Berührungsbildschirm 112 getrennt ist, oder eine Erweiterung der berührungsempfindlichen Oberfläche, die von dem Berührungsbildschirm gebildet wird.
  • In einigen Ausführungsbeispielen kann die Vorrichtung 100 ein physikalisches oder virtuelles Klickrad als eine Eingabe-/Steuervorrichtungen 116 aufweisen. Ein Benutzer kann navigieren unter und interagieren mit einem oder mehreren graphischen Objekten (im Folgenden als Ikonen bezeichnet), die auf dem Berührungsbildschirm 112 angezeigt werden durch Rotieren des Klickrades oder durch Bewegen eines Kontaktpunktes mit dem Klickrad (wobei die Größe der Bewegung des Kontaktpunktes durch seine Winkelverstellung mit Bezug auf einen zentralen Punkt des Klickrades gemessen wird). Das Klickrad kann auch verwendet werden um eine oder mehrere der angezeigten Ikonen auszuwählen. Zum Beispiel kann der Benutzer auf zumindest einen Teil des Klickrades oder eines zugeordneten Knopfes drücken. Benutzerbefehle und Steuerbefehle, die durch den Benutzer über das Klickrad bereitgestellt werden, können von einer Eingabesteuervorrichtung 160 verarbeitet werden sowie eine oder mehrere der Module und/oder Gruppen an Anweisungen in Speicher 102. Für ein virtuelles Klickrad, können das Klickrad bzw. das Klickradsteuervorrichtung Teil des Berührungsbildschirms 112 bzw. der Anzeigensteuervorrichtung 156 sein. Für ein virtuelles Klickrad kann das Klickrad entweder ein lichtundurchlässiges oder semitransparentes Objekt sein, das erscheint und verschwindet auf der Berührungsbildschirmanzeige in Antwort auf Benutzerinteraktion mit der Vorrichtung. In einigen Ausführungsbeispielen wird ein virtuelles Klickrad auf dem Berührungsbildschirm einer tragbaren Multifunktionsvorrichtung angezeigt, und wird durch Benutzerkontakt mit dem Berührungsbildschirm bedient.
  • Die Vorrichtung 100 weist auch ein Energiesystem 162 zum Versorgen der verschiedenen Komponenten mit Leistung auf. Das Energiesystem 162 kann ein Energieverwaltungssystem, eine oder mehrere Energiequellen (z. B. Batterie, Wechselstrom (alternating current (AC)), ein Wiederaufladesystem, einen Leistungsunterbrechungserfassungsschaltkreis, einen Leistungsumsetzer oder Inverter, einen Energiestatusindikator (z. B. eine light emitting diode (LED)) und jede beliebige andere Komponente, die mit der Erzeugung, Verwaltung und Verteilung von Leistung in tragbaren Vorrichtungen zusammenhängt.
  • Die Vorrichtung 100 kann auch einen oder mehreren optischen Sensoren 164 aufweisen. 1A und 1B zeigen einen optischen Sensor, der zu einer optischen Sensorsteuervorrichtung 158 in I/O Untersystem 106 verbunden ist. Der optische Sensor 164 kann charge-coupeld device (CCD) oder komplementäre metalloxid Halbleiter (complementary metal-oxide semiconductor (CMOS)) Fototransistoren aufweisen. Der optische Sensor 164 empfangt Licht von der Umgebung, das durch eine oder mehrere Linsen geleitet wird und konvertiert das Licht in Daten, die ein Bild repräsentieren. In Verbindung mit einem Bildmodul 143 (auch ein Kameramodul genannt) kann der optische Sensor 164 stehende Bilder oder Video aufzeichnen. In einigen Ausführungsbeispielen ist ein optischer Sensor auf der Rückseite der Vorrichtung 100 lokalisiert, entgegengesetzt der Berührungsbildschirmanzeige 112 auf der Front der Vorrichtung, so dass die Berührungsbildschirmanzeige als ein Sucher für entweder stehende und/oder Videobildaufnahmen verwendet werden kann. In einigen Ausführungsbeispielen ist ein optischer Sensor auf der Front der Vorrichtung lokalisiert, so dass die Benutzerbilder für Videokonferenzen erhalten werden können, während der Benutzer andere Videokonferenzteilnehmer auf der Berührungsbildschirmanzeige betrachtet. In einigen Ausführungsbeispielen kann die Position des optischen Sensors 164 durch den Benutzer verändert werden (z. B. durch Rotation der Linsen und des Sensors in dem Gehäuse der Vorrichtung), so dass ein einziger optischer Sensor 164 zusammen mit der Berührungsbildschirmanzeige für Videokonferenzen und stehende und/oder Videobildaufnahmen verwendet werden kann.
  • Die Vorrichtung 100 kann auch einen oder mehrere Nahbereichsensoren 166 aufweisen. 1A und 1B zeigen einen Nahbereichsensor 166, der zu der Peripheriegeräteschnittstelle 118 verbunden ist. Alternativ kann der Nahbereichsensor 166 zu einer Eingabesteuervorrichtung 160 in dem I/O Untersystem 106 verbunden sein. Der Nahbereichsensor 166 kann funktionieren, wie beschrieben in den U.S. Patent Anmeldung Nr.: 11/241,839, "Proximity Detector In Handheld Device", eingereicht am 30. September 2005; Serien Nr. 11/240,788, "Proximity Detector In Handheld Device", eingereicht am 30. September 2005; Serien Nr. noch zu bestimmen, eingereicht am 7. Januar 2007, "Using Ambient Light Sensor To Augment Proximity Sensor Output", attorney docket no. 04860.O4851US1; Serien Nr. noch zu bestimmen, eingereicht am 24. Oktober 2006, "Automated Response To And Sensing Of User Activity In Portable Devices", attorney docket no. 04860.P4293; und Serien Nr. noch zu bestimmen, eingereicht am 12. Dezem ber 2006, "Methods And Systems For Automatic Configuration Of Peripherals", attorney docket no. 04860.P4634, die hierbei in ihrer Gesamtheit referenzierend eingebunden sind. In einigen Ausführungsbeispielen stellt sich der Nahbereichsensor aus und schaltet den Berührungsbildschirm 112 aus, wenn die Multifunktionsvorrichtung in der Nähe des Ohres des Benutzers gebracht wird (z. B. wenn der Benutzer einen Telefonanruf tätigt). In einigen Ausfünhrungsbeispielen stellt der Nahbereichsensor den Bildschirm aus, wenn die Vorrichtung in der Handtasche des Benutzers oder anderen dunklen Bereichen ist, um unnötigen Batterieverbrauch zu vermeiden, wenn die Vorrichtung in einem gesperrten Zustand ist.
  • Die Vorrichtung 100 kann auch einen oder mehrere Beschleunigungsmesser 168 aufweisen. 1A und 1B zeigen einen Beschleunigungsmesser 168, der mit der Peripheriegeräteschnittstelle 118 verbunden ist. Alternativ kann der Beschleunigungsmesser 168 zu einer Eingabe-/Steuervorrichtung 160 in dem I/O Untersystem 106 verbunden sein. Der Beschleunigungsmesser 168 kann wie in Folgendem beschrieben funktionieren: U.S. Veröffentlichung Nr. 20050190059 , „Acceleration-based Theft Detection System for Portable Electronic Devices" und U.S. Veröffentlichung Nr. 20060017692 , "Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer", von denen beide hier referenzierend eingebunden sind. In einigen Varianten werden die Informationen auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht angezeigt, basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmesser empfangen werden.
  • In einigen Ausführungsbeispielen können die Softwarekomponenten, die in Speicher 102 gespeichert ist, ein Betriebssystem 126, ein Kommunikationsmodul (oder eine Gruppe an Anweisungen) 128, ein Kontakt-/Bewegungsmodul (oder Gruppe an Anweisungen) 130, ein Graphikmodul (oder Gruppe an Anweisungen), Anwendungsfenstermodul 132, ein Texteingabemodul (oder Gruppe an Anweisungen) 134, ein Global Positioning System (GPS) Modul (oder Gruppe an Anweisungen 135 und Anwendungen (oder Gruppe an Anweisungen) 136 aufweisen.
  • Das Betriebssystem 126 (z. B. Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS oder ein eingebettetes Betriebssystem, wie z. B. VxWorks) beinhalten verschiedene Softwarekomponenten und/oder Treiber zum Steuern und Verwalten allgemeiner Systemaufgaben (z. B. Speicherverwaltung, Speichersteuervorrichtung, Energieverwaltung, etc.) und erleichtern Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten.
  • Das Kommunikationsmodul 128 erleichtert die Kommunikation mit anderen Vorrichtungen über einen oder mehrere externe Anschlüsse 124 und beinhaltet auch verschiedene Softwarekomponenten zum Verwalten von Daten, die von dem RF Schaltkreis 108 und/oder dem externen Anschluss 124 empfangen werden. Der externe Anschluss 124 (z. B. Universal Serial Bus (USB), FIREWIRE, etc.) ist angepasst direkt mit anderen Vorrichtungen oder indirekt über ein Netzwerk (z. B. das Internet, drahtloses LAN, etc.) verbunden zu sein. In einigen Ausführungsbeispielen ist der externe Anschluss ein Vielfachpin (z. B. 30-Pin) Verbindungseinrichtung, der derselbe ist, oder ähnlich ist zu und/oder kompatibel ist mit der 30-Pin Verbindungseinrichtung, der bei iPod Vorrichtungen benutzt wird (Markenzeichen der Apple Computer Inc.).
  • Das Kontakt-/Bewegungsmodul 130 kann Kontakt mit dem Berührungsbildschirm 112 (in Verbindung mit der Anzeigensteuervorrichtung 156) und anderen berührungsempfindlichen Vorrichtungen (z. B. ein Berührungsfeld oder physikalisches Klickrad) erfassen. Das Kontakt-/Bewegungsmodul 130 beinhaltet verschiedene Softwarekomponenten zum Ausführen verschiedener Operationen, die mit der Erfassung von Kontakt in Zusammenhang stehen, wie z. B. Bestimmen, ob Kontakt stattgefunden hat, Bestimmen, ob es Bewegung des Kontaktes gibt und Verfolgen der Bewegung über den Berührungsbildschirm 112 und Bestimmen, ob der Kontakt unterbrochen wurde (z. B. wenn der Kontakt beendet wurde). Bestimmen einer Bewegung des Kontaktpunktes kann beinhalten, Bestimmen von Schnelligkeit (Betrag), Geschwindigkeit (Betrag und Richtung), und/oder einer Beschleu nigung (einer Änderung des Betrages und/oder Richtung) des Kontaktpunktes. Diese Operationen können auf einzelne Kontakte (z. B. Einfingerkontakte) angewandt werden oder auf simultane Kontakte (z. B. "Mehrberührungs-"/Mehrfingerkontakte). In einigen Ausführungsbeispielen erfasst das Kontakt-Bewegungsmodul 130 und die Anzeigensteuervorrichtung 156 auch Kontakt auf einem Berührungsfeld. In einigen Ausführungsbeispielen erfasst das Kontakt-/Bewegungsmodul 130 und die Steuervorrichtung 160 Kontakt auf einem Klickrad.
  • Das Graphikmodul 132 beinhaltet verschiedene bekannte Softwarekomponenten zum Wiedergeben und Anzeigen von Graphiken auf dem Berührungsbildschirm 112, darunter Komponenten zum Ändern der Intensität der Graphiken, die angezeigt werden. Wie hierin benutzt beinhaltet der Begriff "Graphiken" jedes Objekt, das einem Benutzer angezeigt werden kann, darunter ohne Begrenzung Text, Webseiten, Ikonen (sowie Benutzerschnittstellenobjekte darunter Softtasten), digitale Bilder, Videos, Animationen und ähnliches.
  • Das Texteingabemodul 134, welches eine Komponente des Graphikmoduls 132 sein kann, stellt Softtastaturen zum Eingeben von Text in verschiedenen Anwendungen bereit (z. B. Kontakte 137, E-Mail 140, Instant Messaging (IM) 141, Blogging 142, Browser 147 und jede andere Anwendung, die Texteingabe benötigt).
  • Das GPS Modul 135 bestimmt die Position der Vorrichtung und stellt diese Information zur Benutzung in verschiedenen Anwendungen bereit (z. B. dem Telefon 138 zur Verwendung in positionsbasiertem Wählen, zu Kamera 143 und/oder Blogger 142 sowie Bild-/Videometadaten und zu Anwendungen, die positionsbasierte Dienste sowie Wetterwidgets, gelbe Seiten-widgets und Landkarten/Navigationswidgets).
  • Die Anwendungen 136 können die folgenden Module (oder Gruppen an Instruktionen) oder eine Untergruppe oder eine Übergruppe davon beinhalten:
    • • ein Kontaktemodul 137 (manchmal ein Adressbuch oder Kontaktliste genannt);
    • • ein Telefonmodul 138;
    • • ein Videokonferenzmodul 139;
    • • ein E-Mail Client Modul 140;
    • • ein Instant Messaging (IM) Modul 141;
    • • ein Bloggingmodul 142
    • • ein Kameramodul 143 für stehende und/oder Videobilder;
    • • ein Bilderverwaltungsmodul 144;
    • • ein Videoabspielmodul 145;
    • • ein Musikabspielmodul 146;
    • • ein Browsermodul 147;
    • • ein Kalendermodul 148;
    • • Widgetmodule 149, die beinhalten können Wetterwidget 149-1, Wertpapierwidget 149-2, Taschenrechnerwidget 149-3, Weckerwidget 149-4, Wörterbuchwidget 149-5 und andere Widgets, die der Benutzer erhalten hat sowie benutzererzeugte Widgets 149-6;
    • • Widgeterzeugungsmodul 150 zum Erstellen benutzererstellter Widgets 149-6;
    • • Suchmodul 151;
    • • Video- und Musikabspielmodul 152, das Videoabspielmodul 145 und Musikabspielmodul 146 verbindet;
    • • Notizblockmodul 153; und/oder
    • • Landkartenmodul 154.
  • Beispiele anderer Anwendungen 136, die in Speicher 102 gespeichert sein können, beinhalten andere Wortverarbeitungsanwendungen, JAVA-unterstützte Anwendungen, Verschlüsselung, digitale Rechteverwaltung, Spracherkennung und Sprachabgleich.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134, kann das Kontaktemodul 137 verwendet werden, ein Adressbuch oder eine Kontaktliste zu verwalten, darunter: Hinzufügen von Name(n) zu dem Adressbuch; Löschen von Name(n) von dem Adressbuch; Zuweisen von Telefonnummer(n), E-Mailadresse(n), physikalische Adresse(n), oder andere Informationen mit einem Namen; Verbinden eines Bildes mit einem Namen; Kategorisieren und Sortieren von Namen; Bereitstellen von Telefonnummern oder E-Mailadressen, um Kommunikation per Telefon 138 zu initiieren und/oder zu erleichtern, Videokonferenz 139, E-Mail 140 oder IM 141; usw. Varianten von Benutzerschnittstellen und zugeordneten Prozessen, die das Kontaktemodul 137 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit RF Schaltkreis 108, Audioschaltkreis 110, Lautsprecher 111, Mikrophon 113, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Telefonmodul 138 benutzt werden, eine Folge an Zeichen einzugeben, die zu einer Telefonnummer korrespondiert, auf eine oder mehrere Telefonnummern in dem Adressbuch 137 zuzugreifen, eine Telefonnummer, die eingegeben wurde zu modifizieren, eine entsprechende Telefonnummer zu wählen, eine Konversation zu führen und die Verbindung zu unterbrechen oder aufzulegen, wenn die Konversation beendet ist. Wie oben beschrieben kann die drahtlose Kommunikation jedes einer Vielzahl an Kommunikationsstandards, Protokollen und Technologien verwenden, Varianten an Benutzerschnittstellen und zugeordneten Prozessen, die Telefonmodul 138 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit RF Schaltkreis 108, Audioschaltkreis 110, Lautsprecher 111, Mikrophon 113, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, optische Sensor 164, optischen Sensorsteuervorrichtung 158, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, Kontakteliste 137 und Telefonmodul 138 kann das Videokonferenzmodul 139 verwendet werden, Videokonferenzen zu initiieren, zu führen und zu beenden, zwischen einem Benutzer und einem oder mehreren anderen Teilnehmern. Varianten an Benutzerschnittstellen und zugeordneten Prozessen, die Videokonferenzmodul 139 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das E-Mail Client Modul 140 verwendet werden, E-Mail zu erzeugen, senden, empfangen und verwalten. In Verbindung mit Bildverwaltungsmodul 144, macht es das E-Mail Modul 140 sehr leicht, E-Mails mit stehenden oder Videobildern, die mit Kameramodul 143 aufgenommen wurden, zu erzeugen und zu senden. Varianten von Benutzerschnittstellen und zugeordneten Prozessen, die E-Mail Modul 140 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Instant Messaging Modul 141 benutzt werden, eine Folge an Zeichen einzugeben, die zu einer Sofortnachricht korrespondieren, vorher eingegebene Zeichen modifizieren, eine entsprechende Sofortnachricht zu übertragen (z. B. unter Verwendung eines Kurzmitteilungsdienstes (Short Message Service, SMS) oder Multimedia Mitteilungsdienst (Multimedia Message Service (MMS) Protokoll für telefonbasierte Sofortnachrichten oder unter Verwendung von XMPP, SIMPLE oder IMPS für internetbasierte Sofortnachrichten), Sofortnachrichten zu empfangen und empfangene Sofortnachrichten zu betrachten. In einigen Ausführungsbeispielen können übertragene und/oder empfangene Sofortmitteilungen Graphiken, Fotos, Audiodateien, Videodateien und/oder andere Anhänge, wie sie von einem MMS und/oder einem Enhanced Messaging Service (EMS) unterstützt werden, aufweisen. Wie hierin benutzt, bezieht sich "Sofortmitteilungen" auf telefonbasierte Nachrichten (z. B. Nachrichten, die unter Verwendung von SMS oder MMS gesendet wurden) und internetbasierte Nachrichten (z. B. Nachrichten, die unter Verwendung von XMPP, SIMPLE oder IMPS gesendet wurden). Varianten von Benutzerschnittstellen und zugeordneten Prozessen, die Instant Messaging Modul 141 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, Bildverwaltungsmodul 144, und Browsingmodul 147 kann das Bloggingmodul 142 verwendet werden, Text, stehende Bilder, Video und/oder andere Graphiken zu einem Blog (z. B. dem Blog des Benutzers) zu versenden. Varianten an Benutzerschnittstellen und zugeordneten Prozessen, die Bloggingmodul 142 verwenden sind weiter unten beschrieben.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, optische(n) Sensor(en) 164, optischen Sensorsteuervorrichtung 158, Kontaktmodul 130, Graphikmodul 132, und Bildverwaltungsmodul 144 kann das Kameramodul 143 verwendet werden, stehende Bilder oder Video (darunter einen Videostream) zu erfassen, und sie in Speicher 102 zu speichern, Charakteristiken eines stehenden Bildes oder Videos zu modifizieren oder ein stehendes Bild oder Video von Speicher 102 zu löschen. Varianten an Benutzerschnittstellen und zugeordneten Prozessen unter Verwendung des Kameramoduls 143 sind weiter unten beschrieben.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134 und Kameramodul 143 kann das Bildverwaltungsmodul 144 verwendet werden, stehende und/oder Videobilder zu arrangieren, modifizieren oder anderweitig zu manipulieren, zu labeln, löschen, anzeigen (z. B. in einer digitalen Diashow oder Album) und zu speichern. Varianten von Benutzerschnittstellen und zugeordneten Prozessen, die Bildverwaltungsmodul 144 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Audioschaltkreis 110, und Lautsprecher 111 kann das Videoabspielmodul 145 verwendet werden, Videos anzuzeigen, zu präsentieren oder anderweitig abzuspielen (z. B. auf dem Berührungsbildschirm oder auf einer externen, verbundenen Anzeige über externen Anschluss 124). Varianten von Benutzerschnittstellen und zugeordneten Prozessen, die Videoabspielmodul 145 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Audioschaltkreis 110, Lautsprecher 111, RF Schaltkreis 108 und Browsermodul 147, ermöglicht das Musikabspielmodul 146 dem Benutzer, aufgenommene Musik und andere Musikdateien, die in einem oder mehreren Dateiformaten, wie z. B. MP3 oder AAC Dateien, gespeichert sind, abzuspielen. In einigen Ausführungsbeispielen kann die Vorrichtung 100 die Funktionalität eines MP3 Abspielgerätes, wie z. B. eines iPods (Markenzeichen der Apple Computer Inc.) aufweisen. Varianten von Benutzerschnittstellen und zugeordneten Prozessen, die Musikabspielmodul 146 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, und Texteingabemodul 134 kann das Browsermodul 147 verwendet werden, das Internet zu browsen, darunter suchen, verbinden zu, empfangen und anzeigen von Webseiten oder Teilen davon sowie Anhänge und andere Dateien, die mit Webseiten verbunden sind. Varianten von Benutzerschnittstellen und zugeordneten Prozessen, die Browsermodul 147 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, E-Mail Modul 140, und Browsermodul 147 kann das Kalendermodul 148 benutzt werden, Kalender und Daten, die mit Kalendern zusammenhängen (z. B. Kalendereinträge, to do Listen, etc.) zu erzeugen, anzeigen, modifizieren und speichern. Varianten von Benutzerschnittstellen und zugeordneten Prozessen, die Kalendermodul 148 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134 und Browsermodul 147 sind die Widgetmodule 149 Minianwendungen, die heruntergeladen werden können und von einem Benutzer verwendet werden können (z. B. Wetterwidget 149-1, Wertpapierwidget 149-2, Taschenrechnerwidget 149-3, Wecker 149-4 und Wörterbuchwidget 149-5) oder von dem Benutzer erzeugt werden können (z. B. benutzererzeugtes Widget 149-6). In einigen Ausführungsbeispielen beinhaltet ein Widget eine HTML (Hypertext Markup Language) Datei, eine CSS (Cascading Style Sheets) Datei und eine JavaScript Datei. In einigen Ausführungsbeispielen enthält ein Widget eine XML (Extensible Markup Language) Datei und eine JavaScript Datei (z. B. Yahoo! Widgets). Varianten an Benutzerschnittstellen und zugeordneten Prozessen, die Widgetmodul 149 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134 und Browsermodul 147 kann das Widgeterzeugungsmodul 150 verwendet werden von einem Benutzer, um Widgets zu erzeugen (z. B. Umwandeln eines benutzerspezifizierten Teils einer Webseite in ein Widget). Varianten von Benutzerschnittstellen und zugeordneten Prozessen, die Widgeterzeugungsmodul 150 verwenden, sind weiter unten beschrieben. In Verbindung mit Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Suchmodul 141 verwendet werden, um nach Text, Musik, Sound, Bilder, Video und/oder anderen Dateien in Speicher 102 zu suchen, die eine oder mehrere Suchkriterien erfüllen, (z. B. ein oder mehrere benutzerspezifizierte Suchbegriffe). Varianten der Benutzerschnittstellen und zugeordneten Prozessen, die Suchmodul 151 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Notizbuchmodul 153 verwendet werden, Notizen, to do Listen und ähnliches zu erzeugen und zu verwalten. Varianten der Benutzerschnittstellen und zugeordneten Prozesse, die Notizbuchmodul 153 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, GPS Modul 135 und Browsermodul 147 kann das Landkartenmodul 154 verwendet werden, Landkarten und Daten, die mit Landkarten zusammenhängen, zu empfangen, anzuzeigen, modifizieren und zu speichern (z. B. Fahrtrichtungen; Daten auf Speichern und andere Punkte von Interesse an oder in der Nähe einer bestimmten Position; und andere positionsbasierte Daten). Varianten der Benutzerschnittstellen und zugeordneten Prozesse, die Landkartenmodul 154 verwenden, sind weiter unten beschrieben.
  • Jedes der oben identifizierten Module und Anwendungen entspricht einer Gruppe an Anweisungen zum Ausführen einer oder mehrerer oben beschriebener Funktionen. Diese Module (d. h. Gruppen an Anweisungen) brauchen nicht als separate Softwareprogramme, Prozeduren oder Module implementiert zu sein und damit können verschiedene Untergruppen dieser Module kombiniert werden, oder anderweitig in verschiedenen Ausführungsbeispielen neu geordnet werden. Zum Beispiel kann Videoabspielmodul 145 mit Musikabspielmodul 146 in ein einziges Modul (z. B. Video- und Musikabspielmodul 152, 1B) kombiniert werden. In einigen Ausführungsbeispielen kann Speicher 102 eine Untergruppe der Module und oben identifizierten Datenstrukturen speichern. Weiterhin kann Speicher 102 zusätzliche Module oben nicht beschriebener Datenstrukturen speichern.
  • In einigen Ausführungsbeispielen ist die Vorrichtung 100 eine Vorrichtung, in der Benutzung von einer vordefinierten Gruppe an Funktionen auf der Vorrichtung exklusiv durch den Berührungsbildschirm 112 und/oder ein Berührungsfeld ausgeführt wird. Durch Verwendung eines Berührungsbildschirms und/oder eines Berührungsfeldes als primäre Eingabe-/Ausgabevorrichtung zur Benutzung der Vorrichtung 100 kann die Anzahl physikalischer Eingabe-/Ausgabevorrichtung (wie z. B. Druckknöpfe, Wählscheiben und ähnliches) auf der Vorrichtung 100 reduziert werden.
  • Die vordefinierte Gruppe an Funktionen, die exklusiv durch einen Berührungsbildschirm und/oder ein Berührungsfeld ausgeführt werden kann, beinhaltet Navigieren zwischen Benutzerschnittstellen. In einigen Varianten navigiert das Berührungsfeld, wenn es durch den Benutzer berührt wird, die Vorrichtung 100 zu einem Haupt-, Heim-, oder Ursprungsmenü von jeder Benutzerschnittstelle, die auf der Vorrichtung 100 angezeigt werden kann. In solchen Ausführungsbeispielen kann das Berührungsfeld als ein "Menüknopf" bezeichnet werden. In einigen anderen Ausführungsbeispielen kann der Menüknopf ein physikalischer Druckknopf oder eine andere physikalische Eingabe-/Ausgabevorrichtung anstelle eines Berührungsfeldes sein.
  • 2 stellt eine tragbare Multifunktionsvorrichtung 100 dar, die einen Berührungsbildschirm 112 aufweist, in Übereinstimmung mit einigen Ausführungsbeispielen. Der Berührungsbildschirm kann eine oder mehrere Grafiken innerhalb der Benutzerschnittstelle (user interface, UI) 200 anzeigen. In diesem Ausführungsbeispiel sowie anderen unten beschriebenen, kann ein Benutzer eine oder mehrere der Graphiken durch Kontaktaufnahme oder Berühren der Graphiken wählen, z. B. mit einem oder mehreren Fingern 202 (in der Fig. nicht maßstäblich gezeichnet). In einigen Ausführungsbeispielen erfolgt die Wahl von einer oder mehreren Graphiken, wenn der Benutzer den Kontakt mit der einen oder mehreren Graphiken unterbricht. In einigen Ausführungsbeispielen kann der Kontakt eine Geste beinhalten, wie z. B. ein oder mehrere Anschläge, eine oder mehrere Wischbewegungen (von links nach rechts, rechts nach links, aufwärts und/oder abwärts) und/oder ein Rollen eines Fingers (von rechts nach links, links nach rechts, aufwärts und/oder abwärts) der mit der Vorrichtung 100 Kontakt aufgenommen hat. In einigen Ausführungsbeispielen darf versehentlicher Kontakt mit einer Graphik die Graphik nicht auswählen. Zum Beispiel darf eine Wischgeste, die über eine Anwendungsikone streicht nicht die korrespondierende Anwendung auswählen, wenn die Geste, die zur Auswahl korrespondiert, ein Anschlag ist.
  • Die Vorrichtung 100 kann auch einen oder mehrere physikalische Knöpfe, wie z. B. "Heim-" oder Menüknopf 204 aufweisen. Wie vorhergehend beschrieben, kann der Menüknopf 204 verwendet werden, zu jeder Anwendung 136 aus einer Gruppe an Anwendungen zu navigieren, die auf der Vorrichtung 100 ausgeführt werden können. Alternativ ist, in einigen Ausführungsbeispielen, der Menüknopf als eine Softtaste in einer GUI im Berührungsbildschirm 112 implementiert.
  • In einigen Ausführungsbeispielen weist die Vorrichtung einen Berührungsbildschirm 112, einen Menüknopf 204, einen Druckknopf 206 auf, um die Vorrichtung an/aus zu schalten und die Vorrichtung zu verriegeln, Lautstärkeanpassungsknopf(knöpfe) 208, ein Subscriber Identity Module (SIM) Karteneinschub 210, einen Sprechgarnituranschluss 212 und einen externen Andock-/Ladeanschluss 124. Der Druckknopf 206 kann verwendet werden, die Vorrichtung durch Herunterdrücken des Knopfes und Halten des Knopfes in dem heruntergedrückten Zustand für eine vordefinierte Zeitdauer an/auszuschalten; die Vorrichtung durch Herunterdrücken des Knopfes und Loslassen des Knopfes bevor die vordefinierte Zeitdauer abgelaufen ist, zu sperren; und/oder die Vorrichtung zu entsperren oder einen Entsperrungsprozess zu starten. In einem alternativen Ausführungsbeispiel kann die Vorrichtung 100 auch verbale Eingaben über das Mikrophon 113 zur Aktivierung oder Deaktivierung einiger Funktionen akzeptieren.
  • Die Aufmerksamkeit wird nun auf Benutzerschnittstellen ("UI") und zugeordnete Prozesse gerichtet, die auf einer tragbaren Multifunktionsvorrichtung 100 implementiert werden können.
  • 3 stellt eine beispielhafte Benutzerschnittstelle zum Entsperren einer tragbaren elektronischen Vorrichtung dar. In einigen Varianten beinhaltet die Benutzerschnittstelle 300 die folgenden Elemente, oder eine Untergruppe oder eine Übergruppe davon:
    • • Entsperrbild 302, das mit einer Fingergeste bewegt wird, um die Vorrichtung zu entsperren;
    • • Pfeil 304 der einen visuellen Hinweis auf die Entsperrgeste bereitstellt;
    • • Kanal 306, der zusätzliche Hinweise auf die Entsperrgeste bereitstellt;
    • • Zeit 308;
    • • Tag 310;
    • • Datum 312; und
    • • Hintergrundbild 314.
  • In einigen Varianten erfasst die Vorrichtung Kontakt mit der berührungsempfindlichen Anzeige (z. B. ein Finger des Benutzers tritt auf oder in der Nähe des Entsperrbildes 302 in Kontakt) während die Vorrichtung in einem Benutzerschnittstellengesperrtzustand ist. Die Vorrichtung bewegt das Entsperrbild 302 in Übereinstimmung mit dem Kontakt. Die Vorrichtung geht zu einem Benutzerschnittstellenentsperrtzustand über, wenn der erfasste Kontakt zu einer vordefinierten Geste korrespondiert, wie z. B. Bewegen des Entsperrbildes über den Kanal 306. Andererseits behält die Vorrichtung den Benutzerschnittstellengesperrtzustand bei, wenn der erfasste Kontakt nicht zu der vordefinierten Geste korrespondiert. Wie oben bemerkt, sind Prozesse, die Gesten auf dem Berührungsbildschirm verwenden, um die Vorrichtung zu entsperren, in folgenden U.S. Patent Anmeldung Nr. beschrieben: 11/322,549, "Unlocking A Device By Performing Gestures On An Unlock Image", eingereicht am 23. Dezember 2005, und Nr. 11/322,550, "Indication Of Progress Towards Satisfaction Of A User Input Condition", eingereicht am 23. Dezember 2005, die hiermit in ihrer Gesamtheit referenzierend eingebunden sind.
  • 4A und 4B stellen beispielhafte Benutzerschnittstellen für ein Menü an Anwendungen auf einer tragbaren Multifunktionsvorrichtung dar. In einigen Varianten beinhaltet Benutzerschnittstelle 400A die folgenden Elemente, oder eine Untergruppe oder Übergruppe davon:
    • • Signalstärkeindikator(en) 402 für drahtlose Kommunikation(en), wie z. B. zellulare und Wi-Fi Signale;
    • • Zeit 404;
    • • Batteriestatusindikator 406;
    • • Ablage 408, mit Ikonen für häufig benutzte Anwendungen, wie z. B. – Telefon 138, der einen Indikator 414 der Anzahl entgangener Anrufe oder Anrufbeantworternachrichten, beinhalten kann; – E-Mail Client 140, der einen Indikator 410 der Anzahl ungelesener E-Mails beinhalten kann; – Browser 147; und – Musikabspielgerät 146; und
    • • Ikonen für andere Anwendungen, wie z. B.: – IM 141; – Bildverwaltung 144; – Kamera 143; – Videoabspielgerät 145; – Wetter 149-1; – Wertpapiere 149-2; – Blog 142; – Kalender 148; – Taschenrechner 149-3; – Wecker 149-4; – Wörterbuch 149-5; – benutzererzeugtes Widget 149-6.
  • In einigen Varianten kann Benutzerschnittstelle 400B die folgenden Elemente oder eine Untergruppe oder Übergruppe davon beinhalten:
    • 402, 404, 406, 141, 148, 144, 143, 149-3, 149-2, 149-1, 149-4, 410, 414 138, 140 und 147 wie oben beschrieben;
    • • Landkarte 154;
    • • Notizen 153;
    • • Einstellungen 412, die Zugriff auf Einstellungen für die Vorrichtung 100 und ihre verschiedenen Anwendungen 136 bereitstellen, wie weiter unten beschrieben; und
    • • Video- und Musikabspielmodul 152 auch bezeichnet als iPod (Markenzeichen der Apple Computer, Inc.) Modul 152.
  • In einigen Varianten zeigen UI 400A oder 400B alle der verfügbaren Anwendungen 136 auf einem Bildschirm an, so dass es keinen Bedarf gibt, durch eine Liste an Anwendungen zu scrollen (z. B. mit Hilfe einer Scrollleiste). In einigen Anwendungen können die Ikonen, die zu den Anwendungen korrespondieren in der Größe abnehmen, wenn die Anzahl der Anwendungen zunimmt, so dass alle Anwendungen ohne Scrollen auf einem einzigen Bildschirm angezeigt werden können. Einige Varianten, die alle Anwendungen auf einem Bildschirm und einen Menüknopf haben, ermöglichen es einem Benutzer jede gewünschte Anwendung mit höchstens zwei Eingaben, wie z. B. Aktivieren des Menüknopfes 204 und dann Aktivieren der gewünschten Anwendung (z. B. durch einen Anschlag oder andere Fingergesten auf der Ikone, die zu der Anwendung korrespondiert) zuzugreifen.
  • In einigen Varianten stellen UI 400A oder 400B integrierten Zugriff auf sowohl widgetbasierte Anwendungen und nicht widgetbasierte Anwendungen bereit. In einigen Varianten werden alle der Widgets, ob benutzererzeugt oder nicht, in UI 400A oder 400B angezeigt. In anderen Varianten kann Aktivieren der Ikone für benutzererzeugtes Widget 149-6 zu einer anderen UI führen, die die benutzerer zeugten Widgets oder Ikonen, die zu den benutzererzeugten Widgets korrespondieren, enthält.
  • In einigen Varianten kann ein Benutzer die Ikonen in UI 400A oder 400B neu ordnen, z. B. unter Verwendung eines Prozesses, der beschrieben ist in U.S. Patent Anmeldung Nr. 11/459,602, "Portable Electronic Device With Interface Reconfiguration Mode", eingereicht am 24. Juli 2006, die hierbei in ihrer Gesamtheit referenzierend eingebunden ist. Zum Beispiel kann ein Benutzer Anwendungsikonen in und aus der Ablage 408 bewegen unter Verwendung von Fingergesten.
  • In einigen Varianten enthält UI 400A oder 400B eine Anzeige (nicht gezeigt), die eine aktualisierte Accountverwendungsmetric für einen Account, der mit der Verwendung der Vorrichtung (z. B. einen zellularen Telefonaccount) zusammenhängt, anzeigt, wie in U.S. Patent Anmeldung Nr. 11/322,552, "Account Information Display For Portable Communication Device", eingereicht am 23. Dezember 2005, beschrieben, welche hierbei in ihrer Gesamtheit referenzierend eingebunden ist.
  • 5A bis 5J stellen Portrait-Landschaft Rotationsheuristiken dar.
  • 6A bis 6D sind Flussdiagramme, die Prozesse für Portrait-Landschafts Rotationsheuristiken darstellen.
  • In einigen Varianten werden Informationen in einigen Anwendungen automatisch in Portraitansicht oder Landschaftsansicht in Vorrichtung 100 dargestellt, basierend auf einer Analyse von Daten von dem einen oder mehreren Beschleunigungsmessern 168. Eine Benutzergeste (z. B. 4402, 5B), kann jedoch die Ansicht, die automatisch gewählt ist, basierend auf den Beschleunigungsmesserdaten, aufheben. In einigen Varianten endet die Aufhebung, wenn eine zweite Geste, (z. B. 4404, 5H) erfasst wird (wie beschrieben in Beispiel 1 und Beispiel 2 unten, wie durch 5A bis 5E und 5G bis 5J dargestellt). In einigen Varianten endet die Aufhebung, wenn die Vorrichtung in eine Orientierung gebracht wird, in der die angezeigte Ansicht mit der Ansicht, die automatisch basierend auf den Beschleunigungsmesserdaten empfohlen ist, übereinstimmt (wie beschrieben in Beispiel 3 und Beispiel 4 unten, wie durch 5A bis 5F dargestellt). In einigen Varianten endet die Aufhebung nach einer vorbestimmten Zeit. In einigen Varianten endet die Aufhebung, wenn der Benutzer Anwendungen ändert oder zurück zu dem Menübildschirm geht (4A oder 4B). Diese Aufhebungsbeendigungsheuristik macht die Verwendung der Vorrichtung einfacher, weil entweder eine einfache Geste benutzt wird, um die Aufhebung zu beenden, oder die Aufhebung automatisch basierend auf vordefinierten Kriterien endet.
  • Beispiel 1 (6A):
  • In einigen Ausführungsbeispielen zeigt eine tragbare Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige und einem oder mehreren Beschleunigungsmessern (602) Informationen auf der Berührungsbildschirmanzeige in einer Portraitansicht (z. B. 5A) oder einer Landschaftsansicht (z. B. 5B) basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden, an. In einigen Ausführungsbeispielen ist der Berührungsbildschirm rechteckig, oder im Wesentlichen rechteckig (z. B. kann die Berührungsbildschirmanzeige abgerundete Ecken haben, aber ansonsten eine rechteckige Form haben).
  • Eine erste vorbestimmte Fingergeste (z. B. 4402, 5B) wird auf oder in der Nähe der Berührungsbildschirmanzeige erfasst (604), während die Information in einer ersten Ansicht angezeigt wird. In Antwort auf ein Erfassen der ersten vorbestimmten Fingergeste werden die Informationen in einer zweiten Ansicht angezeigt (606) (z. B. 5C) und die Informationsanzeige wird in der zweiten Ansicht gesperrt, unabhängig von der Orientierung der Vorrichtung (z. B. ist die Anzeige in 5C, 5D, 5E und 5G in Portraitansicht gesperrt). In einigen Varianten ist die erste Ansicht die Landschaftsansicht (z. B. 5B) und die zweite Ansicht ist die Portraitansicht (z. B. 5A). In einigen Varianten ist die erste Ansicht die Portraitansicht und die zweite Ansicht die Landschaftsansicht.
  • Eine zweite vorbestimmte Fingergeste wird auf oder in der Nähe der Berührungsbildschirmanzeige erfasst (608), während die Informationsanzeige in der zweiten Ansicht gesperrt ist (z. B. Geste 4404, 5H).
  • In Antwort auf ein Erfassen der zweiten vorbestimmten Fingergeste wird die Informationsanzeige in der zweiten Ansicht entsperrt (610). Wird zum Beispiel die Anzeige in 5I und 5J entsperrt, dann wird eine Portraitansicht angezeigt, wenn die lange Achse der Vorrichtung im Wesentlichen vertikal ist (5J) und eine Landschaftsansicht wird angezeigt, wenn die kurze Achse der Vorrichtung im Wesentlichen vertikal ist (5I).
  • In einigen Varianten sind die ersten und zweiten vorbestimmten Fingergesten Mehrfingergesten. In einigen Varianten sind die ersten und zweiten vorbestimmten Fingergesten Mehrfingerdrehgesten (z. B. Geste 4402, 5B und Geste 4404, 5H). In einigen Ausführungsbeispielen geschehen die ersten und zweiten vorbestimmten Fingergesten auf der Berührungsbildschirmanzeige.
  • Beispiel 2 (6B):
  • In einigen Ausführungsbeispielen erfasst eine tragbare Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige, wobei die Berührungsbildschirmanzeige eine Portraitansicht und eine Landschaftsansicht aufweist, die Vorrichtung in einer ersten Orientierung (z. B. 5A). In einigen Ausführungsbeispielen ist die Berührungsbildschirmanzeige rechteckig oder im Wesentlichen rechteckig (z. B. kann die Berührungsbildschirmanzeige abgerundete Ecken haben, aber ansonsten eine rechteckige Form haben).
  • Informationen werden auf der Berührungsbildschirmanzeige in einer ersten Ansicht angezeigt (654), während sich die Vorrichtung in einer ersten Orientierung befindet.
  • Die Vorrichtung wird in einer zweiten Orientierung erfasst (656) (z. B. 5B).
  • In Antwort auf ein Erfassen, dass sich die Vorrichtung in der zweiten Orientierung befindet, werden die Informationen in einer zweiten Ansicht angezeigt (658).
  • Eine erste vorbestimmte Fingergeste (z. B. Geste 4402, 5B) wird auf oder in der Nähe der Berührungsbildschirmanzeige erfasst (660), während die Informationen in der zweiten Ansicht angezeigt werden.
  • In Antwort auf ein Erfassen der ersten vorbestimmten Fingergeste werden die Informationen in der ersten Ansicht (z. B. 5C) angezeigt (662) und die Informationsanzeige wird in der ersten Ansicht gesperrt (z. B. wird die Anzeige in Portraitansicht gesperrt in 5C, 5D, 5E und 5G).
  • Eine zweite vorbestimmte Fingergeste wird auf oder in der Nähe der Berührungsbildschirmanzeige erfasst (664), während die Informationsanzeige in der ersten Ansicht gesperrt ist (666) (z. B. Geste 4404, 5H).
  • In Antwort auf ein Erfassen der zweiten vorbestimmten Fingergeste wird die Informationsanzeige in der ersten Ansicht entsperrt. Wird z. B. die Anzeige in 5I und 5J entsperrt, dann wird die Portraitansicht angezeigt, wenn die lange Achse der Vorrichtung im Wesentlichen vertikal ist (5J) und eine Landschaftsansicht wird angezeigt, wenn die kurze Achse der Vorrichtung im Wesentlichen vertikal ist (5I).
  • In einigen Varianten ist die erste Ansicht die Landschaftsansicht und die zweite Ansicht ist die Portraitansicht. In einigen Varianten ist die erste Ansicht die Port raitansicht (z. B. 5A) und die zweite Ansicht ist die Landschaftsansicht (z. B. 5B).
  • In einigen Varianten sind die ersten und zweiten vorbestimmten Fingergesten Mehrfingergesten. In einigen Varianten sind die ersten und zweiten vorbestimmten Gesten Mehrfingerdrehungsgesten (z. B. Geste 4402, 5B und Geste 4404, 5H). In einigen Varianten geschehen die ersten und zweiten vorbestimmten Fingergesten auf der Berührungsbildschirmanzeige.
  • Beispiel 3 (6C):
  • In einigen Ausführungsbeispielen zeigt eine tragbare Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige und einem oder mehreren Beschleunigungsmessern Informationen auf der Berührungsbildschirmanzeige in einer Portraitansicht (z. B. 5A) oder einer Landschaftsansicht (z. B. 5B) an (622), basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden. In einigen Ausführungsbeispielen ist die Berührungsbildschirmanzeige rechteckig, oder im Wesentlichen rechteckig (z. B. kann die Berührungsbildschirmanzeige abgerundete Ecken haben, aber ansonsten eine rechteckige Form haben).
  • Eine vorbestimmte Fingergeste (z. B. Geste 4402, 5B) wird auf oder in der Nähe der Berührungsbildschirmanzeige erfasst (624), während die Informationen in einer ersten Ansicht angezeigt werden. In einigen Varianten ist die vorbestimmte Fingergeste eine Mehrfingerdrehungsgeste. In anderen Varianten geschieht die vorbestimmte Fingergeste auf der Berührungsbildschirmanzeige.
  • In Antwort auf ein Erfassen der vorbestimmten Fingergeste wird die Information in einer zweiten Ansicht (z. B. 5C) angezeigt, und die Informationsanzeige wird in der zweiten Ansicht (626) gesperrt.
  • Die Informationsanzeige in der zweiten Ansicht wird entsperrt (628), wenn die Vorrichtung in eine Orientierung gebracht wird, in der die zweite Ansicht basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden, angezeigt wird (z. B. 5E). Ist z. B. die Anzeige in 5E und 5F entsperrt, so wird eine Portraitansicht angezeigt, wenn die lange Achse der Vorrichtung im Wesentlichen vertikal ist (5E) und eine Landschaftsansicht wird angezeigt, wenn die kurze Achse der Vorrichtung im Wesentlichen vertikal ist (5F).
  • In einigen Varianten ist die erste Ansicht die Landschaftsansicht (z. B. 5B) und die zweite Ansicht ist die Portraitansicht (z. B. 5A). In einigen Varianten ist die erste Ansicht die Portraitansicht und die zweite Ansicht ist die Landschaftsansicht.
  • Beispiel 4 (6D):
  • In einigen Ausführungsbeispielen erfasst eine tragbare Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige, wobei die Berührungsbildschirmanzeige eine Portraitansicht und eine Landschaftsansicht beinhaltet, die Vorrichtung in einer ersten Orientierung (632). In einigen Ausführungsbeispielen ist die Berührungsbildschirmanzeige rechteckig oder im Wesentlichen rechteckig (z. B. kann die Berührungsbildschirmanzeige abgerundete Ecken haben, aber ansonsten eine rechteckige Form haben).
  • Informationen werden auf der Berührungsbildschirmanzeige in einer ersten Ansicht angezeigt (634), während die Vorrichtung sich in einer ersten Orientierung befindet (5A).
  • Die Vorrichtung wird in einer zweiten Orientierung erfasst (636).
  • In Antwort auf ein Erfassen, dass sich die Vorrichtung in der zweiten Orientierung befindet, werden die Informationen in einer zweiten Ansicht angezeigt (638) (z. B. 5B).
  • Eine vorbestimmte Fingergeste (z. B. Geste 4402, 5B) wird auf oder in der Nähe der Berührungsbildschirmanzeige erfasst (640), während die Informationen in der zweiten Ansicht angezeigt werden. In einigen Varianten ist die vorbestimmte Fingergeste eine Mehrfingergeste. In einigen Varianten geschieht die vorbestimmte Fingergeste auf der Berührungsbildschirmanzeige.
  • In Antwort auf ein Erfassen der vorbestimmten Fingergeste werden die Informationen in einer ersten Ansicht (z. B. 5C) angezeigt und die Informationsanzeige wird in der ersten Ansicht (642) gesperrt.
  • Die Informationsanzeige in der ersten Ansicht wird entsperrt (644), wenn die Vorrichtung im Wesentlichen in die erste Orientierung zurück gebracht wird (z. B. 5E). Ist z. B. die Vorrichtung entsperrt in 5E und 5F, dann wird eine Portraitansicht angezeigt, wenn die lange Achse der Vorrichtung im Wesentlichen vertikal ist (5E) und eine Landschaftsansicht wird angezeigt, wenn die kurze Achse der Vorrichtung im Wesentlichen vertikal ist (5F).
  • In einigen Varianten ist die erste Ansicht die Landschaftsansicht und die zweite Ansicht ist die Portraitansicht. In einigen Varianten ist die erste Ansicht die Portraitansicht (z. B. 5A) und die zweite Ansicht ist die Landschaftsansicht (z. B. 5B).
  • In einigen Varianten werden die erste Orientierung und die zweite Orientierung basierend auf einer Analyse von Daten von dem einen oder mehreren Beschleunigungsmessern erfasst. In einigen Varianten ist die erste Orientierung um 90° von der zweiten Orientierung rotiert.
  • Die vorgehende Beschreibung wurde zum Zwecke der Erklärung mit Bezugnahme auf spezielle Ausführungsbeispiele beschrieben. Jedoch hat die obige darstellende Diskussion nicht die Intention ausführlich zu sein oder die Erfindung auf die präzisen offenbarten Formen zu beschränken. Viele Modifikationen und Variationen sind im Lichte obiger Lehre möglich. Die Ausführungsbeispiele wurden gewählt um die Prinzipien der Erfindung und ihre praktischen Anwendungen bestens zu erklären, um dabei andere Fachleute in die Lage zu versetzen, die Erfindung und verschiedene Ausführungsbeispiele mit verschiedenen Modifikationen, die für die spezielle betrachtete Verwendung geeignet sind, bestens zu verwenden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 6323846 [0050]
    • - US 6570557 [0050]
    • - US 6677932 [0050]
    • - US 2002/0015024 A1 [0050]
    • - US 20050190059 [0058]
    • - US 20060017692 [0058]

Claims (36)

  1. Tragbare Multifunktionsvorrichtung, aufweisend: eine Berührungsbildschirmanzeige; einen oder mehrere Beschleunigungsmesser; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und konfiguriert sind durch den einen oder die mehreren Prozessoren ausgeführt zu werden, die Programme weisen auf: Anweisungen zum Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer Porträtansicht oder einer Landschaftsansicht basierend auf einer Analyse von Daten, die von dem einen oder den mehreren Beschleunigungsmessern empfangen werden; Anweisungen zum Erfassen einer ersten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationen in einer ersten Ansicht angezeigt werden; Anweisungen zum Anzeigen der Informationen in einer zweiten Ansicht und sperren der Informationsanzeige in der zweiten Ansicht, unabhängig von der Orientierung der Vorrichtung in Antwort auf ein Erfassen der ersten vorbestimmten Fingergeste; Anweisungen zum Erfassen einer zweiten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationsanzeige in der zweiten Ansicht gesperrt ist; und Anweisungen zum Entsperren der Informationsanzeige in der zweiten Ansicht in Antwort auf ein Erfassen der zweiten vorbestimmten Fingergeste.
  2. Vorrichtung nach Anspruch 1, wobei die Berührungsbildschirmanzeige rechteckig oder im Wesentlichen rechteckig ist.
  3. Vorrichtung nach Anspruch 1, wobei die erste Ansicht die Landschaftsansicht und die zweite Ansicht die Porträtansicht ist.
  4. Vorrichtung nach Anspruch 1, wobei die erste Ansicht die Porträtansicht und die zweite Ansicht die Landschaftsansicht ist.
  5. Vorrichtung nach Anspruch 1, wobei die ersten und zweiten vorbestimmten Fingergesten Mehrfingergesten sind.
  6. Vorrichtung nach Anspruch 5, wobei die ersten und zweiten vorbestimmten Fingergesten Mehrfingerdrehgesten sind.
  7. Vorrichtung nach Anspruch 1, wobei die ersten und zweiten vorbestimmten Fingergesten auf der Berührungsbildschirmanzeige geschehen.
  8. Tragbare Multifunktionsvorrichtung, aufweisend: eine Berührungsbildschirmanzeige; einen oder mehrere Beschleunigungsmesser; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder mehrere Programme in dem Speicher gespeichert sind und konfiguriert sind durch den einen oder die mehreren Prozessoren ausgeführt zu werden, die Programme weisen auf: Anweisungen zum Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer Porträtansicht oder einer Landschaftsansicht, basie rend auf einer Analyse von Daten, die von dem einen oder den mehreren Beschleunigungsmessern empfangen werden; Anweisungen zum Erfassen einer vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationen in einer ersten Ansicht angezeigt werden; Anweisungen zum Anzeigen der Informationen in einer zweiten Ansicht und zum Sperren der Informationsanzeige in der zweiten Ansicht, in Antwort auf ein Erfassen der vorbestimmten Fingergeste; Anweisungen zum Entsperren der Informationsanzeige in der zweiten Ansicht, wenn die Vorrichtung in eine Orientierung gebracht wird, in welcher die zweite Ansicht basierend auf einer Analyse von Daten, die von dem einen oder den mehreren Beschleunigungsmessern empfangen werden, angezeigt wird.
  9. Vorrichtung nach Anspruch 8, wobei die Berührungsbildschirmanzeige rechteckig oder im Wesentlichen rechteckig ist.
  10. Vorrichtung nach Anspruch 8, wobei die erste Ansicht die Landschaftsansicht und die zweite Ansicht die Porträtansicht ist.
  11. Vorrichtung nach Anspruch 8, wobei die erste Ansicht die Porträtansicht und die zweite Ansicht die Landschaftsansicht ist.
  12. Vorrichtung nach Anspruch 8, wobei die vorbestimmte Fingergeste eine Mehrfingerdrehgeste ist.
  13. Vorrichtung nach Anspruch 8, wobei die vorbestimmte Fingergeste auf der Berührungsbildschirmanzeige geschieht.
  14. Tragbare Multifunktionsvorrichtung, aufweisend: eine Berührungsbildschirmanzeige, wobei die Berührungsbildschirmanzeige eine Porträtansicht und eine Landschaftsansicht aufweist; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und eingerichtet sind durch den einen oder die mehreren Prozessoren ausgeführt zu werden, die Programme weisen auf: Anweisungen zum Erfassen, dass sich die Vorrichtung in einer ersten Orientierung befindet; Anweisungen zum Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer ersten Ansicht, während sich die Vorrichtung in der ersten Orientierung befindet; Anweisungen zum Erfassen, dass sich die Vorrichtung in einer zweiten Orientierung befindet; Anweisungen zum Anzeigen der Informationen in einer zweiten Ansicht in Antwort auf ein Erfassen, dass sich die Vorrichtung in der zweiten Orientierung befindet; Anweisungen zum Erfassen einer vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationen in der zweiten Ansicht angezeigt werden; Anweisungen zum Anzeigen der Informationen in der ersten Ansicht und zum vorübergehenden Sperren der Informationsanzeige in der ersten Ansicht in Antwort auf ein Erfassen der vorbestimmten Fingergeste; und Anweisungen zum Entsperren der Informationsanzeige in der ersten Ansicht, wenn die Vorrichtung im Wesentlichen in die erste Orientierung gebracht wird.
  15. Vorrichtung nach Anspruch 14, wobei die Berührungsbildschirmanzeige rechteckig oder im Wesentlichen rechteckig ist.
  16. Vorrichtung nach Anspruch 14, wobei die erste Ansicht die Landschaftsansicht ist und die zweite Ansicht die Porträtansicht ist.
  17. Vorrichtung nach Anspruch 14, wobei die erste Ansicht die Porträtansicht ist und die zweite Ansicht die Landschaftsansicht ist.
  18. Vorrichtung nach Anspruch 14, wobei die erste Orientierung und die zweite Orientierung basierend auf einer Analyse von Daten von einem oder mehreren Beschleunigungsmessern erfasst werden.
  19. Vorrichtung nach Anspruch 14, wobei die erste Orientierung um 90° gegenüber der zweiten Orientierung rotiert ist.
  20. Vorrichtung nach Anspruch 14, wobei die vorbestimmte Fingergeste eine Mehrfingergeste ist.
  21. Vorrichtung nach Anspruch 14, wobei die vorbestimmte Fingergeste auf der Berührungsbildschirmanzeige geschieht.
  22. Tragbare Multifunktionsvorrichtung, aufweisend: eine Berührungsbildschirmanzeige, wobei die Berührungsbildschirmanzeige eine Porträtansicht und eine Landschaftsansicht aufweist; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und eingerichtet sind durch den einen oder die mehreren Prozessoren ausgeführt zu werden, die Programme weisen auf: Anweisungen zum Erfassen, dass sich die Vorrichtung in einer ersten Orientierung befindet; Anweisungen zum Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer ersten Ansicht, während die Vorrichtung sich in der ersten Orientierung befindet; Anweisungen zum Erfassen, dass sich die Vorrichtung in einer zweiten Orientierung befindet; Anweisungen zum Anzeigen der Informationen in einer zweiten Ansicht in Antwort auf ein Erfassen, dass sich die Vorrichtung in der zweiten Orientierung befindet; Anweisungen zum Erfassen einer ersten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationen in der zweiten Ansicht angezeigt werden; Anweisungen zum Anzeigen der Informationen in der ersten Ansicht und zum Sperren der Informationsanzeige in der ersten Ansicht, in Antwort auf ein Erfassen der ersten vorbestimmten Fingergeste; Anweisungen zum Erfassen einer zweiten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationsanzeige in der ersten Ansicht gesperrt ist; und Anweisungen zum Entsperren der Informationsanzeige in der ersten Ansicht in Antwort auf ein Erfassen der zweiten vorbestimmten Fingergeste.
  23. Vorrichtung nach Anspruch 22, wobei die Berührungsbildschirmanzeige rechteckig oder im Wesentlichen rechteckig ist.
  24. Vorrichtung nach Anspruch 22, wobei die erste Ansicht die Landschaftsansicht und die zweite Ansicht die Porträtansicht ist.
  25. Vorrichtung nach Anspruch 22, wobei die erste Ansicht die Porträtansicht ist und die zweite Ansicht die Landschaftsansicht ist.
  26. Vorrichtung nach Anspruch 22, wobei die ersten und zweiten vorbestimmten Fingergesten Mehrfingergesten sind.
  27. Vorrichtung nach Anspruch 26, wobei die ersten und zweiten vorbestimmten Fingergesten Mehrfingerdrehgesten sind.
  28. Vorrichtung nach Anspruch 22, wobei die ersten und zweiten vorbestimmten Fingergesten auf der Berührungsbildschirmanzeige geschehen.
  29. Computerprogrammprodukt, aufweisend: ein computerlesbares Speichermedium und einen darin eingebetteten Computerprogrammmechanismus, wobei der Computerprogrammmechanismus Anweisungen aufweist, welche, wenn sie von einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige und einem oder mehreren Beschleunigungsmessern ausgeführt werden, die Vorrichtung veranlassen: Informationen auf der Berührungsbildschirmanzeige in einer Porträtansicht oder einer Landschaftsansicht basierend auf einer Analyse von Daten, die von dem einen oder den mehreren Beschleunigungsmessern empfangen werden, anzuzeigen; Eine erste vorbestimmte Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationen in einer ersten Ansicht angezeigt werden, zu erfassen; Die Informationen in einer zweiten Ansicht anzuzeigen und die Informationsanzeige in der zweiten Ansicht zu sperren, unabhängig von der Orientierung der Vorrichtung in Antwort auf ein Erfassen der ersten vorbestimmten Fingergeste; Eine zweite vorbestimmte Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationsanzeige in der zweiten Ansicht gesperrt ist, zu erfassen; und Die Informationsanzeige in der zweiten Ansicht in Antwort auf ein Erfassen der zweiten vorbestimmten Fingergeste, zu entsperren.
  30. Computerprogrammprodukt, aufweisend: ein computerlesbares Speichermedium und einen darin eingebetteten Computerprogrammmechanismus, wobei der Computerprogrammmechanismus Anweisungen aufweist, welche, wenn sie von einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige und einem oder mehreren Beschleunigungsmessern ausgeführt werden, die Vorrichtung veranlassen: Informationen auf der Berührungsbildschirmanzeige in einer Porträtansicht oder einer Landschaftsansicht, basierend auf einer Analyse von Daten, die von dem einen oder den mehreren Beschleunigungsmessern empfangen werden, anzuzeigen; Eine vorbestimmte Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationen in einer ersten Ansicht angezeigt werden, zu erfassen; Die Informationen in einer zweiten Ansicht anzuzeigen und die Informationsanzeige in der zweiten Ansicht zu sperren, in Antwort auf ein Erfassen der vorbestimmten Fingergeste; Die Informationsanzeige in der zweiten Ansicht zu entsperren, wenn die Vorrichtung in eine Orientierung gebracht wird, in welcher die zweite Ansicht basierend auf einer Analyse von Daten, die von dem einen oder den mehreren Beschleunigungsmessern empfangen werden, angezeigt wird.
  31. Computerprogrammprodukt, aufweisend: ein computerlesbares Speichermedium und einen darin eingebetteten Computerprogrammmechanismus, wobei der Computerprogrammmechanismus Anweisungen aufweist, welche, wenn sie von einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige, wobei die Berührungsbildschirmanzeige eine Porträtansicht und eine Landschaftsansicht aufweist, ausgeführt werden, die Vorrichtung veranlassen: Zu erfassen, dass sich die Vorrichtung in einer ersten Orientierung befindet; Informationen auf der Berührungsbildschirmanzeige in einer ersten Ansicht, während sich die Vorrichtung in der ersten Orientierung befindet, anzuzeigen; Zu erfassen, dass sich die Vorrichtung in einer zweiten Orientierung befindet; Die Informationen in einer zweiten Ansicht in Antwort auf ein Erfassen, dass sich die Vorrichtung in der zweiten Orientierung befindet, anzuzeigen; Eine vorbestimmte Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationen in der zweiten Ansicht angezeigt werden, zu erfassen; Die Informationen in der ersten Ansicht anzuzeigen und vorübergehend die Informationsanzeige in der ersten Ansicht zu sperren in Antwort auf ein Erfassen der vorbestimmten Fingergeste; und Die Informationsanzeige in der ersten Ansicht zu entsperren, wenn die Vorrichtung im Wesentlichen in die erste Orientierung gebracht wird.
  32. Computerprogrammprodukt, aufweisend: ein computerlesbares Speichermedium und einen darin eingebetteten Computerprogrammmechanismus, wobei der Computerprogrammmechanismus Anweisungen aufweist, welche, wenn sie von einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige, wobei die Berührungsbildschirmanzeige eine Porträtansicht und eine Landschaftsansicht aufweist, ausgeführt werden, die Vorrichtung veranlassen: Zu erfassen, dass sich die Vorrichtung in einer ersten Orientierung befindet; Informationen auf der Berührungsbildschirmanzeige in einer ersten Ansicht, während die Vorrichtung sich in der ersten Orientierung befindet, anzuzeigen; Zu erfassen, dass sich die Vorrichtung in einer zweiten Orientierung befindet; Die Informationen in einer zweiten Ansicht anzuzeigen in Antwort auf ein Erfassen, dass sich die Vorrichtung in der zweiten Orientierung befindet; Eine erste vorbestimmte Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationen in der zweiten Ansicht angezeigt werden, zu erfassen; Die Informationen in der ersten Ansicht anzuzeigen und die Informationsanzeige in der ersten Ansicht zu sperren, in Antwort auf ein Erfassen der ersten vorbestimmten Fingergeste; Eine zweite vorbestimmte Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationsanzeige in der ersten Ansicht gesperrt ist, zu erfassen; und Die Informationsanzeige in der ersten Ansicht in Antwort auf ein Erfassen der zweiten vorbestimmten Fingergeste, zu entsperren.
  33. Tragbare Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige und einem oder mehreren Beschleunigungsmessern, aufweisend: Mittel zum Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer Porträtansicht oder einer Landschaftsansicht basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden; Mittel zum Erfassen einer ersten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationen in einer ersten Ansicht angezeigt werden; Mittel zum Anzeigen der Informationen in einer zweiten Ansicht und sperren der Informationsanzeige in der zweiten Ansicht, unabhängig von der Orientierung der Vorrichtung in Antwort auf einer Erfassen der ersten vorbestimmten Fingergeste; Mittel zum Erfassen einer zweiten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationsanzeige in der zweiten Ansicht gesperrt ist; und Mittel zum Entsperren der Informationsanzeige in der zweiten Ansicht in Antwort auf ein Erfassen der zweiten vorbestimmten Fingergeste.
  34. Tragbare Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige und einem oder mehreren Beschleunigungsmessern, aufweisend: Mittel zum Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer Porträtansicht oder einer Landschaftsansicht, basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden; Mittel zum Erfassen einer vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationen in einer ersten Ansicht angezeigt werden; Mittel zum Anzeigen der Informationen in einer zweiten Ansicht und zum Sperren der Informationsanzeige in der zweiten Ansicht, in Antwort auf Erfassen der vorbestimmten Fingergeste; Mittel zum Entsperren der Informationsanzeige in der zweiten Ansicht, wenn die Vorrichtung in eine Orientierung gebracht wird, in welcher die zweite Ansicht basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden, angezeigt wird.
  35. Tragbare Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige, wobei die Berührungsbildschirmanzeige eine Porträtansicht und eine Landschaftsansicht aufweist, aufweisend: Mittel zum Erfassen, dass sich die Vorrichtung in einer ersten Orientierung befindet; Mittel zum Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer ersten Ansicht, während sich die Vorrichtung in der ersten Orientierung befindet; Mittel zum Erfassen, dass sich die Vorrichtung in einer zweiten Orientierung befindet; Mittel zum Anzeigen der Informationen in einer zweiten Ansicht in Antwort auf Erfassen, dass sich die Vorrichtung in der zweiten Orientierung befindet; Mittel zum Erfassen einer vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationen in der zweiten Ansicht angezeigt werden; Mittel zum Anzeigen der Informationen in der ersten Ansicht und zum vorübergehenden Sperren der Informationsanzeige in der ersten Ansicht in Antwort auf ein Erfassen der vorbestimmten Fingergeste; und Mittel zum Entsperren der Informationsanzeige in der ersten Ansicht, wenn die Vorrichtung im Wesentlichen in die erste Orientierung gebracht wird.
  36. Tragbare Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige, wobei die Berührungsbildschirmanzeige eine Porträtansicht und eine Landschaftsansicht aufweist, aufweisend: Mittel zum Erfassen, dass sich die Vorrichtung in einer ersten Orientierung befindet; Mittel zum Anzeigen von Informationen auf der Berührungsbildschirmanzeige in einer ersten Ansicht, während die Vorrichtung sich in der ersten Orientierung befindet; Mittel zum Erfassen, dass sich die Vorrichtung in einer zweiten Orientierung befindet; Mittel zum Anzeigen der Informationen in einer zweiten Ansicht in Antwort auf Erfassen, dass sich die Vorrichtung in der zweiten Orientierung befindet; Mittel zum Erfassen einer ersten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationen in der zweiten Ansicht angezeigt werden; Mittel zum Anzeigen der Informationen in der ersten Ansicht und zum Sperren der Informationsanzeige in der ersten Ansicht, in Antwort auf Erfassen der ersten vorbestimmten Fingergeste; Mittel zum Erfassen einer zweiten vorbestimmten Fingergeste auf oder in der Nähe der Berührungsbildschirmanzeige während die Informationsanzeige in der ersten Ansicht gesperrt ist; und Mittel zum Entsperren der Informationsanzeige in der ersten Ansicht in Antwort auf Erfassen der zweiten vorbestimmten Fingergeste.
DE202008000260U 2007-01-07 2008-01-07 Tragbare Multifunktionsvorrichtung Expired - Lifetime DE202008000260U1 (de)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US87925307P 2007-01-07 2007-01-07
US60/879,253 2007-01-07
US87946907P 2007-01-08 2007-01-08
US60/879,469 2007-01-08
US93799307P 2007-06-29 2007-06-29
US94713207P 2007-06-29 2007-06-29
US60/937,993 2007-06-29
US60/947,132 2007-06-29

Publications (1)

Publication Number Publication Date
DE202008000260U1 true DE202008000260U1 (de) 2008-06-26

Family

ID=39107849

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202008000260U Expired - Lifetime DE202008000260U1 (de) 2007-01-07 2008-01-07 Tragbare Multifunktionsvorrichtung

Country Status (5)

Country Link
US (1) US7978176B2 (de)
EP (1) EP2118730B1 (de)
AU (1) AU2008100004B4 (de)
DE (1) DE202008000260U1 (de)
WO (1) WO2008085741A2 (de)

Families Citing this family (328)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US7312785B2 (en) 2001-10-22 2007-12-25 Apple Inc. Method and apparatus for accelerated scrolling
US8698751B2 (en) 2010-10-01 2014-04-15 Z124 Gravity drop rules and keyboard display on a multiple screen device
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US9001047B2 (en) 2007-01-07 2015-04-07 Apple Inc. Modal change based on orientation of a portable multifunction device
US8607167B2 (en) * 2007-01-07 2013-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for providing maps and directions
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US8683378B2 (en) 2007-09-04 2014-03-25 Apple Inc. Scrolling techniques for user interfaces
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US8538376B2 (en) * 2007-12-28 2013-09-17 Apple Inc. Event-based modes for electronic devices
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8327272B2 (en) 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
JP2009217612A (ja) * 2008-03-11 2009-09-24 Toshiba Corp 携帯情報端末装置
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8174503B2 (en) 2008-05-17 2012-05-08 David H. Cain Touch-based authentication of a mobile device through user generated pattern creation
US20090300537A1 (en) * 2008-05-27 2009-12-03 Park Kenneth J Method and system for changing format for displaying information on handheld device
JP5537044B2 (ja) * 2008-05-30 2014-07-02 キヤノン株式会社 画像表示装置及びその制御方法、コンピュータプログラム
US20090307633A1 (en) * 2008-06-06 2009-12-10 Apple Inc. Acceleration navigation of media device displays
GB0811946D0 (en) * 2008-06-30 2008-07-30 Symbian Software Ltd Computing device
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US7953462B2 (en) 2008-08-04 2011-05-31 Vartanian Harry Apparatus and method for providing an adaptively responsive flexible display device
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
EP2175345A1 (de) * 2008-10-07 2010-04-14 Research in Motion Limited Verfahren und tragbare elektronische Vorrichtung mit grafischer Benutzeroberfläche mit effizienter Orientierungssensorverwendung
KR20100042976A (ko) * 2008-10-17 2010-04-27 엘지전자 주식회사 단말기 및 그 제어 방법
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US20100153313A1 (en) * 2008-12-15 2010-06-17 Symbol Technologies, Inc. Interface adaptation system
EP2199885A1 (de) * 2008-12-22 2010-06-23 Research In Motion Limited Tragbare elektronische Vorrichtung und Steuerverfahren dafür
US9170735B2 (en) 2008-12-30 2015-10-27 Thomson Licensings Method and system for touch screen text entry
EP2400426B1 (de) * 2009-01-30 2013-03-13 Research In Motion Limited System und Verfahren für die Zugriffssteuerung in einer tragbaren elektronischen Vorrichtung
US8326358B2 (en) 2009-01-30 2012-12-04 Research In Motion Limited System and method for access control in a portable electronic device
FR2941805A1 (fr) 2009-02-02 2010-08-06 Laurent Philippe Nanot Dispositif pour la visite guidee virtuelle interactive de sites/evenements historiques ou de projets de construction et scenarios d'entrainement
US8121640B2 (en) * 2009-03-19 2012-02-21 Microsoft Corporation Dual module portable devices
US8849570B2 (en) * 2009-03-19 2014-09-30 Microsoft Corporation Projected way-finding
US20100241999A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Canvas Manipulation Using 3D Spatial Gestures
CN102037437B (zh) * 2009-03-23 2014-04-16 松下电器产业株式会社 信息处理装置、信息处理方法、记录介质、以及集成电路
US8019903B2 (en) * 2009-03-27 2011-09-13 Microsoft Corporation Removable accessory for a computing device
JP5120326B2 (ja) * 2009-04-17 2013-01-16 富士通モバイルコミュニケーションズ株式会社 携帯端末
US9298336B2 (en) * 2009-05-28 2016-03-29 Apple Inc. Rotation smoothing of a user interface
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US9792385B2 (en) * 2009-06-19 2017-10-17 Oath Inc. Systems and methods for improved web-based document retrieval and object manipulation
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
JP2011055476A (ja) * 2009-08-06 2011-03-17 Canon Inc 表示装置
US20110080348A1 (en) * 2009-10-01 2011-04-07 Apple Inc. Electronic devices with a primary display and a selectively illuminated secondary display
US8766926B2 (en) 2009-10-14 2014-07-01 Blackberry Limited Touch-sensitive display and method of controlling same
EP2312416A1 (de) * 2009-10-14 2011-04-20 Research In Motion Limited Berührungsempfindliche Anzeige und Verfahren zu deren Steuerung
US8717285B1 (en) * 2009-10-28 2014-05-06 Amazon Technologies, Inc. Orientation lock
CN102117165A (zh) * 2009-12-31 2011-07-06 联想(北京)有限公司 触摸输入处理方法及移动终端
US20110164066A1 (en) * 2010-01-04 2011-07-07 Todd Beals Electronic reading device
US8692851B2 (en) * 2010-01-06 2014-04-08 Apple Inc. Device, method, and graphical user interface with grid transformations during device rotation
US8621380B2 (en) 2010-01-06 2013-12-31 Apple Inc. Apparatus and method for conditionally enabling or disabling soft buttons
US8698845B2 (en) * 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface with interactive popup views
US8736561B2 (en) * 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US8862576B2 (en) 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
KR20110084653A (ko) * 2010-01-18 2011-07-26 삼성전자주식회사 휴대단말에서 프라이버시 보호 방법 및 장치
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US20110242138A1 (en) * 2010-03-31 2011-10-06 Tribble Guy L Device, Method, and Graphical User Interface with Concurrent Virtual Keyboards
US9513801B2 (en) 2010-04-07 2016-12-06 Apple Inc. Accessing electronic notifications and settings icons with gestures
US8502856B2 (en) 2010-04-07 2013-08-06 Apple Inc. In conference display adjustments
US9823831B2 (en) 2010-04-07 2017-11-21 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US20110252357A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
US8775156B2 (en) 2010-08-05 2014-07-08 Google Inc. Translating languages in response to device motion
CN102375659A (zh) * 2010-08-19 2012-03-14 联想(北京)有限公司 一种显示方法及终端
US10140301B2 (en) * 2010-09-01 2018-11-27 Apple Inc. Device, method, and graphical user interface for selecting and using sets of media player controls
US8749484B2 (en) 2010-10-01 2014-06-10 Z124 Multi-screen user interface with orientation based control
US20120218202A1 (en) 2010-10-01 2012-08-30 Sanjiv Sirpal Windows position control for phone applications
US8587547B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9141285B2 (en) 2010-11-05 2015-09-22 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
KR101522345B1 (ko) 2010-11-12 2015-05-21 주식회사 케이티 이동 통신 단말에서의 배경화면 표시 방법 및 그 장치
KR20120059170A (ko) * 2010-11-30 2012-06-08 삼성전자주식회사 휴대단말기의 화면전환 제어 장치 및 방법
JP5645626B2 (ja) * 2010-12-06 2014-12-24 キヤノン株式会社 表示制御装置、表示制御方法、プログラム、並びに記憶媒体
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
TW201229882A (en) * 2011-01-13 2012-07-16 Hon Hai Prec Ind Co Ltd Control system and method for screen display
US9250798B2 (en) 2011-01-24 2016-02-02 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
US10365819B2 (en) 2011-01-24 2019-07-30 Apple Inc. Device, method, and graphical user interface for displaying a character input user interface
CN103477297B (zh) * 2011-03-16 2017-07-25 索尼移动通信公司 用于在解锁消费电子设备时直接访问应用的系统和方法
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
EP2696337A4 (de) * 2011-04-06 2014-08-20 Nec Casio Mobile Comm Ltd Anzeigevorrichtung, anzeigeverfahren und programm
KR101199618B1 (ko) 2011-05-11 2012-11-08 주식회사 케이티테크 화면 분할 표시 장치 및 방법
JP5830935B2 (ja) * 2011-05-27 2015-12-09 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US9310834B2 (en) * 2011-06-30 2016-04-12 Z124 Full screen mode
US9606723B2 (en) 2011-07-21 2017-03-28 Z124 Second view
US9588668B2 (en) 2011-07-21 2017-03-07 Imerj, Llc Methods of displaying a second view
US20130027433A1 (en) * 2011-07-29 2013-01-31 Motorola Mobility, Inc. User interface and method for managing a user interface state between a locked state and an unlocked state
US20130036377A1 (en) * 2011-08-05 2013-02-07 Nokia Corporation Controlling responsiveness to user inputs
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US8806369B2 (en) 2011-08-26 2014-08-12 Apple Inc. Device, method, and graphical user interface for managing and interacting with concurrently open software applications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
JP5529816B2 (ja) * 2011-08-31 2014-06-25 楽天株式会社 携帯型再生装置、携帯型再生装置の制御方法、プログラム、及び情報記憶媒体
KR101862706B1 (ko) * 2011-09-23 2018-05-30 삼성전자주식회사 휴대용 단말기에서 자동 화면 회전을 방지하기 위한 장치 및 방법
US8878794B2 (en) 2011-09-27 2014-11-04 Z124 State of screen info: easel
US20130100167A1 (en) * 2011-10-20 2013-04-25 Nokia Corporation Method and apparatus for control of orientation of information presented based upon device use state
US9125630B2 (en) * 2011-10-28 2015-09-08 Shenzhen Mindray Bio-Medical Electronics Co. Ltd. Dynamically reconfiguring a user interface of a patient monitor responsive to an orientation input
US8490008B2 (en) 2011-11-10 2013-07-16 Research In Motion Limited Touchscreen keyboard predictive display and generation of a set of characters
US9310889B2 (en) 2011-11-10 2016-04-12 Blackberry Limited Touchscreen keyboard predictive display and generation of a set of characters
US9715489B2 (en) 2011-11-10 2017-07-25 Blackberry Limited Displaying a prediction candidate after a typing mistake
US9652448B2 (en) 2011-11-10 2017-05-16 Blackberry Limited Methods and systems for removing or replacing on-keyboard prediction candidates
US9122672B2 (en) 2011-11-10 2015-09-01 Blackberry Limited In-letter word prediction for virtual keyboard
US9152323B2 (en) 2012-01-19 2015-10-06 Blackberry Limited Virtual keyboard providing an indication of received input
US9557913B2 (en) 2012-01-19 2017-01-31 Blackberry Limited Virtual keyboard display having a ticker proximate to the virtual keyboard
KR101852433B1 (ko) * 2012-02-07 2018-04-26 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9964990B2 (en) 2012-02-21 2018-05-08 Nokia Technologies Oy Apparatus and associated methods
CN103380407B (zh) 2012-02-24 2017-05-03 黑莓有限公司 在触摸屏键盘与候选字母靠近关联的分区中提供词预测的触摸屏键盘
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
KR101931676B1 (ko) 2012-03-23 2018-12-24 삼성디스플레이 주식회사 광 센서, 이를 포함하는 표시 장치 및 그 구동 방법
JP5972629B2 (ja) * 2012-03-27 2016-08-17 京セラ株式会社 装置、方法、及びプログラム
US9201510B2 (en) 2012-04-16 2015-12-01 Blackberry Limited Method and device having touchscreen keyboard with visual cues
US9354805B2 (en) 2012-04-30 2016-05-31 Blackberry Limited Method and apparatus for text selection
US9292192B2 (en) 2012-04-30 2016-03-22 Blackberry Limited Method and apparatus for text selection
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
EP2847658B1 (de) 2012-05-09 2017-06-21 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur bereitstellung von taktilem feedback für in einer benutzeroberfläche durchgeführte operationen
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
EP3096218B1 (de) 2012-05-09 2018-12-26 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur auswahl von benutzerschnittstellenobjekten
JP6002836B2 (ja) 2012-05-09 2016-10-05 アップル インコーポレイテッド ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース
CN104471521B (zh) 2012-05-09 2018-10-23 苹果公司 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面
DE112013002409T5 (de) 2012-05-09 2015-02-26 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
DE112013002381T5 (de) 2012-05-09 2015-02-26 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9207860B2 (en) 2012-05-25 2015-12-08 Blackberry Limited Method and apparatus for detecting a gesture
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9116552B2 (en) 2012-06-27 2015-08-25 Blackberry Limited Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
EP2685342B1 (de) * 2012-07-09 2017-04-05 BlackBerry Limited System und Verfahren zur Bestimmung der Anzeigeausrichtung einer mobilen Vorrichtung
US10490166B2 (en) 2012-07-09 2019-11-26 Blackberry Limited System and method for determining a display orientation of a mobile device
US9189030B2 (en) 2012-07-10 2015-11-17 Htc Corporation Method of handling holding sensors and related mobile device
CN103576958A (zh) * 2012-07-31 2014-02-12 英业达科技有限公司 触控装置功能键处理方法以及其具功能键的触控装置
JP5842062B2 (ja) * 2012-08-24 2016-01-13 株式会社Nttドコモ 画像の表示方向を制御する装置およびプログラム
US9524290B2 (en) 2012-08-31 2016-12-20 Blackberry Limited Scoring predictions based on prediction length and typing speed
US9063653B2 (en) 2012-08-31 2015-06-23 Blackberry Limited Ranking predictions based on typing speed and typing confidence
US10078900B2 (en) * 2012-09-10 2018-09-18 Intel Corporation Providing support for display articulation-related applications
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
JP6278593B2 (ja) * 2012-11-14 2018-02-14 京セラ株式会社 携帯端末装置、プログラムおよび表示制御方法
EP3435220B1 (de) 2012-12-29 2020-09-16 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zum übergang zwischen berührungseingabe- und anzeigenausgabebeziehungen
EP2939095B1 (de) 2012-12-29 2018-10-03 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur bewegung eines cursors gemäss einer veränderung des erscheinungsbildes eines steuerungssymbols mit simulierten dreidimensionalen eigenschaften
EP3467634B1 (de) 2012-12-29 2020-09-23 Apple Inc. Vorrichtung, verfahren und grafische benutzerschnittstelle zur navigation durch benutzerschnittstellenhierarchien
KR20170081744A (ko) 2012-12-29 2017-07-12 애플 인크. 다중 접촉 제스처에 대한 촉각적 출력의 발생을 보류하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
JP6097843B2 (ja) 2012-12-29 2017-03-15 アップル インコーポレイテッド コンテンツをスクロールするか選択するかを判定するためのデバイス、方法、及びグラフィカルユーザインタフェース
US9933846B2 (en) * 2013-01-28 2018-04-03 Samsung Electronics Co., Ltd. Electronic system with display mode mechanism and method of operation thereof
JP2016508007A (ja) 2013-02-07 2016-03-10 アップル インコーポレイテッド デジタルアシスタントのためのボイストリガ
US9741150B2 (en) 2013-07-25 2017-08-22 Duelight Llc Systems and methods for displaying representative images
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
AU2014233517B2 (en) 2013-03-15 2017-05-25 Apple Inc. Training an at least partial voice command system
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
US9658740B2 (en) 2013-03-15 2017-05-23 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9477404B2 (en) 2013-03-15 2016-10-25 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
CN104049859A (zh) * 2013-03-15 2014-09-17 青岛海尔电子有限公司 智能终端及其软操控界面的显示控制方法
US9213403B1 (en) 2013-03-27 2015-12-15 Google Inc. Methods to pan, zoom, crop, and proportionally move on a head mountable display
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
HK1223708A1 (zh) 2013-06-09 2017-08-04 Apple Inc. 用於实现跨数字助理的两个或更多个实例的会话持续性的设备、方法、和图形用户界面
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
WO2014200731A1 (en) 2013-06-13 2014-12-18 Apple Inc. System and method for emergency calls initiated by voice command
US9146618B2 (en) * 2013-06-28 2015-09-29 Google Inc. Unlocking a head mounted device
WO2015001546A1 (en) * 2013-07-01 2015-01-08 Inuitive Ltd. Rotating display content responsive to a rotational gesture of a body part
JP5649696B1 (ja) * 2013-07-12 2015-01-07 三菱電機株式会社 エネルギーマネジメントシステム、端末装置、端末装置の制御方法、及び、プログラム
US20150029225A1 (en) * 2013-07-29 2015-01-29 Microsoft Corporation Technique to Reverse Automatic Screen Content Rotation
JP2015026297A (ja) * 2013-07-29 2015-02-05 京セラ株式会社 携帯端末ならびに表示方向制御プログラムおよび方法
US10791216B2 (en) 2013-08-06 2020-09-29 Apple Inc. Auto-activating smart responses based on activities from remote devices
KR102195314B1 (ko) * 2013-08-28 2020-12-24 삼성전자주식회사 전자 장치 및 그 동작 방법
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
TW201520886A (zh) * 2013-11-28 2015-06-01 Acer Inc 可攜式電子裝置及其介面顯示方法
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9536130B2 (en) * 2013-12-30 2017-01-03 Google Technology Holdings LLC Electronic device with a fingerprint reader and method for operating the same
US9245104B2 (en) 2014-01-10 2016-01-26 Here Global B.V. Method and apparatus for providing security with a multi-function physical dial of a communication device
US10712918B2 (en) 2014-02-13 2020-07-14 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
US10866714B2 (en) * 2014-02-13 2020-12-15 Samsung Electronics Co., Ltd. User terminal device and method for displaying thereof
US10747416B2 (en) 2014-02-13 2020-08-18 Samsung Electronics Co., Ltd. User terminal device and method for displaying thereof
USD738910S1 (en) * 2014-03-19 2015-09-15 Wargaming.Net Llp Display screen with animated graphical user interface
CN103955324A (zh) * 2014-03-28 2014-07-30 广州华多网络科技有限公司 界面显示方法和装置
CN103902185B (zh) * 2014-04-23 2019-02-12 锤子科技(北京)有限公司 屏幕旋转方法及装置、移动设备
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
JP6496751B2 (ja) * 2014-05-22 2019-04-03 華為技術有限公司Huawei Technologies Co.,Ltd. 画面自動回転を制御するための方法、装置、および端末
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
KR20150135911A (ko) * 2014-05-26 2015-12-04 삼성전자주식회사 Ui 효과 디스플레이 방법 및 전자 장치
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
TWI566107B (zh) 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9606986B2 (en) 2014-09-29 2017-03-28 Apple Inc. Integrated word N-gram and class M-gram language models
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US12401911B2 (en) 2014-11-07 2025-08-26 Duelight Llc Systems and methods for generating a high-dynamic range (HDR) pixel stream
US12401912B2 (en) 2014-11-17 2025-08-26 Duelight Llc System and method for generating a digital image
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
CN104714736A (zh) * 2015-03-26 2015-06-17 魅族科技(中国)有限公司 一种退出全屏锁定状态的控制方法及终端
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US12445736B2 (en) 2015-05-01 2025-10-14 Duelight Llc Systems and methods for generating a digital image
US11113022B2 (en) 2015-05-12 2021-09-07 D&M Holdings, Inc. Method, system and interface for controlling a subwoofer in a networked audio system
US11209972B2 (en) 2015-09-02 2021-12-28 D&M Holdings, Inc. Combined tablet screen drag-and-drop interface
EP3295577A4 (de) 2015-05-12 2018-10-10 D&M Holdings, Inc. System und verfahren zur verhandlung von gruppenzugehörigkeit für audiosteuergeräte
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
KR20170064901A (ko) * 2015-12-02 2017-06-12 엘지전자 주식회사 모바일 디바이스 및 그 제어 방법
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
CN105808108B (zh) * 2016-05-27 2019-02-12 Oppo广东移动通信有限公司 一种解锁控制方法及移动终端
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US10178433B2 (en) 2016-06-24 2019-01-08 The Nielsen Company (Us), Llc Invertible metering apparatus and related methods
US10405036B2 (en) 2016-06-24 2019-09-03 The Nielsen Company (Us), Llc Invertible metering apparatus and related methods
US9984380B2 (en) 2016-06-24 2018-05-29 The Nielsen Company (Us), Llc. Metering apparatus and related methods
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10504518B1 (en) 2018-06-03 2019-12-10 Apple Inc. Accelerated task performance
US11144099B1 (en) * 2018-12-28 2021-10-12 Facebook, Inc. Systems and methods for providing content
US20220197487A1 (en) * 2019-06-19 2022-06-23 Ja Beom KOO View mode change device using touch pattern input and method therefor
EP4154096A1 (de) 2020-05-18 2023-03-29 Apple Inc. Benutzerschnittstellen zur ansicht und verfeinerung des aktuellen standorts einer elektronischen vorrichtung
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11822761B2 (en) 2021-05-15 2023-11-21 Apple Inc. Shared-content session user interfaces
US12449961B2 (en) 2021-05-18 2025-10-21 Apple Inc. Adaptive video conference user interfaces
US12368946B2 (en) 2021-09-24 2025-07-22 Apple Inc. Wide angle video conference
US12267622B2 (en) 2021-09-24 2025-04-01 Apple Inc. Wide angle video conference
US11770600B2 (en) 2021-09-24 2023-09-26 Apple Inc. Wide angle video conference
IL286925A (en) 2021-10-03 2023-05-01 UNGARISH David Control over viewing directionality of a mobile device screen
US20250094033A1 (en) * 2023-09-19 2025-03-20 Asustek Computer Inc. Edge tool configuration method and electronic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US20050190059A1 (en) 2004-03-01 2005-09-01 Apple Computer, Inc. Acceleration-based theft detection system for portable electronic devices
US20060017692A1 (en) 2000-10-02 2006-01-26 Wehrenberg Paul J Methods and apparatuses for operating a portable device based on an accelerometer

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5910882A (en) * 1995-11-14 1999-06-08 Garmin Corporation Portable electronic device for use in combination portable and fixed mount applications
US5910802A (en) 1997-06-11 1999-06-08 Microsoft Corporation Operating system for handheld computing device having taskbar auto hide
US6704007B1 (en) 1999-09-27 2004-03-09 Intel Corporation Controlling displays for processor-based systems
DE10147480A1 (de) 2001-09-26 2003-05-28 Siemens Ag Kommunikationsendgerät
US11275405B2 (en) * 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7814419B2 (en) 2003-11-26 2010-10-12 Nokia Corporation Changing an orientation of a user interface via a course of motion
US7085590B2 (en) 2003-12-31 2006-08-01 Sony Ericsson Mobile Communications Ab Mobile terminal with ergonomic imaging functions
US9063647B2 (en) * 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US20020015024A1 (en) 1998-01-26 2002-02-07 University Of Delaware Method and apparatus for integrating manual input
US20060017692A1 (en) 2000-10-02 2006-01-26 Wehrenberg Paul J Methods and apparatuses for operating a portable device based on an accelerometer
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US20050190059A1 (en) 2004-03-01 2005-09-01 Apple Computer, Inc. Acceleration-based theft detection system for portable electronic devices

Also Published As

Publication number Publication date
US20080165144A1 (en) 2008-07-10
US7978176B2 (en) 2011-07-12
AU2008100004B4 (en) 2008-06-05
EP2118730B1 (de) 2013-01-23
AU2008100004A4 (en) 2008-02-14
EP2118730A2 (de) 2009-11-18
WO2008085741A2 (en) 2008-07-17
WO2008085741A3 (en) 2008-09-04

Similar Documents

Publication Publication Date Title
DE202008000260U1 (de) Tragbare Multifunktionsvorrichtung
JP7532603B2 (ja) タッチスクリーンディスプレイにおけるリストのスクローリング、ドキュメントの並進移動、スケーリング及び回転
DE202008000268U1 (de) Tragbare Multifunktionsvorrichtung
DE202008000262U1 (de) Tragbare Multifunktionsvorrichtung
DE202008000259U1 (de) Tragbare Multifunktionseinrichtung
DE112007002090T5 (de) Voicemail-Manager für tragbare Multifunktionsvorrichtung
DE112007002088T5 (de) Verfahren zum Bestimmen einer Cursor-Position von einem Fingerkontakt mit einer Berührungsbildschirmanzeige
US8477139B2 (en) Touch screen device, method, and graphical user interface for manipulating three-dimensional virtual objects
DE112007002107T5 (de) Tragbare elektronische Vorrichtung, Verfahren und graphische Benutzerschnittstelle zum Anzeigen strukturierter elektronischer Dokumente
US8116807B2 (en) Airplane mode indicator on a portable multifunction device
DE202007018420U1 (de) Tragbare elektronische Vorrichtung, die ähnliche Operationen für unterschiedliche Gesten durchführt
DE212007000015U1 (de) Tragbare elektronische Vorrichtung für Fotoverwaltung
DE212007000039U1 (de) Tragbare Multifunktionsvorrichtung mit Berührungsbildschirmanzeige

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20080731

R150 Utility model maintained after payment of first maintenance fee after three years

Effective date: 20110126

R151 Utility model maintained after payment of second maintenance fee after six years

Effective date: 20140122

R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right