[go: up one dir, main page]

MX2013003249A - Captura de gestos para manipulacion de presentaciones en una o mas pantallas de visualizacion de dispositivo. - Google Patents

Captura de gestos para manipulacion de presentaciones en una o mas pantallas de visualizacion de dispositivo.

Info

Publication number
MX2013003249A
MX2013003249A MX2013003249A MX2013003249A MX2013003249A MX 2013003249 A MX2013003249 A MX 2013003249A MX 2013003249 A MX2013003249 A MX 2013003249A MX 2013003249 A MX2013003249 A MX 2013003249A MX 2013003249 A MX2013003249 A MX 2013003249A
Authority
MX
Mexico
Prior art keywords
screen
display
display screen
user
presentations
Prior art date
Application number
MX2013003249A
Other languages
English (en)
Inventor
Martin Gimpl
Ron Cassar
Maxim Marintchenko
Nikhil Swaminathan
Original Assignee
Z124
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45889332&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=MX2013003249(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Z124 filed Critical Z124
Priority claimed from PCT/US2011/053937 external-priority patent/WO2012044799A2/en
Publication of MX2013003249A publication Critical patent/MX2013003249A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1641Details related to the display arrangement, including those related to the mounting of the display in the housing the display being formed by a plurality of foldable display components

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)
  • Digital Computer Display Output (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Se describe una técnica intuitiva para ingresar gestos de usuario en un dispositivo de cómputo de bolsillo que permite a un usuario manipular mejor diferentes tipos de presentaciones de pantalla de visualización de pantalla, tal como escritorios y ventanas de aplicación, cuando se realizan tareas en la misma, por ejemplo, minimización, maximización, y movimiento entre pantallas de pantalla de visualización, e incrementar/disminuir una pantalla de visualización de la misma a través de múltiples pantallas de pantalla de visualización. Para manipular una ventana de aplicación en una pantalla de pantalla de visualización de dispositivo para realizar tareas como se identifica en lo anterior, los gestos de usuario se ingresan en un área de captura de gestos correspondiente para ésta pantalla de pantalla de visualización, en donde esta área de captura se separa de esta pantalla de pantalla de visualización.

Description

CAPTURA DE GESTOS PARA MANIPULACIÓN DE PRESENTACIONES EN UNA O MÁS PANTALLAS DE VISUALIZACION DE DISPOSITIVO DESCRIPCIÓN DE LA INVENCIÓN Una cantidad sustancial de dispositivos de cómputo de bolsillo, tales como teléfonos celulares, tabletas, y lectores electrónicos (E-Readers) , hacen uso de una pantalla de visualización de pantalla táctil no sólo para ofrecer información de pantalla de visualización al usuario sino también para recibir entradas de comandos de interfaz de usuario. Aunque las pantallas de visualización de pantalla táctil pueden incrementar la capacidad de configuración del dispositivo de bolsillo y proporcionar una amplia variedad de opciones de interfaz de usuario, esta flexibilidad típicamente tiene un precio. El doble uso de la pantalla táctil para proporcionar contenido y recibir comando de usuario, aunque flexible para el usuario, puede obstaculizar la presentación y provocar una distorsión visual, por lo que lleva a la frustración del usuario y a la pérdida de productividad.
El factor de forma pequeño de los dispositivos de cómputo de bolsillo requiere un equilibrio cuidadoso ; entre los gráficos presentados y el área proporcionada para r.ecibir entradas. Por un lado, la pantalla de visualización p. queña restringe el espacio de presentación, lo cual puede incrementar la dificultad de interpretar acciones o resultados. Por el otro, un teclado virtual u otro esquema de interfaz de usuario se superpone en o se coloca adyacente a una aplicación en ejecución, se requiere que la aplicación se comprima en una porción aún más pequeña de la pantalla de visualización.
Este acto de equilibrio particularmente es difícil para dispositivos de pantalla táctil de una sola pantalla de visualización. Los dispositivos de pantalla táctil de una sola pantalla de visualización se imposibilitan por su espacio de pantalla limitado. Cuando los usuarios ingresan información en el dispositivo, a través de una sola pantalla de visualización, la capacidad de interpretar la información en la pantalla de visualización puede obstaculizarse severamente, en particular cuando una interacción compleja entre la pantalla de visualización y la interfaz se requiere.
Existe la necesidad de un dispositivo de cómputo de bolsillo de doble pantalla de visualización que proporcione una energía mejorada y/o versatilidad en comparación con los dispositivos de cómputo de bolsillo de una sola pantalla de visualización convencionales. Estas y otras necesidades se consideran por los diversos aspectos, modalidades, : y/o configuraciones de la presente descripción. También, aunque la descripción se presenta en términos de modalidades ejemplares, debe apreciarse que aspectos individuales de la descripción pueden reclamarse por separado. Más particularmente, existe la necesidad de una técnica intuitiva de ingresar gestos de usuario en un dispositivo de cómputo de bolsillo que permita a un usuario manipular más fácilmente diferentes tipos de presentaciones de visualización de pantalla, tal como presentaciones de escritorio en comparación con presentaciones de ventana de aplicación (los términos "escritorio" y "ventana de aplicación" se describen y se distinguen a continuación) . Puesto que pueden descargarse aplicaciones de una amplia variedad de fuentes y pueden responder a un conjunto especifico de aplicaciones de gestos de usuario, las entradas de gesto de usuario no son uniformes ni constantes entre ventanas de aplicación. Además, puesto que las ventanas de aplicación de dispositivo típicamente requieren que el usuario proporcione entradas de gesto de usuario de aplicación específica directamente en las ventanas de aplicación desplegadas, tales entradas de usuario de aplicación específica evitan el uso de un conjunto uniforme o constante de entradas de gesto de usüario directamente en ventanas de aplicación desplegadas . para realizar, por ejemplo, tareas de manipulación de ventanas tales como minimización, maximización, y mover ventanas de aplicación de una pantalla de visualización a otra, así. como reorganizar en una pila de ventanas de aplicación, activar una pantalla de visualización de una ventana de aplicación a través de múltiples pantallas de visualización de pantalla, y/o reducir una pantalla de visualizacion de una ventana de aplicación en una pantalla de visualizacion de una sola pantalla que actualmente se despliega a través de múltiples pantallas de visualizacion de pantalla. Por consiguiente, las entradas de gesto de usuario para manipular ventanas de aplicación de acuerdo con un conjunto constante o uniforme de ventanas basándose en las entradas de gesto de usuario por lo tanto ha sido problemático. Por otro lado, para las pantallas de visualizacion de escritorio, puesto que el dispositivo típicamente tiene control sobre la operación y manipulación de las pantallas de visualizacion de escritorio, las entradas de gesto de usuario para tal operación y manipulación de escritorio pueden hacerse o forzarse a que se vuelvan uniformes. Por consiguiente, la presente descripción describe un dispositivo de bolsillo que retiene la uniformidad que un dispositivo típicamente puede imponer sobre la manipulación de pantallas de visualizacion de escritorio mientras que también impone una uniformidad y consistencia similares .sobre la manipulación de ventanas de aplicación. En una modalidad, la presente descripción se dirige a realizar las siguientes etapas (a) a (h) para configurar un dispositivo que tiene por lo menos una pantalla de una pantalla de visualizacion para desplegar una o más presentaciones de pantalla; de visualizacion de pantalla y para desplegar uno o' más presentaciones de visualizacion de pantalla operativamente diferentes, donde las presentaciones de pantalla de visualización de pantalla pueden manipularse mediante la entrada de gesto de usuario de manera distinta a la de presentaciones de pantalla de visualización de pantalla operativamente diferentes: (a) recibir una primera entrada de gesto de usuario en un área de captura de gestos asociada con al menos una pantalla, el área de captura de gestos se separa de por lo menos una pantalla de una sola pantalla de visualización; (b) determinar si la primera de una o más de las presentaciones de pantalla de visualización de pantalla se despliega en por lo menos una pantalla; (e) cuando se determina que la primera presentación de pantalla de visualización de pantalla se despliega, realizar una etapa de interpretar la entrada de gesto para determinar una operación predeterminada para aplicar a la primera presentación de pantalla de visualización de pantalla; (d) cuando se determina que ninguna de una o más presentaciones de pantalla de visualización de pantalla se despliega en la etapa' de determinación, realizar una etapa de evitar que el dispositivo utilice la entrada de gesto para cambiar por lo menos una pantalla de pantalla de visualización; (e) recibir una segunda entrada de gesto de usuario en respuesta a una segunda entrada de gesto de usuario que incluye la entrada de contacto de usuario directamente por lo menos en una pantalla; (f) determinar después si una de las presentaciones de pantalla de visualización de pantalla operativamente diferente se despliega en por lo menos una pantalla; (g) cuando se determina que una presentación de pantalla de visualización de pantalla operativamente diferente se despliega en por lo menos una pantalla, realizar una etapa interpretar después la segunda entrada de gesto para determinar una segunda operación predeterminada para aplicar a una presentación de pantalla de visualización de pantalla operativamente diferente; y (h) cuando no se determina ninguna de , las presentaciones de pantalla de visualización de pantalla operativamente diferente en la etapa determinar después, realizar una etapa de evitar después que el dispositivo utilice la segunda entrada de gesto para cambiar por lo menos una pantalla de una sola pantalla de visualización .
Además, es un aspecto de la presente descripción que exista un grupo predeterminado de una pluralidad de descripciones de entrada de gesto de usuario para reconocer las entradas de gesto de usuario que se pueden interpretar en la etapa de interpretar en (e) anterior, en donde: (i) una o más presentaciones de pantalla de visualización de pantalla incluye 1 una pluralidad de ventanas de aplicación, (ii) cada una de una pluralidad de aplicaciones de software proporciona la correspondiente de una pluralidad de ventanas de aplicación, (iii) cada una de las descripciones de entrada de gesto de usuario (UGI) del grupo predeterminado se puede operar para reconocer entradas de gesto de usuario para cada ventana de aplicación (AW) de la pluralidad de ventanas de aplicación cuando: (1) la entrada de gesto de usuario UGI es un ejemplo de la primera entrada de gesto de usuario, y (2) la ventana de aplicación AW es un ejemplo de la primera presentación de pantalla de visualización de pantalla para la cual la entrada de gesto de usuario UGI es una entrada.
Observe que cada una de las aplicaciones de software de la pluralidad de aplicaciones de software en (ii) inmediatamente anteriores pueden descargarse (mediante una red de comunicación tal como la Internet) en el dispositivo de bolsillo de un vendedor de software que es independiente de otros vendedores de software de los cuales la otra de la pluralidad de aplicaciones de software puede descargarse.
La presente descripción puede proporcionar un número de ventajas dependiendo del aspecto particular, modalidad, y/o configuración. En particular, la présente descripción simplifica la experiencia de un usuario al proporcionar entrada de gesto al dispositivo. Más particularmente, para cada una de la pluralidad de pantallas de visuaüzación de dispositivo, la presente descripción proporciona un área separada correspondiente asociada con la misma para recibir una entrada de gesto de usuario, en donde esta entrada de gesto (en el área separada) se interpreta como aplicando ventanas de aplicación y no a pantallas de visuaüzación de escritorio. De esta manera, puesto que la entrada de gesto de usuario para manipular escritorios puede ingresarse directamente en una pantalla de visuaüzación que presenta el escritorio, un usuario puede especificar fácilmente cómo una ventana de aplicación desplegada se manipulará por la entrada de gestos de usuario en el área separada correspondiente asociada con la pantalla de visualización que presenta la ventana de aplicación.
Estas y otras ventajas serán aparentes a partir de la descripción.
Las frases "por lo menos uno", "uno o más", e "y/o" son expresiones indefinidas que son conjuntivas y disyuntivas en operación. Por ejemplo, cada una de las expresiones "por lo menos uno de A, B y C", "por lo menos uno de A, B, o C", "uno o más de A, B, y C", "uno o más de A, B, o C" y "A, B, y/o C" significa A sola, B sola C sola, A y B juntas, A y C juntas, B y C juntas, o A, B y C juntas.
El término "uno" o "una" entidad se refiere a una o más de esa entidad. Como tal, los términos "uno" (o "una"), "una o más" y "por lo menos una" pueden utilizarse de manera intercambiable en la presente. También se observa qué los términos "que comprende", "que incluye" y "que tiene" pueden utilizarse de manera intercambiable.
El término "automático" y variaciones del mismo, como se utiliza en la presente, se refiere a cualquier proceso u operación realizada sin entrada humana material cuando el proceso u operación se realice. Sin embargó, un proceso u operación puede ser automático, aunque el rendimiento del proceso u operación utilice entrada humana material o inmaterial, si la entrada se recibe antes del desempeño del proceso u operación. La entrada humana se considera como material si tal entrada hace influencia sobre cómo se realizará el proceso u operación. La entrada humana que consciente el desempeño del proceso u operación no se considera como "material".
El término "medio legible por computadora" como se utiliza en la presente se refiere a cualquier medio de almacenamiento y/o transmisión tangible que participe en proporcionar instrucciones a un procesador para su ejecución. Tal medio puede tener muchas formas, incluyendo, pero no limitándose a, medio no volátil, medio volátil, y medio de transmisión. El medio no volátil incluye, por ejemplo, NVRAM, o discos magnéticos u ópticos. El medio volátil incluye memoria dinámica, tal como memoria principal. Las formas comunes de medios legibles por computadora incluyen, por ejemplo, un disquete, un disco flexible, disco duro, cinta magnética, o cualquier otro medio magnético, medio magneto-óptico, un CD-ROM, cualquier otro medio óptico, tarjetas de perforación, cinta de papel, cualquier otro medio físico con patrones de orificios, una RAM, una PROM, y EPROM, una EPROM-FLASH, un medio de estado sólido, como una tarjeta de memoria, cualquier otro chip de memoria o cartucho, una onda portadora como se describe después de esto, o cualquier Otro medio del cual pueda leer una computadora. Un anexo de archivo digital a un correo electrónico u otro archivo de información auto-contenido o conjunto de archivos se considera como un medio de distribución equivalente a un medio de almacenamiento tangible. Cuando el medio legible por computadora se configura como una base de datos, se entenderá que la base de datos puede ser de cualquier tipo de base de. datos, tal como relacional, jerárquica, orientada a objetos y/o similares. Por consiguiente, la descripción se considera que incluye un medio de almacenamiento tangible o medio de distribución y equivalentes reconocidos por la técnica anterior y medios sucesores, en los cuales las implementaciones de software de la presente descripción se almacenan.
El término "aplicación" como se utiliza en la presente se refiere a un programa de software y/o la pantalla de visualización para el mismo en una pantalla de pantalla de visualización electrónica, donde la aplicación es software de computadora diseñado para ayudar al usuario a realizar juna o más tareas predeterminas. Ejemplos incluyen software empresarial, software de contabilidad, paquetes de oficina, software de gráficos, y reproductores de medios.: Una "aplicación" tiene una interfaz de usuario para recibir y presentar información de un usuario. Una "aplicación" como se utiliza en la presente típicamente se refiere a software: (y/o su presentación gráfica) en donde: (i) cada aplicación adicional instalada por separado (si la tuviera) que puede activarse a partir de una activación de usuario de la aplicación es interactiva con el usuario para ayudar al usuario a realizar una tarea de la que el usuario tiene conocimiento y activa intencionalmente la aplicación para realizar la tarea, y (ii) la aplicación no se ve por el usuario ya que proporciona interacciones gráficas para desplegar gráficamente con una pantalla de visualización de las aplicaciones adicionales de aplicación de modo que mediante la entrada de usuario a la aplicación, las pantallas de visualización de las aplicaciones adicionales puedan reorganizarse con respecto a la pantalla de visualización de aplicación, agregarse a la pantalla de visualización de aplicación, suprimirse de la pantalla de visualización de aplicación, y activarse a partir de la pantalla de visualización de aplicación.
El término "ventana de aplicación" se refiere 'a una estructura de datos potencialmente compleja que define una presentación gráfica de información interrelacionada; que puede manipularse en una pantalla de pantalla'; de visualización gráfica para moverse, minimizarse y maximizarse como una unidad. Cada ventana de aplicación tiene · una "aplicación" asociada con la misma que define entrada de usuario predeterminada a la misma a la cual la ventana de aplicación responde de acuerdo con el procesamiento realizado por la aplicación asociada. Como se menciona en la presente, una "ventana de aplicación" también se refiere a su presentación gráfica cuando la ventana de aplicación se despliega en un dispositivo de pantalla de visualización electrónica tal como una "pantalla táctil" como lo apreciará alguien con experiencia en la técnica.
El término "escritorio" se refiere a una metáfora utilizada para sistemas verticales. Un escritorio generalmente se considera una "superficie" que típicamente incluye imágenes, llamadas iconos, símbolos gráficos, carpetas, etc., que pueden activar o mostrar aplicaciones, ventanas, gabinetes, archivos, carpetas, documentos, y otros elementos gráficos en la misma. Los iconos generalmente se pueden seleccionar para iniciar una tarea a través de la interacción de interfaz de usuario para permitir que un usuario ejecute aplicaciones o lleve a cabo otras operaciones. De manera más precisa, como se utiliza én la presente un "escritorio" se refiere a una estructura de datos potencialmente compleja para proporcionar interacciones gráficas para desplegar gráficamente con una pantalla de visualización de escritorio una pluralidad de aplicaciones de modo que mediante la entrada de usuario al escritorio, las pantallas de visualización de las aplicaciones pueden reorganizarse con respecto a la pantalla de visualización de escritorio, agregarse a la pantalla de visualización de escritorio, suprimirse de la pantalla de visualización de escritorio, y activarse a partir de la pantalla de visualización de escritorio. Cada escritorio incluye o tiene asociado con el mismo datos que lo identifican como un escritorio y no como aplicación ni como ventana de aplicación. De manera similar, cada aplicación y ventana de aplicación incluye o tiene asociada con la misma datos que la identifican como aplicación o ventana de aplicación y no como escritorio .
El término "pantalla", "pantalla táctil", o "pantalla sensible al tacto" se refiere a una estructura física que incluye uno o más componentes de hardware que proporcionan el dispositivo con la capacidad para presentar una interfaz de usuario y/o recibir una entrada de usuario. Una pantalla puede abarcar cualquier combinación de región de captura de gesto, una pantalla de visualización sensible al tacto y/o un área configurable . El dispositivo puede ¡tener una o más pantallas físicas integradas en el hardware-. Sin embargo, una pantalla también puede incluir un dispositivo periférico externo que puede conectarse y desconectarse del dispositivo. En modalidades, múltiples dispositivos externos pueden conectarse al dispositivo. De este modo,' en modalidades, la pantalla puede permitir que el usuario interactúe con el dispositivo al tocar áreas en la pantalla y proporcione información a un usuario a través de una pantalla de visualización. La pantalla táctil puede detectar el contacto de usuario en un número de diferentes formas, tal como un cambio en un parámetro eléctrico (por ejemplo, resistencia o capacitancia) , variaciones de onda acústica, detección de proximidad por radiación infrarroja, detección de variación de luz, y similares. En una pantalla táctil resistiva, por ejemplo, capas metálicas conductivas y resistivas normalmente separadas en la pantalla pasan una corriente eléctrica. Cuando un usuario toca la pantalla, las dos capas hacen contacto con la ubicación contactada, por lo que un cambio en el campo eléctrico se observa y las coordenadas de la ubicación contactada se calculan. En una pantalla táctil capacitiva, una capa capacitiva almacena la carga eléctrica, la cual se descarga al usuario tras el contacto con la pantalla táctil, provocando una disminución en la carga de la capa capacitiva. La disminución se mide, y las coordenadas de la ubicación contactadas se determinan. En una pantalla táctil de onda acústica superficial, una j onda acústica se transmite a través de la pantalla, y la onda acústica se distribuye por el contacto con el usuario. Un transductor de recepción detecta el caso de contacto de usuario y determina las coordenadas de la ubicación contactada.
El término "pantalla de visualización" se refiere a una porción de una o más pantallas utilizadas para desplegar la salida de una computadora a un usuario. Una pantalla de visualizacion puede ser una pantalla de visualizacion de una sola pantalla o una pantalla de visualizacion de varias pantallas, denominada como pantalla de visualizacion compuesta. Una pantalla de visualizacion compuesta puede abarcar la pantalla de visualizacion sensible al tacto de una o más pantallas. Una pantalla física simple puede incluir múltiples pantallas de visualizacion que se manejan como pantallas de visualizacion lógicas separadas. De este modo, puede desplegarse diferente contenido en las pantallas de visualizacion separadas, aunque parte de la misma pantalla física .
El término "imagen desplegada" se refiere a una imagen producida en la pantalla de visualizacion. Una imagen desplegada típica es una ventana o escritorio. La imagen desplegada puede ocupar toda o una porción de la pantalla de visualizacion. ! El término "orientación de pantalla \ de visualizacion" se refiere a la forma en la cual una pantalla de visualizacion rectangular se orienta por el usuario para que la vea. Los dos tipos más comunes de orientación de pantalla de visualizacion son vertical y horizontal. En el modo horizontal, la pantalla de visualizacion se orienta de modo que el ancho de la pantalla de visualizacion es mayor que la altura de la pantalla de visualizacion (tal como una relación de 4:3, la cual tiene 4 unidades de ancho: y 3 unidades de altura, o una relación de 16:9, la cual tiene 16 unidades de ancho y 9 unidades de altura) . Establecido de manera diferente, la dimensión más larga de la pantalla de visualizacion se orienta sustancialmente en forma horizontal en el modo horizontal mientras la dimensión más corta de la pantalla de visualizacion se orienta sustancialmente en forma vertical. En el modo vertical, en contraste, la pantalla de visualizacion se orienta de modo que el ancho de la pantalla de visualizacion es menor que la altura de la pantalla de visualizacion. Establecido de manera diferente, la dimensión más corta de la pantalla de visualizacion se orienta sustancialmente en forma horizontal en el modo vertical, mientras que la dimensión más larga de la pantalla de visualizacion se orienta sustancialmente en forma vertical.
El término "pantalla de visualizacion compuesta" se refiere a una estructura ló'gica que define una pantalla de visualizacion que puede abarcar una o más pantallas.; Una pantalla de visualizacion de varias pantallas puede asociarse con una pantalla de visualizacion compuesta que abarca todas las pantallas. La pantalla de visualizacion compuesta puede tener diferentes características de visualizacion basadas en las diversas orientaciones del dispositivo. ; El término "gesto" se refiere a la acción de un usuario que expresa una idea pretendida, acción, significado, resultado y/o consecuencia. La acción del usuario puede incluir manipular un dispositivo (por ejemplo, abrir o cerrar un dispositivo, cambiar la orientación de un dispositivo, mover una esfera de seguimiento o rueda, etc.), movimiento de una parte del cuerpo con respecto al dispositivo, movimiento de un implemento o herramienta con respecto al dispositivo, entradas de audio, etc. Un gesto puede hacerse en un dispositivo (tal como en la pantalla) o con el dispositivo para interactuar con el dispositivo.
El término "módulo" como se utiliza en la presente, se refiere a cualquier hardware conocido o desarrollado posteriormente, software, firmware, inteligencia artificial, lógica difusa, o combinación de hardware y software que sea capaz de realizar la funcionalidad asociada con ese elemento.
El término "captura de gestos" se refiere a una sensación o de cierta manera a una detección de un caso y/o tipo de gesto de usuario. La captura de gestos puede ocurrir en una o más áreas de la pantalla. Una región de gesto puede encontrase en la pantalla de visualización, en donde puede denominarse como pantalla de visualización sensible al tacto o fuera de la pantalla de visualización donde puede denominarse como área de captura de gestos.
Un "aplicación de varias pantallas" se refiere a una aplicación que es capaz de tener múltiples modos. El modo de aplicación de varias pantallas puede incluir, pero no se limita a, modo de una sola pantalla (donde la aplicación se despliega en una sola pantalla) o un modo de pantalla de visualización compuesta (donde la aplicación se despliega en dos o más pantallas) . Una aplicación de varias pantallas puede tener diferentes planos optimizados para el modo. De este modo, la aplicación de varias pantallas puede tener diferentes planos para una sola pantalla o para una pantalla de visualización compuesta que puede comprender dos o más pantallas. Los diferentes planos pueden tener diferentes dimensiones de pantalla/pantalla de visualización y/o configuraciones en las cuales las interfaces de usuario de las aplicaciones de varias pantallas pueden presentarse. Los diferentes planos permiten que la aplicación optimice la interfaz de usuario de la aplicación para el tipo de pantalla de visualización, por ejemplo, una sola pantalla o varias pantallas. En el modo de una sola pantalla, la aplicaci.ón de varias pantallas puede presentar una ventana de información. En un modo de pantalla de visualización compuesta', la aplicación de varias pantallas puede presentar múltiples ventanas de información o puede proporcionar una presentación más grande y más rica debido a que existe más espacio para los contenidos de pantalla de visualización. Las aplicaciones de varias pantallas pueden diseñarse para adaptarse dinámicamente a cambios en el dispositivo y al modo dependiendo de qué pantalla de visualización (sola o compuesta) el sistema asigne a la aplicación de varias pantallas. En modalidades alternativas, el usuario puede utilizar un gesto para solicitar que la aplicación cambie a un modo diferente, y, se encuentra disponible una pantalla de visualización para el modo solicitado, el dispositivo puede permitir que la aplicación se mueva a esa pantalla de visualización y modos de transición.
Una "aplicación de una sola pantalla" se refiere a una aplicación que tiene capacidad de un modo de una sola pantalla. De este modo, la aplicación de una sola pantalla puede producir sólo una ventana y puede no ser capaz de tener diferentes modos o diferentes dimensiones de pantalla de visualización. Una aplicación de una sola pantalla puede no ser capaz de tener varios modos discutidos con la aplicación de varias pantallas.
El término "ventana" se refiere a, una imagen desplegada típicamente rectangular por lo menos en una parte de una pantalla de visualización que contiene o proporciona contenido diferente al resto de la pantalla. La ventana puede oscurecer el escritorio.
Los términos "determina", "estima" y "calcula", y variaciones de los mismos, como se utiliza en la presente, se utilizan de manera intercambiable e incluyen cualquier ' tipo de metodología, proceso, operación o técnica matemática. : Debe entenderse que al término "medios" como se utiliza en la presente, se le dará su interpretación mas amplia posible de acuerdo con 35 U.S.C, Sección 112, Párrafo 6. Por consiguiente, una reivindicación que incorpora el término "medios" deberá cubrir todas las estructuras, materiales o actos establecidos en la presente, y todos los equivalentes de la misma. Además, las estructuras, materiales o actos y los equivalentes de los mismos deberán incluir todos aquellos descritos en el resumen de la invención, la breve descripción de los dibujos, la descripción detallada, el extracto, y reivindicaciones mismas.
Lo anterior es un resumen simplificado de la descripción para proporcionar una comprensión de algunos aspectos de la descripción. Este resumen no es una revisión exhaustiva ni exclusiva de la descripción y sus diversos aspectos, modalidades y/o configuraciones. No se pretende para identificar elementos clave o críticos de la descripción ni para delinear el alcance de la descripción, sino; para presentar conceptos seleccionados de la descripción en una forma simplificada como una introducción a la descripción más detallada presentada posteriormente. Como se apreciará, jotros aspectos, modalidades y/o configuraciones de la descripción son posibles utilizando, solas o en combinación, una o más de las características establecidas en lo anterior o descritas en detalle posteriormente.
BREVE DESCRIPCIÓN DE LOS DIBUJOS La FIGURA 1A incluye una primera vista de: una modalidad de un dispositivo de usuario de varias pantallas la FIGURA IB incluye una segunda vista de una modalidad de un dispositivo de usuario de varias pantallas r la FIGURA 1C incluye una tercera vista de una modalidad de un dispositivo de usuario de varias pantallas la FIGURA ID incluye una cuarta vista de una modalidad de un dispositivo de usuario de varias pantallas r la FIGURA 1E incluye una quinta vista dé una modalidad de un dispositivo de usuario de varias pantallas la FIGURA 1F incluye una sexta vista de una modalidad de un dispositivo de usuario de varias pantallas la FIGURA 1G incluye una séptima vista de una modalidad de un dispositivo de usuario de varias pantallas la FIGURA 1H incluye una octava vista de una modalidad de un dispositivo de usuario de varias pantallas la FIGURA 11 incluye una novena vista de: una modalidad de un dispositivo de usuario de varias pantallas la FIGURA 1J incluye una décima vista de, una modalidad de un dispositivo de usuario de varias pantallas la FIGURA 2 es un diagrama de bloque de una modalidad de hardware del dispositivo; la FIGURA 3A es un diagrama de bloque de- una modalidad del modelo de estado para el dispositivo basado en la orientación y/o configuración del dispositivo; : la FIGURA 3B es una tabla de una modalidad; del modelo de estado para el dispositivo basado en la orientación y/o configuración del dispositivo; la FIGURA 4A es una primera representación de una modalidad de un gesto de usuario recibido en un dispositivo; la FIGURA 4B es una segunda representación de una modalidad de un gesto de usuario recibido en un dispositivo; la FIGURA 4C es una tercera representación de una modalidad de un gesto de usuario recibido en un dispositivo; la FIGURA 4D es una cuarta representación de una modalidad de un gesto de usuario recibido en un dispositivo; la FIGURA 4E es una quinta representación de una modalidad de un gesto de usuario recibido en un dispositivo; la FIGURA 4F es una sexta representación de una modalidad de un gesto de usuario recibido en un dispositivo; la FIGURA 4G es una séptima representación de una modalidad de un gesto de usuario recibido en un dispositivo; la FIGURA 4H es una octava representación dé una modalidad de un gesto de usuario recibido en un dispositivo; la FIGURA 5A es un diagrama de bloque de; una modalidad del software y/o firmware del dispositivo; la FIGURA 5B es un segundo diagrama de bloque de una modalidad del software y/o firmware del dispositivo; ! la FIGURA 6A es una primera representación de una modalidad de una configuración del dispositivo generada en respuesta al estado del dispositivo; : la FIGURA 6B es una segunda representación de una modalidad de una configuración del dispositivo generada en respuesta al estado del dispositivo; la FIGURA 6C es una tercera representación de una modalidad de una configuración del dispositivo generada en respuesta al estado del dispositivo; la FIGURA 6D es una cuarta representación de una modalidad de una configuración del dispositivo generada en respuesta al estado del dispositivo; la FIGURA 6E es una quinta representación de una modalidad de una configuración del dispositivo generada en respuesta al estado del dispositivo; la FIGURA 6F es una' sexta representación de una modalidad de una configuración del dispositivo generada en respuesta al estado del dispositivo; la FIGURA 6G es una séptima representación de una modalidad de una configuración del dispositivo generada en respuesta al estado del dispositivo; la FIGURA 6H es una octava representación de una modalidad de una configuración del dispositivo generada en respuesta al estado del dispositivo; la FIGURA 61 es una novena representación de una modalidad de una configuración del dispositivo generada en respuesta al estado del dispositivo; : la FIGURA 6J es una décima representación de' una modalidad de una configuración del dispositivo generada en respuesta al estado del dispositivo; la FIGURA 7A es una representación de una pila lógica de ventanas; la FIGURA 7B es otra representación de una modalidad de una pila lógica de ventanas; la FIGURA 7C es otra representación de una modalidad de una pila lógica de ventanas; la FIGURA 7D es otra representación de una modalidad de una pila lógica de ventanas; la FIGURA 7E es . otra representación de una modalidad de una pila lógica de ventanas; la FIGURA 8 es un diagrama de bloque de una modalidad de una estructura de datos lógica para una pila de ventanas; la FIGURA 9 es un diagrama de flujo de! una modalidad de un método para crear una pila de ventanas la FIGURA 10A ilustra procesamiento realizado por una modalidad del Módulo 576 de Gesto, donde una combinación de gesto de deslizamiento-arrastre se aplica al área 124 de captura de gestos, y el Módulo 576 de Gesto ignora el gesto puesto que no existe ninguna ventana de aplicación en' las pantallas de visualizacion 110 y 114 que se operen de acuerdo con el gesto; la FIGURA 10B ilustra el procesamiento realizado por el dispositivo 100, donde una combinación de gesto de deslizamiento-arrastre se aplica directamente al escritorio de la pantalla de visualización 114, los escritorios se desplazan a la izquierda; la FIGURA 10C ilustra el procesamiento realizado por una modalidad del Módulo 576 de Gesto, en donde una combinación de gesto de deslizamiento-arrastre se aplica al área 124 de captura de gestos, y el Módulo 576 de Gesto puesto que existe una ventana de aplicación en la pantalla de visualización 110 a la cual puede aplicarse el gesto, el Módulo 576 de Gesto desplaza la aplicación Al a la derecha; la FIGURA 10D es similar a la FIGURA 10C excepto que en la pila de ventanas para la pantalla de visualización 110, existe otra ventana de aplicación A3 en la pila la cual entonces se despliega en la pantalla de visualización 110 cuando la ventana Al de aplicación se desplaza a la derecha; la FIGURA 10E ilustra el procesamiento realizado por una modalidad del Módulo 576 de Gesto, en donde una combinación de gesto de deslizamiento-arrastre se aplica a la pantalla de visualización 110, y el Módulo 576 de Gesto ignora el gesto puesto que no se despliega en un escritorio en la pantalla de visualización 110 que se opere de acuerdo con el gesto; la FIGURA 11 es un diagrama de flujo de alto nivel del procesamiento realizado por el Módulo 576 de Gesto para proporcionar los cambios de pantalla de visualización mostrados en las Figuras 10A a 10D.
En las figuras anexas, componentes similares y/o características pueden tener la misma etiqueta de referencia. Además, varios componentes del mismo tipo pueden distinguirse al seguir la etiqueta de referencia por una letra que distingue entre los componentes similares. Si sólo la primera etiqueta de referencia se utiliza en la especificación, la descripción se puede aplicar a cualquiera de los componentes similares que tengan la misma primera etiqueta de referencia independientemente de la segunda etiqueta de referencia.
En la presente, modalidades de un dispositivo se presentan. El dispositivo puede ser un dispositivo de comunicaciones, tal como un teléfono celular, u otro dispositivo inteligente. El dispositivo puede incluir; dos pantallas que se orientan para proporcionar varias configuraciones de pantalla de visualización únicas. Además, el dispositivo puede recibir entrada de usuario en formas únicas. El diseño y funcionalidad general del dispositivo proporciona una experiencia de usuario mejorada que hace al dispositivo más útil y más eficiente.
Características Mecánicas: Las Figuras 1A-1J ilustran un dispositivo 100 de acuerdo con modalidades de la presente descripción. Como se describe en mayor detalle a continuación, el dispositivo 100 puede colocarse en un número de diferentes formas, de los cuales cada uno proporciona diferente funcionalidad [ a un usuario. El dispositivo 100 es un dispositivo de varias pantallas que incluye una pantalla 104 primaria y una pantalla 108 secundaria, de las cuales ambas son sensibles al tacto. En modalidades, toda la superficie frontal de las pantallas 104 y 108 puede ser sensible al tacto y capaz de recibir entrada por un usuario que toca la superficie frontal de las pantallas 104 y 108. La pantalla 104 primaria incluye la pantalla de visualización 110 sensible al tacto, la cual, además de ser sensible al tacto, también despliega información a un usuario. La pantalla 108 secundaria incluye la pantalla de visualización 114 sensible al tacto, la cual también despliega información a un usuario. En otras modalidades, las pantallas 104 y 108 pueden incluir más de un área de visualización.
La pantalla 104 primaria también incluye un ; área 112 configurable que se ha configurado para entradas especificas cuando el usuario toque las porciones del ' área 112 configurable. La pantalla 108 secundaria también incluye un área 116 configurable que se ha configurado para entradas especificas. Las áreas 112a y 116a se han configurado para recibir una "contra" de entrada que indica que un usuario quiere ver información previamente desplegada. Las áreas 112b y 116b se han configurado para recibir una entrada de "menú" que indique que el usuario quiere ver opciones de un menú. Las áreas 112c y 116c se han configurado para recibir una entrada de "inicio" que indica que el usuario quiere ver información asociada con una vista de "inicio". En otras modalidades, las áreas 112a-c y 116a-c pueden configurarse, además de las configuraciones descritas en lo anterior, para otros tipos de entradas especificas que incluyen características de control del dispositivo 100, algunos ejemplos no limitantes incluyen ajustar la energía del sistema general, ajustar el volumen, ajuste el brillo, ajustar la vibración, seleccionar los elementos desplegados (en cualquiera de la pantalla 104 ó 108), operar una cámara, operar un micrófono, e inicio/finalización de llamadas telefónicas. También, en algunas modalidades, las áreas 112a-C y 116a-C pueden configurarse para entradas específicas dependiendo de la aplicación que se ejecuta en el dispositivo 100 y/o la información desplegada en las pantallas de visualización 110 y/o 114 sensibles al tacto.
Además de la sensibilidad al tacto, la pantalla 104 primaria y la pantalla 108 secundaria también pueden incluir áreas que reciben entrada de un usuario sin requerir que el usuario toque el área de visualización de la pantalla! Por ejemplo, la pantalla 104 primaria incluye área 120 de captura de gestos, y la pantalla 108 secundaria incluye el área 124 de captura de gestos. Estas áreas de captura de gestos, por ejemplo, son áreas sensibles al tacto capacitivas que son capaces de recibir entrada de toque de usuario que se utiliza para reconocer gestos realizados por un usuario sin necesidad de que el usuario realmente toque la superficie del área de visualización (es decir, el área 110 ó 114 de visualización) . En comparación con las pantallas de visualización 110 y 114 sensibles al tacto, las áreas 120 y 124 de captura de gestos comúnmente no son capaces de presentar una imagen desplegada, y en particular, no pueden desplegar un escritorio o una ventana de aplicación.
Las dos pantallas 104 y 108 se conectan juntas con una bisagra 128, mostrada claramente en la FIGURA 1C (que ilustra- una vista posterior del dispositivo 100) . La bisagra 128, en la modalidad mostrada en las Figuras 1A-1J, es una bisagra central que conecta las pantallas 104 y 108 de: modo que cuando la bisagra se cierre, las pantallas 104 y 108 se yuxtaponen (es decir, lado a lado) como se muestra én la Figura IB (que ilustra una vista frontal del dispositivo 100) . La bisagra 128 puede abrirse para colocar las, dos pantallas 104 y 108 en diferentes posiciones relativas entre si. Como se describe en mayor detalle a continuación, el dispositivo 100 puede tener diferentes funcionalidades dependiendo de las posiciones relativas de las pantallas 104 y 108.
La Figura ID ilustra el lado derecho del dispositivo 100. Como se muestra en la Figura ID, la pantalla 108 secundaria también incluye una ranura 132 para tarjeta y un puerto 136 en su costado. La ranura 132 para tarjeta en modalidades, acomoda diferentes tipos de tarjetas que incluyen un módulo de identidad de suscriptor (SIM) . El puerto 136 en modalidades es un puerto de entrada/salida (puerto E/S) que permite que el dispositivo 100 se conecte a otros dispositivos periféricos, tal como una pantalla de visualización, teclado, o dispositivo de impresión. Como puede apreciarse, estos sólo son algunos ejemplos y en otras modalidades el dispositivo 100 puede incluir otras ranuras y puertos tales como ranuras y puertos para acomodar dispositivos de memoria adicionales y/o para conectar otros dispositivos periféricos. También se muestra en la Figura ID una entrada 140 de audio que acomoda un conector de punta, anillo, manguito (TRS), por ejemplo, para permitir que un usuario utilice audífonos o un auricular.
El dispositivo 100 también incluye un número de botones 158. Por ejemplo, la Figura 1E ilustra el '; lado izquierdo del dispositivo 100. Como se muestra en la Figura 1E, el lado de la pantalla 104 primaria incluye tres botones 144, 148 y 152, el cual puede configurarse para entradas específicas. Por ejemplo, los botones 144, 148, y 152 pueden configurarse para, en combinación o solos, controlat un número de aspectos del dispositivo 100. Algunos ejemplos no limitantes incluyen energía del sistema general, volumen, brillo, vibración, selección de elementos desplegados (en la pantalla 104 ó 108) , una cámara, un micrófono, e inicio/finalización de llamadas telefónicas. En algunas modalidades, en lugar de botones separados, pueden combinarse dos botones en un botón deslizable. Esta disposición es útil en situaciones donde los botones se configuran para controlar características tales como volumen o brillo. Además de los botones 144, 148, y 152, el dispositivo 100 también incluye un botón 156, mostrado en la Figura 1F, la cual ilustra la parte superior del dispositivo 100. En una modalidad, el botón 156 se configura como un botón de encendido/apagado utilizado para controlar la energía del sistema general en el dispositivo 100. En otras modalidades, el botón 156 se configura, además de o en lugar de controlar la energía del sistema, para controlar otros aspectos del dispositivo : 100. En algunas modalidades, uno o más de los botones 144, 148, 152, y 156 son capaces de soportar diferentes comandos de usuario. A manera de ejemplo, una pulsación normal tiene una duración comúnmente de menos de aproximadamente 1 segundo y se asemeja a un toque rápido. Una pulsación media tiene una duración comúnmente de 1 segundo o más, pero menos de aproximadamente 12 segundos. Una pulsación larga tiene: una duración comúnmente de alrededor de 12 segundos o más1. La función de los botones normalmente es especifica para la aplicación que actualmente se encuentra enfocada en la pantalla 110 y 114 de visualización respectiva. En una aplicación telefónica, por ejemplo, y dependiendo del botón en particular, una pulsación normal, media o larga puede significar una llamada terminada, incremento en el volumen de la llamada, disminución en el volumen de la llamada, y silenciar el micrófono. En una aplicación de cámara o video, por ejemplo, y dependiendo del botón en particular, una pulsación normal, media o larga puede significar incrementar el zoom, disminuir el zoom, y tomar una fotografía o grabar video.
También existe un número de componentes de hardware dentro del dispositivo 100. Como se ilustra en la Figura 1C, el dispositivo 100 incluye un altavoz 160 y un micrófono 164. El dispositivo 100 también incluye una cámara 168 (Eigura IB) . Adicionalmente, el dispositivo 100 incluye dos sensores 172A y 172B de posición, los cuales se utilizan ¦ para determinar las posiciones relativas de las pantallas 104 y 108. En una modalidad, los sensores 172A y 172B de posición son sensores de efecto Hall. Sin embargo, en otras modalidades, otros sensores pueden utilizarse además de o en lugar de los sensores de efecto Hall. Un acelerómetro 176 también puede incluirse como parte del dispositivo 100 para determinar la orientación del dispositivo 100 y/d la orientación de las pantallas 104 y 108. Componentes de hardware internos adicionales que pueden incluirse en el dispositivo 100 se describen a continuación con respectó a la Figura 2.
El diseño general del dispositivo 100 permite proporcionar una funcionalidad adicional no disponible en otros dispositivos de comunicación. Parte de la funcionalidad se basa en las diversas posiciones y orientaciones que puede tener el dispositivo 100. Como se muestra en las Figuras 1B-1G, el dispositivo 100 puede operarse en una posición "abierta" donde las pantallas 104 y 108 se yuxtaponen. Esta posición permite una gran área de visualización para desplegar información a un usuario. Cuando los sensores 172A y 172B de posición determinan que el dispositivo 100 se encuentra en la posición abierta, pueden generar una señal que puede utilizarse para activar diferentes eventos, 'tales como desplegar información en ambas pantallas 104 y' 108. Eventos adicionales pueden activarse si el acelerómetro 176 determina que el dispositivo 100 se encuentra en una posición vertical (Figura IB), en oposición con una posición horizontal (no mostrada) .
Además de la posición abierta, el dispositivo 100 también puede tener una posición "cerrada" ilustrada én la Figura 1H. Nuevamente, los sensores 172A y 172B de posición pueden generar una señal que indica que el dispositivo 100 se encuentra en la posición "cerrada". Esto puede activar un evento que resulta en un cambio de información desplegada en la pantalla 104 y/o 108. Por ejemplo, el dispositivo 100 puede programarse para dejar de desplegar información en una de las pantallas, por ejemplo, la pantalla 108, puesto que un usuario sólo puede ver una pantalla a la vez cuando el dispositivo 100 se encuentra en la posición "cerrada". En otras modalidades, la señal generada por los sensores 172A y 172B de posición, que indica que el dispositivo 100 se encuentra en la posición "cerrada", pueden activar el dispositivo 100 para responder a una llamada telefónica entrante. La posición "cerrada" también puede ser una posición preferida para utilizar el dispositivo 100 como un teléfono móvil.
El dispositivo 100 también puede utilizarse en una posición "atril" la cual se ilustra en la Figura II. En la posición de "atril", las pantallas 104 y 108 se colocan en ángulo con respecto una de la otra y se orientan hacia fuera con los bordes de las pantallas 104 y 108 sustancialmente horizontales. En esta posición, el dispositivo 100 puede configurarse para desplegar información en ambas pantallas 104 y 108 para permitir que dos usuarios interactúen simultáneamente con el dispositivo 100. Cuando el dispositivo 100 se encuentra en la posición de "atril", los sensores Í172A y 172B generan una señal que indica que las pantallas 104 y 108 se colocan en un ángulo entre sí, y el acelerómetro 176 puede generar una señal que indica que el dispositivo 100 se ha colocado para que el borde de las pantallas 104 y 108 se encuentren sustancialmente horizontales. Las señales entonces pueden utilizarse en combinación para generar eventos que activan cambios en la pantalla de visualización de información en las pantallas 104 y 108.
La Figura 1J ilustra el dispositivo 100 en una posición de "atril modificado". En la posición de "atril modificado", una de las pantallas 104 ó 108 se utiliza como un pedestal y se coloca hacia abajo en la superficie de un objeto tal como una mesa. Esta posición proporciona una forma conveniente para que la información que se despliegue a un usuario en una orientación horizontal. Similar a la posición de atril, cuando el dispositivo 100 se encuentra en la posición "atril modificado", los sensores 172A y 172B de posición generan una señal que indica que las pantallas .104 y 108 se colocan en un ángulo entre sí. El acelerómetro 176 puede generar una señal que indica que el dispositivo 100 se ha colocado de modo que una de las pantallas 104 y 108 se orienta descendentemente y se encuentra sustancialmente horizontal. Las señales entonces pueden utilizarse para generar eventos que activan los cambios en la pantalla de visualización de información de las pantallas 104 y 108 Por ejemplo, la información puede no desplegarse en la pantalla que se coloca hacia abajo puesto que un usuario no puede ver la pantalla.
Los estados de transición también son posibles. Cuando los sensores 172A y B de posición y/o el acelerómetro indican que las pantallas de cierran o se pliegan (desde estado abierto) , se reconoce un estado de transición de cierre. Inversamente, cuando los sensores 172A y B de posición indican que las pantallas que se abren o se pliegan (desde estado cerrado) , se reconoce un estado de transición de apertura. Los estados de transición de cierre y apertura típicamente se basan en tiempo, o tienen una duración de tiempo máxima a partir de un punto de inicio detectado. Normalmente, ninguna entrada de usuario es posible cuando uno de los estados de cierre y apertura se encuentra en efecto. De esta manera, el contacto de usuario incidental con una pantalla durante la función de cierre o apertura no se mal interpreta como entrada de usuario. En modalidades, otro estado de transición es posible cuando el dispositivo 100 se cierra. Este estado de transición adicional permite que la pantalla de visualización cambie de una pantalla 104 :a la segunda pantalla 108 cuando el dispositivo 100 se cierra basándose en cierta entrada de usuario, por ejemplo, un doble toque en la pantalla 110, 114.
Como puede apreciarse, la descripción , del dispositivo 100 se hace para propósitos ilustrativos solamente, y las modalidades no se limitan a las características mecánicas específicas mostradas en las Figuras 1A-1J y descritas en lo anterior. En otras modalidades, el dispositivo 100 puede incluir características adicionales, que incluyen uno o más botones adicionales, ranuras, áreas de visualización, bisagras y/o mecanismos de bloqueo. Adicionalmente, en modalidades, las características descritas en lo anterior pueden ubicarse en diferentes partes del dispositivo 100 y aún proporcionar funcionalidad similar. Por lo tanto, las Figuras 1A-1J y la descripción proporcionada en lo anterior son no limitantes.
Características de Hardware: La Figura 2 ilustra componentes de un dispositivo 100 de acuerdo con modalidades de la presente descripción. En general, el dispositivo 100 incluye una pantalla 104 primaria y una pantalla 108 secundaria. Aunque la pantalla: 104 primaria y sus componentes normalmente se habilitan en las posiciones o estados abierto y cerrado, la pantalla' 108 secundaria y sus componentes normalmente se habilitan en el estado abierto, pero se deshabilitan en el estado cerrado. Sin embargo, aun cuando se encuentre en el estado cerrado una interrupción activada por usuario o aplicación (tal como en respuesta a una aplicación telefónica u operación de aplicación de cámara) puede voltear la pantalla activa, o deshabilitar la pantalla 104 primaria y habilita la pantalla 108 secundaria, por un comando adecuado. Cada pantalla 104, 108 puede ser sensible al tacto y puede incluir áreas operativas diferentes. Por ejemplo, una primera área operativa, dentro de cada pantalla 104 y 108 sensible al tacto, puede comprender una pantalla 110, 114 de visualización sensible al tacto. En general, la pantalla 110, 114 sensible al tacto puede comprender una pantalla de visualización sensible al tacto a colores. Una segunda área dentro de cada pantalla 104 y 108 sensible al tacto puede comprender una región 120, 124 de captura de gestos. La región 120, 124 de captura de gestos puede comprender un área o región que se encuentra fuera del área de la pantalla 110, 114 de visualización sensible al tacto, y que es capaz de recibir entrada, por ejemplo, en forma de gestos proporcionados por un usuario. Sin embargo, la región. 120, 124 de captura de gestos no incluye pixeles que puedan realizar una función o capacidad de visualización.
Una tercera región de las pantallas 104 y 108 sensibles al tacto puede comprender un área 112, : 116 configurable . El área 112, 116 configurable es capaz de recibir entrada y tiene capacidades de pantalla de visualización o pantalla de visualización limitada. En modalidades, el área 112, 116 configurable puede presentar diferentes opciones de entrada al usuario. Por ejemplo el área 112, 116 configurable puede desplegar botones u otros elementos relacionados. Sin embargo, la identidad de los botones desplegados, o si cualesquier botones se despliegan todos dentro del área 112, 116 configurables de una pantalla 104 ó 108 sensible al tacto, pueden determinarse a partir del contexto en el cual se utiliza y/u opera el dispositivo 100. En una modalidad ejemplar, las pantallas 104 y 108 sensibles al tacto comprenden dispositivos de pantalla de visualización de cristal liquido que se extienden a través de por lo menos esas regiones de las · pantallas 104 y 108 sensibles al tacto que son capaces de proporcionar una salida visual a un usuario, y una matriz de entrada capacitiva sobre esas regiones de las pantallas 104 y 108 sensibles al tacto que son capaces de recibir la entrada del usuario.
Uno o más controladores 216a, 216b de pantalla de visualización puede proporcionarse para controlar la operación de las pantallas 104 y 108 sensibles al tacto, que incluyen funciones de entrada (sensible al tacto) y salida (pantalla de visualización) . En la modalidad ejémplar ilustrada en la Figura 2, un controlador 216a o 216b de pantalla táctil separado se proporciona para cada pantalla 104 y 108 táctil. De acuerdo con modalidades alternativas, un controlador 216 de pantalla táctil común o compartido puede utilizarse para controlar cada una de las pantallas 104 !y 108 sensibles al tacto incluidas. De acuerdo con aún .otras modalidades, las funciones de un controlador 216 de pantalla táctil puede incorporarse en otros componentes, tal como un procesador 204.
El procesador 204 puede comprender un procesador programable de propósito general o controlador para ejecutar programación o instrucciones de aplicaciones. De acuerdo con por lo menos algunas modalidades, el procesador 204 puede incluir múltiples núcleos de procesador y/o implementar múltiples procesadores virtuales. De acuerdo con aún otras modalidades, el procesador 204 puede incluir múltiples procesadores físicos. Como ejemplo particular, el procesador 204 puede comprender un circuito integrado de aplicación específica (ASIC) especialmente configurado u otro circuito integrado, un procesador digital de señales, un controlador, un circuito electrónico o lógico cableado, un dispositivo lógico programable o disposición de puerta, con, una computadora de propósito especial, o similares. El procesador 204 generalmente funciona para ejecutar código: de programación o instrucciones que implementan varias funciones del dispositivo 100.
Un dispositivo 100 de comunicación también puede incluir memoria 208 para uso junto con la ejecución de programación o instrucciones de aplicaciones por; el procesador 204, y para el almacenamiento temporal o a largo plazo de instrucciones de programación y/o datos. Como ejemplos, los memoria 208 puede comprender RAM, DRAM, SDRAM, u otra memoria de estado sólido. Alternativamente, o además, el almacén 212 de datos puede proporcionarse. Similar a la memoria 208, el almacén 212 de datos puede comprender un dispositivo o dispositivos de memoria de estado sólido. Alternativamente o además, el almacén 212 de datos puede comprender una unidad de disco duro u otra memoria de acceso aleatorio.
Para el soporte de funciones o capacidades de comunicación, el dispositivo 100 puede incluir un módulo 228 de telefonía celular. Como ejemplos, el módulo 228 de telefonía celular puede comprender un transceptor de, GSM, CDMA, FD A y/u otra telefonía celular análoga capaz de soportar transferencias de voz, multimedia y/o datos sobre una red celular. Alternativamente o además, el dispositivo 100 puede incluir un módulo 232 de comunicaciones inalámbrica adicional u otro. Como ejemplos, el otro módulo 232 de comunicación inalámbrica puede comprender un enlace de comunicación inalámbrica por Wi-Fi, Bluetooth TM, Wi ax, infrarrojo, u otro. El módulo 228 de telefonía celular y el otro módulo 232 de comunicaciones inalámbricas cada una puede asociarse con una antena 224 compartida o dedicada.
Puede incluirse una interfaz 252 de puerto;. La interfaz 252 de puerto puede incluir puertos de propiedad o universales para soportar la interconexión del dispositivo 100 a otros dispositivos o componentes, tal como un elemento de acoplamiento, el cual puede o no incluir capacidades adicionales o diferentes de aquellas integrales en el dispositivo 100. Además de soportar un intercambio de señales de comunicación entre el dispositivo 100 y otro dispositivo o componente, el puerto 136 de acoplamiento y/o la interfaz 252 de puerto pueden soportar el suministro de energía hasta o desde el dispositivo 100. La interfaz 252 de puerto también comprende un elemento inteligente que comprende un módulo de acoplamiento para controlar comunicaciones u otras interacciones entre el dispositivo 100 y un dispositivo o componente conectado.
Un módulo 248 de entrada/salida y puertos asociados pueden incluirse para soportar comunicaciones sobre redes alámbricas o enlaces, por ejemplo, con otros dispositivos de comunicación, dispositivos de servidor y/o dispositivos periféricos. Ejemplos de un módulo 248 de entrada/salida incluyen un puerto de Ethernet, un puerto de Bus de Serie Universal (USB) , un Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) 1394, u otra interfaz. | Una interfaz/dispositivo 244 de entrada/salida de audio puede incluirse para proporcionar audio análogo a un altavoz interconectado u otro dispositivo, y para recibir la entrada de audio análogo de un micrófono conectado u : otro dispositivo. Como ejemplo, la interfaz/dispositivo 244 de entrada/salida de audio puede comprender un amplificador asociado y un convertidor de análogo a digital. Alternativamente o además, el dispositivo 100 puede incluir un dispositivo 256 de entrada/salida de audio integrado y/o una entrada de audio para interconectar un altavoz externo o micrófono. Por ejemplo, un altavoz integrado y un micrófono integrado pueden proporcionarse, para soportar operaciones de hablar de cerca o de altavoz.
Los botones 158 de hardware pueden incluirse, por ejemplo, para su uso junto con ciertas operaciones de control. Ejemplos incluyen un conmutador de energía maestro, control de volumen, etc., como se describe junto con las Figuras 1A a 1J. Una o más interfaces/dispositivos 240 de captura de imágenes, tal como una cámara, pueden incluirse para capturar imágenes fijas y/o de video. Alternativamente, o además, una interfaz/dispositivo 240 de captura de imagen puede incluir un escáner o lector de código. · Una interfaz/dispositivo 240 de captura de imagen puede incluir o asociarse con elementos adicionales tales como una fuente de luz flash u otra.
El dispositivo 100 también puede incluir un receptor 236 de sistema de posicionamiento global (GPS). De acuerdo con modalidades de la presente invención, el receptor 236 DE GPS además puede comprender un módulo de GPS que es capaz de proporcionar información de ubicación absoluta a otros componentes del dispositivo 100. Un acelerómetro · 176 también puede incluirse. Por ejemplo, junto con la pantalla de visualización de información a un usuario y/u otras funciones, una señal del acelerómetro 176 puede utilizarse para determinar una orientación y/o formato en el cual desplegar la información al usuario.
Modalidades de la presente invención también pueden incluir uno o más sensores 172 de posición. El sensor de 172 de posición puede proporcionar una señal que indica la posición de las pantallas 104 y 108 sensibles al tacto con respecto una de la otra. Esta información puede proporcionarse como un entrada, por ejemplo, a una aplicación de interfaz de usuario, para determinar un modo de operación, características de las pantallas 110, 114 de visualización sensibles al tacto y/u otras operaciones del dispositivo 100. Como ejemplos, un sensor 172 de posición de pantalla puede comprender una serie de sensores de efecto Hall:, un conmutador de posición múltiple, un conmutador óptico, un puente de heatstone, un potenciómetro, u otra disposición capaz de proporcionar una señal que indique en que posiciones relativas múltiples se encuentran las pantallas táctiles.
La comunicación entre los diversos componentes del dispositivo 100 puede transportarse por uno o más buses 222. Además, la energía puede suministrarse a los componentes del dispositivo 100 desde una fuente de energía y/o módulo 260 de control de energía. El módulo 260 de control de energía,; por ejemplo, puede incluir una batería, un convertidor de CA a CD, lógica de control de energía y/o puertos para interconectar el dispositivo 100 a una fuente externa de energía .
Estado del Dispositivo: Las Figuras 3A y 3B representan estados ilustrativos del dispositivo 100. Aunque se muestra un número de estados ilustrativos, y transiciones de un primer estado a un segundo estado, se apreciará que el diagrama de estado ilustrativo puede no abarcar todos los estados posibles y/o todas las transiciones posibles de un primer estado a un segundo estado. Como se ilustra en la Figura 3, las diversas flechas entre los estados (ilustradas por el estado representado en el círculo) representan un cambio físico que se presenta al dispositivo 100, que se detecta por uno o más de hardware y software, la detección que activa uno o mas de una interrupción de hardware y/o software que se utiliza; para controlar y/o manejar una o más funciones del dispositivo 100.
Como se ilustra en la Figura 3A, existen doce estados "físicos" ejemplares: cerrado 304, de transición 308 (o estado de transición de apertura) , de atril 312, atril modificado 316, abierto 320, llamada entrante/saliente o comunicación 324, captura 328 de imagen/video, transición 332 (o estado de transición de cierre), horizontal 340, conectado 336, conectado 344 y horizontal 348. Cerca de cada estado ilustrativo se encuentra una representación del estado físico del dispositivo 100 con la excepción de los estados 324 y 328, en donde el estado generalmente se simboliza por el icono internacional para un teléfono y el icono para una cámara, respectivamente.
En el estado 304, el dispositivo se encuentra en un estado cerrado con el dispositivo 100 generalmente orientado en la dirección vertical con la pantalla 104 primaria y la pantalla 108 secundaria espalda con espalda en diferentes planos (véase Figura 1H) . A partir del estado cerrado, el dispositivo 100 puede entrar, por ejemplo, al estado 336 conectado, en donde el dispositivo 100 se acopla con una estación de acoplamiento, cable de acoplamiento, o en general conectado o asociado con uno o más dispositivos o periféricos adicionales, o el estado 340 horizontal, en donde el dispositivo 100 generalmente se orienta con la pantalla 104 primaria orientada al usuario, . y la pantalla 104 primaria y la pantalla 108 secundaria encontrándose espalda con espalda.
En el estado cerrado, el dispositivo también puede cambiarse a un estado de transición en donde el dispositivo queda cerrado pero la pantalla de visualización se mueve desde una pantalla 104 a otra pantalla 108 basándose en la entrada de un usuario, por ejemplo, un doble toque en la pantalla 110, 114. Aún otra modalidad incluye un estado bilateral. En el estado bilateral, el dispositivo permanece cerrado, pero una sola aplicación despliega por lo menos una ventana en la primera pantalla de visualización 110 y la segunda pantalla de visualización 114. Las ventanas mostradas en primera y segunda pantallas de visualización 110, 114 pueden ser las mismas o diferentes, basándose en la aplicación y el estado de la aplicación. Por ejemplo, mientras se adquiere una imagen con una cámara, el dispositivo puede desplegar el buscador de vistas en la primera pantalla de visualización 110 y desplegar una pre-visualización para , los objetos fotografiados (pantalla completa y reflejada de izquierda a derecha) en la segunda pantalla de visualización 114.
En el estado 308, un estado de transición desde el estado 304 cerrado hasta el estado semi-abierto o estado 312 de atril, el dispositivo 100 se muestra abierto con la pantalla 104 primaria y la pantalla 108 secundaria que se hacen girar alrededor de un punto de eje de coincidencia con la bisagra. Al entrar al estado 312 de atril, la pantalla 104 primaria y la pantalla 108 secundaria se separan entre si de modo que, por ejemplo, el dispositivo 100 pueda colocarse en una configuración tipo atril en una superficie.
En el estado 316, conocido como la posición de atril modificado, el dispositivo 100 tiene la pantalla 104 primaria y la pantalla 108 secundaria en una relación relativa similar entre si como en el estado 312 de atril, con la diferencia siendo una de la pantalla 104 primaria o la pantalla 108 secundaria colocada en una superficie como se muestra.
El estado 320 es el estado abierto donde la pantalla 104 primaria y la pantalla 108 secundaria generalmente se encuentran en el mismo plano. Del estado abierto, el dispositivo 100 puede hacer transición al estado 344 conectado o el estado 348 horizontal abierto. En el estado 320 abierto, la pantalla 104 primaria y la pantalla 108 secundaria generalmente se encuentran en la orientación tipo vertical mientras en el estado 348 horizontal la pantalla 104 primaria y la pantalla 108 secundaria generalmente se encuentran en una orientación tipo horizontal .
El estado 324 es ilustrativo de un estado de comunicación, tal como cuando una llamada entrante o saliente se recibe o se hace, respectivamente, por el dispositivo 100. Aunque no se ilustra para claridad, debe apreciarse que el dispositivo 100 puede hacer transición al estado 324 de llamada entrante/saliente de cualquier estado ilustrado ;en la Figura 3. De una forma similar, el estado 328 de captura de imagen/video puede ingresarse desde cualquier otro estado en la Figura 3, con el estado 328 de captura de imagen/video permitiendo que el dispositivo 100 tome una o más imájgenes mediante una cámara y/o videos con un dispositivo 240 de captura de video.
El estado 322 de transición, muestra ilustrativamente la pantalla 104 primaria y la pantalla 108 secundaria que se cierra una sobre otra para la entrada, por ejemplo, el estado 304 cerrado.
La Figura 3B ilustra, con referencia a la clave, las entradas que se reciben para detectar una transición de un primer estado a un segundo estado. En la Figura 3B, varias combinaciones de estado se muestran con en general, una porción de las columnas que se dirigen hacia un estado 352 vertical, un estado 356 horizontal, y una porción de las filas que se dirigen al estado 360 vertical y el estado 364 horizontal .
En la Figura 3B, la Clave indica que "H" representa una entrada de uno o más sensores de efecto Hall,: "A" representa una entrada de uno o más acelerómetros , "T" representa una entrada de un cronómetro, "P" representa una entrada de activador de comunicación e "I" representa una entrada de solicitud de captura de imagen y/o video. De esta manera, en la porción 376 central del diagrama, una entrada o combinación de entradas, se muestran que representan cómo el dispositivo 100 detecta una transición de un primer estado físico a un segundo estado físico.
Como se discute, en la porción central del diagrama 376, las entradas que se reciben permiten la detección de una transición de, por ejemplo, un estado abierto vertical a un estado de atril horizontal-mostrado en negritas-"HAT" . Para esta transición ejemplar del estado abierto vertical al atril horizontal, puede necesitar una entrada de sensor de efecto Hall ("H"), un acelerómetro ("A") y un cronómetro ("T") . La entrada del cronómetro puede derivarse de, por ejemplo, un reloj asociado con el procesador.
Además de los estados vertical y horizontal, un estado 368 conectado también se muestra que se activa basándose en la recepción de una señal 372 de acoplamiento. Como se discute en lo anterior y con relación a la Figura 3, la señal de acoplamiento puede activarse por la asociación del dispositivo 10O con uno o más de otros dispositivos 100, accesorios, periféricos, elementos de acoplamiento inteligentes, o similares. ' Interacción del Usuario: Las Figuras 4A a 4H representan varias representaciones gráficas de las entradas de gesto que pueden reconocerse por las pantallas 104, 108. Los gestos pueden realizarse no sólo por la parte del cuerpo de un usuario, tal como un dígito, sino también por otros dispositivos, :tales como un estilete, que puede detectarse por las porciones sensibles al tacto de una pantalla 104, 108. En general, los gestos se interpretan de manera diferente, basándose en si los gestos se realizan (ya sea directamente en la pantalla de visualización 110, 114 o en la región 120, 124 de captura de gesto) . Por ejemplo, los gestos en la pantalla de visualización 110, 114 pueden dirigirse a un escritorio o aplicación, y los gestos en la región 120, 124 de captura de gestos pueden interpretarse por el sistema.
Con referencia a las Figuras 4A-4H, un primer tipo de gesto, un gesto 420 de toque, sustancialmente es estacionario en la pantalla 104, 108 por una duración de tiempo selecciona. Un círculo 428 representa un toque u otro tipo de contacto recibido en un lugar particular de una porción de detección de contacto de la pantalla. El círculo 428 puede incluir un limitador 432, del cual el espesor indica una duración de tiempo que el contacto se mantiene sustancialmente estacionario en la ubicación de contacto. Por ejemplo, un toque 420 (o pulsación corta) tiene un límite 432a más delgado que el limitador 432b para una pulsación 424 larga (o para una pulsación normal) . La pulsación 424 larga puede implicar un contacto que permanece sustancialmente estacionario en la pantalla por un periodo de tiempo más largo que de un toque 420. Como se apreciará, gestos definidos de manera diferente pueden registrarse dependiendo de la duración de tiempo en que el toque se mantiene estacionario antes del cese del contacto o movimiento én la pantalla .
Con referencia a la Figura 4C, un gesto 400 de arrastre en la pantalla 104, 108 es un contacto inicial (representado por el círculo 428) con un movimiento 436 de contacto en una dirección seleccionada. El contacto 428 inicial puede permanecer estacionario en la pantalla 104, 108' por una cierta cantidad de tiempo representada por el limitador 432. El gesto de arrastre típicamente requiere que el usuario haga contacto con un icono, ventana, u otra imagen desplegada en una primera ubicación seguida por el movimiento del contacto en una dirección de arrastre hasta una nueva segunda ubicación deseada para la imagen seleccionada desplegada. El movimiento de contacto no necesita ser en una línea recta, sino tener cualquier trayectoria de movimiento siempre y cuando el contacto sea sustancialmente continuo desde la primera hasta la segunda ubicaciones.
Con referencia a la Figura 4D, un gesto 404 de deslizamiento en la pantalla 104, 108 es un contacto inicial (representado por el círculo 428) con un movimiento 436 de contacto truncado (con respecto a un gesto de arrastre) en una dirección seleccionada. En modalidades, un deslizamiento tiene una mayor velocidad de salida para el último movimiento en el gesto comparado con el gesto de arrastre. El gesto de deslizamiento, por ejemplo, puede ser un chasquido de dedos después del contacto inicial. En comparación con un gesto de arrastre, un gesto de deslizamiento generalmente no requiere contacto continuo con la pantalla 104, 108 desde la primera ubicación de una imagen desplegada hasta una segunda ubicación predeterminada. La imagen desplegada contactada se mueve por el gesto de deslizamiento en la dirección del gesto de deslizamiento hasta la segunda ubicación predeterminada. Aunque ambos gestos comúnmente pueden mover una imagen desplegada desde una primera ubicación hasta una segunda ubicación, la duración temporal y la distancia de viaje del contacto en la pantalla generalmente es menor para un deslizamiento que para un gesto de arrastre. con referencia a la Figura 4E, un gesto 408 de contracción en la pantalla 104, 108 se representa. El gesto 408 de contracción puede iniciarse por un primer contacto 428a hasta la pantalla 104, 108, por ejemplo, por un primer dedo y un segundo contacto 428b hasta la pantalla 104, 108, por ejemplo, por un segundo dedo. El primer y segundo contacto 428a, b pueden detectarse por una porción de detección de contacto común de una pantalla 104, 108 común, por diferentes porciones de detección de contacto de una pantalla 104 ó 108 común, o por diferentes porciones de detección de contacto de diferentes pantallas. El primer contacto 428a se mantiene por una primera cantidad de tiempo, como se representa por el limitador 432a, y el segundo contacto 428b se mantiene por una segunda cantidad de tiempo, como se representa por el limitador 432b. La primera y segunda cantidades de tiempo general y sustancialmente son la misma, y el primer y segundo contactos 428a, b generalmente se presentan sustancial y simultáneamente. El primer y segundo contactos 428a, b generalmente también incluyen primer y segundo movimientos 436a, b de contacto correspondientes, respectivamente. El primer y segundo movimientos 436a, b de contacto, generalmente se encuentran en direcciones opuestas. Establecido de otra manera, el primer movimiento 436a de contacto es hacia el segundo contacto 436b, y el segundo movimiento 436b de contacto es hacia el primer contacto 436a. Establecido de manera más simple, el gesto 408 de contracción puede lograrse por los dedos de un usuario que tocan la pantalla 104, 108 en un movimiento de contracción.
Con referencia a la Figura 4F, un gesto 4,10 de extensión en la pantalla 104, 108 se representa. El gesto 410 de extensión puede iniciarse por un primer contacto! 428a hasta la pantalla 104, 108, por ejemplo, un primer dedo y un segundo contacto 428b a la pantalla 104, 108, por ejemplo, por un segundo dedo. El primer y segundo contactos 428a, b pueden detectarse por una porción de detección de contacto común desde una pantalla 104, 108 común, por diferentes porciones de detección de contacto de una pantalla 104, 108 común, o por diferentes porciones de detección de contacto de diferentes pantallas. El primer contacto 428a se mantiene por una primera cantidad de tiempo, como se representa por el limitador 432a, y el segundo contacto 428b se mantiene por una segunda cantidad de tiempo, como se representa por el limitador 432b. La primera y segunda cantidades del tiempo general y sustancialmente son las mismas, y el primer y segundo contacto 428a, b generalmente se presentan sustancial y simultáneamente. El primer y segundo contactos 428a, b generalmente también incluyen primer y segundo movimientos 436a, b de contacto correspondiente, respectivamente. El primer y segundo movimientos 436 a, b de contacto generalmente se encuentran en una dirección común. Establecido de otra manera, el primer y segundo movimientos 436a, b de contacto se alejan del primer y segundo contactos 428a, b. Establecido de manera más simple, el gesto 410 de extensión puede acompañarse por los dedos de un usuario que toca la pantalla 104, 108 en un movimiento de extensión.- Los gestos anteriores pueden combinarse de cualquier manera, tal como aquellos mostrados por las Figuras 4G y 4H, para producir un resultado funcional determinado. Por ejemplo, en la Figura 4G un gesto 420 de toque se combina con un gesto 412 de arrastre o de deslizamiento en una dirección alejada del gesto 420 de toque. En la Figura 4?, un gesto 420 de toque se combina con un gesto 412 de arrastre o de deslizamiento en una dirección hacia el gesto 420 de toque.
El resultado funcional de recibir un gesto puede variar dependiendo de un número de factores, que incluyen un estado del dispositivo 100, la pantalla de visualización 110, 114, o la pantalla 104, 108, un contexto asociado con el gesto, o la ubicación detectada del gesto. El estado del dispositivo comúnmente se refiere como una o más de una configuración del dispositivo 100, una orientación de la pantalla de visualización, y la entrada de usuario y otras recibidas por el dispositivo 100. El contexto comúnmente se refiere a una o más de las aplicaciones particulares seleccionadas por el gesto y las porciones de la aplicación que se ejecuta actualmente, si la aplicación es una aplicación de una sola o varias pantallas, y si la aplicación es una aplicación de varias pantallas que despliega una o más ventanas en una o más pantallas o en una o más pilas. La ubicación detectada del gesto se refiere comúnmente cómo si los conjuntos detectados de coordenadas de ubicación de' gesto se encontraran en una pantalla de visualización 110, 114 sensible al tacto o una región 120, 124 de captura de gesto, si los conjuntos detectados de las coordenadas de ubicación de gesto se asociarán con una pantalla de visualización o pantalla 104, 108 común o diferente, y/o que esa porción de la región de captura de gestos contenga los conjuntos detectados de coordenadas de ubicación de gesto. ; Un toque, cuando se recibe por una pantalla de visualización 110, 114 sensible al tacto, puede utilizarse, por ejemplo, para seleccionar un icono para iniciar o terminar la ejecución de una aplicación correspondiente, para maximizar o reducir una ventana, para registrar las ventanas en una pila, y para proporcionar entrada de usuario tal como por una pantalla de visualización de teclado u otra imagen desplegada. Un arrastre, cuando se recibe por una pantalla de visualización 110, 114 sensible al tacto, puede utilizarse, por ejemplo, para reubicar un icono o ventana en una ubicación deseada dentro de una pantalla de visualización, para registrar una pila en una pantalla de visualización, O para abarcar ambas pantallas de visualización (de manera que la ventana seleccionada ocupe una porción de cada pantalla de visualización simultáneamente) . Un deslizamiento, cuando se recibe por una pantalla de visualización 110, 114 sensible al tacto o una región 120, 124 de captura de gestos, ; puede utilizarse para reubicar una ventana de una primera pantalla de visualización a una segunda pantalla de visualización o para abarcar ambas pantallas de visualización (de manera que la ventana seleccionada ocupe una porción de cada pantalla de visualización simultáneamente) . A diferencia del gesto de arrastre, sin embargo, el gesto de deslizamiento generalmente no se utiliza para mover la imagen desplegada a una ubicación especifica seleccionada por el usuario, sino a una ubicación por defecto que no se puede configurar por el usuario.
El gesto de contracción, cuando se recibe por una pantalla de visualizacion 110, 114 sensible al tacto o una región 120, 124 de captura de gestos, puede utilizarse para minimizar o de otra manera incrementar el área desplegada o tamaño de una ventana (típicamente cuando se recibe totalmente por una pantalla de visualizacion común) , para cambiar las ventanas desplegadas de la parte superior de la pila en cada pantalla de visualizacion a la parte superior de la pila de la otra pantalla de visualizacion (típicamente cuando se recibe por diferentes pantallas de visualizacion o pantallas), o para desplegar un administrador de aplicaciones (una "ventana desplegable" que despliega las ventanas en la pila) . El gesto de extensión, cuando se recibe por una pantalla de visualizacion 110, 114 sensible al tacto o una región 120, 124 de captura de gestos, puede utilizarse para maximizar o de otro manera disminuir el área desplegada o el tamaño de una ventana, para cambiar las ventanas desplegadas en la parte superior de la pila en cada pantalla de visualizacion a la parte superior de la pila de la otra pantalla de visualizacion (típicamente cuando se recibe por diferentes pantallas de visualizacion o pantallas), o para desplegar un administrador de aplicaciones (típicamente cuando se recibe por una región de captura de gestos fuera de pantalla, en la misma o diferentes pantallas) .
Los gestos combinados de la Figura 4G, cuando se recibe por una región de captura de pantalla de visualización común en una pantalla de visualización, o pantalla 104, 108 común, puede utilizarse para contener una primera ubicación de pila de ventanas en una primera constante de pila para una pantalla de visualización que recibe el gesto mientras reordena una segunda ubicación de pila de ventanas en una segunda pila de ventanas para incluir una ventana en la pantalla de visualización que recibe el gesto. Los gestos combinados de la Figura 4H, cuando se reciben por las diferentes regiones de captura en pantalla de visualización en una pantalla de visualización o pantalla 104, 108 común, O en diferentes pantallas de visualización o pantallas, pueden utilizarse para contener una primera ubicación de pila de ventanas en una primera constante de pila de ventanas para una pantalla de visualización que recibe la parte del toque del gesto mientras reordena una segunda ubicación de pila de ventanas y una segunda pila de ventanas para incluir una ventana en la pantalla de visualización que recibe el gesto de deslizamiento o arrastre. Aunque gestos específicos y regiones de captura de gestos en los ejemplos precedentes se han asociado con conjuntos correspondientes de resultados funcionales, se apreciará que estas asociaciones pueden redefinirse de cualquier manera para producir asociaciones diferentes entre gestos y/o regiones de captura de gestos y/o resultados funcionales. ! Firmware y Software: La memoria 508 puede almacenar y el procesador 504 puede ejecutar uno o más componentes de software. Estos componentes pueden incluir por lo menos un sistema 516 operativo (OS) , un administrador 562 de aplicaciones, un escritorio 566 y/o una o más aplicaciones 564a y/o 564b de un almacén 560 de aplicaciones. El OS 516 puede incluir una estructura 520, una o más memorias intermedias 548 de trama, uno o más controladores 512, previamente descritos junto con la Figura 2 y/o un módulo central 518. El OS 516 puede ser cualquier software, que consiste de programas y datós, el cual maneja los recursos de hardware de la computadora y proporciona servicios comunes para la ejecución de varias aplicaciones 564. El OS 516 puede ser cualquier sistema operativo y, por lo menos en ciertas modalidades, dedicada a dispositivos móviles, que incluyen, pero no limitan a, Linux, ANDROID TM, iPhone OS (IOS TM) , WINDOWS PHONE 7 T , etc. El OS 516 se puede operar para proporcionar funcionalidad al teléfono al ejecutar una o más operaciones, como se describe en la presente.
Las aplicaciones 564 pueden ser cualquier software de mayor nivel que ejecute funcionalidad particular para el usuario. Las aplicaciones 564 pueden incluir programas tales como clientes de correo electrónico, exploradores , web, aplicaciones de texto, juegos, reproductores de medios, paquetes de office, etc. Las aplicaciones 564 pueden almacenarse en un almacén 560 de aplicaciones, el cual puede representar cualquier memoria o almacenamiento de datos, y software de manejo asociado con el mismo, para almacenar las aplicaciones 564. Una vez ejecutadas, las aplicaciones 564 puede ejecutarse en un área diferente de la memoria 508.
La estructura 520 puede ser cualquier software o datos que permita que múltiples tareas que se ejecutan en el dispositivo interactúen. En modalidades, por lo menos porciones de la estructura 520 y los componentes discretos, descritos en lo anterior pueden considerarse parte del OS 516 o una aplicación 564. Sin embargo, estas porciones se describirán como parte de la estructura 520, pero esos componentes no se limitan de esta manera. La estructura 520 puede incluir, pero no se limita a, un módulo 524 de Administración de Múlti-Visualizacion (MDM) , un módulo 528 de Memoria Caché de Superficie, un módulo 532 de Administración de Ventanas, un módulo 536 de Administración de Entradas, un módulo 540 de Administración de Tareas, un Administrador 542 de Modelo de Aplicación, un Controlador de Pantalla de visualización, una o más memorias intermedias 548 de trama, una pila 552 de tareas, una o más pilas 550 de ventanas (la cual es una disposición lógica de las ventanas ' y/o escritorios en un área de pantalla de visualización) , y/o una memoria intermedia 556 de eventos.
El módulo 524 de MDM incluye uno o más módulos que se pueden operar para administrar la pantalla de visualización de aplicaciones u otros datos en las pantallas del dispositivo. Una modalidad del módulo 524 de MDM se describe junto con la Figura 5B. En modalidades, el módulo 524 de MDM recibe entradas de los otros componentes 516 de OS, tales como, los controladores 512, y de las aplicaciones 564 para determinar continuamente el estado del dispositivo 100. Las entradas ayudan al módulo 524 de MDM a determinar cómo configurar y asignar las pantallas de visualización de acuerdo con las preferencias de la aplicación y requisitos, y las acciones del usuario. Una vez que se hace una determinación de configuraciones de pantalla de visualización, el módulo 524 de MDM puede encontrar las aplicaciones 564 a una pantalla de visualización. La configuración entonces puede proporcionarse a uno o más de otros componentes para generar una ventana con una pantalla de visualización. ' El módulo 528 de Memoria Caché de Superficie incluye una memoria o almacén y el software asociado con el mismo para almacenar o guardar en una memoria caché una o más imágenes de ventanas. Una serie de ventanas activas y/o inactivas (u otros objetos de pantalla de visualización1, tal como, pantalla de visualización de escritorio) puede asociarse con cada pantalla de visualización. Una ventana activa (u otro objeto de pantalla de visualización) se despliega actualmente. Una ventana no activa (u otros objetos de pantalla de visualización) se abrieron y, en cierto tiempo, se desplegaron pero ahora no están desplegados. Para mejorar la experiencia de usuario, antes de que una ventana cambie de un estado activo a un estado inactivo, una "captura de pantalla" de por lo menos una imagen generada de la ventana (u otro objeto de pantalla de visualización) puede almacenarse. El módulo 528 de memoria caché de superficie puede operarse para almacenar un mapa de bits de la última imagen activa de una ventana (u otro objeto de pantalla de visualización) no desplegado actualmente. De este modo, el módulo 528 de memoria caché de superficie almacena las imágenes de ventanas no activas (u otros objetos de pantalla de visualización) en un almacén de datos.
En modalidades, el módulo 532 de Administración de Ventanas se puede operar para manejar las ventanas (u otros objetos de pantalla de visualización) que se encuentran activas o no se encuentran activas en cada una de las pantallas de visualización. El módulo 532 de Administración de Ventana, basándose en la información del módulo 524 de MDM, el OS 516, u otros componentes, determina cuando una ventana (u otro objeto de pantalla de visualización') es visible o no se encuentra activa. El módulo 532 de administración de ventanas entonces puede poner una ventana invisible (u otro objeto de pantalla de visualizacion) en un "estado no activo" y, junto con el módulo de Administración de Tareas, la Administración 540 de Tareas suspende la operación de la aplicación. Además, el módulo 532 de Administración de Ventanas puede asignar, a través de una interacción colaboradora con el módulo 524 de MDM, un identificador de pantalla de visualizacion de la ventana (u otro objeto de pantalla de visualizacion) , o maneja uno o más elementos adicionales de los datos asociados con la ventana (u otro objeto de pantalla de visualizacion). El módulo 532 de administración de ventanas también puede proporcionar la información almacenada a la aplicación 564, el módulo 540 de Administración de Tareas, u otros componentes que interactúan con o se asocian con la ventana (u otro objeto de pantalla de visualizacion) . El módulo 532 de Administración de Ventanas también puede asociar una tarea de entrada con una ventana basándose en el enfoque de la ventana y las coordenadas de la pantalla de visualizacion dentro del espacio de movimiento.
El módulo 536 de Administración de Entradas se puede operar para manejar eventos que se presentan con el dispositivo. Un evento es cualquier entrada en el ambiente de ventanas, por ejemplo, una interfaz de usuario que interáctúa con un usuario. El módulo 536 de Administración de Entrada recibe los eventos y almacena lógicamente los eventos en una memoria intermedia 556 de eventos. Los eventos pueden incluir interacciones de interfaz de usuario como "evento hacia abajo", el cual ocurre cuando una pantalla 104, 108 recibe una señal de toque de un usuario, un "evento de movimiento", el cual ocurre cuando la pantalla 104, 108 determina que el dedo de un usuario se mueve a través de una pantalla, un evento "hacia arriba", que ocurre cuando la pantalla 104, 108 determina que el usuario ha dejado de tocar la pantalla 104, 108, etc. Estos eventos se reciben, almacenan, y reenvían a otros módulos mediante el módulo 536 de Administración de Entrada. El módulo 536 de Administración de Entrada también puede mapear las entradas de pantalla en un espacio de movimiento que es la culminación de toda la visualización física y virtual disponible en el dispositivo.
El espacio de movimiento es un espacio virtual que incluye todas las pantallas de visualización 110, 114 sensibles al tacto "en mosaico" juntas para imitar las dimensiones físicas del dispositivo 100. Por ejemplo, cuando el dispositivo 100 se despliega, el tamaño del espacio de movimiento puede ser de 960x800, lo cual puede ser el número de píxeles en el área de pantalla de visualización combinada para pantallas de visualización 110, 114 sensibles al tacto. Si un usuario toca una primera pantalla de visualización 110 sensible al tacto en la ubicación (40, 40), una ventaría de pantalla completa puede recibir el evento de toque con la ubicación (40, 40) . Si un usuario toca la segunda pantalla de visualización 114 sensible al tacto, con la ubicación (40, 40), la ventana de pantalla completa puede recibir el evento de toque con la ubicación (520, 40), debido a que la segunda pantalla de visualización 114 sensible al tacto se encuentra en el lado derecho de la primera pantalla de visualización 110 sensible al tacto, de modo que el dispositivo 100 puede desplegar el toque por el ancho de la primera pantalla de visualización 110 sensible al tacto, el cual es de 480 pixeles. Cuando un evento de hardware ocurre con la información de ubicación de un controlador 512, el estructura 520 puede elevar la escala de la ubicación física en el espacio de movimiento debido a que la ubicación del evento puede ser diferente basándose en la orientación y estado del dispositivo. El espacio de movimiento puede ser como se describe en la Solicitud de Patente Estadounidense. No. 13/187,026, presentada el 20 de julio 2011, titulada "Sistemas y Métodos para Recibir Entradas de Gestos que Abarcan Múltiples Dispositivos de Entrada", la cual se incorpora en la presente para referencia en su totalidad' para todo lo que enseñe y para todos los propósitos. ; Una tarea puede ser una aplicación y una sub-tarea puede ser un componente de aplicación que proporciona' una ventana con la cual los usuarios pueden interactuar -para hacer algo, tal como marcar el teléfono, tomar ; una fotografía, enviar un correo electrónico, o ver un mapla . A cada tarea se le puede proporcionar una ventana en la cual modifique una interfaz de usuario. La ventana típicamente llena una pantalla de visualización (por ejemplo, la pantalla de visualización 110, 114 sensible al tacto) , pero puede ser más pequeña que la pantalla de visualización 110, 114 y flota en la parte superior de otras ventanas. Una aplicación normalmente consiste de múltiples sub-tareas que se unen libremente entre sí. Típicamente, una tarea en una aplicación se especifica como la tarea "principal", la cual se presenta al usuario cuando lanza la aplicación por primera vez. Cada tarea entonces puede establecer otra tarea o sub-tarea para realizar diferentes acciones.
El módulo 540 de Administración de Tareas se puede operar para manejar la operación de una o más aplicaciones 564 que pueden ejecutarse por el dispositivo. De esta manera, el módulo 540 de Administración de Tareas puede recibir señales para lanzar, suspender, terminar, etc., una aplicación o sub-tareas de aplicación almacenadas n el almacén 560 de aplicaciones. El módulo 540 de Administración de Tareas entonces puede iniciar una o varias tareas o sub-tareas de la aplicación 564 para comenzar la operación de la aplicación 564. Además, el Módulo 540 de Administración de Tareas puede lanzar, suspender o terminar una tarea o ; sub-tarea como resultado de la entrada de usuario o ; como resultado de una señal de un componente de estructura 520 de colaboración. El Módulo 540 de Administración de Tareas es responsable de manejar del ciclo de vida de las aplicaciones (tareas y sub-tareas) de cuando se lanza la aplicación a cuando se termina la aplicación.
El procesamiento del Módulo 540 de Administración de Tareas se facilita por una pila 552 de tareas, la cual es una estructura lógica asociada con el Módulo 540 de Administración de Tareas. La pila 552 de tarea mantiene el estado de todas las tareas y sub-tareas en el dispositivo 100. Cuando cierto componente del sistema 516 de operación requiere que una tarea o sub-tarea haga transición en SU ciclo de vida, el componente del OS 516 puede notificar al Módulo 540 de Administración de Tareas. El Módulo 540 de Administración de Tareas entonces puede localizar la tarea o sub-tarea, utilizar información de identificación, en la pila 552 de tarea, y enviar una señal a la tarea o sub-tarea indicando qué tipo de transición del ciclo de vida necesita la tarea a ejecutar. Proporcionar información de la tarea o sub-tarea de la transición, permite a la tarea o sub-tarea prepararse para la transición de estado de ciclo de vida. El Módulo 540 de Administración de Tareas entonces puede ejecutar la transición de estado para la tarea o sub-tarea. En modalidades, la transición de estado puede conllevar', a la activación del módulo central 518 del OS para terminar la tarea cuando se requiera la finalización.
Además, el módulo 540 de Administración de Tareas puede suspender la aplicación 564 basándose en la información del Módulo 532 de Administración de Ventana. Suspender la aplicación 564 puede mantener los datos de aplicación en la memoria, pero puede limitar o impedir que la aplicación 564 presente una ventana o interfaz de usuario. Una vez que la aplicación se vuelve activa nuevamente, el módulo 540 de Administración de Tareas nuevamente puede activar la aplicación para presentar su interfaz de usuario. En modalidades, si se suspende una tarea, la tarea puede guardar el estado de tarea en caso de que se termine la tarea. En el estado suspendido, la tarea de aplicación puede no recibir entrada debido a que la ventana de aplicación no es visible para el usuario.
La memoria intermedia 548 de tramas es una estructura lógica utilizada para representar la interfaz de usuario. La memoria intermedia 548 de tramas puede crearse y destruirse por el módulo central 518 del OS. Sin embargo, el Controlador 544 de Pantalla de Visualización puede escribir los datos de imagen, tras las ventanas visibles, en la memoria intermedia 548 de trama. Una memoria intermedia 548 de trama puede asociarse con una pantalla o varias pantallas. La asociación de una memoria intermedia 548 de tramas con una pantalla puede controlarse dinámicamente por interacción con el módulo central 518 de OS. Una pantalla de visualización compuesta puede crearse al asociar múltiples pantallas con una memoria intermedia 548 de tramas. Los datos gráficos utilizados para presentar una interfaz de usuario de ventana de aplicación entonces puede escribirse en una sola memoria intermedia 548 de trama, para la pantalla de visualización compuesta, la cual se produce en las múltiples pantallas 104,108. El Controlador 544 de Pantalla de Visualización puede dirigir una interfaz de usuario de una aplicación en una porción de la memoria intermedia 548 de trama que se mapea en una pantalla de visualización 110, 114 particular, de este modo, desplegando la interfaz de usuario en solo una pantalla 104 ó 108. El Controlador 544 de Pantalla de Visualización puede extender el control sobre las interfaces de usuario a múltiples aplicaciones, que controlan las interfaces de usuario para tantas pantallas de visualización que se asocien con una memoria intermedia 548 de tramas ? una porción de la misma. Este procedimiento compensa múltiples pantallas 104, 108 físicas que se encuentran en uso por el componente de software antes del Controlador 544 de Pantalla de Visualización.
El Administrador 562 de Aplicaciones es una aplicación que proporciona una capa de presentación para el ambiente de ventana. De esta manera, el Administrador 562 de Aplicaciones proporciona el modelo gráfico para presentar el Módulo 540 de Administración de Tareas. De igual manera';, el Escritorio 566 proporciona la capa de presentación para el Almacén 560 de Aplicaciones. De esta manera, el escritorio proporciona un modelo gráfico de una superficie que , tiene iconos de aplicación seleccionables para las Aplicaciones 564 en el Almacén 560 de Aplicaciones que pueden proporcionarse al Módulo 556 de Administración de Ventanas para la presentación.
Además, la estructura puede incluir un Administrador 542 de Modelo de Aplicación (AMM) . El Administrador 562 de Aplicaciones puede interconectarse con el AMM 542. En modalidades, el AMM 542 recibe la información de cambio de estado del dispositivo 100 con respecto al estado de las aplicaciones (las cuales se ejecutan o suspenden) . El AMM 542 puede asociar imágenes de mapa de bits del Módulo 538 de Memoria Caché de Superficie a las tareas que se encuentran activas (se ejecutan o se suspen'den) . Además, el AMM 542 puede convertir la pila de ventanas lógica mantenida en el Módulo 540 de Administrador de Tareas en una organización lineal ("cinta de película" o "baraja de cartas") que el usuario percibe cuando utiliza el área 120 de captura de gestos para clasificar las ventanas. Además, el AMM 542 puede proporcionar una lista de aplicaciones en ejecución al Administrador 562 de Aplicaciones.
Una modalidad del módulo 524 de MDM se muestra en la Figura 5B. El módulo 524 de MDM se puede operar ipara determinar el estado del ambiente para el dispositivo, incluyendo, pero no limitándose a, la orientación del dispositivo, si el dispositivo 100 se encuentra abierto o cerrado, que aplicaciones 564 se encuentran en ejecución, cómo se desplegarán las aplicaciones 564, qué acciones llevará a cabo el usuario, las tareas que se despliegan, etc. Para configurar la pantalla de visualización, el módulo 524 de MDM interpreta estos factores ambientales y determina una configuración de pantalla de visualización, como se describe junto con Las Figuras 6A-6J. Después, el módulo 524 de MDM puede unir las aplicaciones 564 u otros componentes de dispositivo a las pantallas de visualización. La configuración entonces puede enviarse al Controlador 544 de Pantalla de Visualización y/o a los otros componentes dentro del OS 516 para generar la pantalla de visualización. El módulo 524 de MDM puede incluir uno o más de, pero no se limita a, un Módulo 568 de Configuración de Pantalla de Visualización, un Módulo 572 de Preferencias, un Módulo 574 de Estado del Dispositivo, un Módulo 576 de Gesto, un Módulo 580 de Requisitos, un Módulo 584 de Eventos y/o un Módulo 588 de Unión.
El Módulo 568 de Configuración de Pantalla de Visualización determina el esquema para la pantalla de visualización. En modalidades, el Módulo 568 de Configuración de Pantalla de Visualización puede determinar los factores ambientales. Los factores ambientales pueden recibirse desde uno o más módulos 524 de MDM adicionales o de otras fuentes. El Módulo 568 de Configuración de Pantalla de Visualización entonces puede determinar a partir de la lista de factores la mejor configuración para la pantalla de visualización. Algunas modalidades de las configuraciones posibles y los factores asociados con la misma se describen junto con las Figuras 6A-6F.
El Módulo 572 de Preferencias se puede operar para determinar las preferencias de pantalla de visualización para una aplicación 564 u otro componente. Por ejemplo, una aplicación puede tener una preferencia de pantalla de visualización Sencilla o Doble. El Módulo 572 de Preferencia puede determinar la preferencia de pantalla de visualización de una aplicación (por ejemplo, al inspeccionar los ajustes de preferencia de la aplicación) y puede permitir qué las aplicaciones 564 cambien a un modo (por ejemplo, pantalla sencilla, pantalla doble, máxima, etc.) si el dispositivo 100 se encuentra en un estado que puede acomodar el ¦ modo preferido. Sin embargo, algunas políticas de interfaz de usuario pueden deshabilitar un modo incluso si el modo se encuentra disponible. Conforme la configuración ', del dispositivo cambia, las preferencias pueden revisarse para determinar si puede obtenerse una mejor configuración de pantalla de visualización para una aplicación 564. · El Módulo 574 de Estado del Dispositivo se puede operar para determinar o recibir el estado del dispositivo. El estado del dispositivo puede ser como se describe junto con las Figuras 3A y 3B. El estado del dispositivo puede utilizarse por el Módulo 568 de Configuración de Pantalla de Visualización para determinar la configuración para la pantalla de visualización. Como tal, el Módulo 574 de Estado del Dispositivo puede recibir entradas e interpretar el estado del dispositivo. La información de estado entonces se proporciona al Módulo 568 de Configuración de Pantalla de Visualización.
El Módulo 576 de Gestos se muestra como parte del módulo 524 de MDM, pero en modalidades, el módulo 576 de Gestos puede ser un componente separado de Estructura 520 que se separa del módulo 524 de MDM. En modalidades, el Módulo 576 de Gestos se puede operar para determinar si el usuario lleva a cabo cualquier acción en cualquier parte de la interfaz de usuario. En modalidades alternativas, el Módulo 576 de Gestos recibe las acciones de interfaz de usuario del área 112, 116 configurables solamente. El Módulo 576 de Gestos puede recibir eventos de toque que ocurren en el área 112, 116 configurable (o posiblemente otras áreas de interfaz de usuario) por medio del Módulo 536 de Administración de Entrada y puede interpretar los eventos de toque (utilizando dirección, velocidad, distancia, duración y otros diversos parámetros) para determinar qué tipo de gesto realiza el usuario. Cuando se interpreta un gesto, el Módulo 576 de Gesto puede iniciar el procesamiento del gesto y, al colaborar con otros componentes de la Estructura 520, puede manejar la animación de ventana requerida. El Módulo 576 de Gesto colabora con el Administrador 452 de Modelo de Aplicación para reunir la información de estado con respecto a qué aplicaciones se ejecutan (activas o en pausa) y el orden en el cual deben aparecer las aplicaciones cuando se realiza un gesto de usuario. El Módulo 576 de Gesto también puede recibir referencias a mapas de bits (desde el Módulo 528 de Memoria Caché de Superficie) y las ventanas activas para que cuando ocurra un gesto pueda instruir al Controlador 544 de Pantalla de Visualización cómo mover las ventanas a través de la pantalla de visualización 110,114. De esta manera, aplicaciones suspendidas pueden operar : para ejecutarse cuando estas ventanas se muevan a través de la pantalla de visualización 110, 114.
Además, el Módulo 576 de Gestos puede recibir información de tarea del Módulo 540 de Administración de Tareas o el módulo 536 de Administración de Entrada: Los gestos pueden ser como se define junto con las Figuras 4A a 4H. Por ejemplo, mover una ventana provoca que la pantalla de visualización presente una serie de cuadros de pantalla de visualización que ilustran el movimiento de la ventana. El gesto asociado con cada interacción de interfaz de usuario puede recibirse e interpretarse por el Módulo 576 de Gestos. La información sobre gesto de usuario entonces se envía al Módulo 540 de Administración de Tareas para modificar la pantalla de visualizacion que enlaza la tarea.
El Módulo 580 de Requisitos, similar al Módulo 572 de Preferencias, se puede operar para determinar los requisitos de pantalla de visualizacion para una aplicación 564 u otro componente. Una aplicación puede tener un requisito de pantalla de visualizacion establecido que debe respetarse. Algunas aplicaciones requieren una orientación de pantalla de visualizacion particular. Por ejemplo, la aplicación "Angry Birds", sólo puede desplegarse en una orientación horizontal. Este tipo de requisito de pantalla de visualizacion puede determinarse o recibirse, por el Módulo 580 de Requisitos. Cuando la orientación del dispositivo cambia, el Módulo 580 de Requisitos puede reafirmar los requisitos de pantalla de visualizacion para la aplicación 564. El Módulo 568 de Configuración de pantalla de visualizacion puede generar una configuración de pantalla de visualizacion que es de acuerdo con los requisitos de pantalla de visualizacion de aplicación, como se proporciona por el Módulo 580 de Requisitos.
El Módulo 584 de Eventos, similar al Módulo 576 de Gesto, se puede operar para determinar uno o más eventos que ocurren con una aplicación u otro componente que puede afectar la interfaz de usuario. De esta manera, el Módulo 584 de Eventos puede recibir información de eventos ya sea desde la memoria intermedia 556 de eventos o el módulo 540 de Administración de Tareas. Estos eventos pueden cambiar cómo pueden enlazarse las tareas a las pantallas de visualización. El Módulo 584 de Eventos puede reunir la información de cambio de estado de otros componentes de Estructura 520 y actuar sobre esa información de cambio de estado. En un ejemplo, cuando una aplicación de correo electrónico que recibe un correo electrónico puede provocar que la pantalla de visualización presente el nuevo mensaje en una pantalla secundaria. Los eventos asociados con tal ejecución de aplicación pueden recibirse e interpretarse por el Módulo 584 de Eventos. La información sobre los eventos entonces puede enviarse al Módulo 568 de Configuración de Pantalla de Visualización para modificar la configuración de la pantalla de visualización.
El Módulo 588 de Unión se puede operar para : unir las aplicaciones 564 o los otros componentes a; la configuración determinada por el Módulo 568 de Configuración de Pantalla de Visualización. Una unión asocia, en la memoria, la configuración de pantalla de visualización para cada aplicación con la pantalla de visualización y el modo de la aplicación. De esta manera, el Módulo 588 de Unión puede asociar una aplicación a una configuración de pantalla de visualización para la aplicación (por ejemplo, horizontal, vertical, de varias pantallas, etc.) Después, el Módulo 588 de Unión puede asignar un identificador de pantalla de visualización a la pantalla de visualización. El identificador de pantalla de visualización asocia la aplicación con una pantalla de visualización particular del dispositivo 100. Esta unión es entonces almacenada y proporcionada al Controlador 544 de Pantalla de Visualización, los otros componentes del OS 516, u otros componentes para presentar adecuadamente la pantalla de visualización. La unión es dinámica y puede cambiar o actualizarse basándose en los cambios de configuración asociados con eventos, gestos, cambios de estado, preferencias de aplicación o requisitos, etc.
Configuraciones de Interfaz de Usuario: : Con referencia ahora a las Figuras 6A-J, varios tipos de configuraciones de salida que se hacen posible por el dispositivo 100 se describirán más adelante.
Las Figuras 6A y 6B representan dos diferentes configuraciones de salida del dispositivo 100 que se encuentra en un primer estado. Específicamente, la Figura 6A representa el dispositivo 100 que se encuentra en un estado 304 vertical cerrado donde los datos se despliegan én la pantalla 104 primaria. En este ejemplo, el dispositivo 100 despliega los datos mediante la pantalla de visualizacion 110 sensible al tacto en una primera configuración 604 vertical. Como puede apreciarse, la primera configuración 604 vertical puede desplegar un escritorio o pantalla de inicio de sistema operativo. Alternativamente, una o más ventanas pueden presentarse en una orientación vertical mientras el dispositivo 100 despliega datos en la primera configuración 604 vertical.
La Figura 6B representa el dispositivo 100 que se encuentra aún en el estado 304 vertical cerrado, pero en su lugar los datos se despliegan en la pantalla 108 secundaria. En este ejemplo, el dispositivo 100 despliega los datos mediante la pantalla de visualizacion 114 sensible al tacto en una segunda configuración .608 vertical .
Puede ser posible desplegar datos similares o diferentes, en cualquier de la primera o segunda configuraciones 604, 608 verticales. También puede; ser posible hacer transición entre la primera configuración 604 vertical y la segunda configuración 608 vertical al proporcionar al dispositivo 100 un gesto de usuario (por ejemplo, un gesto de doble toque), una selección de menú, u otros medios. Otros gestos adecuados también pueden emplearse para hacer transición entre configuraciones. Además, también puede ser posible hacer transición del dispositivo 100 ele la primera o segunda configuraciones 604, 608 vertical a cualquier otra configuración descrita en la presente dependiendo de en qué estado se mueva el dispositivo 100.
Una configuración de salida alternativa pueda acomodarse por el dispositivo 100 que se encuentra en un segundo estado. Específicamente, la Figura 6C representa una tercera configuración vertical donde los datos se despliegan simultáneamente en la pantalla 104 primaria y la pantalla 108 secundaria. La tercera configuración vertical puede denominarse como configuración de salida de Doble Vertical (PD) . En la configuración de salida de PD, la pantalla de visualización 110 sensible al tacto de la pantalla 104 primaria representa datos en la primera configuración 604 vertical mientras la pantalla de visualización 114 sensible al tacto de la pantalla 108 secundaria representa datos 'en la segunda configuración 608 vertical. La presentación simultánea de la primera configuración 604 vertical : y la segunda configuración 608 vertical puede ocurrir cuando el dispositivo 100 se encuentra en un estado 320 vertical abierto. En esta configuración, el dispositivo 100 puede desplegar una ventana de aplicación en una pantalla de visualización 110 ó 114, dos ventanas de aplicación (una en cada pantalla de visualización 110 y 114), una ventana de aplicación y un escritorio, o un escritorio. Otras configuraciones pueden ser posibles. Debe apreciarse que también puede ser posible hacer transición del dispositivo 100 de la pantalla de visualización simultánea de configuraciones 604, 608 a cualquier otra configuración descrita en la presente dependiendo de en qué estado se mueva el dispositivo 100. Además, aunque se encuentre en este estado, una preferencia de pantalla de visualización de aplicación puede colocar el dispositivo en un modo bilateral, en el cual las pantallas de visualización se encuentran activas para desplegar diferentes ventanas en la misma aplicación. Por ejemplo, una aplicación de cámara puede desplegar un visor y controles en un lado, mientras que el otro lado despliega una pre-visuali zación reflejada que puede verse por los objetos a fotografiar. Los juegos que involucran un juego simultáneo por dos jugadores también pueden aprovechar el modo bilateral.
Las Figuras 6D y 6E representan dos configuraciones de salida adicionales del dispositivo 100 que se encuentra en un tercer estado. Específicamente, la Figura 6D representa el dispositivo 100 que se muestra en un estado 340 horizontal cerrado donde los datos se despliegan en la pantalla 104 primaria. En este ejemplo, el dispositivo 100 despliega datos mediante la pantalla de visualización 110 sensible al tacto en una primera configuración 612 horizontal. Muy similar a las otras configuraciones descritas en la presente,; la primera configuración 612 horizontal puede desplegar un escritorio, una pantalla de inicio, una o más ventanas que despliegan datos de aplicación, o similares.
La Figura 6E representa el dispositivo 100 que aún se encuentra en el estado 340 horizontal cerrado, pero en su lugar los datos se despliegan en la pantalla 108 secundaria. En este ejemplo, el dispositivo 100 despliega datos mediante la pantalla de visualización 114 sensible al tacto en una segunda configuración 616 horizontal. Puede ser posible desplegar datos similares o diferentes en la primera o segunda configuraciones 612, 616 vertical. También puede ser posible hacer transición entre la primera configuración 612 horizontal y la segunda configuración 616 horizontal al proporcionar el dispositivo 100 con uno o ambos de un gesto de torsión y toque o un gesto de voltear y deslizar. Otros gestos posibles también pueden emplearse para ser transición entre configuraciones. Además, también puede ser posible hacer transición del dispositivo 100 de la primera o ségunda configuración 612, 616 horizontal a cualquier . otra configuración descrita en la presente dependiendo de en qué estado se mueva el dispositivo 100.
La Figura 6F representa una tercera configuración horizontal donde los datos se despliegan simultáneamente en la pantalla 104 primaria y la pantalla 108 secundaria. La tercera configuración horizontal puede denominarse como configuración de salida de doble horizontal (LD) . En la configuración de salida de LD, la pantalla de visualización 110 sensible al tacto de la pantalla de visualización 104 primaria representa datos en la primera configuración 612 horizontal mientras la pantalla de visualización 114 sensible al tacto de la pantalla 108 secundaria representa datos en la segunda configuración 616 horizontal. La presentación simultánea de la primera configuración 612 horizontal y la segunda configuración 616 horizontal puede ocurrir cuando el dispositivo 100 se encuentra en ' un estado 340 horizontal abierto. Debe apreciarse que también puede ser posible hacer transición del dispositivo 100 de la pantalla de visualización simultánea de las configuraciones 612, 616 a cualquier otra configuración descrita en la presente dependiendo de en qué estado se mueva el dispositivo 100.
Las Figuras 6G y 6H representan dos vistas de un dispositivo 100 que se encuentra en aún otro estado. Específicamente, el dispositivo 100 se representa : como encontrándose en un estado 312 de atril. La Figura 6G muestra que una primera configuración 618 de salida de atril puede desplegarse en la pantalla de visualización 110 sensible al tacto. La Figura 6H muestra que una segunda configuración 620 de salida de atril puede desplegarse en la pantalla de visualización 114 sensible al tacto. El dispositivo 100 puede configurarse para representar la primera configuración 618 de salida de atril o la segunda configuración 620 de salida de atril individualmente. Alternativamente, ambas configuraciones 618, 620 de salida de atril pueden presentarse simultáneamente. En algunas modalidades, las configuraciones 618, 620 de salida de atril pueden ser similares o idénticas a las configuraciones 612, 616 de salida horizontal. El dispositivo 100 también puede configurarse para desplegar una o ambas de las configuraciones 618, 620 de salida de atril, mientras se encuentra en un estado 316 de atril modificado. Debe apreciarse que la utilización simultánea de las configuraciones 618, 620 de salida de atril pueden facilitar juegos para dos personas (por ejemplo, Battleship®, ajedrez, juego de damas, etc.), conferencias de varios usuarios donde dos o más usuarios comparten el mismo dispositivo 100, y otras aplicaciones. Gomo puede apreciarse, también puede ser posible hacer transición del dispositivo 100 de la pantalla de visualización de una o ambas configuraciones 618, 620 a cualquier otra configuración descrita en la presente dependiendo de en qué estado se mueva el dispositivo 100.' La Figura 61 representa otra configuración de salida que puede acomodarse mientras que el dispositivo 100 se encuentra en un estado 320 vertical abierto. Específicamente, el dispositivo 100 puede configurarse para presentar una imagen continua simple a través de¦ las pantallas de visualización 110, 114 sensibles al tacto en una configuración vertical denominada en la presente jcomo configuración 624 vertical máximo (Pmax). En esta configuración, los datos (por ejemplo, una sola imagen, aplicación, ventana, icono, video, etc.) pueden dividirse y desplegarse parcialmente en una de las pantallas de visualización sensibles al tacto, mientras la otra porción de los datos se despliega en la otra pantalla de visualización sensible al tacto. La configuración 624 Pmax puede facilitar una pantalla de visualización más grande y/o una mejor resolución para desplegar una imagen particular en el dispositivo 100. Similar a otras configuraciones de salida, puede ser posible hacer transición del dispositivo 100 de la configuración 624 Pmax a cualquier otra configuración de salida descrita en la presente dependiendo de en qué estado se mueva el dispositivo 100.
La Figura 6J representa aún otra configuración de salida que puede acomodarse mientras que el dispositivo 100 se encuentra en un estado 348 horizontal abierto. Específicamente, el dispositivo 100 puede configurarse para presentar una sola imagen continua a través de ambas pantallas de visualización 110, 114 sensibles al tacto en una configuración horizontal denominada en la presente como configuración 628 Horizontal Máxima (Lmax) . En ¦ esta configuración, los datos (por ejemplo, una sola imagen, aplicación, ventana, icono, video, etc.) pueden dividirse y desplegarse parcialmente en una o ambas pantallas de visualización sensibles al tacto, mientras que la otra porción de los datos se despliega en la otra pantalla de visualización sensible al tacto. La configuración 628 Lmax puede facilitar una pantalla de visualización más grande y/o una mejor resolución para desplegar una imagen particular en el dispositivo 100. Similar a las otras configuraciones de salida, puede ser posible hacer transición del dispositivo 100 desde la configuración 628 Lmax a cualquier otra configuración de salida descrita en la presente dependiendo de en qué estado se mueva el dispositivo 100.
El dispositivo 100 maneja los escritorios y/o ventanas con por lo menos una pila 700, 728 de ventanas como se muestra en las Figuras 7A y 7B. Una pila 700, 728 de ventanas es una disposición lógica de ventanas activas y/o inactivas...: para un dispositivo de varias pantallas. ' Por ejemplo, la pila 700 o 728 de ventanas puede ser lógica-mente similar a una baraja de cartas, en donde una o más ventanas o escritorios se disponen en orden, como se muestra en las Figuras 7A y 7B. Una ventana activa es una ventana que actualmente se despliega en por lo menos una de las pantallas de visualización 110, 114 sensibles al tacto. Por ejemplo, las ventanas desplegadas en las pantallas de visualización 104 y 108 sensibles al tacto son ventanas activas. Una ventana inactiva es una ventana que se abrió y se desplegó pero ahora se encuentra "detrás" de una ventana activa y no se despliega. En modalidades, una ventana inactiva puede ser una aplicación que se suspende, y de este modo, la ventana no despliega contenido activo. Por ejemplo, las ventanas 712, 716, 720 y 724 (Figura 7A) son ventanas inactivas.
Una pila 700, 728 de ventanas puede tener varias disposiciones o estructuras organizacionales . En la modalidad mostrada en la Figura 7A, el dispositivo 100 incluye una primera pila 760 asociada con la primera pantalla de visualización 110 sensible al tacto y una segunda pila 764 asociada con la segunda pantalla de visualización 114 sensible al tacto. De esta manera, cada pantalla de visualización 110 y 114 sensible al tacto puede tener una pila 760, 764 de ventanas asociada y respectiva. Estas dos pilas 760, 764 de ventanas pueden tener diferentes números de ventanas dispuestas en las pilas 760, 764 respectivas. Además, las dos pilas 760, 764 de ventanas también pueden identificarse de manera diferente y manejarse por separado. De esta manera, la primera pila 760 de ventanas ipuede disponerse en orden desde una primera ventana 704 hasta una siguiente ventana 720 hasta una última ventana 724 y finalmente a un escritorio 722, el cual, en modalidades, se encuentra en el "fondo" de la pila 760 de ventanas. En modalidades, el escritorio 722 no siempre se encuentra en el "fondo", puesto que las ventanas de aplicación pjaeden disponerse en la pila de ventanas bajo el escritorio 722, y el escritorio 722 puede ponerse en la "parte superior" de una pila sobre otras ventanas como resultado de realizar una operación de revelación de escritorio. De igual manera, la segunda pila 764 puede disponerse desde una primera ventana 708 hasta una siguiente ventana 712 hasta la última ventana 716, y finalmente a un escrito 718, el cual, en modalidades, es un área de un solo escritorio, con el escritorio 722, bajo todas las ventanas en la pila 760 de ventanas y la pila 764 de ventanas. Una estructura de datos lógica para manejar dos pilas 760, 764 de ventanas puede ser como se describe junto con la Figura 8, a continuación.
Otra disposición para una pila 728 de ventanas se muestra en la Figura 7B. En esta modalidad, existe una- sola pila 728 de ventanas para ambas pantallas de visualización 110, 114 sensibles al tacto. De esta manera, la pila 728 de ventanas se dispone desde un escritorio 758 hasta una primera ventana 744 hasta una última ventana 756. Una ventana puede disponerse en una posición entre todas las ventanas sin una asociación con una pantalla de visualización 110, 114 sensible al tacto especifica. En esta modalidad, cada ventana se encuentra en el orden de ventanas. Además, por lo menos una ventana se identifica como siendo activa. Por ejemplo, una sola ventana puede presentarse en dos porciones 732 y 736 que se despliegan, respectivamente, en la primera pantalla 110 sensible al tacto y la segunda pantalla 114 sensible al tacto. La ventana sencilla sólo puede ocupar una sola posición en la pila 728 de ventanas aunque se desplieguen ambas pantallas de visualización 110, 114.
Aún otra disposición de una pila 760 de ventanas se muestra en las Figuras 7C a 7E. La pila 760 de ventanas se muestra en tres vistas en "elevación". En la Figura 7C, la parte superior de la pila 760 de ventanas se muestra. Dos lados de la pila 760 de ventanas se muestran en las Figuras 7D y 7E. En esta modalidad, la pila 760 de ventanas se parece a una pila de mosaicos. Las ventanas se apilan una sobre otra. Viendo desde la parte superior de la pila 760 de ventanas en la Figura 7C, sólo las ventanas que se encuentran en la parte superior en la pila 760 de ventanas se muestran en diferentes porciones de la .pantalla de visualización 764 compuesta. La pantalla de visualización 764 compuesta representa un modelo lógico para toda el área de pantalla de visualización del dispositivo 100, la cual puede incluir la pantalla de visualización 110 sensible al tacto y la pantalla de visualización 114 sensible al tacto. Un escritorio' 786 (Figuras 7D y 7E) o una ventana pueden ocupar parte o toda la pantalla de visualización 764 compuesta.
En la modalidad mostrada, el escritorio 786 es la pantalla de visualización más baja o "mosaico" en la pila 760 de ventanas. Con esto, la ventana 1 782, la ventana 2 782, la ventana 3 768, y la ventana 4 770 se estratifican. La ventana 1 782, la ventana 3 768, la ventana 2 782, y la ventana 4 770 sólo ocupan una porción de la pantalla de visualización 764 compuesta. De esta manera, otra parte de la pila 760 incluye las ventanas 8 774 y las ventanas 5 a 7 mostradas en la sección 790. Sólo la ventana superior en cualquier porción de la pantalla de visualización 764 compuesta realmente se presenta y despliega. De esta manera, como se muestra en la vista superior en la Figura 7C, la ventana 4 770, la ventana 8 774, y la ventana 3 768 se despliegan como encontrándose en la parte superior de la pantalla de visualización en diferentes porciones de la pila 760 de ventanas. Una ventana puede dimensionarse para ocupar sólo una porción de la pantalla de visualización 760 compuesta para "revelar" las ventanas bajo la pila 760 de ventanas. Por ejemplo, la ventana 3 768 se encuentra más abajo en la pila que la ventana 4 770 y la ventana 8 774, pero aún se despliega. Una estructura de datos lógica para manejar la pila de ventanas puede ser como se describe junto con la Figura 8.
Cuando se abre una nueva ventana en el dispositivo 100, la ventana recién activada generalmente se coloca en la parte superior de la pila. Sin embargo, dónde y cómo la ventana se coloque dentro de la pila puede ser una función de la orientación del dispositivo 100, el contexto de: qué programas, funciones, software, etc., se ejecutan en el dispositivo 100, de cómo la pila se coloque cuando se j abra una nueva ventana, etc. Para insertar la ventana en la pila, la posición en la pila para la ventana se determina y la pantalla de visualización 110, 114 sensible al tacto a la cual se asocia la ventana también puede determinarse. Con esta información, una estructura de datos lógica para la ventana puede crearse y almacenarse. Cuando la interfaz de usuario u otros eventos o tareas cambian la disposición de las ventanas, las pilas de ventanas pueden cambiarse para reflejar el cambio en la disposición. Debe observarse que estos mismos conceptos descritos en lo anterior pueden utilizar para manejar uno o más escritorios para el dispositivo 100.
Una estructura 800 de datos lógica para manejar la disposición de ventanas o escritorios en una pila de ventanas se muestra en la Figura 8. La estructura 800 de datos lógica puede ser cualquier estructura de datos utilizada [ para almacenar datos ya sea un objeto, registro, archivo, et'c. La estructura 800 de datos lógica puede almacenarse en cualquier tipo de base de datos o sistema de almacenamiento de datos, sin importar el protocolo o estándar. En modalidades, la estructura 800 de datos lógica incluye una o más porciones, campos, atributos, etc., que almacenan los datos en una disposición lógica que permite fácil almacenamiento y recuperación de la información. Después de esto, estas porciones, campos, atributos, etc., deben describirse simplemente como campos. Los campos pueden almacenar datos para un identificador 804 de ventanas, dimensiones 808, un identificador 812 de posición de pila, un identificador 816 de pantalla de visualización y/o un indicador 820 activo. Cada ventana en una pila de ventanas puede tener una estructura 800 de datos lógica asociada. Aunque sólo una estructura 800 de datos lógica simple se muestra en la Figura 8, pueden existir más o menos estructuras 800 de datos lógicas utilizadas con una pila de ventanas (basándose en el número de ventanas o escritorios en la pila) , como se representa por las elipses 824. Además, pueden existir más o menos campos de aquellos mostrados en la Figura 8, como se representa por las elipses 828.
Un identificador 804 de ventanas puede incluir cualquier identificador (ID) que identifique únicamente la ventana asociada con respecto a otras ventanas de la pila de ventanas. El identificador 804 de ventanas puede ser un identificador globalmente único (GUID) , un ID numérico, un ID alfanumérico u otro tipo de identificador . En modalidades, el identificador 804 de ventanas puede ser uno, dos, o cualquier número de dígitos basados en el número de ventanas que puedan abrirse. En modalidades alternativas, el tamaño : del identificador 804 de ventanas puede cambiar basándose en el número de ventanas abiertas. Aunque la ventana se abra el identificador 804 de ventanas puede ser estático y permanecer sin cambios.
Las dimensiones 808 pueden incluir dimensiones para una ventana en la pantalla de visualización 760 compuesta. Por ejemplo, las dimensiones 808 pueden incluir coordenadas para dos o más esquinas de la ventana o pueden incluir una coordenada y dimensiones para el ancho y altura de la ventana. Estas dimensiones 808 pueden delinear qué porción de la pantalla de visualización 760 compuesta puede ocupar la„ ventana, la cual puede ser toda la pantalla de visualización 760 compuesta o sólo parte de la pantalla de visualización 760 compuesta. Por ejemplo, la ventana 4 770 puede tener dimensiones 880 que indican que la ventana 4 770 ocupará sólo parte del área de pantalla de visualización para la pantalla de visualización 760 compuesta, como se muestra en las Figuras 7c a 7E. Conforme se mueven las ventanas o se insertan en la pila de ventanas, las dimensiones 808 pueden cambiar.
Un identificador 812 de posición de pila puede ser cualquier identificador que puede identificar la posición en la pila para la ventana o puede inferirse a partir del registro de control de la ventana dentro de una estructura de datos, tal como una lista o una pila. El identificador 8,12 de posición de pila puede ser un GUID, un ID numérico, un ID alfanumérico, u otro tipo de identificador . Cada ventana o escritorio puede incluir un identificador 812 de posición de pila. Por ejemplo, como se muestra en la Figura 7A, la ventana 1 704 en la pila 1 760 puede tener un identificador 812 de posición de pila de 1 que identifica que la ventana 704 es la primera ventana en la pila 760 y la ventana activa. De manera similar, la ventana 6 724 puede tener un identificador 812 de posición de pila de 3 que representa que la ventana 724 es la tercera ventana en la pila 760. La ventana 2 708 también puede tener un identificador 812 de posición de pila de 1 que representa que la ventana 708 es la primera ventana en la segunda pila 764. Sin embargo, en la Figura 7B, se proporciona una numeración de ventanas de posición de pila alternativa, es decir, la ventana 1 744 puede tener un identificador 812 de posición de pila de 1, la ventana 3, presentada en porciones 732 y 736, puede tener un identificador 812 de posición de pila de 3, y la ventana 6 756 puede tener un identificador 812 de posición de pila de 6. De esta manera, dependiendo del tipo de pila, el identificador 812 de posición de pila puede representar la ubicación de una ventana en la pila.
Un identificador 816 de pantalla de visualización puede identificar que la ventana o escritorio se asocia con una pantalla de visualización particular, tal como la primera pantalla de visualización 110 o la segunda pantalla de visualización 114, o la pantalla de visualización; 760 compuesta, compuesta de ambas pantallas de visualización.
Aunque este identificador 816 de pantalla de visualización puede no necesitarse para un sistema de varias pilas, como se muestra en la Figura 7A, el identificador 816 de pantalla de visualización puede indicar si una ventana en la pila serial de la Figura 7B se despliega en una pantalla de visualización particular. De esta manera, la ventana 3 puede tener dos porciones 732 y 736 en la Figura 7B. La primera porción 732 puede tener un ident ificador 816 de pantalla de visualización para la primera pantalla de visualización, mientras la segunda porción 736 puede tener un identificador 816 de pantalla de visualización para la segunda pantalla de visualización 114. Sin embargo, en modalidades alternativas, la ventana puede tener dos identificadores 816 de pantalla de visualización que representan que la ventana se despliega en ambas de las pantallas de visualización 110, 114, o un identificador 816 de pantalla de visualización que identifica la pantalla de visualización compuesta. En otra modalidad alternativa, la ventana puede tener un identificador 816 de pantalla de visualización sencilla para representar que la ventana se despliega en ambas de las pantallas de visualización 110, 114. ': Similar al identificador 816 de pantalla de visualización, un indicador 820 activo puede no necesitarse con el sistema de doble pila de la Figura 7A, ya qué la ventana en la posición 1 de pila se encuentra activa se despliega. En el sistema de la Figura 7B, el indicador 820 activo puede indicar cuál de las ventanas en la pila se despliega. De esta manera, la ventana 3 puede tener dos porciones 732 y 736 en la Figura 7B. La primera porción 732 puede tener un indicador 820 activo mientras que la segunda porción 736 también puede tener un indicador 820 activo. Sin embargo, en modalidades alternativas, la ventana 3 puede tener un indicador 820 activo sencillo. El indicador 820 activo puede ser un indicador simple o bit que representa que la ventana se encuentra activa o se despliega.
Una modalidad de un método 900 para crear una pila de ventanas se muestra en la Figura 9. Aunque se muestra en la Figura 9 una orden general para las etapas del método 900. Generalmente, el método 900 inicia con una operación 904 de inicio y finaliza con una operación 928 de finalización. El método 900 puede incluir más o menos etapas o puede disponer el orden de las etapas de manera diferente de aquellas mostradas en la Figura 9. El método 900 puede ejecutarse¦ como un conjunto de instrucciones ejecutables por computadora ejecutadas por un sistema de computadora y codificarse o almacenarse en un medio legible por computadora. Después de esto, el método 900 se explicará con referencia a ', los sistemas, componentes, módulos, software, estructuras de datos, interfaces de usuario, etc., descritos junto con: las Figuras 1-8. : Un dispositivo 100 de varias pantallas puede recibir activación de una ventana, en la etapa 908. En modalidades, el dispositivo 100 de varias pantallas puede recibir activación de una ventana al recibir una entrada de la pantalla de visualización 110 ó 114 sensible al tacto, el área 112 ó 116 configurable, una región 120 ó 124 de captura de gestos, o algún otro sensor de hardware que puede operar para recibir entradas de interfaz de usuario. El procesador puede ejecutar el Módulo 540 de Administración de Tareas (Figura 5A) para recibir la entrada. El Módulo 540 de Administración de Tareas puede interpretar la entrada como solicitando que una tarea de aplicación se ejecute que abrirá una ventana en la pila de ventanas.
En modalidades, el Módulo 540 de Administración de Tareas pone la interacción de la interfaz de usuario en la pila 552 de tareas (Figura 5A) que se pone en práctica por el Módulo 568 de Configuración de Pantalla de Visualización (Figura 5B) del Módulo 524 de Administración de Varias Pantallas de Visualización (Figuras 5A, Figura 5B) . Además, el Módulo 540 de Administración de Tareas espera que la información del Módulo 524 de Administración de Varias Pantallas de Visualización envíe instrucciones al Módulo 532 de Administración de Ventanas para crear la ventana en la pila de ventanas.
El Módulo 524 de Administración de Varias Pantallas de Visualizacion, tras recibir la instrucción del Módulo 540 de Administración de Tareas, determina a cuál porción táctil de la pantalla de visualizacion 760 compuesta, debe asociarse la ventana recién activada, en la etapa 912. Por ejemplo, la ventana 4 770 se asocia con la pantalla de visualizacion 764 compuesta (Figura 7A) . En modalidades, . el módulo 574 de estado de dispositivo (Figura 5B) del Módulo 524 de Administración de Varias Pantallas de Visualizacion puede determinar cómo se orienta el dispositivo o en qué estado se encuentra el dispositivo, por ejemplo, abierto, cerrado, vertical, etc. Además, el módulo 572 de preferencias (Figura 5B) y/o el módulo 580 de requisitos (Figura 5B) pueden determinar cómo se desplegará la ventana. El módulo 576 de gesto (Figura 5B) puede determinar las intenciones del usuario sobre cómo se abrirá la ventana basándose en el tipo de gestos y la ubicación de donde se hace el gesto.
El Módulo 568 de Configuración de Pantalla de Visualizacion (Figura 5B) puede utilizar la entrada de estos módulos y evaluar la pila 760 de ventanas actual : para determinar el mejor lugar y las mejores dimensiones, basándose en un algoritmo de visibilidad, para abrir la ventana. De esta manera, el Módulo 568 de Configuración de Pantalla de Visualizacion determina el mejor lugar para poner la ventana en la parte superior de la pila' 760 de ventanas, en la etapa 916. El algoritmo de visibilidad, en modalidades, determina para todas las porciones de la pantalla de visualización compuesta, qué ventanas se encuentran en la parte superior de la pila. Por ejemplo, el algoritmo de visibilidad determina que la ventana 3 768, ventana 4 770, y ventana 8 774 se encuentran en la parte superior de la pila 760 como se ve en las Figuras 7C a 7E. Para determinar dónde abrirá la ventana, el Módulo 568 de Configuración de Pantalla de Visualización puede asignar un identificador 816 de pantalla de visualización y posiblemente las dimensiones 808 para la ventana. El identificador 816 de pantalla de visualización y las dimensiones 808 entonces pueden reenviarse al Módulo 540 de Administración de Tareas. El Módulo 540 de Administración de Tareas , entonces puede asignar la ventana a un identificador 812 de posición de pila que indica la posición de la ventana en la parte superior de la pila de ventanas. ; En modalidades, el Módulo 540 de Administración de Tareas envía la información de pila de ventanas y: las instrucciones para presentar la ventana en el Módulo 532 de Administración de Ventanas (Figura 5A) . El Módulo 532 de Administración de Ventanas y el Módulo 540 de Administración de Tareas (Figura 5A) pueden crear la estructura 800 de datos lógica, en la etapa 924. Tanto el Módulo 540 de Administración de Tareas como el Módulo 532 de Administración de Ventanas pueden crear y manejar copias de la pila de ventanas. Estas copias de la pila de ventanas pueden sincronizarse o mantenerse similares a través de comunicación entre el Módulo 532 de Administración de Ventanas y el Módulo 540 de Administración de Tareas. De esta manera, el Módulo 532 de Administración de Ventanas y el Módulo 540 de Administración de Tareas, basándose en la información determinada por el Módulo 524 de Administración de Varias Pantallas de Visualización, pueden asignar las dimensiones 808, un identificador 812 de posición de pila (por ejemplo, la ventana 1 782, ventana 4 770, etc.), un identificador 816 de pantalla de visualización (por ejemplo, pantalla de visualización 1 110 sensible al tacto, pantalla de visualización 2 114 sensible al tacto, identificador de pantalla de visualización compuesta, etc.), y un indicador 820 activo, el cual generalmente siempre se establece cuando la ventana se encuentra en la "parte superior" de la pila. La estructura 800 de datos lógica entonces puede almacenarse por el Módulo 532 de Administración de Ventanas y el Módulo 540 de Administración de Tareas. Además, el Módulo 532 de Administración de Ventanas y el Módulo 540 de Administración de Tareas pueden manejar después de esto la pila de ventanas y la estructura 800 de datos lógica.
En por lo menos una modalidad del dispositivo1 100, el MDM 524 (y su Módulo 576 de Gesto) se puede operar : para interpretar gestos en las áreas 120 y 124 de captura de gestos de modo que puedan utilizarse para manipular las ventanas de aplicación, por ejemplo, para minimizar, maximizar, y mover las ventanas de aplicación entre las pantallas de visualizacion 110 y 114, asi como para reorganizar las ventanas de aplicación en la pila de ventanas, para activar una ventana de aplicación a través de múltiples pantallas de visualizacion de pantalla, y/o reducir una ventana de aplicación en una pantalla de visualizacion de una sola pantalla que actualmente se despliega a través de las pantallas de visualizacion 110 y 144. Sin embargo, en varias modalidades, la entrada de gesto de usuario en las áreas 120 y 124 de captura de gestos no se utiliza para manipular escritorios desplegados. Con referencia a la Figura 10A, suponiendo que el gesto 404 de deslizamiento y el gesto 400 de arrastre actualmente se realizan en, por ejemplo, el área 124 de captura de gestos, donde cada una del las pantallas de visualizacion 110 y 114 despliegan un escritorio (respectivamente, DI y D2), entonces como se muestra én la porción derecha de esta figura, tales gestos no afectan las pantallas de visualizacion 110 y 114. Sin embargo,; con referencia a la Figura 10B, la misma combinación de gestos (por ejemplo, gesto 404 de deslizamiento y gesto 400 de arrastre) proporcionada en la pantalla de visualizacion 114 provoca que los escritorios DI y D2 desplegados se desplacen a la izquierda. Más particularmente, en la Figura 10B, la combinación de gestos de deslizamiento-arrastre en la pantalla de visualización 114 desplaza la aplicación DI fuera de la pantalla de visualización 110, provoca que la aplicación D2 se desplace de la pantalla de visualización 114 a la pantalla de visualización DI, y para otro escritorio, D3, este último escritorio se desplaza sobre la pantalla de visualización 114. Por consiguiente, dependiendo de la implementación de pila de ventanas (por ejemplo, la implementación de las Figuras 7A y 7B, o de las Figuras 7C-7E) , la pila de ventanas puede cambiarse para reflejar el cambio en el cual se despliegan los escritorios al usuario. De este modo, para la modalidad de las pilas de ventanas como se proporciona en la Figura 7A, el escritorio D2 cambia la pila de ventanas mientras los escritorios Di y D3 cambian las posiciones dentro de sus pilas de ventanas respectivas, y desde luego, las estructuras 800 de datos lógicas para cada uno de los escritorios DI, D2, y D3 cambian por consiguiente.
Con referencia a la Figura 10C, esta figura ilustra la combinación de gestos de deslizamiento-arrastre utilizada en el área 120 de captura de gestos para mover la ventana Al de aplicación para una aplicación (no un escritorio) desde la pantalla de visualización 110 a la pantalla de visualización 114. Observe que para realizar el movimiento de la ventana Al de aplicación, se cambian las pilas de ventanas respectivas ! suponiendo una modalidad de pila de ventanas en cuanto a la I j Figura 7A) para las pantallas de visualización 110 y 114. En particular, cuando la ventana Al de aplicación se mueve de la pantalla de visualización 110 (debido a la combinación de gestos de deslizamiento-arrastre en el área 120), esta ventana también se mueve de la parte superior de la pila de ventanas para la pantalla de visualización 110 a la parte superior de la pila de ventanas para la pantalla de visjualización 114, y se remueve de la pila de ventanas para la I pantalla de visualización 110. De esta manera, el movimiento de la ventana de aplicación entre las pantallas de visualización 110 y 114 cambiará sus pilas de ventanas I correspondientes. Además, como se muestra en la Figura 10C, supbniendo que la ventana Al de aplicación era la única ventana de aplicación en la pila de ventanas para la pantalla de ivisualización 110, entonces si un escritorio DI para la pantalla de visualización 110 se encuentra en la pila de ventanas para la pantalla de visualización 110 inmediatamente I bajo la ventana Al de aplicación, entonces el escritorio DI se presenta en la pantalla de visualización 110. Sin embargo, I i como se muestra en la Figura 10D, si existe una ventana de aplicación A3 en la pila de ventanas inmediatamente bajo la ventana Al de aplicación en la pila de ventanas para la pantalla de visualización 110, entonces tras la activación de I : la combinación de gestos de deslizamiento-arrastre en el. área la ventana de aplicación A3 se despliega en la pantalla de 'visualización 110. i ¡ En una modalidad adicional mostrada en la Figura i 10E, esta figura ilustra que la misma combinación de gestos i de ¡ deslizamiento-arrastre aplicada directamente a una i pantalla de visualización 110 ó 104, en donde se despliega i una¡ ventana de aplicación (etiquetada como Al en la Figura i 10E;) no producirá ningún cambio en las pantallas de visualización 110 y 114.
' Observe que además de la combinación de gestos de deslizamiento-arrastre utilizada ilustrativamente en lo í anterior, otros gestos y combinaciones de gestos se ingresan en las áreas 120 y 124 de captura de gestos. En particular, I los, siguientes gestos y sus interpretaciones (cuando se i aplica a las ventanas de aplicación) se contemplan en la presente: otra (aplicación B) se expone completamente. Si el usuario detiene "el arrastre largo" en este punto, sólo un arrastre 400 regular puede haberse realizado. Sin embargo, al continuar el gesto de arrastre (es decir, arrastre largo) ; la aplicación en la pantalla de visualización 114 (aplicación B) comienza a moverse hacia la pantalla de visualización 110. De esta manera, en la pantalla de visualización 114, una tercera aplicación (aplicación C) se vuelve visible. Eventualmente, · la aplicación B se encuentra en la pantalla de visualización 110 (aplicación A oculta) , y la aplicación C se expone completamente en la pantalla de visualización 114. ; En esencia, dos operaciones de arrastre "regular" se habrán realizado conj un gesto de "arrastre largo". Si , la aplicación A había sido capaz de doble pantalla, un gesto de arrastre largo primero podría maximizarla, después minimizarla en la pantalla 110.
Mover o minimizar la ventana ; de aplicación activa similarmente a un ;Deslizamiento 404 arrastre 400. Sin embargo, ninguna maximización de la ventana se aplica. i El dispositivo 100 descrito de manera funcional inmediatamente en lo anterior para manipular sólo las i i ventanas de aplicación (mediante gestos de usuario ingresados en ; el área 120 ó 124 de captura de gestos) pueden proporcionar una modalidad particular de MDM 524 que realiza í el jdiagrama de flujo mostrado en la Figura 11 y ahora se describe. Por consiguiente, en la etapa 1104 de la Figura 11, el Módulo 576 de Gesto (del MDM 524) detecta una entrada de gesto de usuario en una (o ambas) de las áreas de captura de gestos 120 ó 124. En una modalidad, tal detección se realiza al i comparar el gesto de usuario ingresado con un grupo predeterminado de descripciones de datos de plantilla de gestos dentro del dispositivo 100. Suponiendo que, el Módulo 576 de Gesto es capaz de identificar la entrada de gesto como uno de los gestos de usuario predeterminados para el grupo, este modulo notifica al Módulo 568 de Configuración de Pantalla de Visualización (del MDM 524) de: (i) la identidad de gesto de la entrada de gesto, y (ii) datos que identifican dónde se recibe la entrada de gesto (por ejemplo, de una de las 1 áreas de captura de gestos o una de las pantallas de visualización 110 y 114) . ; ' El Módulo 568 de Configuración de Pantalla de Visualización determina para cada entrada de gesto en el dispositivo 100 (si esta entrada es una de las pantallás de visualización 110, 114, o una de las áreas 120 ó 124 de i ! captura de gestos) si la identidad de gesto (para la entrada de gesto) se puede aplicar o no para iniciar un gesto I I j 109 ? predeterminado que corresponde con la acción para realizar en una ventana de aplicación o un escritorio desplegado o en la pantalla de visualización 110 ó 114 al cual corresponde la entrada de gesto. De esta manera, si la entrada de gesto es de una de las pantallas de visualización 110 ó 114, entonces i el. Módulo 568 de Configuración de Pantalla de Visualización sólo notificará al Módulo 532 de Administración de Ventana I para modificar la pantalla de visualización que recibe la entrada de gestos si esta pantalla de visualización despliega I un escritorio. Alternativamente, si la entrada de gesto es de una de las áreas 120 ó 124 de captura de gestos, entonces el Módulo 568 de Configuración de Pantalla de Visualización sólo notificará al Módulo 532 de Administración de Ventanas para modificar la pantalla de visualización que corresponde con la ent!rada de gesto si esta pantalla de visualización despliega í una ventana de aplicación. ; ' Por consiguiente, en la etapa 1108, el Módulo 568 de i Configuración de Pantalla de Visualización determina si existe una ventana de aplicación desplegada en la pantalla de visualización 110 ó 114 que corresponda con el área 120 ó 124 de captura de gestos que recibió el gesto de usuario ingresado. Si ninguna ventana de aplicación se despliega en la pantalla de visualización 110 ó 114 que corresponde con el área 120 ó 124 de captura de gestos que recibió el gesto de usuário ingresado, entonces en la etapa 1112, el Módulo 568 i I de , Configuración de Pantalla de Visualización evita que la entrada de gesto de usuario se utilice para cambiar las pantallas de visualización 110 y 114, y de hecho descarta la entrada de gesto de usuario. Sin embargo, si la pantalla de visualización 110 ó 114 (que corresponde con el área de captura de gestos que recibe el gesto de usuario ingresado) despliega una ventana de aplicación, después el Módulo 568 de Configuración de Pantalla de Visualización utiliza la identidad de la entrada de gesto para determinar cómo cambiar la pantalla de visualización 110 ó 114. 1 Observe que también se encuentra dentro del alcance de ¡la presente descripción que el procesamiento diferente antes descrito realizado en uno o más escritorios en comparación con el procesamiento realizado en una o más ventanas de aplicación, de acuerdo con la entrada de gesto de usuario, puede invertirse. Por ejemplo, en una modalidad alternativa, para cada una de las pantallas de visualización 110 y 114: (i) un escritorio desplegado en la pantalla de visualización (110 ó 114) se manipula mediante la entrada de gesto en el área 120 ó 124 de captura de gestos correspondiente, (ii) cuando una ventana de aplicación se despliega en la pantalla de visualización (110 ó 114), tal entrada de gesto en el área 120 ó 124 de captura de gestos i correspondiente no se utiliza para manipular la ventana de aplicación desplegada, (iii) una ventana de aplicación desplegada en la pantalla de visualización (110 ó 114) se manipula mediante la entrada de gesto que incluye la entrada de usuario que directamente hace contacto con la pantalla de visualización (110 ó 114), y (iv) cuando un escritorio se despliega en la pantalla de visualización (110 ó 114), tal enerada de gesto que incluye la entrada de usuario que hace contacto directamente con la pantalla de visualización '(110 ó 114) no se utiliza para manipular el escritorio. i Los sistemas ejemplares y métodos de esta descripción se han descrito con respecto al procesamiento realizado para la interpretación de gestos en las áreas 120 y I 124, de captura de gestos. Sin embargo, para evitar oscurecer innecesariamente la presente descripción, la descripción precedente omite un número de estructuras y dispositivos conocidos. Esta omisión no se interpretará como una i limitación de los alcances de las reivindicaciones. Detalles específicos se establecen para proporcionar una comprensión de lia presente descripción. Sin embargo, debe apreciarse que la ' presente descripción puede practicarse en una amplia variedad de formas más allá del detalle específico establecido en la presente.
Además, aunque los aspectos ejemplares, modalidades y/o' configuraciones ilustradas en la presente muestran los diversos componentes del sistema colocados, ciertos componentes del sistema pueden ubicarse remotamente, eh las i porciones distantes de una red distribuida, tal como uña LAN y/6 la Internet, o dentro de un sistema dedicado. De esta manera, debe apreciarse, que los componentes del sistema puéden combinarse en uno o más dispositivos o colocarse en un nodo particular de una red distribuida, tal como una red de telecomunicación análoga y/o digital, una red conmutada por paquetes, o una red conmutada por circuitos. Se apreciará a partir de la descripción precedente, y por razones de eficiencia computacional, que los componentes del sistema pueden disponerse en cualquier ubicación dentro de una red distribuida de componentes sin afectar la operación del sistema. Por ejemplo, los diversos componentes pueden i ubiparse en un conmutador tal como una PBX y servidor de medios, puerto de enlace, en uno o más dispositivos de corruanicación, una o más instalaciones de usuarios, o cierta combinación de los mismos. De manera similar, una ó más porciones funcionales del sistema podrían distribuirse .entre un dispositivo de telecomunicación y un dispositivo de cómputo asociado.
Además, debe apreciarse que los diversos enlaces que conectan los elementos pueden ser enlaces alámbricos o inalámbricos, o cualquier combinación de los mismos, o cualquier otros elementos conocidos o posteriormente desarrollados que sean capaces de suministrar y/o comunicar datos hasta y desde los elementos conectados. Estos enlaces alámbricos o inalámbricos también pueden ser enlaces seguros y pueden ser capaces de comunicar información encriptada. Los medios de transmisión utilizados como enlaces, por ejemplo, pueden ser cualquier portadora adecuada para señales eléctricas, que incluyen cables coaxiales, cables de cobre y fibra óptica, y pueden tomar la forma de ondas acústicas o de luz, tales como aquellas generadas durante comunicaciones de datos por radioondas e infrarrojo.
También, aunque los diagramas de flujo se han discutido e ilustrado con respecto a una secuencia particular de eventos, debe apreciarse que cambios, adiciones y omisiones en esta secuencia pueden presentarse sin afectar materialmente la operación de las modalidades descritas, . la configuración, y aspectos.
Un número de variaciones y modificaciones de la descripción pueden utilizarse. Puede ser posible proporcionar más características de la descripción sin proporcionar otras.
En aún otra modalidad, los sistemas y métodos de esta descripción pueden implementarse junto con ; una computadora de propósito especial, un microprocesador programado o microcontrolador y elementos de circuito integrado periférico, un ASIC u otro circuito integrado, un procesador digital de señales, un circuito lógico o electrónico cableado, tal como un circuito de elemento discreto, un dispositivo lógico programable o disposición de compuerta, tal como PLD, PLA, FPGA, PAL, computadora de propósito especial, cualquier medio comparable, o similares. En general, cualesquier dispositivos o medios capaces de implementar la metodología ilustrada en la presente pueden utilizarse para implementar los diversos aspectos de esta descripción. Hardware ejemplar que puede utilizarse para las modalidades descritas, las configuraciones y aspectos incluyen computadoras, dispositivos de bolsillo, teléfonos (por ejemplo, celular, habilitado con Internet, digital, análogo, híbrido, y otros) , y otro hardware conocido ,en la técnica. Algunos de estos dispositivos incluyen procesadores (por ejemplo, uno o varios microprocesadores), memoria, almacenamiento no volátil, dispositivos de entrada y dispositivos de salida. Además, las implementaciones del software alternativas, que incluyen, pero no limitadas a, procesamiento distribuido o procesamiento distribuido de componente/objeto, procesamiento paralelo, o procesamiento de máquina virtual también pueden construirse para implementar los métodos descritos en la presente.
En aún otra modalidad, los métodos descritos pueden implementarse fácilmente junto con el software utilizando ambientes de desarrollo de software de objetos u orientados a objetos que proporcionan el código de fuente portátil que puede utilizarse en una variedad de plataformas de computadora o de estación de trabajo. Alternativamente, el sistema descrito puede implementarse parcial o completamente en hardware utilizando circuitos vde lógica estándar o diseño VLSI. Si se utiliza el software o hardware para implementar los sistemas de acuerdo con esta descripción depende de la velocidad y/o los requisitos de eficiencia del sistema, la función particular, y los sistemas de software o hardware particulares o microprocesador o sistemas de microcomputadora que se utilizan.
En aún otra modalidad, los métodos descritos pueden implementarse parcialmente en software que puede almacenarse en un medio de almacenamiento, ejecutarse en una computadora de propósito general programada con la cooperación de un controlador y memoria, una computadora de propósito especial, un microprocesador, o similares. En estos casos, los sistemas y métodos de esta descripción pueden implementarse como un programa incorporado en una computadora personal tal como mini aplicación, JAVA® o Conjunto de Instrucciones de'; CGI, como una fuente que reside en un servidor o estación de trabajo de computadora, como una rutina integrada én un sistema de medición dedicado, componente de sistema, o similares. El sistema también puede implementarse al incorporar físicamente el sistema y/o método en un sistema de software y/o hardware.
Aunque la presente descripción describe componentes y funciones implementadas en los aspectos, modalidades y/o configuraciones con referencia a estándares y protocolos particulares, los aspectos, modalidades y/o configuraciones no se limitan a tales estándares y protocolos. Otros estándares similares y protocolos no mencionados en la presente se encuentran en existencia y se consideran para que se incluyan en la presente descripción. Además, los estándares y protocolos mencionados en la presente y otros estándares y protocolos similares no mencionados en la presente se ordenan periódicamente por equivalentes más rápidos y más efectivos que tienen esencialmente las mismas funciones. Tales estándares y protocolos de remplazo que tienen las mismas funciones se consideran equivalentes incluidos en la presente descripción.
La presente descripción, en varios aspectos, modalidades y/o configuraciones, incluye componentes, métodos, procesos, sistemas y/o aparatos sustancialmente: como se representa y describe en la presente, que incluyen varios aspectos, modalidades, modalidades de configuraciones, subcombinaciones y/o subconjuntos de los mismos. Aquellos de experiencia en la técnica entenderán cómo hacer y utilizar los aspectos descritos, modalidades y/o configuraciones después de entender la presente descripción. 'La presente descripción, en varios aspectos, modalidades y/o configuraciones, incluye proporcionar dispositivos y procesos en la ausencia de elementos no representados y/o descritos en la presente o en varios aspectos, modalidades y/o configuraciones de los mismos, que incluyen la ausencia de tales elementos ya que pueden haberse utilizado en dispositivos o procesos previos, por ejemplo, para mejorar el rendimiento, lograr facilidad y/o reducir el costo de implementación .
La discusión anterior se ha presentado para propósito de ilustración y descripción. Lo anterior no se pretende para limitar la descripción a la forma o formas descritas en la presente. En la Descripción Detallada anterior, por ejemplo, varias características de la descripción se agrupan juntas en uno o más aspectos, modalidades y/o configuraciones para el propósito de simplificar la descripción. Las características de. los aspectos, modalidades y/o configuraciones de la descripción pueden combinarse en aspectos' alternativos, modalidades y/o configuraciones distintas a aquellas discutidas en lo anterior. Este método de descripción no se interpretará: como reflejando una intención de que las reivindicaciones requieren más características de las que se narran expresamente en cada reivindicación. De hecho, como lo reflejan las siguientes reivindicaciones, aspectos inventivos yacen en menos de todas las características de un solo aspecto descrito en lo anterior, modalidad y/o configuración. De esta manera, las siguientes reivindicaciones se incorporan por consiguiente en esta Descripción Detallada, con cada reivindicación encontrándose a si misma como una modalidad preferida separada de la descripción.
Además, aunque la descripción ha incluido la descripción de uno o más aspectos, modalidades y/o configuraciones y ciertas variaciones y modificaciones, otras variaciones, combinaciones y modificaciones se encuentran dentro del alcance de la descripción, por ejemplo, como¦ puede encontrarse dentro de la capacidad y conocimiento de aquellos con experiencia en la técnica, después de entender la presente descripción, Se pretende obtener derechos que incluyan aspectos alternativos, modalidades y/o configuraciones al grado permitido, que incluyen estructuras alternativas, intercambiables y/o equivalentes, funciones, márgenes o etapas para aquellas reclamadas, ya sea que se describan o no en la presente tales estructuras alternativas, intercambiables y/o equivalentes, funciones, márgenes o etapas, y sin pretender dedicar públicamente ninguna materia objeto patentable. :

Claims (13)

REIVINDICACIONES
1. Un método para configurar un dispositivo que tiene por lo menos una pantalla de una sola pantalla de visualización para desplegar una o más de presentaciones de pantalla de visualización de pantalla y para desplegar una o más presentaciones de pantalla de visualización de pantalla operativamente diferente, en donde las presentaciones de pantalla de visualización de pantalla son capaces de manipularse mediante entrada de gesto de usuario de manera distinta de las presentaciones de pantalla de visualización de pantalla operativamente diferente, caracterizado porque comprende : recibir una primera entrada de gesto de usuario en un área de captura de gestos asociada con al menos una pantalla, el área de captura de gestos se separa de por lo menos una pantalla de una sola pantalla de visualización; determinar si la primera de una o más dé las presentaciones de pantalla de visualización de pantalla se despliega por lo menos en una pantalla; cuando se determina que la primera presentación de pantalla de visualización de pantalla se despliega, realizar una etapa de interpretar la entrada de gesto de usuario para determinar una operación predeterminada para aplicar a la primera presentación de pantalla de visualización de pantalla; realizar la operación predeterminada; cuando se determina que ninguna de una o más presentaciones de pantalla de visualizacion de pantalla se despliega en la etapa de determinación, realizar una etapa de evitar que el dispositivo utilice la entrada de gesto de usuario para cambiar por lo menos una pantalla de una sola pantalla de visualizacion; recibir una segunda entrada de gesto de usuario en respuesta a una entrada de gesto de usuario que incluye el contacto de usuario directamente con por lo menos una pantalla; determinar después si una de las presentaciones de pantalla de visualizacion de pantalla operativamente diferente se despliega por lo menos en una pantalla; cuando se determina que una presentación de pantalla de visualizacion de pantalla operativamente diferente se despliega en por lo menos una pantalla, realizar una etapa de interpretar después la segunda entrada de gesto de usuario para determinar una segunda operación predeterminada para aplicar a una presentación de pantalla de visualizacion de pantalla operativamente diferente; y cuando se determina que ninguna de : las presentaciones de pantalla de visualizacion de pantalla operativamente diferente en la etapa de determinar después, realizar una etapa de evitar después que el dispositivo utilice la segunda entrada de gesto de usuario para cambiar por lo menos una pantalla de una sola pantalla de visualización.
2. El método de conformidad con la reivindicación 1, caracterizado porque el área de captura de gestos incluye un área sensible al tacto capacitiva para recibir la entrada de gesto de usuario, en donde el área de captura de gestos no es capaz de desplegar ninguna de las presentaciones de pantalla de. visualización de pantalla y no es capaz de desplegar ninguna de las presentaciones de pantalla de visualización de pantalla operativamente diferente, y donde la primera presentación de pantalla de visualización de pantalla incluye una ventana de aplicación.
3. El método de conformidad con la reivindicación 1, caracterizado porque el área de captura de gestos incluye un área sensible al tacto capacitiva para recibir la entrada de gesto de usuario, en donde el área de captura de gestos no es capaz de desplegar ninguna de las presentaciones de pantalla de visualización de pantalla, y no es capaz de desplegar ninguna de las presentaciones de pantalla de visualización de pantalla operativamente diferente y donde una presentación de pantalla de visualización de pantalla operativamente diferente incluye un escritorio.
4. El método de conformidad con la reivindicación 1, caracterizado porque el área de captura de gestos incluye un área sensible al tacto capacitiva para recibir la entrada de gesto de usuario, en el área de captura de gestos no es capaz de desplegar ninguna de las presentaciones de pantalla de visualizacion de pantalla y no es capaz de desplegar ninguna de las presentaciones de pantalla de visualizacion de pantalla operativamente diferente, donde la entrada de gesto de usuario incluye una de: un arrastre, un deslizamiento, una contracción, y una extensión y donde la segunda entrada de gesto de usuario incluye una de: un arrastre, un deslizamiento, una contracción y una extensión .
5. El método de conformidad con la reivindicación 1, caracterizado porque cada una de la primera presentación de pantalla de visualizacion de pantalla y la presentación de pantalla de visualizacion de pantalla operativamente diferente tiene datos correspondientes incluidos en una pila correspondiente, en donde un usuario ingresa gestos de usuario al dispositivo que reorganiza las entradas en cada pila, y donde la segunda operación predeterminada mueve la presentación de pantalla de visualizacion de pantalla operativamente diferente de por lo menos una pantalla ; a la otra de la pluralidad de pantallas.
6. El método de conformidad con la reivindicación 1, caracterizado porque cada una de la entrada de gesto de usuario y la segunda entrada de gesto de usuario es papa un mismo gesto de usuario y donde por lo menos una pantalla de una sola pantalla de visualizacion es una de una pluralidad de pantallas de pantalla de visualizacion del dispositivo, y la operación predeterminada mueve la primera presentación de pantalla de visualizacion de pantalla desde por lo menos una pantalla a otra de la pluralidad de pantallas.
7. El método de conformidad con la reivindicación 1, caracterizado porque existe un grupo predeterminado de una pluralidad de descripciones de entrada de gesto de usuario para reconocer las entradas de gesto de usuario que se pueden interpretar en la etapa de interpretación, en donde una o más presentaciones de pantalla de visualizacion de pantalla incluye una pluralidad de ventanas de aplicación, en donde cada una de la pluralidad de aplicaciones de software proporciona la correspondiente de la pluralidad de ventanas de aplicación, en donde cada una de las entradas de gesto de usuario (UGI) del grupo predeterminado se puede operar para reconocer entradas de gesto de usuario para cada ventana de aplicación (AW) de la pluralidad de ventanas de aplicación cuando: (I) la entrada de gesto de usuario UGI es un ejemplo de la primera entrada de gesto de usuario, y (II) la ventana de aplicación AW es un ejemplo de la primera presentación de pantalla de visualizacion de pantalla para la cual la entrada de gesto de usuario UGI es una entrada y donde cada una de las aplicaciones de software se puede operar en el dispositivo de manera independiente de cada una de las otras de las aplicaciones de software.
8. Un medio legible por computadora para configurar un dispositivo que tiene por lo menos una pantalla de una sola pantalla de visualización para desplegar una o más de las presentaciones de pantalla de visualización de pantalla y para desplegar una o más de las presentaciones de pantalla de visualización de pantalla operativamente diferente, donde las presentaciones de pantalla de visualización de pantalla se pueden manipular mediante la entrada de gesto de usuario de manera diferente a las presentaciones de pantalla de visualización de pantalla operativamente diferente, caracterizado porque comprende: instrucciones de máquina para realizar, las siguientes etapas: recibir una primera entrada de gesto de usuario en un área de captura de gestos asociada con por lo menos una pantalla, el área de captura de gestos se separa de por lo menos una pantalla de una sola pantalla de visualización; determinar si la primera de una o ; más presentaciones de pantalla de visualización de pantalla se despliega por lo menos en una pantalla; cuando se determina que la primera presentación de pantalla de visualización de pantalla se despliega, realiza una etapa de interpretar la entrada de gesto de usuario para determinar una operación predeterminada para aplicar a la primera presentación de pantalla de visualización de pantalla; realizar la operación predeterminada; cuando se determina que ninguna de una ó más presentaciones de pantalla de visualización de pantalla se despliegue en la etapa de determinación, realizar una etapa de evitar que el dispositivo utilice la entrada de gesto de usuario para cambiar por lo menos una pantalla de una sola pantalla de visualización," recibir una segunda entrada de gesto de usuario en respuesta a una entrada de gesto de usuario que incluye contacto de usuario directamente con por lo menos una pantalla; determinar después si una de las presentaciones de pantalla de visualización de pantalla operativamente diferente se despliega por lo menos en una pantalla; ', cuando se determina que la presentación de pantalla de visualización de pantalla operativamente diferente se despliega por lo menos en una pantalla, realizar una etapa de interpretar después la segunda entrada de gesto de usuario para determinar una segunda operación predeterminada: para aplicar a una presentación de pantalla de visualización de pantalla operativamente diferente; y cuando no se determina ninguna de las presentaciones de pantalla de visualización de pantalla operativamente diferente en la etapa de determinar después, realizar una etapa de evitar después que el dispositivo utilice la segunda entrada de gesto de usuario para cambiar por lo menos una pantalla de una sola pantalla de visualización .
9. El medio legible por computadora de conformidad con la reivindicación 8, caracterizado porque la etapa de interpretar es para reorganizar una pila para las presentaciones de pantalla de visualización de pantalla de modo que un orden de presentación de las presentaciones de pantalla de visualización de pantalla se reorganice y en donde cada una de las presentaciones de pantalla de visualización de pantalla incluye una ventana de aplicación.
10. El medio legible por computadora de conformidad con la reivindicación 8, caracterizado porque la etapa de interpretar después es para reorganizar una pila para las presentaciones de pantalla de visualización de pantalla operativamente diferente de modo que un orden de presentación de las presentaciones de pantalla de visualización de pantalla operativamente diferente se reorganice y donde; cada una de las presentaciones de pantalla de visualización de pantalla operativamente diferente incluye un escritorio.
11. Un dispositivo de bolsillo, caracterizad porque comprende : por lo menos una pantalla de una sola pantalla de visualización para desplegar una o más de las presentaciones de pantalla de visualización de pantalla y para desplegar una o más de las presentaciones de pantalla de visualización de pantalla operativamente diferente; un área de captura de gestos asociada con por lo menos una pantalla para recibir la primera entrada de gesto de usuario, el área de captura de gestos se separada de por lo menos una pantalla de una sola pantalla de visualización; en donde las presentaciones de pantalla de visualización de pantalla se manipulan de manera operativa mediante la primera entrada de gesto de usuario recibida por el área de captura de gestos; en donde por lo menos una pantalla de una: sola pantalla de visualización responde al toque de usuario para recibir los segundos gestos de usuario ingresados : para manipular las presentaciones de pantalla operativamente diferente; un administrador de pantalla de visualización para determinar: (a) si una de las presentaciones de pantalla de visualización de pantalla se despliega por lo menos en una pantalla, y (b) si una de las presentaciones de pantalla de visualizacion de pantalla operativamente diferente se despliega en por lo menos una pantalla; un intérprete de gestos para interpretar cada una de la primera y segunda entradas de gesto de usuario para determinar una acción para realizar en la desplegada correspondiente de las presentaciones de pantalla de visualizacion de pantalla o la desplegada correspondiente de las presentaciones de pantalla de visualizacion de pantalla operativamente diferente, en donde el intérprete de gestos compara cada una de la primera y segunda entradas de gesto de usuario con un grupo predeterminado de una pluralidad de descripciones de entrada de gesto de usuario para reconocer las entradas de gesto de usuario que se pueden interpretar; en donde la primera entrada de gesto de usuario, si se determina que la presentación de pantalla de visualizacion de una sola pantalla se despliega por lo menos en una pantalla, el intérprete interpreta la primera entrada de gesto de usuario para determinar una primera tarea predeterminada para aplicar a una presentación de pantalla de visualizacion de una sola pantalla; en donde, cuando se determina que ninguna de una o más presentaciones de pantalla de visualizacion de pantalla se despliega en el administrador de pantalla de visualizacion evita que el dispositivo utilice la primera entrada de jgesto de usuario para cambiar por lo menos una pantalla de una sola pantalla de visualización; en donde para la segunda entrada de gesto de usuario, si se determina que una presentación de pantalla de visualización de pantalla operativamente diferente se despliega por lo menos en una pantalla, el intérprete interpreta la segunda entrada de gesto de usuario para determinar una segunda tarea predeterminada para aplicar a una presentación de pantalla de visualización de pantalla operativamente diferente; y en donde, cuando se determina que ninguna de las presentaciones de pantalla de visualización de pantalla operativamente diferente se despliega en el administrador de pantalla de visualización, evita que el dispositivo utilice la segunda entrada de gesto de usuario para cambiar por lo menos una pantalla de una sola pantalla de visualización., un administrador de tareas para realizar la primera y segunda tareas predeterminadas.
12. El dispositivo de conformidad con la reivindicación 11, caracterizado porque el área de captara de gestos no es capaz de desplegar ninguna de las presentaciones de pantalla de visualización de pantalla, y no es capaz de desplegar ninguna de las presentaciones de pantalla de visualización de pantalla operativamente diferente. \
13. El dispositivo de conformidad con la reivindicación 11, caracterizado porque una presentación de pantalla de visualización de una sola pantalla incluye una ventana de aplicación y donde una presentación de pantalla de visualización de pantalla operativamente diferente incluye un escritorio .
MX2013003249A 2010-10-01 2011-09-29 Captura de gestos para manipulacion de presentaciones en una o mas pantallas de visualizacion de dispositivo. MX2013003249A (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US38900010P 2010-10-01 2010-10-01
US38908710P 2010-10-01 2010-10-01
US38911710P 2010-10-01 2010-10-01
PCT/US2011/053937 WO2012044799A2 (en) 2010-10-01 2011-09-29 Gesture capture for manipulation of presentations on one or more device displays

Publications (1)

Publication Number Publication Date
MX2013003249A true MX2013003249A (es) 2013-10-28

Family

ID=45889332

Family Applications (3)

Application Number Title Priority Date Filing Date
MX2013003424A MX2013003424A (es) 2010-10-01 2011-09-22 Administracion de aplicaciones basada en gestos.
MX2013003247A MX341479B (es) 2010-10-01 2011-09-29 Metodo y sistema para ver pantallas de visualizacion de pantallas apiladas utilizando gestos.
MX2013003249A MX2013003249A (es) 2010-10-01 2011-09-29 Captura de gestos para manipulacion de presentaciones en una o mas pantallas de visualizacion de dispositivo.

Family Applications Before (2)

Application Number Title Priority Date Filing Date
MX2013003424A MX2013003424A (es) 2010-10-01 2011-09-22 Administracion de aplicaciones basada en gestos.
MX2013003247A MX341479B (es) 2010-10-01 2011-09-29 Metodo y sistema para ver pantallas de visualizacion de pantallas apiladas utilizando gestos.

Country Status (7)

Country Link
US (45) US8749484B2 (es)
EP (3) EP2622432B1 (es)
JP (3) JP2013545168A (es)
CN (5) CN103329062A (es)
BR (1) BR112013007810A2 (es)
MX (3) MX2013003424A (es)
WO (8) WO2012044510A2 (es)

Families Citing this family (588)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4350921B2 (ja) * 2001-06-12 2009-10-28 本田技研工業株式会社 乗員保護装置
US9152582B2 (en) 2010-10-01 2015-10-06 Z124 Auto-configuration of a docked system in a multi-OS environment
US9678624B2 (en) 2011-09-27 2017-06-13 Z124 Unified desktop triad control user interface for a phone manager
US9405459B2 (en) 2011-08-24 2016-08-02 Z124 Unified desktop laptop dock software operation
US9529494B2 (en) 2011-09-27 2016-12-27 Z124 Unified desktop triad control user interface for a browser
US20130080909A1 (en) * 2011-09-27 2013-03-28 Paul E. Reeves Unified desktop docking behaviour for an auxillary monitor
US8990713B2 (en) 2011-09-27 2015-03-24 Z124 Unified desktop triad control user interface for an application manager
US20130104062A1 (en) 2011-09-27 2013-04-25 Z124 Unified desktop input segregation in an application manager
US20130024812A1 (en) 2011-07-13 2013-01-24 Z124 Foreground/background assortment of hidden windows
US9715252B2 (en) 2011-08-24 2017-07-25 Z124 Unified desktop docking behavior for window stickiness
US8933949B2 (en) 2010-10-01 2015-01-13 Z124 User interaction across cross-environment applications through an extended graphics context
US8726294B2 (en) 2010-10-01 2014-05-13 Z124 Cross-environment communication using application space API
US8966379B2 (en) 2010-10-01 2015-02-24 Z124 Dynamic cross-environment application configuration/orientation in an active user environment
US20130076592A1 (en) 2011-09-27 2013-03-28 Paul E. Reeves Unified desktop docking behavior for visible-to-visible extension
US9047102B2 (en) 2010-10-01 2015-06-02 Z124 Instant remote rendering
US9268518B2 (en) 2011-09-27 2016-02-23 Z124 Unified desktop docking rules
US8990712B2 (en) 2011-08-24 2015-03-24 Z124 Unified desktop triad control user interface for file manager
US20130024778A1 (en) 2011-07-13 2013-01-24 Z124 Dynamic cross-environment application configuration/orientation
US8819705B2 (en) 2010-10-01 2014-08-26 Z124 User interaction support across cross-environment applications
US20130198867A1 (en) 2011-12-09 2013-08-01 Z124 A Docking Station for Portable Devices Providing Authorized Power Transfer and Facility Access
US8963853B2 (en) 2010-10-01 2015-02-24 Z124 Smartpad split screen desktop
US9420072B2 (en) 2003-04-25 2016-08-16 Z124 Smartphone databoost
US9182937B2 (en) 2010-10-01 2015-11-10 Z124 Desktop reveal by moving a logical display stack with gestures
US9507930B2 (en) 2003-04-25 2016-11-29 Z124 Physical key secure peripheral interconnection
US9207717B2 (en) 2010-10-01 2015-12-08 Z124 Dragging an application to a screen using the application manager
US9213365B2 (en) 2010-10-01 2015-12-15 Z124 Method and system for viewing stacked screen displays using gestures
US9003426B2 (en) 2011-12-09 2015-04-07 Z124 Physical key secure peripheral interconnection
US8225231B2 (en) 2005-08-30 2012-07-17 Microsoft Corporation Aggregation of PC settings
US9021375B2 (en) * 2006-08-15 2015-04-28 International Business Machines Corporation Notification of state transition of an out-of-focus application
US8675847B2 (en) 2007-01-03 2014-03-18 Cisco Technology, Inc. Scalable conference bridge
US8533327B2 (en) * 2007-04-04 2013-09-10 Zte Corporation System and method of providing services via a peer-to-peer-based next generation network
US8127254B2 (en) 2007-06-29 2012-02-28 Nokia Corporation Unlocking a touch screen device
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US8074581B2 (en) 2007-10-12 2011-12-13 Steelcase Inc. Conference table assembly
US8549657B2 (en) 2008-05-12 2013-10-01 Microsoft Corporation Owner privacy in a shared mobile device
US8555201B2 (en) * 2008-06-05 2013-10-08 Qualcomm Incorporated Wireless communication device having deterministic control of foreground access of the user interface
US10631632B2 (en) 2008-10-13 2020-04-28 Steelcase Inc. Egalitarian control apparatus and method for sharing information in a collaborative workspace
US20140361954A1 (en) 2013-06-07 2014-12-11 Lewis Epstein Personal control apparatus and method for sharing information in a collaboration workspace
US8984431B2 (en) 2009-03-16 2015-03-17 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US10884607B1 (en) 2009-05-29 2021-01-05 Steelcase Inc. Personal control apparatus and method for sharing information in a collaborative workspace
US8365059B2 (en) * 2009-11-03 2013-01-29 Oto Technologies, Llc E-reader semantic text manipulation
MX339341B (es) 2010-01-11 2016-05-20 Apple Inc Manipulacion y visualizacion de texto electronico.
US8780130B2 (en) 2010-11-30 2014-07-15 Sitting Man, Llc Methods, systems, and computer program products for binding attributes between visual components
US9715332B1 (en) 2010-08-26 2017-07-25 Cypress Lake Software, Inc. Methods, systems, and computer program products for navigating between visual components
US10397639B1 (en) 2010-01-29 2019-08-27 Sitting Man, Llc Hot key systems and methods
KR101721539B1 (ko) * 2010-02-11 2017-03-30 삼성전자주식회사 휴대 단말기의 ui 제공 방법 및 장치
US8810543B1 (en) * 2010-05-14 2014-08-19 Cypress Semiconductor Corporation All points addressable touch sensing surface
TWI433072B (zh) * 2010-06-03 2014-04-01 Hannstar Display Corp 智慧型手機顯示裝置
US9172979B2 (en) 2010-08-12 2015-10-27 Net Power And Light, Inc. Experience or “sentio” codecs, and methods and systems for improving QoE and encoding based on QoE experiences
US8463677B2 (en) 2010-08-12 2013-06-11 Net Power And Light, Inc. System architecture and methods for experimental computing
WO2012021902A2 (en) 2010-08-13 2012-02-16 Net Power And Light Inc. Methods and systems for interaction through gestures
US20120054667A1 (en) * 2010-08-31 2012-03-01 Blackboard Inc. Separate and simultaneous control of windows in windowing systems
US8854318B2 (en) 2010-09-01 2014-10-07 Nokia Corporation Mode switching
JP5573512B2 (ja) * 2010-09-03 2014-08-20 日本電気株式会社 携帯端末およびその表示制御方法
JP2012053832A (ja) * 2010-09-03 2012-03-15 Nec Corp 情報処理端末
US8788576B2 (en) 2010-09-27 2014-07-22 Z124 High speed parallel data exchange with receiver side data handling
US8751682B2 (en) 2010-09-27 2014-06-10 Z124 Data transfer using high speed connection, high integrity connection, and descriptor
GB201112458D0 (en) * 2010-09-28 2011-08-31 Yota Group Cyprus Ltd device with display screen
US9430122B2 (en) 2010-10-01 2016-08-30 Z124 Secondary single screen mode activation through off-screen gesture area activation
US8749484B2 (en) 2010-10-01 2014-06-10 Z124 Multi-screen user interface with orientation based control
US9001149B2 (en) 2010-10-01 2015-04-07 Z124 Max mode
US20130050265A1 (en) 2011-08-31 2013-02-28 Z124 Gravity drop
US20120225694A1 (en) 2010-10-01 2012-09-06 Sanjiv Sirpal Windows position control for phone applications
US20120225693A1 (en) 2010-10-01 2012-09-06 Sanjiv Sirpal Windows position control for phone applications
US9189018B2 (en) 2010-10-01 2015-11-17 Z124 Windows position control for phone applications
US20120218202A1 (en) 2010-10-01 2012-08-30 Sanjiv Sirpal Windows position control for phone applications
EP2622491A4 (en) 2010-10-01 2015-05-27 Z124 SYSTEMS AND METHODS RELATING TO USER INTERFACES FOR DOCKING PORTABLE ELECTRONIC DEVICES
US8930605B2 (en) 2010-10-01 2015-01-06 Z124 Systems and methods for docking portable electronic devices
WO2012044539A2 (en) 2010-10-01 2012-04-05 Imerj, Llc Multi-operating system
US9436217B2 (en) 2010-10-01 2016-09-06 Z124 Windows position control for phone applications
US9733665B2 (en) 2010-10-01 2017-08-15 Z124 Windows position control for phone applications
US9588545B2 (en) 2010-10-01 2017-03-07 Z124 Windows position control for phone applications
US8761831B2 (en) 2010-10-15 2014-06-24 Z124 Mirrored remote peripheral interface
US8429704B2 (en) 2010-10-21 2013-04-23 Net Power And Light, Inc. System architecture and method for composing and directing participant experiences
KR101843337B1 (ko) 2010-10-28 2018-03-30 삼성전자주식회사 디스플레이 모듈 및 디스플레이 시스템
JP5833822B2 (ja) * 2010-11-25 2015-12-16 パナソニックIpマネジメント株式会社 電子機器
US9244606B2 (en) * 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
EP2656184A4 (en) * 2010-12-22 2016-07-13 Intel Corp NEW DESIGN OF A TOUCH SCREEN KEYBOARD FOR MOBILE DEVICES
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US9423951B2 (en) 2010-12-31 2016-08-23 Microsoft Technology Licensing, Llc Content-based snap point
US9465440B2 (en) * 2011-01-06 2016-10-11 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9015641B2 (en) 2011-01-06 2015-04-21 Blackberry Limited Electronic device and method of providing visual notification of a received communication
US9423878B2 (en) 2011-01-06 2016-08-23 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9766718B2 (en) 2011-02-28 2017-09-19 Blackberry Limited Electronic device and method of displaying information in response to input
US9477311B2 (en) 2011-01-06 2016-10-25 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9471145B2 (en) 2011-01-06 2016-10-18 Blackberry Limited Electronic device and method of displaying information in response to a gesture
JP2012155408A (ja) * 2011-01-24 2012-08-16 Kyocera Corp 携帯型電子機器
EP3734404A1 (en) 2011-02-10 2020-11-04 Samsung Electronics Co., Ltd. Portable device comprising a touch-screen display, and method for controlling same
KR101802522B1 (ko) * 2011-02-10 2017-11-29 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면변경방법
KR101842906B1 (ko) * 2011-02-10 2018-05-15 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면 변경방법
KR20120091975A (ko) 2011-02-10 2012-08-20 삼성전자주식회사 적어도 두 개의 터치 스크린을 포함하는 정보 표시 장치 및 그의 정보 표시 방법
EP2487577A3 (en) * 2011-02-11 2017-10-11 BlackBerry Limited Presenting buttons for controlling an application
US20120209413A1 (en) 2011-02-14 2012-08-16 Microsoft Corporation Background Audio on Mobile Devices
KR20120097944A (ko) * 2011-02-28 2012-09-05 삼성전자주식회사 터치 스크린을 구비한 단말기 및 그 단말기에서 데이터 출력 방법
US8949628B2 (en) 2011-02-28 2015-02-03 Z124 Power-allocation interface
US9213421B2 (en) 2011-02-28 2015-12-15 Blackberry Limited Electronic device and method of displaying information in response to detecting a gesture
US8677168B2 (en) 2011-02-28 2014-03-18 Z124 Allocating power in devices by reserving a static power allocation to be used by one or more predetermined subsystems and reserving a dynamic power allocation to be used when the static power allocation is insufficient
CN102681771B (zh) * 2011-03-03 2016-09-14 株式会社堀场制作所 测量装置
US10142448B2 (en) * 2011-03-04 2018-11-27 Blackberry Limited Separable mobile device having a control module and a docking station module
US9383917B2 (en) 2011-03-28 2016-07-05 Microsoft Technology Licensing, Llc Predictive tiling
JP5884282B2 (ja) * 2011-03-29 2016-03-15 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びにプログラム
US9880604B2 (en) 2011-04-20 2018-01-30 Microsoft Technology Licensing, Llc Energy efficient location detection
JP5661547B2 (ja) * 2011-04-26 2015-01-28 京セラ株式会社 携帯端末装置およびプログラム
KR101199618B1 (ko) * 2011-05-11 2012-11-08 주식회사 케이티테크 화면 분할 표시 장치 및 방법
TWI420369B (zh) * 2011-05-12 2013-12-21 Wistron Corp 影像式觸控裝置及影像式觸控系統
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US10417018B2 (en) * 2011-05-27 2019-09-17 Microsoft Technology Licensing, Llc Navigation of immersive and desktop shells
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9843665B2 (en) 2011-05-27 2017-12-12 Microsoft Technology Licensing, Llc Display of immersive and desktop shells
KR101883354B1 (ko) * 2011-05-30 2018-07-30 삼성전자주식회사 터치 스크린을 구비한 기기에서 전자 지도의 브라우징을 위한 장치 및 방법
US9329766B2 (en) * 2011-06-02 2016-05-03 Lenovo (Singapore) Pte. Ltd. Homepage re-assignment
US9891800B2 (en) 2011-06-17 2018-02-13 Nokia Technologies Oy Method and apparatus for providing a notification mechanism
US9310834B2 (en) * 2011-06-30 2016-04-12 Z124 Full screen mode
US20130019184A1 (en) * 2011-07-11 2013-01-17 Net Power And Light, Inc. Methods and systems for virtual experiences
US20130268559A1 (en) 2011-07-13 2013-10-10 Z124 Virtual file system remote search
US9152404B2 (en) 2011-07-13 2015-10-06 Z124 Remote device filter
US9343818B2 (en) * 2011-07-14 2016-05-17 Sonos, Inc. Antenna configurations for wireless speakers
US8810533B2 (en) * 2011-07-20 2014-08-19 Z124 Systems and methods for receiving gesture inputs spanning multiple input devices
US9298413B1 (en) * 2011-07-22 2016-03-29 Nvidia Corporation System, method, and computer program product for changing a state of operation of a display system with respect to at least a portion of an image occluded by a non-display surface
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US20160124698A1 (en) 2011-08-24 2016-05-05 Z124 Unified desktop triad control user interface for an application launcher
US20130104051A1 (en) 2011-09-27 2013-04-25 Z124 Unified desktop big brother application pools
US9244584B2 (en) 2011-08-26 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigating and previewing content items
US9703382B2 (en) * 2011-08-29 2017-07-11 Kyocera Corporation Device, method, and storage medium storing program with control for terminating a program
US20140266012A1 (en) 2013-03-15 2014-09-18 Z124 Mobile Handset Recharge
US9246353B2 (en) 2011-08-31 2016-01-26 Z124 Smart dock charging
US9383770B2 (en) 2011-08-31 2016-07-05 Z124 Mobile device that docks with multiple types of docks
US9244491B2 (en) 2011-08-31 2016-01-26 Z124 Smart dock for auxiliary devices
US20130268703A1 (en) 2011-09-27 2013-10-10 Z124 Rules based hierarchical data virtualization
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
KR101864618B1 (ko) * 2011-09-06 2018-06-07 엘지전자 주식회사 이동 단말기 및 그것의 사용자 인터페이스 제공 방법
US9197844B2 (en) * 2011-09-08 2015-11-24 Cisco Technology Inc. User interface
US20130067420A1 (en) * 2011-09-09 2013-03-14 Theresa B. Pittappilly Semantic Zoom Gestures
US8922575B2 (en) 2011-09-09 2014-12-30 Microsoft Corporation Tile cache
US9557909B2 (en) 2011-09-09 2017-01-31 Microsoft Technology Licensing, Llc Semantic zoom linguistic helpers
US10353566B2 (en) 2011-09-09 2019-07-16 Microsoft Technology Licensing, Llc Semantic zoom animations
US8933952B2 (en) 2011-09-10 2015-01-13 Microsoft Corporation Pre-rendering new content for an application-selectable user interface
US9244802B2 (en) 2011-09-10 2016-01-26 Microsoft Technology Licensing, Llc Resource user interface
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
KR101873056B1 (ko) * 2011-09-20 2018-07-02 삼성전자주식회사 휴대단말기의 어플리케이션 수행 장치 및 방법
US11416131B2 (en) 2011-09-27 2022-08-16 Z124 Unified desktop input segregation in an application manager
US9703468B2 (en) 2011-09-27 2017-07-11 Z124 Unified desktop independent focus in an application manager
US20130080899A1 (en) 2011-09-27 2013-03-28 Paul E. Reeves Unified desktop big brother applications
US20160054757A1 (en) 2012-02-29 2016-02-25 Z124 Unified desktop docking flow
US9774721B2 (en) 2011-09-27 2017-09-26 Z124 LTE upgrade module
US8878794B2 (en) * 2011-09-27 2014-11-04 Z124 State of screen info: easel
WO2013074901A2 (en) 2011-11-16 2013-05-23 Flextronics Ap, Llc Control of device features based on vehicle indications and state
US9088572B2 (en) 2011-11-16 2015-07-21 Flextronics Ap, Llc On board vehicle media controller
KR20130054076A (ko) * 2011-11-16 2013-05-24 삼성전자주식회사 복수 개의 어플리케이션을 프리로딩하는 터치스크린을 가지는 장치 및 그 제어 방법
US9173100B2 (en) 2011-11-16 2015-10-27 Autoconnect Holdings Llc On board vehicle network security
US9055022B2 (en) 2011-11-16 2015-06-09 Flextronics Ap, Llc On board vehicle networking module
US9116786B2 (en) 2011-11-16 2015-08-25 Flextronics Ap, Llc On board vehicle networking module
US9043073B2 (en) 2011-11-16 2015-05-26 Flextronics Ap, Llc On board vehicle diagnostic module
US9081653B2 (en) 2011-11-16 2015-07-14 Flextronics Ap, Llc Duplicated processing in vehicles
US9008906B2 (en) 2011-11-16 2015-04-14 Flextronics Ap, Llc Occupant sharing of displayed content in vehicles
US8949823B2 (en) 2011-11-16 2015-02-03 Flextronics Ap, Llc On board vehicle installation supervisor
US9164544B2 (en) 2011-12-09 2015-10-20 Z124 Unified desktop: laptop dock, hardware configuration
US9086840B2 (en) 2011-12-09 2015-07-21 Z124 RSID proximity peripheral interconnection
US9830049B2 (en) * 2011-12-12 2017-11-28 Nokia Technologies Oy Apparatus and method for providing a visual transition between screens
US8732822B2 (en) * 2011-12-16 2014-05-20 Microsoft Corporation Device locking with hierarchical activity preservation
US10776103B2 (en) * 2011-12-19 2020-09-15 Majen Tech, LLC System, method, and computer program product for coordination among multiple devices
US20130305354A1 (en) 2011-12-23 2013-11-14 Microsoft Corporation Restricted execution modes
US9420432B2 (en) 2011-12-23 2016-08-16 Microsoft Technology Licensing, Llc Mobile devices control
US9710982B2 (en) 2011-12-23 2017-07-18 Microsoft Technology Licensing, Llc Hub key service
US8874162B2 (en) 2011-12-23 2014-10-28 Microsoft Corporation Mobile device safe driving
US9467834B2 (en) 2011-12-23 2016-10-11 Microsoft Technology Licensing, Llc Mobile device emergency service
US9325752B2 (en) 2011-12-23 2016-04-26 Microsoft Technology Licensing, Llc Private interaction hubs
US9064436B1 (en) * 2012-01-06 2015-06-23 Google Inc. Text input on touch sensitive interface
US9058168B2 (en) 2012-01-23 2015-06-16 Blackberry Limited Electronic device and method of controlling a display
US9619038B2 (en) 2012-01-23 2017-04-11 Blackberry Limited Electronic device and method of displaying a cover image and an application image from a low power condition
USD706261S1 (en) 2012-01-24 2014-06-03 Intel Corporation Mobile computing device
KR102321769B1 (ko) 2012-01-24 2021-11-03 인텔 코포레이션 모바일 컴퓨팅 기기, 장치 및 시스템
US9052819B2 (en) * 2012-01-25 2015-06-09 Honeywell International Inc. Intelligent gesture-based user's instantaneous interaction and task requirements recognition system and method
US9383775B2 (en) * 2012-02-07 2016-07-05 Lg Electronics Inc. Icon display method for a pull-out display device
USD706291S1 (en) * 2012-02-24 2014-06-03 Samsung Electronics Co., Ltd. Display screen or a portion thereof with animated graphical user interface
US9035883B2 (en) * 2012-03-07 2015-05-19 Google Technology Holdings LLC Systems and methods for modifying virtual keyboards on a user interface
TWI475421B (zh) * 2012-03-13 2015-03-01 Wistron Corp 觸控指令整合方法及觸控系統
US9098367B2 (en) 2012-03-14 2015-08-04 Flextronics Ap, Llc Self-configuring vehicle console application store
US20140309879A1 (en) 2013-04-15 2014-10-16 Flextronics Ap, Llc Control of vehicle features based on user recognition and identification
KR101721046B1 (ko) * 2012-04-08 2017-03-29 삼성전자주식회사 디스플레이 장치 및 그에 대한 제어 방법
CN103064580A (zh) * 2012-04-11 2013-04-24 北京飞漫软件技术有限公司 一种在桌面上隐藏应用及调出隐藏应用的方法
US20130271355A1 (en) * 2012-04-13 2013-10-17 Nokia Corporation Multi-segment wearable accessory
US9292158B2 (en) * 2012-04-17 2016-03-22 Franz Antonio Wakefield Method, system, apparatus, and tangible portable interactive electronic device storage medium; that processes custom programs and data for a user by creating, displaying, storing, modifying, performing adaptive learning routines, and multitasking; utilizing cascade windows on an electronic screen display in a mobile electronic interactive device GUI (graphical user interface) system
US20130285927A1 (en) * 2012-04-30 2013-10-31 Research In Motion Limited Touchscreen keyboard with correction of previously input text
US11209961B2 (en) 2012-05-18 2021-12-28 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
WO2013175770A1 (ja) * 2012-05-25 2013-11-28 パナソニック株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP6022214B2 (ja) * 2012-05-31 2016-11-09 任天堂株式会社 プログラム、情報処理方法、情報処理装置及び表示システム
CN103455315B (zh) * 2012-06-04 2018-09-07 百度在线网络技术(北京)有限公司 一种用于实现截屏及获取对应目标信息的方法与设备
TWI475434B (zh) * 2012-06-05 2015-03-01 Acer Inc 結合複數觸控螢幕的方法及組合式螢幕
US9098196B2 (en) * 2012-06-11 2015-08-04 Lenovo (Singapore) Pte. Ltd. Touch system inadvertent input elimination
CN102760043B (zh) * 2012-06-19 2016-01-27 华为终端有限公司 一种用户界面的图标管理方法及触控设备
CN104395873A (zh) * 2012-06-20 2015-03-04 三星电子株式会社 包括触摸屏的设备及其屏幕改变方法
CN103513899A (zh) * 2012-06-21 2014-01-15 北京睿思汇通移动科技有限公司 一种移动终端浏览器的分割屏幕方法及操控浏览器的方法
ES2398279B1 (es) * 2012-06-22 2014-01-21 Crambo, S.A. Activacion de una aplicacion en un dispositivo programable realizando gestos sobre una imagen
US20150123916A1 (en) * 2012-06-27 2015-05-07 Nec Casio Mobile Communications, Ltd. Portable terminal device, method for operating portable terminal device, and program for operating portable terminal device
WO2014003337A1 (ko) * 2012-06-28 2014-01-03 한양대학교 산학협력단 유아이 조절 방법 및 이를 사용하는 사용자 단말기
US10394366B2 (en) 2012-06-29 2019-08-27 Nec Corporation Terminal device, display control method, and program
US9030571B2 (en) * 2012-07-11 2015-05-12 Google Inc. Abstract camera pipeline for uniform cross-device control of image capture and processing
KR101987756B1 (ko) * 2012-07-24 2019-06-11 삼성전자주식회사 미디어 재생 방법 및 미디어 장치
US9256366B2 (en) 2012-08-14 2016-02-09 Google Technology Holdings LLC Systems and methods for touch-based two-stage text input
US9230076B2 (en) 2012-08-30 2016-01-05 Microsoft Technology Licensing, Llc Mobile device child share
US10452769B1 (en) * 2012-08-31 2019-10-22 United Services Automobile Association (Usaa) Concurrent display of application between devices
CN103677602B (zh) * 2012-09-13 2018-10-02 腾讯科技(深圳)有限公司 一种移动终端屏幕解锁方法及装置
KR102099646B1 (ko) * 2012-09-25 2020-04-13 삼성전자 주식회사 휴대단말의 분할화면 전환 장치 및 방법
US10180727B2 (en) 2012-09-28 2019-01-15 Tesla, Inc. Method of launching an application and selecting the application target window
US20140095023A1 (en) 2012-09-28 2014-04-03 Tesla Motors, Inc. Vehicle Air Suspension Control System
JP5921404B2 (ja) * 2012-09-28 2016-05-24 株式会社東芝 情報表示装置、情報表示方法及びプログラム
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR102063952B1 (ko) * 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
KR102061881B1 (ko) 2012-10-10 2020-01-06 삼성전자주식회사 멀티 디스플레이 장치 및 그 디스플레이 제어 방법
KR101951228B1 (ko) * 2012-10-10 2019-02-22 삼성전자주식회사 멀티 디스플레이 장치 및 그 촬상 방법
KR20140046329A (ko) * 2012-10-10 2014-04-18 삼성전자주식회사 멀티 디스플레이 장치 및 그 디스플레이 제어 방법
KR102083937B1 (ko) 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 툴 제공 방법
KR101984683B1 (ko) 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
KR102083918B1 (ko) 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
US9772722B2 (en) 2012-10-22 2017-09-26 Parade Technologies, Ltd. Position sensing methods and devices with dynamic gain for edge positioning
JP5735472B2 (ja) * 2012-10-26 2015-06-17 株式会社 ディー・エヌ・エー ゲーム提供装置
CN102970343B (zh) * 2012-10-31 2015-04-08 小米科技有限责任公司 一种显示推送信息的方法和装置
US9459760B2 (en) * 2012-11-16 2016-10-04 Xiaomi Inc. Method and device for managing a user interface
IN2015DN03806A (es) * 2012-11-20 2015-10-02 Jolla Oy
US9588674B2 (en) 2012-11-30 2017-03-07 Qualcomm Incorporated Methods and systems for providing an automated split-screen user interface on a device
WO2014088621A1 (en) * 2012-12-03 2014-06-12 Google, Inc. System and method for detecting gestures
KR102028336B1 (ko) * 2012-12-03 2019-10-04 삼성전자주식회사 복수 스크린을 표시하는 디스플레이 장치 및 그 제어 방법
CN103023736B (zh) * 2012-12-12 2016-05-11 惠州Tcl移动通信有限公司 显示dlna设备的方法及移动终端
US9645678B2 (en) * 2012-12-18 2017-05-09 Seiko Epson Corporation Display device, and method of controlling display device
KR20140085048A (ko) * 2012-12-27 2014-07-07 삼성전자주식회사 멀티 디스플레이 장치 및 제어 방법
KR20140087473A (ko) * 2012-12-31 2014-07-09 엘지전자 주식회사 두 개 이상의 화면을 처리하는 영상 처리 장치 및 방법
GB201300031D0 (en) 2013-01-02 2013-02-13 Canonical Ltd Ubuntu UX innovations
US20140191980A1 (en) * 2013-01-04 2014-07-10 Qualcomm Mems Technologies, Inc. System for reuse of touch panel and controller by a secondary display
KR102064965B1 (ko) * 2013-01-04 2020-01-10 엘지전자 주식회사 더블 터치 제스처를 이용한 단말기 제어 방법 및 그 단말기
US9294597B2 (en) * 2013-01-25 2016-03-22 Futurewei Technologies, Inc. Apparatuses and methods for a flexible display on a mobile device
KR102133410B1 (ko) * 2013-01-31 2020-07-14 삼성전자 주식회사 멀티태스킹 운용 방법 및 이를 지원하는 단말기
JP5925954B2 (ja) * 2013-02-20 2016-05-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報端末の制御方法及びプログラム
MY167493A (en) * 2013-02-20 2018-08-30 Panasonic Ip Corp America Program and Method for Controlling Portable Information Terminal
USD763916S1 (en) * 2013-02-23 2016-08-16 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
USD763907S1 (en) * 2013-02-23 2016-08-16 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
US9727190B2 (en) * 2013-02-25 2017-08-08 Sharp Kabushiki Kaisha Electronic apparatus and information processing system
US9678613B2 (en) * 2013-02-25 2017-06-13 Sharp Kabushiki Kaisha Input device and display
US9335808B2 (en) * 2013-03-08 2016-05-10 Intel Corporation Indicating critical battery status in mobile devices
USD737318S1 (en) * 2013-03-13 2015-08-25 Caterpillar Inc. Portion of a display screen with an animated computer generated icon
US9690476B2 (en) 2013-03-14 2017-06-27 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9274685B2 (en) * 2013-03-15 2016-03-01 Google Technology Holdings LLC Systems and methods for predictive text entry for small-screen devices with touch-based two-stage text input
KR102131825B1 (ko) 2013-03-20 2020-07-09 엘지전자 주식회사 적응적 터치 센서티브 영역을 제공하는 폴더블 디스플레이 디바이스 및 그 제어 방법
CN103197838B (zh) * 2013-03-21 2015-12-02 小米科技有限责任公司 解锁方法及装置
US9870147B2 (en) * 2013-03-27 2018-01-16 Hyon Jo Ji Touch control method in mobile terminal having large screen
US10275084B2 (en) * 2013-03-27 2019-04-30 Hyon Jo Ji Touch control method in mobile terminal having large screen
US20140298258A1 (en) * 2013-03-28 2014-10-02 Microsoft Corporation Switch List Interactions
US20140298241A1 (en) 2013-03-29 2014-10-02 Deere & Company Retracting shortcut bars, status shortcuts and edit run page sets
US9507495B2 (en) 2013-04-03 2016-11-29 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9298338B2 (en) 2013-04-08 2016-03-29 Apple Inc. Multiple displays for displaying workspaces
US9424790B2 (en) 2013-04-18 2016-08-23 Lg Electronics Inc. Portable device and control method for the same
US8860656B1 (en) * 2013-04-18 2014-10-14 Lg Electronics Inc. Portable device and control method for the same
KR102072584B1 (ko) * 2013-04-19 2020-02-03 엘지전자 주식회사 디지털 디바이스 및 그 제어 방법
USD760726S1 (en) * 2013-05-15 2016-07-05 Tencent Technology (Shenzhen) Company Limited Pair of display screens with animated graphical user interface
US20140351722A1 (en) * 2013-05-23 2014-11-27 Microsoft User interface elements for multiple displays
CN103324435B (zh) * 2013-05-24 2017-02-08 华为技术有限公司 分屏显示的方法、装置及其电子设备
CN104182161B (zh) * 2013-05-24 2018-08-10 联想(北京)有限公司 一种开启屏幕功能区域的方法和装置
US9143565B2 (en) 2013-05-30 2015-09-22 Opentv, Inc. Synchronizing an application on a companion device
USD737833S1 (en) 2013-06-09 2015-09-01 Apple Inc. Display screen or portion thereof with graphical user interface
USD726765S1 (en) * 2013-06-09 2015-04-14 Apple Inc. Display screen or portion thereof with icon
US9820231B2 (en) 2013-06-14 2017-11-14 Microsoft Technology Licensing, Llc Coalescing geo-fence events
US9998866B2 (en) 2013-06-14 2018-06-12 Microsoft Technology Licensing, Llc Detecting geo-fence events using varying confidence levels
US9467859B2 (en) * 2013-06-17 2016-10-11 Yale Security Inc. Virtual key ring
USD752096S1 (en) * 2013-06-21 2016-03-22 Microsoft Corporation Display screen with icon
US9927840B2 (en) * 2013-06-21 2018-03-27 Semiconductor Energy Laboratory Co., Ltd. Information processor for processing and displaying image data on a bendable display unit
KR20150000783A (ko) * 2013-06-25 2015-01-05 삼성전자주식회사 멀티 스크린을 이용한 디스플레이 방법 및 장치
KR102865522B1 (ko) 2013-07-02 2025-09-29 가부시키가이샤 한도오따이 에네루기 켄큐쇼 데이터 처리 장치
CN103399684A (zh) * 2013-07-03 2013-11-20 惠州Tcl移动通信有限公司 一种大小可变的显示屏幕、移动终端及其实现方法
KR102665926B1 (ko) 2013-08-02 2024-05-17 가부시키가이샤 한도오따이 에네루기 켄큐쇼 표시 장치
KR102208436B1 (ko) 2013-08-06 2021-01-27 삼성전자주식회사 출력 방법 및 그 방법을 처리하는 전자 장치
CN104423819B (zh) * 2013-08-26 2017-12-29 联想(北京)有限公司 一种屏幕锁定、屏幕解锁方法及电子设备
KR102195314B1 (ko) * 2013-08-28 2020-12-24 삼성전자주식회사 전자 장치 및 그 동작 방법
CN104469256B (zh) * 2013-09-22 2019-04-23 思科技术公司 沉浸式和交互式的视频会议房间环境
US20160224307A1 (en) * 2013-09-20 2016-08-04 Siemens Aktiengesellschaft Device, system having such devices, method for implementing the system and computer program product for implementing the method
US9158135B1 (en) * 2013-09-25 2015-10-13 Amazon Technologies, Inc. Hinged ancillary displays
CN104461601B (zh) * 2013-09-25 2017-11-28 联想(北京)有限公司 一种参数值调整方法及电子设备
US9105026B1 (en) * 2013-09-30 2015-08-11 Square, Inc. Rolling interface transition for mobile display
JP5924325B2 (ja) * 2013-10-02 2016-05-25 コニカミノルタ株式会社 入力装置、情報処理装置、入力装置の制御方法、および、当該制御方法をコンピューターに実行させるためのプログラム
JP6355312B2 (ja) * 2013-10-09 2018-07-11 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびコンピュータプログラム
US9535567B1 (en) * 2013-10-10 2017-01-03 Parallels International Gmbh Method for interception and blocking of mouse move and resize events on mobile device
US9727134B2 (en) 2013-10-29 2017-08-08 Dell Products, Lp System and method for display power management for dual screen display device
US9524139B2 (en) 2013-10-29 2016-12-20 Dell Products, Lp System and method for positioning an application window based on usage context for dual screen display device
US9430180B2 (en) 2013-11-15 2016-08-30 Semiconductor Energy Laboratory Co., Ltd Display panel and electronic device
US9990125B2 (en) * 2013-11-15 2018-06-05 Lg Electronics Inc. Mobile terminal and method of controlling the same
TWI512593B (zh) * 2013-11-26 2015-12-11 Mstar Semiconductor Inc 畫面繪製方法、畫面更新方法、與相關行動電子裝置
US9613202B2 (en) 2013-12-10 2017-04-04 Dell Products, Lp System and method for motion gesture access to an application and limited resources of an information handling system
CN103677695A (zh) * 2013-12-16 2014-03-26 苏州市峰之火数码科技有限公司 一种数码相册
KR20150076885A (ko) * 2013-12-27 2015-07-07 삼성디스플레이 주식회사 표시장치 및 이의 표시방법
CN104748737B (zh) 2013-12-30 2017-09-29 华为技术有限公司 一种多终端定位方法、相关设备及系统
CN104750238B (zh) 2013-12-30 2018-10-02 华为技术有限公司 一种基于多终端协同的手势识别方法、设备及系统
US9857910B2 (en) * 2014-01-13 2018-01-02 Huawei Device (Dongguan) Co., Ltd. Method for controlling multiple touchscreens and electronic device
US20150199086A1 (en) * 2014-01-13 2015-07-16 Microsoft Corporation Identifying and Launching Items Associated with a Particular Presentation Mode
US9910884B2 (en) 2014-01-13 2018-03-06 Microsoft Technology Licensing, Llc Resuming items in their last-used presentation modes
CN103744432B (zh) * 2014-01-20 2016-08-17 联想(北京)有限公司 一种转动控制方法和电子设备
CN106233241B (zh) 2014-01-23 2020-03-31 苹果公司 虚拟计算机键盘
US10407860B2 (en) 2014-01-23 2019-09-10 Hercules Machinery Corporation Reciprocating hammer with downward thrust assist
US11914419B2 (en) 2014-01-23 2024-02-27 Apple Inc. Systems and methods for prompting a log-in to an electronic device based on biometric information received from a user
KR102181887B1 (ko) * 2014-02-11 2020-11-24 삼성디스플레이 주식회사 휴대 단말기
US10747416B2 (en) 2014-02-13 2020-08-18 Samsung Electronics Co., Ltd. User terminal device and method for displaying thereof
US10866714B2 (en) * 2014-02-13 2020-12-15 Samsung Electronics Co., Ltd. User terminal device and method for displaying thereof
US10712918B2 (en) * 2014-02-13 2020-07-14 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
US9720567B2 (en) 2014-02-17 2017-08-01 Microsoft Technology Licensing, Llc Multitasking and full screen menu contexts
CN104850390A (zh) * 2014-02-19 2015-08-19 候万春 一种两面耦合移动终端或多面耦合应用的实现方法
JP2015172861A (ja) * 2014-03-12 2015-10-01 レノボ・シンガポール・プライベート・リミテッド 携帯式電子機器の使用環境を切り換える方法、携帯式電子機器およびコンピュータ・プログラム
JP6559928B2 (ja) * 2014-03-13 2019-08-14 富士通クライアントコンピューティング株式会社 無線通信装置
CN103853430B (zh) * 2014-03-21 2018-03-16 宇龙计算机通信科技(深圳)有限公司 应用组件拆分显示方法及装置
US10042529B2 (en) 2014-04-01 2018-08-07 Microsoft Technology Licensing, Llc Content display with dynamic zoom focus
CN104978043B (zh) * 2014-04-04 2021-07-09 北京三星通信技术研究有限公司 终端设备的键盘、终端设备的输入方法和终端设备
CN105094355B (zh) * 2014-04-29 2018-03-27 联发科技(新加坡)私人有限公司 输入方法及相关电子装置
DE102014208502A1 (de) * 2014-05-07 2015-11-12 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zum Wechseln zwischen Bildschirmansichten einer Anwenderschnittstelle
KR20150132918A (ko) * 2014-05-19 2015-11-27 엘지전자 주식회사 디스플레이 디바이스 및 그의 제어 방법
KR20150135911A (ko) * 2014-05-26 2015-12-04 삼성전자주식회사 Ui 효과 디스플레이 방법 및 전자 장치
US10156967B2 (en) 2014-05-31 2018-12-18 Apple Inc. Device, method, and graphical user interface for tabbed and private browsing
KR101529999B1 (ko) * 2014-06-05 2015-06-19 김신우 더블 오브젝트 컨트롤 장치, 더블 오브젝트 컨트롤 방법 및 이를 구현하기 위한 프로그램이 저장된 기록 매체
US9324065B2 (en) 2014-06-11 2016-04-26 Square, Inc. Determining languages for a multilingual interface
AU2015274903B2 (en) * 2014-06-11 2017-03-09 Block, Inc. Controlling access based on display orientation
US9785340B2 (en) 2014-06-12 2017-10-10 Apple Inc. Systems and methods for efficiently navigating between applications with linked content on an electronic device with a touch-sensitive display
US9648062B2 (en) * 2014-06-12 2017-05-09 Apple Inc. Systems and methods for multitasking on an electronic device with a touch-sensitive display
EP2961209A1 (en) 2014-06-25 2015-12-30 Thomson Licensing Method and device for pairing devices
KR20160013748A (ko) * 2014-07-28 2016-02-05 엘지전자 주식회사 휴대 전자기기 및 그것의 제어방법
US10521074B2 (en) * 2014-07-31 2019-12-31 Dell Products, Lp System and method for a back stack in a multi-application environment
US10291597B2 (en) 2014-08-14 2019-05-14 Cisco Technology, Inc. Sharing resources across multiple devices in online meetings
US9619008B2 (en) 2014-08-15 2017-04-11 Dell Products, Lp System and method for dynamic thermal management in passively cooled device with a plurality of display surfaces
US20160062966A1 (en) * 2014-08-26 2016-03-03 Microsoft Corporation Full screen pop-out of objects in editable form
US10613809B2 (en) 2014-09-01 2020-04-07 Lg Electronics Inc. Display device for displaying multiple applications on flexible display and method for controlling the display device
CN110072131A (zh) 2014-09-02 2019-07-30 苹果公司 音乐用户界面
CN105373217A (zh) * 2014-09-02 2016-03-02 鸿富锦精密工业(深圳)有限公司 多屏显示装置
WO2016035907A1 (ko) * 2014-09-03 2016-03-10 엘지전자 주식회사 디스플레이 장치 및 디스플레이 장치의 제어 방법
US10048862B2 (en) * 2014-09-08 2018-08-14 Lenovo (Singapore) Pte. Ltd. Managing an on-screen keyboard
CN104216675B (zh) * 2014-09-16 2019-10-08 努比亚技术有限公司 屏幕扩展方法、系统和移动终端
US10101772B2 (en) 2014-09-24 2018-10-16 Dell Products, Lp Protective cover and display position detection for a flexible display screen
US9996108B2 (en) 2014-09-25 2018-06-12 Dell Products, Lp Bi-stable hinge
DE102014014498B4 (de) * 2014-09-25 2024-08-08 Alcon Inc. Mit einem Touchscreen ausgestattetes Gerät sowie Verfahren zur Steuerung eines derartigen Geräts
KR20160039501A (ko) * 2014-10-01 2016-04-11 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR102243657B1 (ko) * 2014-10-06 2021-04-23 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
US9858027B2 (en) 2014-10-30 2018-01-02 Adobe Systems Incorporated Multiple display rendering of digital content
CN104300658A (zh) * 2014-11-05 2015-01-21 山东共达电声股份有限公司 一种手持终端保护壳
KR102295844B1 (ko) * 2014-11-18 2021-08-31 삼성전자 주식회사 전자장치에서 화면의 표시를 제어하는 장치 및 방법
US20160147432A1 (en) * 2014-11-21 2016-05-26 Cisco Technology, Inc. Automatically returning to an active window during a meeting
US10542126B2 (en) 2014-12-22 2020-01-21 Cisco Technology, Inc. Offline virtual participation in an online conference meeting
KR102358749B1 (ko) * 2014-12-26 2022-02-07 엘지전자 주식회사 디지털 디바이스 및 그 제어 방법
JP6384869B2 (ja) * 2015-01-23 2018-09-05 アルパイン株式会社 情報処理システム及びコンピュータプログラム
US10317934B2 (en) 2015-02-04 2019-06-11 Dell Products, Lp Gearing solution for an external flexible substrate on a multi-use product
US20160224220A1 (en) * 2015-02-04 2016-08-04 Wipro Limited System and method for navigating between user interface screens
US10173687B2 (en) 2015-03-16 2019-01-08 Wellen Sham Method for recognizing vehicle driver and determining whether driver can start vehicle
CN104679389B (zh) * 2015-03-18 2019-03-26 广州三星通信技术研究有限公司 界面显示方法和装置
US20160291806A1 (en) * 2015-04-02 2016-10-06 Ford Global Technologies, Llc Customizable instrument cluster user interface
CN106055190B (zh) 2015-04-16 2021-03-09 三星电子株式会社 用于经由显示器的部分提供信息的设备和方法
US20160306531A1 (en) * 2015-04-16 2016-10-20 Microsoft Technology Licensing, Llc Dynamic Launch Behavior Based on Context Information
US9948786B2 (en) 2015-04-17 2018-04-17 Cisco Technology, Inc. Handling conferences using highly-distributed agents
CN104837064B (zh) * 2015-04-20 2018-07-27 腾讯科技(北京)有限公司 开放式操作系统的媒体播放器的控制方法及媒体播放器
US9699301B1 (en) * 2015-05-31 2017-07-04 Emma Michaela Siritzky Methods, devices and systems supporting driving and studying without distraction
TWI708169B (zh) * 2015-06-02 2020-10-21 南韓商三星電子股份有限公司 使用者終端裝置及其控制方法
US20160364121A1 (en) * 2015-06-10 2016-12-15 Mediatek Inc. Method and associated circuit for arranging window on screen
JP6187546B2 (ja) * 2015-06-22 2017-08-30 コニカミノルタ株式会社 操作表示システム、操作表示装置および操作表示プログラム
US10592190B2 (en) * 2015-06-25 2020-03-17 Koninklijke Philips N.V. Method and apparatus for controlling the operation of an electronic device
US10133324B2 (en) 2015-06-29 2018-11-20 Microsoft Technology Licensing, Llc Thermal mitigation user experience
USD788810S1 (en) * 2015-08-12 2017-06-06 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
KR102504201B1 (ko) 2015-08-12 2023-02-27 삼성전자 주식회사 전자 장치 및 이의 알림 출력 제어 방법
JP6539163B2 (ja) * 2015-09-07 2019-07-03 キヤノン株式会社 情報処理装置およびその制御方法、並びにプログラム
US10481645B2 (en) 2015-09-11 2019-11-19 Lucan Patent Holdco, LLC Secondary gesture input mechanism for touchscreen devices
CN105242869A (zh) * 2015-09-23 2016-01-13 宇龙计算机通信科技(深圳)有限公司 一种用户终端的双屏交互方法及用户终端
KR102481878B1 (ko) * 2015-10-12 2022-12-28 삼성전자주식회사 휴대 장치 및 휴대 장치의 화면 표시방법
KR20170053513A (ko) * 2015-11-06 2017-05-16 삼성전자주식회사 복수의 디스플레이들을 포함하는 전자 장치 및 그 동작 방법
CN106708353B (zh) * 2015-11-16 2021-06-04 钉钉控股(开曼)有限公司 即时通讯方法、客户端及电子设备
CN105338249A (zh) * 2015-11-24 2016-02-17 努比亚技术有限公司 基于独立相机系统进行拍摄方法及移动终端
US10209872B2 (en) * 2015-12-01 2019-02-19 Samsung Electronics Co., Ltd. Indicating states of native applications in application launcher
US10291762B2 (en) 2015-12-04 2019-05-14 Cisco Technology, Inc. Docking station for mobile computing devices
CN105407169A (zh) * 2015-12-08 2016-03-16 广东威创视讯科技股份有限公司 桌面共享方法和系统
CN105404558B (zh) * 2015-12-11 2019-07-09 北京元心科技有限公司 多系统中事件处理的方法及装置
USD800169S1 (en) * 2015-12-24 2017-10-17 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional icon
CN105630385A (zh) * 2015-12-24 2016-06-01 联想(北京)有限公司 显示处理方法及电子设备
US10496970B2 (en) 2015-12-29 2019-12-03 Square, Inc. Animation management in applications
KR102168648B1 (ko) * 2016-01-07 2020-10-21 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법
US11335302B2 (en) * 2016-01-15 2022-05-17 Google Llc Adaptable user interface with dual screen device
KR102480462B1 (ko) 2016-02-05 2022-12-23 삼성전자주식회사 복수의 디스플레이들을 포함하는 전자 장치 및 그 동작 방법
CN105843536A (zh) * 2016-03-21 2016-08-10 联想(北京)有限公司 信息处理的方法和装置
CN105892911A (zh) * 2016-03-28 2016-08-24 联想(北京)有限公司 信息处理的方法和装置
US10367677B2 (en) 2016-05-13 2019-07-30 Telefonaktiebolaget Lm Ericsson (Publ) Network architecture, methods, and devices for a wireless communications network
US10630410B2 (en) 2016-05-13 2020-04-21 Telefonaktiebolaget Lm Ericsson (Publ) Network architecture, methods, and devices for a wireless communications network
USD806103S1 (en) * 2016-05-23 2017-12-26 Netflix, Inc. Display screen or portion thereof with graphical user interface with preview window and peek row
USD795831S1 (en) * 2016-06-06 2017-08-29 Theresa L. Lucas Lamb Cell phone with two screens
CN107515790A (zh) * 2016-06-16 2017-12-26 成都鼎桥通信技术有限公司 电子设备的系统
CN106125542B (zh) * 2016-06-20 2018-05-01 武汉华星光电技术有限公司 智能手表及其多次数字运算方法
US10574609B2 (en) 2016-06-29 2020-02-25 Cisco Technology, Inc. Chat room access control
AU2017100879B4 (en) * 2016-07-29 2017-09-28 Apple Inc. Systems, devices, and methods for dynamically providing user interface controls at touch-sensitive secondary display
CN106157909B (zh) * 2016-08-08 2019-02-26 深圳市华星光电技术有限公司 显示面板的画面压缩方法及画面压缩装置
JP6466887B2 (ja) * 2016-09-01 2019-02-06 本田技研工業株式会社 情報端末用プログラム及び情報端末
US10768804B2 (en) * 2016-09-06 2020-09-08 Microsoft Technology Licensing, Llc Gesture language for a device with multiple touch surfaces
CN106445438B (zh) * 2016-09-09 2019-10-22 深圳市金立通信设备有限公司 一种终端及其显示方法
CN107817960A (zh) * 2016-09-14 2018-03-20 中兴通讯股份有限公司 一种屏幕显示方法及移动终端
US10303413B2 (en) * 2016-09-28 2019-05-28 Verizon Patent And Licensing Inc. Apparatuses and methods for linking mobile computing devices for virtual reality experiences
CN106453883B (zh) * 2016-09-30 2020-04-28 深圳市羽恒科技有限公司 一种智能终端及其消息通知处理的方法
KR102597036B1 (ko) 2016-10-11 2023-11-02 삼성전자주식회사 듀얼 디스플레이를 가지는 전자 장치 및 이의 운용 방법
CN106502560A (zh) * 2016-10-11 2017-03-15 北京小米移动软件有限公司 显示控制方法及装置
US11794094B2 (en) * 2016-10-17 2023-10-24 Aquimo Inc. Method and system for using sensors of a control device for control of a game
US9880800B1 (en) * 2016-10-26 2018-01-30 Dell Products L. P. Routing content in a dual-display computing device
US10237740B2 (en) 2016-10-27 2019-03-19 International Business Machines Corporation Smart management of mobile applications based on visual recognition
USD943624S1 (en) 2016-10-27 2022-02-15 Apple Inc. Electronic device with pair of display screens or portions thereof each with animated graphical user interface
USD927529S1 (en) 2019-01-11 2021-08-10 Apple Inc. Electronic device with pair of display screens or portions thereof each with graphical user interface
USD842892S1 (en) 2016-10-27 2019-03-12 Apple Inc. Electronic device with pair of display screens or portions thereof each with graphical user interface
CN106534720A (zh) * 2016-11-08 2017-03-22 成都飞视通科技有限公司 一种基于高速数据总线的图像切换和拼接显示系统
US10331190B2 (en) 2016-11-09 2019-06-25 Microsoft Technology Licensing, Llc Detecting user focus on hinged multi-screen device
US10228839B2 (en) 2016-11-10 2019-03-12 Dell Products L.P. Auto-scrolling input in a dual-display computing device
US10592867B2 (en) 2016-11-11 2020-03-17 Cisco Technology, Inc. In-meeting graphical user interface display using calendar information and system
US10514844B2 (en) 2016-11-16 2019-12-24 Dell Products L.P. Automatically modifying an input area based on a proximity to one or more edges
US10170061B2 (en) 2016-11-30 2019-01-01 Dell Products L.P. Backlight compensation for a computing device with two or more display devices
EP3333658A1 (de) * 2016-12-09 2018-06-13 Sick Ag Steuerung zum sicheren steuern zumindest einer maschine
US10318130B2 (en) * 2016-12-12 2019-06-11 Google Llc Controlling window using touch-sensitive edge
US10264213B1 (en) 2016-12-15 2019-04-16 Steelcase Inc. Content amplification system and method
US10516707B2 (en) 2016-12-15 2019-12-24 Cisco Technology, Inc. Initiating a conferencing meeting using a conference room device
EP3340090B1 (de) * 2016-12-22 2020-04-15 Siemens Healthcare GmbH Zuordnung unterschiedlicher anwendungsprogramme eines medizinischen bildgebenden gerätes zu detektierten anzeigeeinrichtungen
US10380579B1 (en) * 2016-12-22 2019-08-13 Square, Inc. Integration of transaction status indications
CN109785816B (zh) * 2017-01-03 2021-06-25 中兴通讯股份有限公司 移动终端及其显示控制方法
US10908868B2 (en) * 2017-01-26 2021-02-02 Huawei Technologies Co., Ltd. Data processing method and mobile device
US10515117B2 (en) 2017-02-14 2019-12-24 Cisco Technology, Inc. Generating and reviewing motion metadata
US9942519B1 (en) 2017-02-21 2018-04-10 Cisco Technology, Inc. Technologies for following participants in a video conference
CN106803885B (zh) * 2017-02-28 2019-12-31 上海传英信息技术有限公司 一种基于智能终端系统相机功能的调试处理方法
CN106790836A (zh) * 2017-03-09 2017-05-31 上海摩软通讯技术有限公司 移动终端及移动终端的显示屏设置方法
US20180284932A1 (en) * 2017-03-31 2018-10-04 Honda Motor Co., Ltd. Transparent display for resilient vehicle surfaces
CN107168664A (zh) * 2017-03-31 2017-09-15 捷开通讯(深圳)有限公司 终端及其屏幕的分屏显示方法、存储装置
US10440073B2 (en) 2017-04-11 2019-10-08 Cisco Technology, Inc. User interface for proximity based teleconference transfer
CN115016753A (zh) 2017-04-20 2022-09-06 华为技术有限公司 显示控制方法及装置
CN107045421B (zh) * 2017-04-27 2021-06-18 宇龙计算机通信科技(深圳)有限公司 屏幕切换方法及移动终端
US10375125B2 (en) 2017-04-27 2019-08-06 Cisco Technology, Inc. Automatically joining devices to a video conference
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
US10928980B2 (en) 2017-05-12 2021-02-23 Apple Inc. User interfaces for playing and managing audio items
US10015442B1 (en) * 2017-05-12 2018-07-03 Microsoft Technology Licensing, Llc Three-way video calling on hinged multi-screen device
US10942696B2 (en) 2017-05-15 2021-03-09 Microsoft Technology Licensing, Llc Display device selection based on hardware configuration
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
US12526361B2 (en) 2017-05-16 2026-01-13 Apple Inc. Methods for outputting an audio output in accordance with a user being within a range of a device
SE541650C2 (en) * 2017-05-30 2019-11-19 Crunchfish Ab Improved activation of a virtual object
US10404481B2 (en) 2017-06-06 2019-09-03 Cisco Technology, Inc. Unauthorized participant detection in multiparty conferencing by comparing a reference hash value received from a key management server with a generated roster hash value
US10761799B2 (en) 2017-06-09 2020-09-01 Microsoft Technology Licensing, Llc Inference of an intended primary display of a hinged mobile device
US10375474B2 (en) 2017-06-12 2019-08-06 Cisco Technology, Inc. Hybrid horn microphone
JP2019003337A (ja) * 2017-06-13 2019-01-10 シャープ株式会社 画像表示装置
US10477148B2 (en) 2017-06-23 2019-11-12 Cisco Technology, Inc. Speaker anticipation
CN107329684A (zh) * 2017-06-26 2017-11-07 努比亚技术有限公司 一种边缘交互控制方法、设备及计算机可读存储介质
JP6921647B2 (ja) * 2017-06-27 2021-08-18 キヤノン株式会社 クライアントデバイス、画像処理システム、画像の表示方法および、プログラム
US10516709B2 (en) 2017-06-29 2019-12-24 Cisco Technology, Inc. Files automatically shared at conference initiation
JP6885221B2 (ja) * 2017-06-30 2021-06-09 ブラザー工業株式会社 表示制御装置、表示制御方法及び表示制御プログラム
US10706391B2 (en) 2017-07-13 2020-07-07 Cisco Technology, Inc. Protecting scheduled meeting in physical room
CN109302508A (zh) * 2017-07-25 2019-02-01 中兴通讯股份有限公司 一种确定双屏相对位置的方法、显示控制的方法及终端
US10091348B1 (en) 2017-07-25 2018-10-02 Cisco Technology, Inc. Predictive model for voice/video over IP calls
CN107395802A (zh) * 2017-07-25 2017-11-24 珠海市魅族科技有限公司 终端设备
CN108459753B (zh) 2017-07-25 2019-10-01 南京中兴软件有限责任公司 一种触摸屏边缘处理方法及装置
US11093197B2 (en) * 2017-07-31 2021-08-17 Stmicroelectronics, Inc. System and method to increase display area utilizing a plurality of discrete displays
JP6705781B2 (ja) * 2017-08-01 2020-06-03 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
CN107508971B (zh) * 2017-08-04 2020-07-03 宇龙计算机通信科技(深圳)有限公司 来电信息的管理方法及装置
US11301124B2 (en) * 2017-08-18 2022-04-12 Microsoft Technology Licensing, Llc User interface modification using preview panel
US11237699B2 (en) 2017-08-18 2022-02-01 Microsoft Technology Licensing, Llc Proximal menu generation
USD873284S1 (en) 2017-09-09 2020-01-21 Apple Inc. Electronic device with graphical user interface
USD987669S1 (en) 2017-09-11 2023-05-30 Apple Inc. Electronic device with graphical user interface
CN107861663B (zh) * 2017-09-29 2020-10-16 努比亚技术有限公司 一种全面屏下的停靠栏显示方法和装置
CN109658427B (zh) * 2017-10-11 2023-04-07 中兴通讯股份有限公司 图像处理方法及装置
CN107765943B (zh) * 2017-10-16 2020-05-12 北京点石经纬科技有限公司 一种在双屏智能终端上实现双app同时运行的方法
CN107766023A (zh) * 2017-10-19 2018-03-06 广东欧珀移动通信有限公司 信息显示方法、装置、终端及存储介质
CN107832102B (zh) * 2017-10-31 2020-12-29 廊坊市朔程燃气有限公司 一种情景模式的操作方法、装置及计算机可读存储介质
US10771621B2 (en) 2017-10-31 2020-09-08 Cisco Technology, Inc. Acoustic echo cancellation based sub band domain active speaker detection for audio and video conferencing applications
US10423321B2 (en) * 2017-11-02 2019-09-24 Dell Products L. P. Defining a zone to perform an action in a dual-screen tablet
CN108170499B (zh) * 2017-11-17 2021-06-15 深圳依偎控股有限公司 3d应用图标的显示方法、装置及电子设备
CN107943442A (zh) * 2017-11-24 2018-04-20 上海龙旗科技股份有限公司 一种实现双屏显示的方法及设备
CN111479495B (zh) * 2017-11-28 2024-01-09 深圳迈瑞生物医疗电子股份有限公司 一种监护仪及其显示屏幕切换方法
CN109949621A (zh) * 2017-12-21 2019-06-28 北京丰信达科技有限公司 一种智慧黑板的触摸授课技术
CN108334163A (zh) * 2018-01-05 2018-07-27 联想(北京)有限公司 一种双屏电子设备及其显示控制方法
CN108415933A (zh) * 2018-01-23 2018-08-17 安徽微分基因科技有限公司 一种wfg数据管理报告系统
JP7119408B2 (ja) * 2018-02-15 2022-08-17 コニカミノルタ株式会社 画像処理装置、画面取扱い方法、およびコンピュータプログラム
US11354030B2 (en) * 2018-02-22 2022-06-07 Kyocera Corporation Electronic device, control method, and program
CN108717343A (zh) * 2018-04-08 2018-10-30 Oppo广东移动通信有限公司 应用程序图标处理方法、装置以及移动终端
KR102513752B1 (ko) * 2018-04-11 2023-03-24 삼성전자 주식회사 전자 장치 및 전자 장치의 제어 방법
CN108762626B (zh) * 2018-04-13 2020-12-11 广州讯立享智能科技有限公司 一种基于触摸一体机的分屏显示方法及触摸一体机
US11010179B2 (en) 2018-04-20 2021-05-18 Facebook, Inc. Aggregating semantic information for improved understanding of users
US11715042B1 (en) 2018-04-20 2023-08-01 Meta Platforms Technologies, Llc Interpretability of deep reinforcement learning models in assistant systems
US11307880B2 (en) 2018-04-20 2022-04-19 Meta Platforms, Inc. Assisting users with personalized and contextual communication content
US11676220B2 (en) 2018-04-20 2023-06-13 Meta Platforms, Inc. Processing multimodal user input for assistant systems
US11886473B2 (en) 2018-04-20 2024-01-30 Meta Platforms, Inc. Intent identification for agent matching by assistant systems
US10334098B1 (en) * 2018-05-07 2019-06-25 Star Co Scientific Technologies Advanced Research Co, Llc Systems and methods for controlling a mobile device cover
CN108646976B (zh) * 2018-05-17 2021-02-26 Oppo广东移动通信有限公司 触控信息的处理方法、装置、存储介质及电子设备
CN108881715B (zh) * 2018-05-25 2021-03-09 Oppo广东移动通信有限公司 拍摄模式的启用方法、装置、终端及存储介质
WO2019229698A1 (en) 2018-05-31 2019-12-05 Purple Tambourine Limited Interacting with a virtual environment using a pointing controller
US11966578B2 (en) 2018-06-03 2024-04-23 Apple Inc. Devices and methods for integrating video with user interface navigation
CN108845854B (zh) * 2018-06-08 2021-03-09 Oppo广东移动通信有限公司 用户界面显示方法、装置、终端及存储介质
CN108769319B (zh) * 2018-06-08 2020-10-02 Oppo广东移动通信有限公司 滑动组件防电磁干扰的变速方法、驱动组件、装置和介质
TWI692720B (zh) * 2018-06-21 2020-05-01 和碩聯合科技股份有限公司 動態設定顯示面板的方法及電子裝置
US11567628B2 (en) * 2018-07-05 2023-01-31 International Business Machines Corporation Cognitive composition of multi-dimensional icons
EP3821406A1 (en) * 2018-07-12 2021-05-19 4P Srl Multifunction electronic handheld device
US11416077B2 (en) * 2018-07-19 2022-08-16 Infineon Technologies Ag Gesture detection system and method using a radar sensor
CN109063444B (zh) * 2018-07-23 2021-05-25 努比亚技术有限公司 移动终端屏幕解锁方法、移动终端及计算机可读存储介质
CN111602108B (zh) * 2018-07-31 2022-07-12 华为技术有限公司 一种应用图标的显示方法及终端
CN109164971A (zh) * 2018-07-31 2019-01-08 合肥联宝信息技术有限公司 一种显示屏的显示方法及显示装置
CN109101311B (zh) * 2018-08-24 2021-07-23 武汉斗鱼网络科技有限公司 一种显示视图兼容的方法及电子设备
JP6613512B1 (ja) * 2018-08-31 2019-12-04 レノボ・シンガポール・プライベート・リミテッド 電子機器
CN109143645B (zh) * 2018-09-13 2021-07-27 厦门天马微电子有限公司 一种显示面板、其驱动方法及显示装置
CN109274824A (zh) * 2018-09-27 2019-01-25 西安易朴通讯技术有限公司 拍摄方法及电子设备
US11714543B2 (en) * 2018-10-01 2023-08-01 T1V, Inc. Simultaneous gesture and touch control on a display
EP3870322A4 (en) 2018-10-22 2022-08-03 Sony Interactive Entertainment LLC DATA MODEL FOR A UNIFORM DATA PLATFORM
EP3871423A4 (en) 2018-10-23 2022-07-06 Sony Interactive Entertainment LLC CROSS-PLATFORM SPOILER BLOCK SERVICE
CN113260428B (zh) * 2018-10-25 2024-03-12 索尼互动娱乐有限责任公司 跨平台消费游戏内的对象
US10852769B2 (en) * 2018-10-29 2020-12-01 Dell Products, L.P. Display management for multi-form factor information handling system (IHS)
CN109639879B (zh) * 2018-10-30 2021-09-07 努比亚技术有限公司 屏幕显示控制方法、可折叠终端及计算机可读存储介质
CN109242945B (zh) * 2018-12-13 2019-04-16 深圳市彬讯科技有限公司 分布式渲染的智能调度方法、设备及存储介质
CN111327512A (zh) * 2018-12-14 2020-06-23 北京宝沃汽车有限公司 汽车通讯方法、装置、控制器及车辆
CN109683785B (zh) * 2018-12-24 2021-03-12 维沃移动通信有限公司 一种信息处理方法及移动终端
CN109782970B (zh) * 2018-12-25 2021-01-08 维沃移动通信有限公司 一种显示方法和终端
CN109697008B (zh) * 2018-12-26 2021-08-03 努比亚技术有限公司 一种内容分享方法、终端及计算机可读存储介质
CN109618177B (zh) 2018-12-26 2020-02-28 北京微播视界科技有限公司 视频处理方法、装置、电子设备及计算机可读存储介质
CN109683841B (zh) * 2018-12-27 2022-05-03 武汉深之度科技有限公司 多显示器环境下的控件显示方法及计算设备
CN114779987B (zh) * 2019-01-15 2024-05-14 Oppo广东移动通信有限公司 显示内容的方法、装置、终端及存储介质
US11009907B2 (en) 2019-01-18 2021-05-18 Dell Products L.P. Portable information handling system user interface selection based on keyboard configuration
US11169653B2 (en) 2019-01-18 2021-11-09 Dell Products L.P. Asymmetric information handling system user interface management
US11347367B2 (en) * 2019-01-18 2022-05-31 Dell Products L.P. Information handling system see do user interface management
CN109871358A (zh) * 2019-01-31 2019-06-11 维沃移动通信有限公司 一种管理方法及终端设备
USD910036S1 (en) * 2019-02-18 2021-02-09 Samsung Electronics Co., Ltd. Foldable mobile phone with transitional graphical user interface
EP3928187A1 (en) 2019-02-18 2021-12-29 Arkh Litho Holdings, LLC Interacting with a smart device using a pointing controller
USD910035S1 (en) 2019-02-18 2021-02-09 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
EP3930298B1 (en) 2019-02-19 2025-07-02 LG Electronics Inc. Mobile terminal and electronic device having mobile terminal
JP7146951B2 (ja) 2019-02-19 2022-10-04 エルジー エレクトロニクス インコーポレイティド 移動端末機および移動端末機を備える電子機器
CN110049363B (zh) * 2019-03-21 2021-04-30 北京奇艺世纪科技有限公司 多媒体设备的控制方法及多媒体系统
CN110134471B (zh) * 2019-04-01 2022-09-06 徐州视达坦诚文化发展有限公司 一种屏幕切换动画控制方法、终端及计算机可读存储介质
US11398168B2 (en) 2019-04-03 2022-07-26 Samsung Electronics Co., Ltd. Mobile device with a foldable display and method of providing user interfaces on the foldable display
CN109993507A (zh) * 2019-04-17 2019-07-09 王亚萍 一种先导式纳税服务系统
CN110032327A (zh) * 2019-04-18 2019-07-19 珠海格力电器股份有限公司 基于折叠屏移动终端的手势操作方法及移动终端
CN110071792B (zh) * 2019-04-28 2021-12-07 西安空间无线电技术研究所 一种基于半双工总线的低时延高可靠的无线传输控制方法
TWI705369B (zh) * 2019-05-15 2020-09-21 緯創資通股份有限公司 集線器裝置、顯示裝置及其操作方法
CN113748408A (zh) 2019-05-31 2021-12-03 苹果公司 用于音频媒体控件的用户界面
US10996917B2 (en) 2019-05-31 2021-05-04 Apple Inc. User interfaces for audio media control
CN110264797B (zh) * 2019-06-24 2021-06-01 烟台工程职业技术学院(烟台市技师学院) 一种智能英语学习机
CN110275755B (zh) * 2019-07-08 2023-06-16 深圳市嘉利达专显科技有限公司 零秒讯号推送系统
JP7354647B2 (ja) * 2019-07-24 2023-10-03 セイコーエプソン株式会社 端末装置、表示制御プログラムおよび表示制御方法
US10996767B2 (en) * 2019-07-25 2021-05-04 Dell Products, L.P. Management of user context for operation of IHS peripherals
CN110620833B (zh) * 2019-08-16 2021-05-11 华为技术有限公司 一种可折叠的电子设备的显示方法及电子设备
WO2021049685A1 (ko) * 2019-09-11 2021-03-18 엘지전자 주식회사 홈스크린을 설정하는 이동 단말기 및 그 제어 방법
WO2021061275A1 (en) 2019-09-24 2021-04-01 Arkh, Llc Smart ring
US12455622B2 (en) 2019-09-24 2025-10-28 Arkh, Inc. Smart ring
US11138912B2 (en) 2019-10-01 2021-10-05 Microsoft Technology Licensing, Llc Dynamic screen modes on a bendable computing device
US11416130B2 (en) * 2019-10-01 2022-08-16 Microsoft Technology Licensing, Llc Moving applications on multi-screen computing device
US11201962B2 (en) 2019-10-01 2021-12-14 Microsoft Technology Licensing, Llc Calling on a multi-display device
US11561587B2 (en) 2019-10-01 2023-01-24 Microsoft Technology Licensing, Llc Camera and flashlight operation in hinged device
CN110888581A (zh) * 2019-10-11 2020-03-17 广州视源电子科技股份有限公司 元素传递方法、装置、设备及存储介质
CN110719665B (zh) * 2019-10-12 2022-06-28 浙江创意声光电科技有限公司 基于灯光控制系统的脚本执行方法及装置
US11188222B2 (en) 2019-12-05 2021-11-30 Cabin Management Solutions, Llc Multi-arrayed display user interface panel
CN111016651A (zh) * 2019-12-10 2020-04-17 上海博泰悦臻电子设备制造有限公司 车辆、车机设备、可扩展式车机显示屏幕及控制方法
CN111098863B (zh) * 2019-12-12 2022-03-29 长城汽车股份有限公司 自动驾驶车辆的远程驾驶请求方法、装置及用户终端
KR102809976B1 (ko) * 2020-03-12 2025-05-20 삼성전자주식회사 네트워크 연결 방법 및 이를 지원하는 전자 장치
US12416967B2 (en) 2020-03-16 2025-09-16 Arkh, Inc. Spatially aware computing hub and environment
US11755111B2 (en) 2020-03-16 2023-09-12 Arkh, Inc. Spatially aware computing hub and environment
CN111399959B (zh) * 2020-03-17 2024-08-16 Oppo广东移动通信有限公司 多任务操作方法、装置、电子设备以及存储介质
CN111488190B (zh) * 2020-03-31 2021-10-15 腾讯科技(深圳)有限公司 屏幕分享方法、装置、计算机设备和存储介质
CN113542497A (zh) * 2020-03-31 2021-10-22 北京字节跳动网络技术有限公司 可折叠终端的控制方法、装置、终端和存储介质
CN111488101B (zh) * 2020-04-10 2021-09-10 得到(天津)文化传播有限公司 事件监听响应方法、装置、设备和存储介质
CN111640309A (zh) * 2020-05-22 2020-09-08 浙江工贸职业技术学院 一种快捷的车辆检测系统
CN111756900A (zh) * 2020-07-17 2020-10-09 上海龙旗科技股份有限公司 一种手机扩展屏幕
CN113973140B (zh) * 2020-07-22 2022-10-21 Oppo广东移动通信有限公司 设备控制方法、装置、存储介质及电子设备
CN114762035B (zh) 2020-07-30 2024-02-27 株式会社村田制作所 电子设备
KR102807458B1 (ko) 2020-08-21 2025-05-16 삼성전자주식회사 디스플레이장치 및 그 제어방법
US11513754B2 (en) 2020-09-08 2022-11-29 Atieva, Inc. Presenting content on separate display devices in vehicle instrument panel
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
USD1009861S1 (en) 2020-09-25 2024-01-02 Arkh, Inc. Smart ring
USD952661S1 (en) 2020-10-12 2022-05-24 Apple Inc. Display screen or portion thereof with animated graphical user interface
JP2022070081A (ja) * 2020-10-26 2022-05-12 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法
CN112272191B (zh) * 2020-11-16 2022-07-12 Oppo广东移动通信有限公司 数据转移方法及相关装置
US12236537B2 (en) 2020-12-18 2025-02-25 Arkh, Inc. Spatially aware environment relocalization
US12118677B2 (en) 2020-12-22 2024-10-15 Arkh, Inc. Spatially aware environment interaction
USD969828S1 (en) * 2021-01-12 2022-11-15 Beijing Zitiao Network Technology Co., Ltd. Display screen or portion thereof with a graphical user interface
US20220229535A1 (en) * 2021-01-19 2022-07-21 Samsung Electronics Company, Ltd. Systems and Methods for Manipulating Views and Shared Objects in XR Space
FR3120963A1 (fr) * 2021-03-19 2022-09-23 Psa Automobiles Sa Procédé et dispositif d’affichage de contenu graphique pour véhicule
CN113099634B (zh) * 2021-03-23 2023-01-06 井冈山市秀狐智造电子有限公司 一种led屏安装结构
US11678006B2 (en) 2021-06-17 2023-06-13 Microsoft Technology Licensing, Llc Multiple device content management
CN115705130A (zh) * 2021-08-04 2023-02-17 荣耀终端有限公司 多任务管理方法和终端设备
CN113656129A (zh) * 2021-08-16 2021-11-16 百度在线网络技术(北京)有限公司 应用图标的控制方法、装置、电子设备和介质
JP7317908B2 (ja) 2021-09-09 2023-07-31 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法
CN113918256B (zh) * 2021-09-30 2024-09-17 联想(北京)有限公司 控制方法、装置及电子设备
CN113900760B (zh) * 2021-10-26 2024-05-28 广州博冠信息科技有限公司 一种弹窗展示方法和装置
CN116450070A (zh) * 2022-01-10 2023-07-18 荣耀终端有限公司 电子设备及其信息显示方法、介质
USD1039554S1 (en) * 2022-02-24 2024-08-20 Samsung Electronics Co., Ltd. Pair of display screens with animated graphical user interface
JP2023179160A (ja) * 2022-06-07 2023-12-19 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法
USD1040825S1 (en) * 2022-08-03 2024-09-03 Lg Energy Solution, Ltd. Display panel with graphical user interface
US12019851B2 (en) * 2022-08-26 2024-06-25 Truist Bank Drawer page overlay for multitasking
USD1038166S1 (en) * 2022-11-10 2024-08-06 Atieva, Inc. Display screen with a graphical user interface for automotive vehicle
USD1081639S1 (en) 2023-02-15 2025-07-01 Alo Beauty Corp Portable electronic device case
USD1081638S1 (en) 2023-02-15 2025-07-01 Alo Beauty Corp Portable electronic device case with attachable display module

Family Cites Families (803)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1004882A (en) 1911-01-07 1911-10-03 Buel Couch Road-bed equipment.
US5157763A (en) * 1987-10-15 1992-10-20 International Business Machines Corporation Visually assisted method for transfer of data within an application or from a source application to a receiving application
US5252951A (en) 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
DE69123465T2 (de) 1990-01-25 1997-06-26 Radius Inc Verfahren zur Änderung der Abmessungen von Computeranzeigefenstern und ihrer Bewegung
US5305435A (en) 1990-07-17 1994-04-19 Hewlett-Packard Company Computer windows management system and method for simulating off-screen document storage and retrieval
US5227771A (en) 1991-07-10 1993-07-13 International Business Machines Corporation Method and system for incrementally changing window size on a display
JP3369204B2 (ja) 1991-10-25 2003-01-20 株式会社東芝 プログラマブルコントローラ
JP3579061B2 (ja) 1992-08-31 2004-10-20 株式会社東芝 表示装置
US5396630A (en) 1992-10-06 1995-03-07 International Business Machines Corporation Method and system for object management across process boundries in a data processing system
US5673403A (en) 1992-11-13 1997-09-30 International Business Machines Corporation Method and system for displaying applications of different operating systems on a single system using the user interface of the different operating systems
US5434965A (en) 1992-12-23 1995-07-18 Taligent, Inc. Balloon help system
JPH06301555A (ja) 1993-02-26 1994-10-28 Internatl Business Mach Corp <Ibm> マイクロカーネル上の複数の共存オペレーティング・システム・パーソナリティ用のシステム
US5499334A (en) 1993-03-01 1996-03-12 Microsoft Corporation Method and system for displaying window configuration of inactive programs
US5956030A (en) 1993-06-11 1999-09-21 Apple Computer, Inc. Computer system with graphical user interface including windows having an identifier within a control region on the display
JP3437238B2 (ja) 1994-02-04 2003-08-18 キヤノン株式会社 コンピュータ、コンピュータシステム及びその制御方法
US5564002A (en) 1994-08-01 1996-10-08 International Business Machines Corporation Method and apparatus for implementing a virtual desktop through window positioning
JPH08115144A (ja) 1994-10-17 1996-05-07 Toshiba Corp 分離型ワークステーション装置
US6108715A (en) 1994-12-13 2000-08-22 Microsoft Corporation Method and system for invoking remote procedure calls
US6704923B1 (en) * 1994-12-20 2004-03-09 Sun Microsystems, Inc. System and method for pre-verification of stack usage in bytecode program loops
JPH08234953A (ja) 1995-02-28 1996-09-13 Canon Inc マルチウィンドウ表示制御装置
CA2173695A1 (en) 1995-04-14 1996-10-15 Panagiotis Kougiouris Method and system for providing interoperability among processes written to execute on different operating systems
US5675755A (en) 1995-06-07 1997-10-07 Sony Corporation Window system preventing overlap of multiple always-visible windows
US6260075B1 (en) 1995-06-19 2001-07-10 International Business Machines Corporation System and method for providing shared global offset table for common shared library in a computer system
US5874960A (en) 1995-07-05 1999-02-23 Microsoft Corporation Method and system for sharing applications between computer systems
JPH0926769A (ja) 1995-07-10 1997-01-28 Hitachi Ltd 画像表示装置
US6477585B1 (en) 1995-08-18 2002-11-05 International Business Machines Corporation Filter mechanism for an event management service
US5874928A (en) 1995-08-24 1999-02-23 Philips Electronics North America Corporation Method and apparatus for driving a plurality of displays simultaneously
EP0766168A3 (en) 1995-09-28 1997-11-19 Hewlett-Packard Company Icons for dual orientation display devices
JPH09128192A (ja) 1995-10-26 1997-05-16 Brother Ind Ltd マルチ画面表示制御装置
JPH09305259A (ja) 1996-05-13 1997-11-28 Hitachi Ltd 情報処理装置及びその操作方法
JP3222764B2 (ja) 1996-05-17 2001-10-29 シャープ株式会社 情報処理装置
US5841435A (en) 1996-07-26 1998-11-24 International Business Machines Corporation Virtual windows desktop
US5847698A (en) 1996-09-17 1998-12-08 Dataventures, Inc. Electronic book device
US5835090A (en) 1996-10-16 1998-11-10 Etma, Inc. Desktop manager for graphical user interface based system with enhanced desktop
US8062134B2 (en) 1996-11-14 2011-11-22 Bally Gaming, Inc. Browser manager for a networked gaming system and method
US6018341A (en) * 1996-11-20 2000-01-25 International Business Machines Corporation Data processing system and method for performing automatic actions in a graphical user interface
US5923307A (en) 1997-01-27 1999-07-13 Microsoft Corporation Logical monitor configuration in a multiple monitor environment
US6018340A (en) 1997-01-27 2000-01-25 Microsoft Corporation Robust display management in a multiple monitor environment
JP3749369B2 (ja) 1997-03-21 2006-02-22 株式会社竹中工務店 ハンドポインティング装置
US6014135A (en) 1997-04-04 2000-01-11 Netscape Communications Corp. Collaboration centric document processing environment using an information centric visual user interface and information presentation method
US6157959A (en) 1997-07-03 2000-12-05 Tandem Computers, Incorporated Method and apparatus for providing portable kernel-mode support for fast interprocess communication
US6144358A (en) 1997-08-20 2000-11-07 Lucent Technologies Inc. Multi-display electronic devices having open and closed configurations
US6340957B1 (en) 1997-08-29 2002-01-22 Xerox Corporation Dynamically relocatable tileable displays
DE19739284A1 (de) 1997-09-08 1999-03-11 Siemens Nixdorf Inf Syst System zum Erfassen und Verarbeiten von Benutzer-Eingaben
US6381682B2 (en) 1998-06-10 2002-04-30 Compaq Information Technologies Group, L.P. Method and apparatus for dynamically sharing memory in a multiprocessor system
US6243645B1 (en) 1997-11-04 2001-06-05 Seiko Epson Corporation Audio-video output device and car navigation system
US6430174B1 (en) 1997-12-26 2002-08-06 Nortel Networks Ltd. Communication system supporting simultaneous voice and multimedia communications and method of operation therefore
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7840912B2 (en) 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US6788292B1 (en) 1998-02-25 2004-09-07 Sharp Kabushiki Kaisha Display device
JPH11242539A (ja) 1998-02-25 1999-09-07 Sharp Corp 表示装置
US7554510B1 (en) 1998-03-02 2009-06-30 Ati Technologies Ulc Method and apparatus for configuring multiple displays associated with a computing system
US6331840B1 (en) 1998-03-27 2001-12-18 Kevin W. Nielson Object-drag continuity between discontinuous touch screens of a single virtual desktop
US6301245B1 (en) 1998-06-09 2001-10-09 Unisys Corporation Universal Messaging system providing integrated voice, data and fax messaging services to PC/web-based clients, including a large object server for efficiently distributing voice/fax messages to web-based clients
US6573883B1 (en) * 1998-06-24 2003-06-03 Hewlett Packard Development Company, L.P. Method and apparatus for controlling a computing device with gestures
US6178503B1 (en) 1998-09-11 2001-01-23 Powerquest Corporation Managing multiple operating systems on a single computer
US6343006B1 (en) 1998-11-20 2002-01-29 Jerry Moscovitch Computer display screen system and adjustable screen mount, and swinging screens therefor
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US6222465B1 (en) 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US6507336B1 (en) 1999-02-04 2003-01-14 Palm, Inc. Keyboard for a handheld computer
JP2000242262A (ja) 1999-02-18 2000-09-08 Fujitsu Ltd 表示制御装置、表示制御方法及び表示制御プログラムを記録した記録媒体
US6545669B1 (en) 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
JP2000284883A (ja) * 1999-03-30 2000-10-13 Minolta Co Ltd 電子ブック
US6909443B1 (en) * 1999-04-06 2005-06-21 Microsoft Corporation Method and apparatus for providing a three-dimensional task gallery computer interface
US7334235B2 (en) 1999-06-16 2008-02-19 Microsoft Corporation Operating system application programming interfaces and methods of using operating systems
US7284203B1 (en) 1999-07-27 2007-10-16 Verizon Laboratories Inc. Method and apparatus for application sharing interface
US7007240B1 (en) 1999-08-03 2006-02-28 Gateway Inc. Method and system for displaying non-overlapping program and auxiliary windows
US6459424B1 (en) 1999-08-10 2002-10-01 Hewlett-Packard Company Touch-sensitive input screen having regional sensitivity and resolution properties
JP4395223B2 (ja) 1999-09-24 2010-01-06 株式会社日立製作所 表示装置、表示方法、および、ナビゲーション装置
US6917963B1 (en) 1999-10-05 2005-07-12 Veritas Operating Corporation Snapshot image for the application state of unshareable and shareable data
FI20001506A7 (fi) 1999-10-12 2001-04-13 Myorigo Oy Kädessäpidettävän laitteen toimintamenetelmä
US20080062625A1 (en) 1999-10-18 2008-03-13 Jeffrey Batio Portable computer for dual, rotatable screens
US6677933B1 (en) 1999-11-15 2004-01-13 Espial Group Inc. Method and apparatus for operating a virtual keyboard
KR100679809B1 (ko) 1999-12-28 2007-02-07 주식회사 케이티 분산객체간 통신장치 및 방법
US6396520B1 (en) 2000-01-05 2002-05-28 Apple Computer, Inc. Method of transition between window states
US7362331B2 (en) * 2000-01-05 2008-04-22 Apple Inc. Time-based, non-constant translation of user interface objects between states
JP2001209466A (ja) 2000-01-26 2001-08-03 Internatl Business Mach Corp <Ibm> コンピュータの制御方法、コンピュータ、及び記録媒体
US20100005396A1 (en) 2000-02-18 2010-01-07 Nason D David Method and system for controlling a comlementary user interface on a display surface
AUPQ584800A0 (en) * 2000-02-25 2000-03-16 Comalco Aluminium Limited An electrical reduction cell
JP4402797B2 (ja) 2000-03-02 2010-01-20 株式会社日立製作所 情報処理装置
AU2001252242A1 (en) * 2000-03-31 2001-10-08 Glenn Rolus Borgward Universal digital mobile device
WO2001080215A1 (en) 2000-04-19 2001-10-25 Broadcom Corporation Apparatus and method for persistent display interface
US8089423B1 (en) 2000-05-12 2012-01-03 Harris Scott C Automatic configuration of multiple monitor systems
US6861946B2 (en) * 2000-05-17 2005-03-01 Caveo Technology Llc. Motion-based input system for handheld devices
US20020158811A1 (en) 2000-06-02 2002-10-31 Davis Terry Glenn Dual-monitor duo-workpad TM device
US7210099B2 (en) 2000-06-12 2007-04-24 Softview Llc Resolution independent vector display of internet content
US20010050658A1 (en) 2000-06-12 2001-12-13 Milton Adams System and method for displaying online content in opposing-page magazine format
JP5081345B2 (ja) 2000-06-13 2012-11-28 富士フイルム株式会社 光電変換素子の製造方法
US6831666B1 (en) 2000-06-14 2004-12-14 Canon Kabushiki Kaisha Application selection window in a windows operation system
CN1307067C (zh) 2000-06-20 2007-03-28 株式会社日立制作所 车辆行驶控制装置
JP2002041023A (ja) 2000-07-06 2002-02-08 Internatl Business Mach Corp <Ibm> コンピュータシステム、表示制御装置、ディスプレイ装置、表示制御方法、記憶媒体及びプログラム伝送装置
US7289102B2 (en) 2000-07-17 2007-10-30 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US6919864B1 (en) 2000-07-27 2005-07-19 Avaya Technology Corp. Display monitor
FI118621B (fi) 2000-08-03 2008-01-15 Nokia Corp Kannettava, avatun ja suljetun käyttöasennon käsittävä, taitettava elektroninen laite sekä sen kahvajärjestely
US7430025B2 (en) 2000-08-23 2008-09-30 Semiconductor Energy Laboratory Co., Ltd. Portable electronic device
US6728722B1 (en) 2000-08-28 2004-04-27 Sun Microsystems, Inc. General data structure for describing logical data spaces
WO2002019151A1 (en) * 2000-08-31 2002-03-07 The Gadget Factory Computer publication
US7996450B1 (en) 2000-09-15 2011-08-09 Oracle International Corp. Network-based file access system
US6629228B1 (en) * 2000-09-21 2003-09-30 International Business Machines Corporation Proportionally growing stack in a linear memory array
US6915490B1 (en) 2000-09-29 2005-07-05 Apple Computer Inc. Method for dragging and dropping between multiple layered windows
US6661877B1 (en) 2000-09-29 2003-12-09 Oracle International Corporation System and method for providing access to a unified message store logically storing computer telephony messages
US20030020954A1 (en) 2001-07-26 2003-01-30 Charlie Udom Versatile printing from portable electronic device
US6700773B1 (en) 2000-11-03 2004-03-02 Revolutionary Learning Systems, Inc. Method and apparatus for implementing a configurable personal computing device
GB0028890D0 (en) 2000-11-27 2001-01-10 Isis Innovation Visual display screen arrangement
US7289083B1 (en) 2000-11-30 2007-10-30 Palm, Inc. Multi-sided display for portable computer
JP2002182893A (ja) 2000-12-14 2002-06-28 Matsushita Electric Ind Co Ltd マルチディスプレイシステム
US20030017417A1 (en) 2001-07-23 2003-01-23 Goodin Jonathan William Method for obtaining a lithographic printing surface using a metal complex
JP2002304136A (ja) 2001-01-17 2002-10-18 Seiko Epson Corp 有機エレクトロルミネッセンス表示装置を備えた電子機器
US6577496B1 (en) 2001-01-18 2003-06-10 Palm, Inc. Non-rigid mounting of a foldable display
JP2002259001A (ja) 2001-03-05 2002-09-13 Shingo Tsuda ウィンドウ操作方法及び装置
US6608629B2 (en) 2001-03-16 2003-08-19 Mitsubishi Electric Research Laboratories, Inc. Distance based constraints for adaptively sampled distance fields
US6915489B2 (en) 2001-03-28 2005-07-05 Hewlett-Packard Development Company, L.P. Image browsing using cursor positioning
US6834249B2 (en) 2001-03-29 2004-12-21 Arraycomm, Inc. Method and apparatus for controlling a computing system
US6987512B2 (en) * 2001-03-29 2006-01-17 Microsoft Corporation 3D navigation techniques
US7016704B2 (en) 2001-04-02 2006-03-21 Move Mobile Systems, Inc. Coordinating images displayed on devices with two or more displays
TW502210B (en) 2001-04-19 2002-09-11 Asustek Comp Inc Computer system capable of switching operating system
PL363988A1 (en) * 2001-05-14 2004-11-29 Ntt Docomo, Inc. System for managing program stored in storage block of mobile terminal
US6961941B1 (en) 2001-06-08 2005-11-01 Vmware, Inc. Computer configuration for resource management in systems including a virtual machine
US9032325B2 (en) 2001-06-08 2015-05-12 Real Enterprise Solutions Development B.V. Management of local applications in local and remote desktops in a server-based computing environment
US7173627B2 (en) 2001-06-29 2007-02-06 Intel Corporation Apparatus, method and system with a graphics-rendering engine having a graphics context manager
SE523636C2 (sv) 2001-07-22 2004-05-04 Tomer Shalit Ab Portabelt datoriserat handhållet organ och förfarande för hantering av ett på en skärm visat objekt
US20030020754A1 (en) 2001-07-26 2003-01-30 Berman Charles Leonard Method for improving accessibility of a computer display
US8966379B2 (en) 2010-10-01 2015-02-24 Z124 Dynamic cross-environment application configuration/orientation in an active user environment
US8933949B2 (en) 2010-10-01 2015-01-13 Z124 User interaction across cross-environment applications through an extended graphics context
US20130024812A1 (en) 2011-07-13 2013-01-24 Z124 Foreground/background assortment of hidden windows
US9152582B2 (en) 2010-10-01 2015-10-06 Z124 Auto-configuration of a docked system in a multi-OS environment
US8726294B2 (en) 2010-10-01 2014-05-13 Z124 Cross-environment communication using application space API
US8819705B2 (en) 2010-10-01 2014-08-26 Z124 User interaction support across cross-environment applications
US9047102B2 (en) 2010-10-01 2015-06-02 Z124 Instant remote rendering
US20130024778A1 (en) 2011-07-13 2013-01-24 Z124 Dynamic cross-environment application configuration/orientation
US6970173B2 (en) 2001-09-14 2005-11-29 Ati Technologies, Inc. System for providing multiple display support and method thereof
US6671356B2 (en) 2001-09-24 2003-12-30 Teleware, Inc. Multi-media communication management system with subscriber messaging integration services
KR100763339B1 (ko) 2001-10-17 2007-10-04 벱테크 인코포레이티드 운영 시스템 전반에 대한 통신 방법
US6987988B2 (en) 2001-10-22 2006-01-17 Waxess, Inc. Cordless and wireless telephone docking station with land line interface and switching mode
US20030079205A1 (en) 2001-10-22 2003-04-24 Takeshi Miyao System and method for managing operating systems
JP2003196096A (ja) 2001-12-07 2003-07-11 Internatl Business Mach Corp <Ibm> コンピュータシステム、その起動制御方法及びプログラム
US20030115443A1 (en) 2001-12-18 2003-06-19 Cepulis Darren J. Multi-O/S system and pre-O/S boot technique for partitioning resources and loading multiple operating systems thereon
US7143417B2 (en) 2002-01-10 2006-11-28 International Business Machines Corporation Notification services within a unified communications service
US6977643B2 (en) 2002-01-10 2005-12-20 International Business Machines Corporation System and method implementing non-physical pointers for computer devices
US6667878B2 (en) * 2002-01-30 2003-12-23 David A. Ponx Double screen laptop
US7036025B2 (en) 2002-02-07 2006-04-25 Intel Corporation Method and apparatus to reduce power consumption of a computer system display screen
WO2003077097A1 (en) * 2002-03-08 2003-09-18 Mitsubishi Denki Kabushiki Kaisha Mobile communication device, display control method of mobile communication device, and program therefor
US20030226116A1 (en) 2002-03-08 2003-12-04 Katie Kuwata Method and system for implementing a historical buffer
JP2003280630A (ja) 2002-03-20 2003-10-02 Toshiba Corp 情報処理装置および同装置で使用される表示制御方法
US6917348B2 (en) 2002-03-20 2005-07-12 International Business Machines Corporation Video display mode for dual displays
US20030179541A1 (en) 2002-03-21 2003-09-25 Peter Sullivan Double screen portable computer
US6804691B2 (en) 2002-03-21 2004-10-12 Hewlett-Packard Development Company, L.P. Method for optimization of memory usage for a computer program
JP2003280622A (ja) 2002-03-25 2003-10-02 Matsushita Electric Ind Co Ltd 電子表示装置とその表示方法
US7269797B1 (en) 2002-03-28 2007-09-11 Fabrizio Bertocci Mechanism to organize windows in a graphic application
US7010755B2 (en) 2002-04-05 2006-03-07 Microsoft Corporation Virtual desktop manager
JP2003302957A (ja) 2002-04-11 2003-10-24 Canon Inc 折り畳み画面式装置及びその制御方法
JP2003316563A (ja) 2002-04-22 2003-11-07 Pioneer Electronic Corp 情報端末、情報端末の制御方法及び表示制御プログラム
WO2003096669A2 (en) 2002-05-10 2003-11-20 Reisman Richard R Method and apparatus for browsing using multiple coordinated device
US7253969B2 (en) * 2002-05-14 2007-08-07 O.D.F. Medical Ltd. Spherical and nearly spherical view imaging assembly
US7137074B1 (en) 2002-05-31 2006-11-14 Unisys Corporation System and method for displaying alarm status
US7369099B2 (en) * 2002-06-07 2008-05-06 Nec-Mitsubishi Electric Visual Systems Corporation Multi-display control system and image display apparatus
US6842795B2 (en) * 2002-06-10 2005-01-11 Siemens Communications, Inc. Methods and apparatus for shifting focus between multiple devices
US6867965B2 (en) 2002-06-10 2005-03-15 Soon Huat Khoo Compound portable computing device with dual portion keyboard coupled over a wireless link
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US7171622B2 (en) 2002-07-18 2007-01-30 International Business Machines Corporation Method, apparatus and computer program product for projecting objects in a display unit
US6982682B1 (en) 2002-07-29 2006-01-03 Silicon Graphics, Inc. System and method for managing graphics applications
US7140024B2 (en) * 2002-07-29 2006-11-21 Silicon Graphics, Inc. System and method for managing graphics applications
GB2394799B (en) 2002-07-31 2006-01-25 Hewlett Packard Co Improvements relating to mobile printing
US20090143141A1 (en) 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
US20040172279A1 (en) * 2002-08-22 2004-09-02 Ncommon Partners Lp System and method for objectively managing complex familial interactions and responsibilities
US20070022155A1 (en) 2002-08-22 2007-01-25 Owens David H Method and system for integrating enterprise software applications with desktop software applications
AU2003261656A1 (en) * 2002-09-17 2004-04-08 Si Han Kim Multi display device
US7739604B1 (en) * 2002-09-25 2010-06-15 Apple Inc. Method and apparatus for managing windows
WO2004031452A1 (en) * 2002-10-02 2004-04-15 Alcan International Limited Collector bar providing discontinuous electrical connection to cathode block
US7176943B2 (en) * 2002-10-08 2007-02-13 Microsoft Corporation Intelligent windows bumping method and system
US7913183B2 (en) * 2002-10-08 2011-03-22 Microsoft Corporation System and method for managing software applications in a graphical user interface
US20040075623A1 (en) * 2002-10-17 2004-04-22 Microsoft Corporation Method and system for displaying images on multiple monitors
KR100459560B1 (ko) 2002-10-22 2004-12-03 삼성전자주식회사 인디케이터 아이콘을 이용하여 수신된 단문메시지의종류를 식별하기 위한 서비스를 제공하는 무선통신기기 및이를 이용한 인디케이터 아이콘 표시방법
US7058901B1 (en) 2002-10-29 2006-06-06 Koninklijke Philips Electronics N.V. Methods and apparatus for controlling the display of medical images
JP2004164132A (ja) 2002-11-11 2004-06-10 Nec Corp マルチウィンドウ表示装置、該装置に用いられるマルチウィンドウ管理方法及び表示制御プログラム
US7711694B2 (en) 2002-12-23 2010-05-04 Sap Ag System and methods for user-customizable enterprise workflow management
US8508643B2 (en) 2003-01-17 2013-08-13 Hewlett-Packard Development Company, L.P. Method and system for processing an image
US7231609B2 (en) 2003-02-03 2007-06-12 Microsoft Corporation System and method for accessing remote screen content
US7461352B2 (en) 2003-02-10 2008-12-02 Ronald Mark Katsuranis Voice activated system and methods to enable a computer user working in a first graphical application window to display and control on-screen help, internet, and other information content in a second graphical application window
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
JP2004310655A (ja) 2003-04-10 2004-11-04 Matsushita Electric Ind Co Ltd ウィンドウスタック制御方法
US9182937B2 (en) 2010-10-01 2015-11-10 Z124 Desktop reveal by moving a logical display stack with gestures
US8504936B2 (en) 2010-10-01 2013-08-06 Z124 Changing stack when swapping
US8963853B2 (en) 2010-10-01 2015-02-24 Z124 Smartpad split screen desktop
US9213365B2 (en) * 2010-10-01 2015-12-15 Z124 Method and system for viewing stacked screen displays using gestures
US9207717B2 (en) * 2010-10-01 2015-12-08 Z124 Dragging an application to a screen using the application manager
US7363060B2 (en) 2003-05-02 2008-04-22 Nokia Corporation Mobile telephone user interface
US7389512B2 (en) 2003-05-09 2008-06-17 Sun Microsystems, Inc. Interprocess communication within operating system partitions
NZ525956A (en) 2003-05-16 2005-10-28 Deep Video Imaging Ltd Display control system for use with multi-layer displays
US7127776B2 (en) 2003-06-04 2006-10-31 Lg Electronics Inc. Dual display type portable computer and control method for the same
US20040250220A1 (en) 2003-06-09 2004-12-09 Mika Kalenius System, apparatus, and method for navigation in a hypertext document
US7159189B2 (en) 2003-06-13 2007-01-02 Alphabase Systems, Inc. Method and system for controlling cascaded windows on a GUI desktop on a computer
KR20060052717A (ko) 2003-06-27 2006-05-19 소프트스코프 엘엘씨 가상 데스크 탑, 프로그램 예의 배열을 리콜링하는 방법, 애플리케이션 예를 관리하는 방법 및 애플리케이션을 관리하는 방법
US20040263424A1 (en) 2003-06-30 2004-12-30 Okuley James M. Display system and method
US7707255B2 (en) 2003-07-01 2010-04-27 Microsoft Corporation Automatic grouping of electronic mail
US7716593B2 (en) 2003-07-01 2010-05-11 Microsoft Corporation Conversation grouping of electronic mail records
US8373660B2 (en) * 2003-07-14 2013-02-12 Matt Pallakoff System and method for a portable multimedia client
JP2005037747A (ja) 2003-07-16 2005-02-10 Mitsubishi Electric Corp マルチディスプレイ装置
EP1503286B1 (en) 2003-07-30 2014-09-03 Jaluna SA Multiple operating system networking
US7152186B2 (en) 2003-08-04 2006-12-19 Arm Limited Cross-triggering of processing devices
US8046701B2 (en) 2003-08-07 2011-10-25 Fuji Xerox Co., Ltd. Peer to peer gesture based modular presentation system
JP4149483B2 (ja) * 2003-08-21 2008-09-10 アルプス電気株式会社 電子機器
US7205959B2 (en) 2003-09-09 2007-04-17 Sony Ericsson Mobile Communications Ab Multi-layered displays providing different focal lengths with optically shiftable viewing formats and terminals incorporating the same
US7181251B2 (en) 2003-10-22 2007-02-20 Nokia Corporation Mobile communication terminal with multi orientation user interface
US7839419B2 (en) 2003-10-23 2010-11-23 Microsoft Corporation Compositing desktop window manager
US20050088449A1 (en) 2003-10-23 2005-04-28 Blanco Leonardo E. Child window redirection
US7532196B2 (en) 2003-10-30 2009-05-12 Microsoft Corporation Distributed sensing techniques for mobile devices
US7765143B1 (en) 2003-11-04 2010-07-27 Trading Technologies International, Inc. System and method for event driven virtual workspace
US7356772B2 (en) 2003-11-25 2008-04-08 International Business Machines Corporation Multi-column user interface for managing on-line threaded conversations
US20050138633A1 (en) 2003-11-26 2005-06-23 Jonathan Barsade Method and system for confirming the launch of interstitial content on an end user computer
CN2662553Y (zh) 2003-11-28 2004-12-08 华冠通讯股份有限公司 双屏幕手机
CN1627765B (zh) * 2003-12-10 2010-09-01 松下电器产业株式会社 便携式信息终端装置
CN100549947C (zh) 2003-12-12 2009-10-14 腾讯科技(深圳)有限公司 一种浏览器显示网页的方法
US7895537B2 (en) 2003-12-29 2011-02-22 International Business Machines Corporation Method and apparatus for setting attributes and initiating actions through gestures
US7136282B1 (en) * 2004-01-06 2006-11-14 Carlton Rebeske Tablet laptop and interactive conferencing station system
TW200525421A (en) 2004-01-30 2005-08-01 Intervideo Digital Technology Corp Structure of shared application program in operating system and method thereof
US8739071B2 (en) 2004-02-27 2014-05-27 Blackberry Limited System and method for message display and management
CN1933883B (zh) 2004-03-22 2010-05-05 任天堂株式会社 游戏装置以及游戏控制方法
US7301529B2 (en) * 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
US7483991B2 (en) 2004-03-25 2009-01-27 Microsoft Corporation Instant messaging communications channel for transporting data between objects executing within a managed code environment
JP2005284886A (ja) 2004-03-30 2005-10-13 Toshiba Corp 情報表示システム
US7379563B2 (en) 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
JP2005305867A (ja) 2004-04-22 2005-11-04 Seiko Epson Corp 画像処理システム、画像表示装置、プリンタおよび印刷方法
US7478204B2 (en) 2004-04-29 2009-01-13 International Business Machines Corporation Efficient sharing of memory between applications running under different operating systems on a shared hardware system
US7237202B2 (en) 2004-05-11 2007-06-26 Cynthia Joanne Gage Multiple document viewing apparatus and user interface
US20060031572A1 (en) 2004-05-18 2006-02-09 Microsoft Corporation Event broker
US7638503B2 (en) * 2004-05-26 2009-12-29 California Institute Of Technology Small molecule stimulators of neuronal growth
US20070182663A1 (en) 2004-06-01 2007-08-09 Biech Grant S Portable, folding and separable multi-display computing system
JP2005346244A (ja) 2004-06-01 2005-12-15 Nec Corp 情報表示装置及びその操作方法
KR100578592B1 (ko) 2004-06-23 2006-05-12 공정배 서버/클라이언트 기반에서 온라인 이기종 운영 체제 제공 시스템 및 방법
US8046712B2 (en) 2004-06-29 2011-10-25 Acd Systems International Inc. Management of multiple window panels with a graphical user interface
US7996785B2 (en) 2004-06-30 2011-08-09 Microsoft Corporation Systems and methods for integrating application windows in a virtual machine environment
US7778399B2 (en) 2004-07-02 2010-08-17 Inter-Tel, Inc System and method for real-time call log status
US7424601B2 (en) 2004-07-07 2008-09-09 Yongyong Xu Methods and systems for running multiple operating systems in a single mobile device
EP1787281A2 (en) 2004-07-15 2007-05-23 N-Trig Ltd. Automatic switching for a dual mode digitizer
US7092247B2 (en) 2004-07-16 2006-08-15 Semmie Kim Method of designing a size-adjustable multi-mode display unit for portable electronic devices
US20060020902A1 (en) 2004-07-22 2006-01-26 International Business Machines Corporation Interactive graphical user interfaces for computer display systems with simplified implementation for exposing completely hidden windows
US20070046643A1 (en) 2004-08-06 2007-03-01 Hillis W Daniel State-Based Approach to Gesture Identification
JP2006053678A (ja) 2004-08-10 2006-02-23 Toshiba Corp ユニバーサルヒューマンインタフェースを有する電子機器
US20060069734A1 (en) 2004-09-01 2006-03-30 Michael Gersh Method and system for organizing and displaying message threads
JP4701027B2 (ja) 2004-09-02 2011-06-15 キヤノン株式会社 情報処理装置、制御方法及びプログラム
KR100690726B1 (ko) 2004-09-14 2007-03-09 엘지전자 주식회사 멀티태스킹이 구현된 휴대 단말기와 그 제어 방법
EP1860522A3 (en) 2004-09-21 2008-07-02 Nokia Corporation Foldable electronic device
JP4531519B2 (ja) 2004-10-14 2010-08-25 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 携帯端末装置及び受信方法
US20060082581A1 (en) 2004-10-14 2006-04-20 Microsoft Corporation Encoding for remoting graphics to decoder device
US20060082518A1 (en) * 2004-10-19 2006-04-20 Pranil Ram Multiple monitor display apparatus
US8169410B2 (en) 2004-10-20 2012-05-01 Nintendo Co., Ltd. Gesture inputs for a portable display device
CN101129053A (zh) * 2004-11-09 2008-02-20 夏普株式会社 便携式信息终端
US7290114B2 (en) 2004-11-17 2007-10-30 Intel Corporation Sharing data in a user virtual address range with a kernel virtual address range
US20060111921A1 (en) 2004-11-23 2006-05-25 Hung-Yang Chang Method and apparatus of on demand business activity management using business performance management loops
EP1662760A1 (en) 2004-11-30 2006-05-31 Sony Ericsson Mobile Communications AB Method for providing alerts in a mobile device and mobile device therefor
US20060129948A1 (en) 2004-12-14 2006-06-15 Hamzy Mark J Method, system and program product for a window level security screen-saver
JP4738805B2 (ja) 2004-12-16 2011-08-03 株式会社リコー 画面共有システム、画面共有方法、画面共有プログラム
US20060139862A1 (en) 2004-12-23 2006-06-29 Yajun Wang Hinged electronic device with hinged screen
KR100616157B1 (ko) 2005-01-11 2006-08-28 와이더댄 주식회사 애플리케이션 연동 방법 및 그 시스템
TWI267752B (en) 2005-01-17 2006-12-01 Lite On Technology Corp Multi-mode computer system and operating method thereof
US8341541B2 (en) 2005-01-18 2012-12-25 Microsoft Corporation System and method for visually browsing of open windows
US7426697B2 (en) 2005-01-18 2008-09-16 Microsoft Corporation Multi-application tabbing system
US7478326B2 (en) 2005-01-18 2009-01-13 Microsoft Corporation Window information switching system
US8464176B2 (en) 2005-01-19 2013-06-11 Microsoft Corporation Dynamic stacking and expansion of visual items
US20060184894A1 (en) 2005-02-15 2006-08-17 International Business Machines Corporation Global window management for parent/child relationships
US20060183505A1 (en) 2005-02-15 2006-08-17 Willrich Scott Consulting Group, Inc. Digital mobile planner
US7289084B2 (en) 2005-02-22 2007-10-30 John Michael Lesniak Computer display apparatus
US7519468B2 (en) 2005-02-28 2009-04-14 Research In Motion Limited System and method for navigating a mobile device user interface with a directional sensing device
DE102005009105A1 (de) 2005-02-28 2006-09-07 Siemens Ag Verfahren und Verwalten einer Anzeigeeinrichtung
US7139553B2 (en) 2005-03-01 2006-11-21 Bellsouth Intellectual Property Corporation Providing real time call log data to a remote call log for calls to and from a mobile communications apparatus
US20060197755A1 (en) 2005-03-02 2006-09-07 Bawany Muhammad A Computer stylus cable system and method
GB0504326D0 (en) 2005-03-02 2005-04-06 Symbian Software Ltd Dual mode operating system for a computing device
US8850334B2 (en) 2005-03-14 2014-09-30 Siemens Aktiengesellschaft Active Z order manipulation of a popup window in multimonitor systems
US7750893B2 (en) * 2005-04-06 2010-07-06 Nintendo Co., Ltd. Storage medium storing input position processing program, and input position processing device
JP4719494B2 (ja) 2005-04-06 2011-07-06 任天堂株式会社 入力座標処理プログラムおよび入力座標処理装置
US20060248471A1 (en) 2005-04-29 2006-11-02 Microsoft Corporation System and method for providing a window management mode
US20060253797A1 (en) 2005-05-06 2006-11-09 Microsoft Corporation Presentation of user-specified display regions
US7565535B2 (en) 2005-05-06 2009-07-21 Microsoft Corporation Systems and methods for demonstrating authenticity of a virtual machine using a security image
EP1886509B1 (en) 2005-05-17 2017-01-18 Qualcomm Incorporated Orientation-sensitive signal output
US20070281675A1 (en) 2006-05-31 2007-12-06 Velimir Pletikosa Pivoting, Multi-Configuration Mobile Device
KR100630150B1 (ko) 2005-06-07 2006-10-02 삼성전자주식회사 휴대단말기의 화면표시방법
CN1877505B (zh) 2005-06-10 2012-06-20 鸿富锦精密工业(深圳)有限公司 数位信息阅读装置及其控制方法
KR20060133389A (ko) 2005-06-20 2006-12-26 엘지전자 주식회사 이동 단말기의 데이터 처리 장치 및 그 방법
US20070004451A1 (en) 2005-06-30 2007-01-04 C Anderson Eric Controlling functions of a handheld multifunction device
WO2007005562A2 (en) 2005-06-30 2007-01-11 Phoenix Technologies Ltd. Shared file system management between independent operating systems
US8682979B2 (en) 2005-07-01 2014-03-25 Email2 Scp Solutions Inc. Secure electronic mail system
US7950008B2 (en) 2005-07-06 2011-05-24 International Business Machines Corporation Software installation in multiple operating systems
JP2007025808A (ja) * 2005-07-12 2007-02-01 Canon Inc 仮想キーボードシステム及びその制御方法
US7636899B2 (en) * 2005-07-12 2009-12-22 Siemens Medical Solutions Health Services Corporation Multiple application and multiple monitor user interface image format selection system for medical and other applications
US7870558B2 (en) 2005-07-15 2011-01-11 Microsoft Corporation Handle passing using an inter-process communication
US8375301B2 (en) 2005-07-15 2013-02-12 Barco N.V. Network displays and method of their operation
BRPI0615536A2 (pt) 2005-07-22 2011-05-17 Matt Pallakoff dispositivo manual que tem um mostrador da tela de toque com capacidade de implementar uma interface do usuário de teclado virtual para inserir toques no teclado por um usuário, sistema de interface do usuário (ui) baseada em tela de toque em um dispositivo manual, sistema de interface do usuário (ui) baseado em tela de toque otimizado pelo polegar em um dispositivo manual, sistema de interface do usuário (ui) virtual acionado a polegar para a busca de informações, sistema de interface do usuário virtual acionado pelo polegar, para selecionar itens selecionáveis virtuais em uma página da web exibida em um mostrador de tela de toque de um dispositivo portátil, dispositivo manual que tem um mostrador de tela de toque com capacidade de executar um teclado virtual para inserir toques no teclado por um usuário, método para implementar a seleção de entrda por um usúario dos itens exibidos em um tela de toque de um dispositivo manual e método para que uma interface virtual do usuário do teclado interaja com páginas da web em um dispositivo de visualização manual que tem um mostrador de tela de toque
CN100367184C (zh) 2005-07-25 2008-02-06 联想(北京)有限公司 一种多显示器系统及其窗口切换方法
US8046030B2 (en) 2005-07-29 2011-10-25 Sony Ericsson Mobile Communications Ab Methods, devices and computer program products for operating mobile devices responsive to user input through movement thereof
US20080098402A1 (en) 2005-08-05 2008-04-24 Samsung Electronics Co., Ltd. Apparatus for providing multiple screens and method of dynamically configuring multi screens
US20070038955A1 (en) 2005-08-09 2007-02-15 Nguyen Mitchell V Pen-based computer system having first and second windows together with second window locator within first window
US7856257B2 (en) 2005-08-22 2010-12-21 Panasonic Corporation Portable communications terminal
US20070046561A1 (en) * 2005-08-23 2007-03-01 Lg Electronics Inc. Mobile communication terminal for displaying information
US20070067769A1 (en) 2005-08-30 2007-03-22 Geisinger Nile J Method and apparatus for providing cross-platform hardware support for computer platforms
US20070050751A1 (en) 2005-08-31 2007-03-01 Microsoft Corporation Automatic interoperation with legacy POS service and control objects
US20070064004A1 (en) 2005-09-21 2007-03-22 Hewlett-Packard Development Company, L.P. Moving a graphic element
KR20070034767A (ko) 2005-09-26 2007-03-29 엘지전자 주식회사 다중 표시영역을 갖는 이동통신 단말기 및 이를 이용한 디스플레이 간의 데이터 표시 방법
KR100705017B1 (ko) 2005-10-01 2007-04-09 엘지전자 주식회사 이동통신 단말기 및 이를 이용한 태스크 매니저 표시방법
US8191008B2 (en) 2005-10-03 2012-05-29 Citrix Systems, Inc. Simulating multi-monitor functionality in a single monitor environment
US7721208B2 (en) 2005-10-07 2010-05-18 Apple Inc. Multi-media center for computing systems
US7844301B2 (en) 2005-10-14 2010-11-30 Lg Electronics Inc. Method for displaying multimedia contents and mobile communications terminal capable of implementing the same
KR100755851B1 (ko) 2005-10-14 2007-09-07 엘지전자 주식회사 멀티미디어 디스플레이 방법, 이를 위한 이동 단말기, 및이동 단말기용 크래들
US7636794B2 (en) 2005-10-31 2009-12-22 Microsoft Corporation Distributed sensing techniques for mobile devices
US20070120763A1 (en) 2005-11-23 2007-05-31 Lode De Paepe Display system for viewing multiple video signals
ITMI20052290A1 (it) 2005-11-30 2007-06-01 Pasqua Roberto Della Servizio di messaggistica istantanea con interfaccia utente minimizzata
US7636071B2 (en) 2005-11-30 2009-12-22 Hewlett-Packard Development Company, L.P. Providing information in a multi-screen device
EP1958047A2 (en) * 2005-12-01 2008-08-20 Koninklijke Philips Electronics N.V. Indication to assist a user in predicting a change in a scroll rate
US20070130547A1 (en) 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
EP1963982B1 (en) 2005-12-09 2014-05-28 Marc Chase Weinstein Multi-panel sliding cover for a device
US20070136356A1 (en) 2005-12-12 2007-06-14 Microsoft Corporation Mechanism for drivers to create alternate namespaces
WO2007074697A1 (ja) 2005-12-26 2007-07-05 Ibm Japan, Ltd. 複数の表示オブジェクトの表示を操作するための方法、プログラム、データ処理システム
KR100679053B1 (ko) 2005-12-28 2007-02-05 삼성전자주식회사 틸팅 인터페이스에서 기울기의 변화를 이용하여 반복적신호 입력을 정지시키는 방법 및 장치
JP5048249B2 (ja) 2006-01-27 2012-10-17 任天堂株式会社 ゲーム装置およびゲームプログラム
US7667686B2 (en) 2006-02-01 2010-02-23 Memsic, Inc. Air-writing and motion sensing input for portable devices
US20070186177A1 (en) 2006-02-03 2007-08-09 Yahoo! Inc. Content navigation interfaces and associated methods
KR100818918B1 (ko) * 2006-02-14 2008-04-04 삼성전자주식회사 윈도우의 배치를 관리하는 장치 및 그 방법
US20070188450A1 (en) * 2006-02-14 2007-08-16 International Business Machines Corporation Method and system for a reversible display interface mechanism
KR20070082691A (ko) 2006-02-17 2007-08-22 삼성전자주식회사 디지털 멀티미디어 장치
AU2007219032B2 (en) * 2006-02-23 2011-06-09 Fibrex Medical Research & Development Gmbh Peptides and peptide derivatives, the production thereof as well as their use for preparing a therapeutically and/or preventively active pharmaceutical composition
CN100530343C (zh) 2006-03-15 2009-08-19 深圳迈瑞生物医疗电子股份有限公司 多屏合成显示装置及方法
US7595810B2 (en) 2006-03-22 2009-09-29 Apple Inc. Methods of manipulating a screen space of a display device
US20070226642A1 (en) * 2006-03-22 2007-09-27 Business Objects, S.A. Apparatus and method for displaying transparent windows when copying or moving items between windows
JP4643484B2 (ja) 2006-03-29 2011-03-02 株式会社東芝 画面送信装置および画面表示方法
US20070245263A1 (en) 2006-03-29 2007-10-18 Alltel Communications, Inc. Graphical user interface for wireless device
FR2899755B1 (fr) 2006-04-10 2008-10-10 Streamezzo Sa Procede de restitution adaptative d'au moins un contenu multimedia sur un dispositif de visualisation orientable d'un terminal
US7620905B2 (en) 2006-04-14 2009-11-17 International Business Machines Corporation System and method of windows management
US9274807B2 (en) 2006-04-20 2016-03-01 Qualcomm Incorporated Selective hibernation of activities in an electronic device
US20090278806A1 (en) * 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
US8296684B2 (en) 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
CA2646015C (en) * 2006-04-21 2015-01-20 Anand Agarawala System for organizing and visualizing display objects
US7987432B1 (en) 2006-04-25 2011-07-26 Parallels Holdings, Ltd. Seamless integration and installation of non-native application into native operating system
US20080282181A1 (en) 2006-05-02 2008-11-13 Siemens Medical Solutions Usa, Inc. Executable Application Configuration Information Processing System
US9063647B2 (en) 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
WO2007131316A1 (en) 2006-05-16 2007-11-22 Research In Motion Limited Screen interface integrating application and system status
KR100772875B1 (ko) 2006-05-22 2007-11-02 삼성전자주식회사 사용자 선호도에 따른 사용자 인터페이스를 설정하는 장치및 그 방법
US8200762B2 (en) 2006-06-01 2012-06-12 Aol Inc. Displaying complex messaging threads into a single display
US9201703B2 (en) 2006-06-07 2015-12-01 International Business Machines Corporation Sharing kernel services among kernels
KR100827230B1 (ko) 2006-06-09 2008-05-07 삼성전자주식회사 메뉴 아이콘을 제공하는 휴대용 장치 및 그 방법
US8081252B2 (en) 2006-06-13 2011-12-20 Panasonic Corporation Image displaying apparatus
JP2007334525A (ja) 2006-06-14 2007-12-27 Sofny Group:Kk コンピュータ、クライアント−サーバコンピュータ群、サーバコンピュータ、表示プログラム、及びディスプレイ表示方法
US8086971B2 (en) 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US7880728B2 (en) 2006-06-29 2011-02-01 Microsoft Corporation Application switching via a touch screen interface
US7676761B2 (en) 2006-06-30 2010-03-09 Microsoft Corporation Window grouping
US8121263B2 (en) 2006-07-21 2012-02-21 Google Inc. Method and system for integrating voicemail and electronic messaging
US20080024388A1 (en) 2006-07-29 2008-01-31 Oscar Bruce Two-sided display monitor apparatus
JP4248584B2 (ja) 2006-07-31 2009-04-02 シャープ株式会社 表示装置、表示プログラムおよびコンピュータ読み取り可能な記録媒体
US8139026B2 (en) 2006-08-02 2012-03-20 Research In Motion Limited System and method for adjusting presentation of text and images on an electronic device according to an orientation of the device
US9019300B2 (en) 2006-08-04 2015-04-28 Apple Inc. Framework for graphics animation and compositing operations
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
US20080048980A1 (en) 2006-08-22 2008-02-28 Novell, Inc. Detecting movement of a computer device to effect movement of selected display objects
CN101535918A (zh) 2006-09-05 2009-09-16 诺基亚公司 具有竞争输入设备的移动电子设备
US8316324B2 (en) 2006-09-05 2012-11-20 Navisense Method and apparatus for touchless control of a device
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8233885B2 (en) 2006-09-08 2012-07-31 Hewlett-Packard Development Company, L.P. Apparatus and methods for providing enhanced mobile messaging services
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US20080111822A1 (en) * 2006-09-22 2008-05-15 Yahoo, Inc.! Method and system for presenting video
US20080086703A1 (en) 2006-10-06 2008-04-10 Microsoft Corporation Preview expansion of list items
KR100783552B1 (ko) 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
KR100811794B1 (ko) 2006-10-12 2008-03-10 삼성전자주식회사 휴대단말기의 블루투스 기능을 이용하여 프린터를 제어하는방법
JP4933304B2 (ja) 2006-10-16 2012-05-16 キヤノン株式会社 画像処理装置、その制御方法及びプログラム
KR20080035108A (ko) 2006-10-18 2008-04-23 삼성전자주식회사 이동 통신 단말기에서의 메시지 작성 방법
WO2008050175A1 (en) 2006-10-27 2008-05-02 Nokia Corporation Method and apparatus for facilitating movement within a three dimensional graphical user interface
US8245154B2 (en) 2006-11-03 2012-08-14 International Business Machines Corporation Most-recently-used task switching among parent and child windows
KR20080042354A (ko) 2006-11-09 2008-05-15 삼성전자주식회사 이동 통신 단말기에서 대기 화면 전환 방법 및 대기 화면회전 방법과 그 이동 통신 단말기
US8108782B2 (en) 2006-11-09 2012-01-31 Motorola Mobility, Inc. Display management for communication devices with multiple displays
KR101144423B1 (ko) * 2006-11-16 2012-05-10 엘지전자 주식회사 휴대 단말기 및 휴대 단말기의 화면 표시 방법
US20080119731A1 (en) 2006-11-20 2008-05-22 North American Medical Corporation Portable ultrasound with touch screen interface
US8332866B2 (en) 2006-11-29 2012-12-11 Qualcomm Incorporated Methods, systems, and apparatus for object invocation across protection domain boundaries
US8839105B2 (en) 2006-12-01 2014-09-16 International Business Machines Corporation Multi-display system and method supporting differing accesibility feature selection
US8713439B2 (en) * 2006-12-15 2014-04-29 Yahoo! Inc. Systems and methods for providing a video playlist
WO2008075880A1 (en) 2006-12-18 2008-06-26 Samsung Electronics Co., Ltd. Method and apparatus for multiscreen management for multiple screen configuration
US20080155103A1 (en) 2006-12-21 2008-06-26 Kimberly Tekavec Bailey AF UNIX Socket Across Systems in the Same Computer on Computer Systems that Support Multiple Operating System Images
US7992097B2 (en) * 2006-12-22 2011-08-02 Apple Inc. Select drag and drop operations on video thumbnails across clip boundaries
US7657281B2 (en) 2007-01-04 2010-02-02 Sony Ericsson Mobile Communications Ab Methods of dynamically changing information provided on a display of a cellular telephone and related cellular telephones
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US8214768B2 (en) 2007-01-05 2012-07-03 Apple Inc. Method, system, and graphical user interface for viewing multiple application windows
US20090262074A1 (en) * 2007-01-05 2009-10-22 Invensense Inc. Controlling and accessing content using motion processing on mobile devices
US7877707B2 (en) 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US7890778B2 (en) 2007-01-06 2011-02-15 Apple Inc. Power-off methods for portable electronic devices
US7978182B2 (en) 2007-01-07 2011-07-12 Apple Inc. Screen rotation gestures on a portable multifunction device
US9001047B2 (en) 2007-01-07 2015-04-07 Apple Inc. Modal change based on orientation of a portable multifunction device
US7978176B2 (en) 2007-01-07 2011-07-12 Apple Inc. Portrait-landscape rotation heuristics for a portable multifunction device
US20090213081A1 (en) 2007-01-10 2009-08-27 Case Jr Charlie W Portable Electronic Device Touchpad Input Controller
US8549429B2 (en) 2007-01-25 2013-10-01 Sharp Kabushiki Kaisha Multi-window management apparatus and program, storage medium and information processing apparatus
WO2008094263A1 (en) 2007-01-31 2008-08-07 Agere Systems, Inc. Handheld device with multiple displays
KR101450584B1 (ko) 2007-02-22 2014-10-14 삼성전자주식회사 단말의 화면 표시 방법
US20080268901A1 (en) 2007-03-05 2008-10-30 Ivan Miramontes Slider twister phone
JP5246388B2 (ja) 2007-03-08 2013-07-24 日本電気株式会社 仮想装置構成システム、及びその方法
KR101321373B1 (ko) 2007-03-16 2013-10-28 삼성전자주식회사 멀티 디스플레이 장치
JP2010522370A (ja) 2007-03-20 2010-07-01 サンギュ イ 移動型仮想マシンイメージ
US7869834B2 (en) 2007-03-28 2011-01-11 Lg Electronics Inc. Mobile terminal
CN100590582C (zh) 2007-03-30 2010-02-17 联想(北京)有限公司 一种多屏显示系统及多屏显示设置方法
US8789063B2 (en) 2007-03-30 2014-07-22 Microsoft Corporation Master and subordinate operating system kernels for heterogeneous multiprocessor systems
US20080247128A1 (en) 2007-04-03 2008-10-09 Soon Huat Khoo Composite Two Screen Digital Device
US9104494B2 (en) 2007-04-13 2015-08-11 Nec Corporation Virtual computer system and its optimization method
KR100876754B1 (ko) 2007-04-18 2009-01-09 삼성전자주식회사 작동모드를 전환하기 위한 휴대용 전자기기
US20100049775A1 (en) 2007-04-26 2010-02-25 Hewlett-Packard Development Company, L.P. Method and System for Allocating Memory in a Computing Environment
US8285259B2 (en) 2007-05-29 2012-10-09 Microsoft Corporation Resource aggregation in an opportunistic network
US7936341B2 (en) * 2007-05-30 2011-05-03 Microsoft Corporation Recognizing selection regions from multiple simultaneous inputs
JP4858313B2 (ja) * 2007-06-01 2012-01-18 富士ゼロックス株式会社 ワークスペース管理方式
US20090027334A1 (en) 2007-06-01 2009-01-29 Cybernet Systems Corporation Method for controlling a graphical user interface for touchscreen-enabled computer systems
US8473859B2 (en) 2007-06-08 2013-06-25 Apple Inc. Visualization and interaction models
US8381122B2 (en) 2007-06-08 2013-02-19 Apple Inc. Multi-dimensional application environment
US8839142B2 (en) 2007-06-08 2014-09-16 Apple Inc. Desktop system object removal
US8004493B2 (en) 2007-06-08 2011-08-23 Apple Inc. Methods and systems for providing sensory information to devices and peripherals
US20080307350A1 (en) 2007-06-09 2008-12-11 Alessandro Francesco Sabatelli Method and Apparatus for Improved Desktop Arrangement
US8681104B2 (en) * 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
US7835999B2 (en) 2007-06-27 2010-11-16 Microsoft Corporation Recognizing input gestures using a multi-touch input device, calculated graphs, and a neural network with link weights
US8068121B2 (en) 2007-06-29 2011-11-29 Microsoft Corporation Manipulation of graphical objects on a display or a proxy device
KR101320504B1 (ko) * 2007-07-10 2013-10-22 엘지전자 주식회사 휴대 단말기
WO2009037588A2 (en) 2007-07-19 2009-03-26 Heng Kah Choy Dual screen presentation notebook computer
US9298783B2 (en) 2007-07-25 2016-03-29 Yahoo! Inc. Display of attachment based information within a messaging system
CN101354639A (zh) 2007-07-25 2009-01-28 联想(北京)有限公司 在终端之间操作对象的方法及终端
GB2451274B (en) 2007-07-26 2013-03-13 Displaylink Uk Ltd A system comprising a touchscreen and one or more conventional display devices
US9489216B2 (en) 2007-07-26 2016-11-08 Sap Se Active tiled user interface
US8458612B2 (en) 2007-07-29 2013-06-04 Hewlett-Packard Development Company, L.P. Application management framework for web applications
US20090061970A1 (en) 2007-08-31 2009-03-05 Big Fish Games, Inc. Locating Content in Dual Screen Video Game
US9619143B2 (en) * 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US8286082B2 (en) 2007-09-12 2012-10-09 Citrix Systems, Inc. Methods and systems for providing, by a remote machine, access to a desk band associated with a resource executing on a local machine
JP4729545B2 (ja) 2007-09-13 2011-07-20 京セラ株式会社 携帯通信端末機
JP5430572B2 (ja) 2007-09-14 2014-03-05 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
WO2009039376A2 (en) 2007-09-20 2009-03-26 C & S Operations, Inc. Computer system with tunneling
US8850351B2 (en) 2007-09-25 2014-09-30 Ati Technologies Ulc Method and tool for virtual desktop management
US20090079701A1 (en) 2007-09-25 2009-03-26 Grosskopf Jr George Device and Method for Displaying Data and Receiving User Input
US9003173B2 (en) 2007-09-28 2015-04-07 Microsoft Technology Licensing, Llc Multi-OS (operating system) boot via mobile device
US20110047459A1 (en) 2007-10-08 2011-02-24 Willem Morkel Van Der Westhuizen User interface
JP4458143B2 (ja) 2007-10-10 2010-04-28 セイコーエプソン株式会社 画像転送装置および画像転送における画像表示制御方法
EP2051485A1 (en) 2007-10-15 2009-04-22 Sony Ericsson Mobile Communications AB Electronic device with a display unit being movable in relation to a base unit
US7917584B2 (en) * 2007-10-22 2011-03-29 Xcerion Aktiebolag Gesture-based collaboration
GB2454030A (en) 2007-10-24 2009-04-29 Plastic Logic Ltd Edgeless display device
US7958460B2 (en) * 2007-10-30 2011-06-07 International Business Machines Corporation Method for predictive drag and drop operation to improve accessibility
US20090158299A1 (en) 2007-10-31 2009-06-18 Carter Ernst B System for and method of uniform synchronization between multiple kernels running on single computer systems with multiple CPUs installed
US20090119678A1 (en) 2007-11-02 2009-05-07 Jimmy Shih Systems and methods for supporting downloadable applications on a portable client device
US7996045B1 (en) 2007-11-09 2011-08-09 Google Inc. Providing interactive alert information
CN101952792B (zh) 2007-11-19 2014-07-02 瑟克公司 与显示器结合且具有接近及触摸感应能力的触摸板
KR101413473B1 (ko) 2007-11-20 2014-07-01 엘지전자 주식회사 이동 단말기 및 그의 키 입력 방법
CN101441085A (zh) 2007-11-23 2009-05-27 佛山市顺德区顺达电脑厂有限公司 卫星导航系统
US8046778B1 (en) 2007-11-26 2011-10-25 Adobe Systems Incorporated Managing device application program interfaces
CN101878463B (zh) 2007-11-29 2013-07-31 皇家飞利浦电子股份有限公司 提供用户接口的方法
US8539361B2 (en) 2007-12-03 2013-09-17 Blackberry Limited Multiple display regions in a unified message inbox
KR100883208B1 (ko) 2007-12-13 2009-02-13 성균관대학교산학협력단 가상화 기술을 기반으로 하여 소프트웨어의 업데이트가가능한 이동통신 단말기 및 그 업데이트 방법
GB0725202D0 (en) 2007-12-24 2008-01-30 Cadbury Schweppes Plc Beverage capsules
CN101470469A (zh) 2007-12-25 2009-07-01 诺伯·古斯奇 折叠计算机
US8379060B2 (en) 2007-12-25 2013-02-19 Intel Corporation Device, system, and method of display calibration
TWI358028B (en) 2007-12-25 2012-02-11 Htc Corp Electronic device capable of transferring object b
TWI416399B (zh) 2007-12-28 2013-11-21 Htc Corp 手持式電子裝置及其操作方法
US20090254861A1 (en) 2007-12-31 2009-10-08 France Telecom Dual display content companion
US9106447B2 (en) 2008-01-03 2015-08-11 Apple Inc. Systems, methods and apparatus for providing unread message alerts
US20090174679A1 (en) 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
CN101965608A (zh) * 2008-01-07 2011-02-02 智能技术Ulc公司 管理多监视器计算机系统中的应用的方法和采用该方法的多监视器计算机系统
US20090176571A1 (en) * 2008-01-07 2009-07-09 Ippasa, Llc System for and method of operating video game system with control actuator-equipped stylus
CN101482790B (zh) 2008-01-09 2012-03-14 宏达国际电子股份有限公司 可于两显示元件上转移对象的电子装置及其控制方法
US20090183182A1 (en) 2008-01-10 2009-07-16 Microsoft Corporation Dynamic Composition of Virtualized Applications
US8214760B2 (en) 2008-01-16 2012-07-03 Microsoft Corporation Window minimization trigger
US8059111B2 (en) 2008-01-21 2011-11-15 Sony Computer Entertainment America Llc Data transfer using hand-held device
US9280254B2 (en) 2008-01-22 2016-03-08 Bluebeam Software, Inc. Method of synchronizing multiple views of multiple displayed documents
BRPI0906968A2 (pt) 2008-01-30 2015-07-14 Google Inc Notificação de eventos de dispositivo móvel.
US7960945B1 (en) 2008-01-30 2011-06-14 Google Inc. Estimating remaining use time of a mobile device
US20090199127A1 (en) * 2008-01-31 2009-08-06 Microsoft Corporation Previewing target display areas
US8356258B2 (en) 2008-02-01 2013-01-15 Microsoft Corporation Arranging display areas utilizing enhanced window states
US20090204915A1 (en) 2008-02-08 2009-08-13 Sony Ericsson Mobile Communications Ab Method for Switching Desktop Panels in an Active Desktop
US20090204925A1 (en) 2008-02-08 2009-08-13 Sony Ericsson Mobile Communications Ab Active Desktop with Changeable Desktop Panels
CN101520745B (zh) 2008-02-27 2012-03-28 联想(北京)有限公司 数据处理设备及其状态切换方法
CN101526836A (zh) * 2008-03-03 2009-09-09 鸿富锦精密工业(深圳)有限公司 双屏笔记本电脑
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US9483755B2 (en) 2008-03-04 2016-11-01 Apple Inc. Portable multifunction device, method, and graphical user interface for an email client
JP2009211547A (ja) 2008-03-05 2009-09-17 Seiko Epson Corp 表示システム、表示装置及びプログラム
US20100164836A1 (en) 2008-03-11 2010-07-01 Truview Digital, Inc. Digital photo album, digital book, digital reader
US20090231233A1 (en) 2008-03-11 2009-09-17 Liberatore Raymond A Digital photo album
JP2009245423A (ja) 2008-03-13 2009-10-22 Panasonic Corp 情報機器およびウインドウ表示方法
JP4740971B2 (ja) 2008-03-14 2011-08-03 京セラ株式会社 表示機能付き端末装置
US7930328B2 (en) 2008-03-31 2011-04-19 Lenovo (Singapore) Pte. Ltd. Apparatus, system, and method for file system sharing
US8259080B2 (en) 2008-03-31 2012-09-04 Dell Products, Lp Information handling system display device and methods thereof
US8624844B2 (en) 2008-04-01 2014-01-07 Litl Llc Portable computer with multiple display configurations
EP2109080A1 (en) * 2008-04-09 2009-10-14 IBBT vzw A method and device for processing and presenting medical images
US8788967B2 (en) * 2008-04-10 2014-07-22 Perceptive Pixel, Inc. Methods of interfacing with multi-input devices and multi-input display systems employing interfacing techniques
KR100977385B1 (ko) 2008-04-10 2010-08-20 주식회사 팬택 위젯형 대기화면을 제어할 수 있는 이동 단말기 및 그를이용한 대기화면 제어 방법
US9286027B2 (en) 2008-04-11 2016-03-15 T-Mobile Usa, Inc. Digital picture frame having communication capabilities
US7949633B1 (en) 2008-05-12 2011-05-24 Adobe Systems Incorporated Shared edit access of electronic content
KR20090121504A (ko) * 2008-05-22 2009-11-26 삼성전자주식회사 테두리 영역에 디스플레이가 배치된 영상표시장치 및 이를적용한 영상표시방법
US20090291760A1 (en) 2008-05-22 2009-11-26 Bennett Hepburn Video Gaming Controller Bay for Mobile Devices
WO2009155071A2 (en) 2008-05-28 2009-12-23 Google Inc. Motion-controlled views on mobile computing devices
KR101526970B1 (ko) 2008-05-29 2015-06-16 엘지전자 주식회사 단말기 및 그 제어 방법
EP2129091A1 (en) 2008-05-29 2009-12-02 LG Electronics Inc. Mobile terminal and transparent display control method thereof
DE602008005865D1 (de) * 2008-05-29 2011-05-12 Lg Electronics Inc Transparente Anzeige und Betriebsverfahren dafür
US8490124B2 (en) 2008-05-29 2013-07-16 Qualcomm Incorporated Method and apparatus for improving performance and user experience of a mobile broadcast receiver
ATE489804T1 (de) 2008-05-29 2010-12-15 Lg Electronics Inc Transparente anzeige und betriebsverfahren dafür
KR101482112B1 (ko) 2008-06-02 2015-01-21 엘지전자 주식회사 휴대 단말기 및 그 동작제어 방법
US8477139B2 (en) * 2008-06-09 2013-07-02 Apple Inc. Touch screen device, method, and graphical user interface for manipulating three-dimensional virtual objects
US8890802B2 (en) 2008-06-10 2014-11-18 Intel Corporation Device with display position input
US8230180B2 (en) 2008-06-11 2012-07-24 Samsung Electronics Co., Ltd. Shared memory burst communications
CA2715837A1 (en) * 2008-06-12 2009-12-17 Canova Technologies Limited Dual screen display system
US8803896B2 (en) 2008-06-17 2014-08-12 Apple Inc. Providing a coherent user interface across multiple output devices
TW201001229A (en) 2008-06-19 2010-01-01 Acer Inc Multi-display operating system and method thereof
US20090327955A1 (en) 2008-06-28 2009-12-31 Mouilleseaux Jean-Pierre M Selecting Menu Items
US8359372B2 (en) 2008-06-29 2013-01-22 Microsoft Corporation Automatic transfer of information through physical docking of devices
CN104216613B (zh) * 2008-06-30 2018-02-09 日本电气株式会社 信息处理设备、显示控制方法和记录介质
US20090322690A1 (en) * 2008-06-30 2009-12-31 Nokia Corporation Screen display
CN102077160B (zh) 2008-06-30 2014-06-18 日本电气株式会社 信息处理设备、显示控制方法
CN102159703B (zh) 2008-06-30 2015-11-25 森托科尔奥索生物科技公司 多能干细胞的分化
JP4561888B2 (ja) 2008-07-01 2010-10-13 ソニー株式会社 情報処理装置、及び情報処理装置における振動制御方法
US8169414B2 (en) 2008-07-12 2012-05-01 Lim Seung E Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface
US20100007603A1 (en) 2008-07-14 2010-01-14 Sony Ericsson Mobile Communications Ab Method and apparatus for controlling display orientation
TW201005503A (en) 2008-07-16 2010-02-01 Htc Corp Portable electronic device and the mode switching method thereof
JP2010026883A (ja) 2008-07-23 2010-02-04 Softbank Mobile Corp 携帯情報端末、携帯情報処理方法及び携帯情報処理プログラム
US9285970B2 (en) * 2008-07-25 2016-03-15 Google Technology Holdings LLC Method and apparatus for displaying navigational views on a portable device
WO2010010835A1 (ja) 2008-07-25 2010-01-28 日本電気株式会社 情報処理装置、情報処理プログラム、及び表示制御方法
US8390577B2 (en) 2008-07-25 2013-03-05 Intuilab Continuous recognition of multi-touch gestures
JP5317172B2 (ja) 2008-08-01 2013-10-16 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
US20100031202A1 (en) 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US8191004B2 (en) 2008-08-06 2012-05-29 Microsoft Corporation User feedback correlated to specific user interface or application features
CN101644987A (zh) 2008-08-08 2010-02-10 深圳富泰宏精密工业有限公司 移动终端及其菜单选择的方法
US8543935B2 (en) 2008-08-20 2013-09-24 Red Hat, Inc. Full-screen heterogeneous desktop display and control
US20100046026A1 (en) 2008-08-21 2010-02-25 Samsung Electronics Co., Ltd. Image forming apparatus and image forming method
US8924892B2 (en) 2008-08-22 2014-12-30 Fuji Xerox Co., Ltd. Multiple selection on devices with many gestures
KR101531504B1 (ko) 2008-08-26 2015-06-26 엘지전자 주식회사 이동단말기 및 그 제어 방법
US20100053089A1 (en) 2008-08-27 2010-03-04 Research In Motion Limited Portable electronic device including touchscreen and method of controlling the portable electronic device
US10375223B2 (en) 2008-08-28 2019-08-06 Qualcomm Incorporated Notifying a user of events in a computing device
US8613394B2 (en) 2008-08-29 2013-12-24 The Invention Science Fund I, Llc Bendable electronic interface external control system and method
US20100162128A1 (en) 2008-12-19 2010-06-24 Nigel Richardson User interfaces and associated apparatus and methods
CN101661383B (zh) 2008-08-29 2012-06-06 联想(北京)有限公司 一种电子设备及其显示控制方法
US20100053852A1 (en) 2008-09-02 2010-03-04 Cheng Uei Precision Industry Co., Ltd. Display Device
KR101592296B1 (ko) 2008-09-03 2016-02-05 엘지전자 주식회사 이동 단말기 및 그의 객체 선택과 실행 방법
AU2009290093A1 (en) 2008-09-03 2010-03-11 Smart Technologies Ulc Method of displaying applications in a multi-monitor computer system and multi-monitor computer system employing the method
US20100064251A1 (en) 2008-09-05 2010-03-11 International Business Machines Corporation Toggling window display state by screen in a multi-screened desktop environment
US9009984B2 (en) 2008-09-08 2015-04-21 Qualcomm Incorporated Multi-panel electronic device
US8860632B2 (en) 2008-09-08 2014-10-14 Qualcomm Incorporated Multi-panel device with configurable interface
US8803816B2 (en) 2008-09-08 2014-08-12 Qualcomm Incorporated Multi-fold mobile device with configurable interface
US8947320B2 (en) 2008-09-08 2015-02-03 Qualcomm Incorporated Method for indicating location and direction of a graphical user interface element
US8165558B2 (en) 2008-09-08 2012-04-24 Celio Technology Corporation Client device for cellular telephone as server
US8866840B2 (en) 2008-09-08 2014-10-21 Qualcomm Incorporated Sending a parameter based on screen size or screen resolution of a multi-panel electronic device to a server
US8933874B2 (en) * 2008-09-08 2015-01-13 Patrik N. Lundqvist Multi-panel electronic device
US8836611B2 (en) 2008-09-08 2014-09-16 Qualcomm Incorporated Multi-panel device with configurable interface
US8863038B2 (en) 2008-09-08 2014-10-14 Qualcomm Incorporated Multi-panel electronic device
US20100060549A1 (en) 2008-09-11 2010-03-11 Ely Tsern Method and system for dynamically generating different user environments with secondary devices with displays of various form factors
US8896632B2 (en) 2008-09-12 2014-11-25 Qualcomm Incorporated Orienting displayed elements relative to a user
KR101548958B1 (ko) 2008-09-18 2015-09-01 삼성전자주식회사 휴대단말기의 터치스크린 동작 제어 방법 및 장치
US8191011B2 (en) 2008-09-18 2012-05-29 Microsoft Corporation Motion activated content control for media system
US8176438B2 (en) 2008-09-26 2012-05-08 Microsoft Corporation Multi-modal interaction for a screen magnifier
US8600446B2 (en) 2008-09-26 2013-12-03 Htc Corporation Mobile device interface with dual windows
US9250797B2 (en) 2008-09-30 2016-02-02 Verizon Patent And Licensing Inc. Touch gesture interface apparatuses, systems, and methods
JP5362307B2 (ja) 2008-09-30 2013-12-11 富士フイルム株式会社 ドラッグアンドドロップ制御装置、方法、及びプログラム、並びにコンピュータ端末
KR101588660B1 (ko) 2008-09-30 2016-01-28 삼성전자주식회사 영상 이동이 가능한 디스플레이 장치 및 그 방법
US8866698B2 (en) 2008-10-01 2014-10-21 Pleiades Publishing Ltd. Multi-display handheld device and supporting system
JP2010088067A (ja) 2008-10-03 2010-04-15 Funai Electric Co Ltd 携帯端末
US20100088532A1 (en) 2008-10-07 2010-04-08 Research In Motion Limited Method and handheld electronic device having a graphic user interface with efficient orientation sensor use
CN102037328A (zh) 2008-10-08 2011-04-27 通腾科技股份有限公司 导航设备、服务器设备以及提供关注点数据的方法
EP2192476A3 (en) 2008-10-08 2010-06-30 Research In Motion Limited Content-dynamic touch screen activity bar
EP2175343A1 (en) 2008-10-08 2010-04-14 Research in Motion Limited A method and handheld electronic device having a graphical user interface which arranges icons dynamically
JP5095574B2 (ja) 2008-10-09 2012-12-12 シャープ株式会社 画像表示/像検知装置、画像表示方法、画像表示プログラムおよび当該プログラムを記録した記録媒体
KR20100041006A (ko) 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
US20100090959A1 (en) 2008-10-14 2010-04-15 Sony Ericsson Mobile Communications Ab Forming a keyboard from a combination of keys displayed on a touch sensitive display and on a separate keypad
KR101504210B1 (ko) 2008-10-17 2015-03-19 엘지전자 주식회사 단말기 및 그 제어 방법
KR101501167B1 (ko) 2008-10-20 2015-03-10 삼성전자주식회사 다중 모뎀을 구비한 이동통신 단말기에서 다중 운용 체제를운용하기 위한 장치 및 방법
JP4935796B2 (ja) 2008-10-30 2012-05-23 富士ゼロックス株式会社 表示制御装置、画像形成装置及びプログラム
US8856690B2 (en) 2008-10-31 2014-10-07 Sprint Communications Company L.P. Associating gestures on a touch screen with characters
CN101727268A (zh) 2008-11-03 2010-06-09 英业达股份有限公司 手持式电子装置与其程序显示切换方法
KR101551882B1 (ko) 2008-11-07 2015-09-10 삼성전자주식회사 멀티 디스플레이 장치
US8352967B2 (en) 2008-11-10 2013-01-08 Google Inc. Safe browser plugins using native code modules
JP5500818B2 (ja) * 2008-11-18 2014-05-21 シャープ株式会社 表示制御装置および表示制御方法
TW201020896A (en) 2008-11-19 2010-06-01 Nat Applied Res Laboratories Method of gesture control
KR101544475B1 (ko) 2008-11-28 2015-08-13 엘지전자 주식회사 터치를 통한 입출력 제어
JP2010134039A (ja) 2008-12-02 2010-06-17 Sony Corp 情報処理装置及び情報処理方法
KR20100065418A (ko) 2008-12-08 2010-06-17 삼성전자주식회사 가요성 표시부를 가지는 단말기 및 그의 데이터 표시 방법
KR101588666B1 (ko) * 2008-12-08 2016-01-27 삼성전자주식회사 디스플레이 장치 및 그의 표시방법
JP5498690B2 (ja) * 2008-12-08 2014-05-21 任天堂株式会社 ゲームプログラムおよびゲーム装置
US9075457B2 (en) 2008-12-12 2015-07-07 Maxim Integrated Products, Inc. System and method for interfacing applications processor to touchscreen display for reduced data transfer
JP2010145861A (ja) 2008-12-19 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ
US20100156939A1 (en) 2008-12-22 2010-06-24 Research In Motion Limited Portable electronic device and method of controlling same
US7864524B2 (en) 2008-12-24 2011-01-04 Research In Motion Limited Multiple-fold portable electronic device
US8904292B2 (en) 2008-12-31 2014-12-02 Motorola Mobility Llc Method and system for processing electronic mail
JP2010160581A (ja) 2009-01-06 2010-07-22 Olympus Imaging Corp ユーザインタフェース装置、カメラ、ユーザインタフェース方法およびユーザインタフェース用プログラム
US8499251B2 (en) 2009-01-07 2013-07-30 Microsoft Corporation Virtual page turn
US8300022B2 (en) * 2009-01-09 2012-10-30 International Business Machines Corporation Dynamically reconfigurable touch screen displays
KR101569776B1 (ko) 2009-01-09 2015-11-19 삼성전자주식회사 접히는 표시부를 가지는 휴대 단말기 및 이의 운용 방법
KR20100083640A (ko) * 2009-01-14 2010-07-22 삼성전자주식회사 디스플레이 장치, 스캐너, 디스플레이 시스템 및 이를 이용한 디스플레이 방법
US9253430B2 (en) 2009-01-15 2016-02-02 At&T Intellectual Property I, L.P. Systems and methods to control viewed content
KR101510760B1 (ko) 2009-01-19 2015-04-10 삼성전자 주식회사 디스플레이장치 및 그 제어 방법
KR101521932B1 (ko) * 2009-01-19 2015-05-20 엘지전자 주식회사 단말기 및 그 제어 방법
US8330733B2 (en) 2009-01-21 2012-12-11 Microsoft Corporation Bi-modal multiscreen interactivity
US8279184B2 (en) 2009-01-27 2012-10-02 Research In Motion Limited Electronic device including a touchscreen and method
JP2010176320A (ja) 2009-01-28 2010-08-12 Seiko Epson Corp 画像処理方法、そのプログラム及び画像処理装置
JP2010176332A (ja) 2009-01-28 2010-08-12 Sony Corp 情報処理装置、情報処理方法およびプログラム
US7870496B1 (en) 2009-01-29 2011-01-11 Jahanzeb Ahmed Sherwani System using touchscreen user interface of a mobile device to remotely control a host computer
KR101563523B1 (ko) * 2009-01-30 2015-10-28 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 사용자 인터페이스 표시 방법
CN101493751B (zh) 2009-02-09 2011-01-19 深圳市步科电气有限公司 一种嵌入式图形系统的多窗口管理器
CN101477442A (zh) * 2009-02-16 2009-07-08 重庆大学 一种便携式计算机的显示状态切换方法及结构
US9176747B2 (en) 2009-02-17 2015-11-03 Sandisk Il Ltd. User-application interface
KR101608748B1 (ko) 2009-02-18 2016-04-21 삼성전자주식회사 탈부착 가능한 서브 디스플레이부를 구비하는 휴대 단말기
US20100211769A1 (en) 2009-02-19 2010-08-19 Subramonian Shankar Concurrent Execution of a Smartphone Operating System and a Desktop Operating System
CA2751480C (en) 2009-02-23 2017-05-30 Research In Motion Limited Touch-sensitive display and method of controlling same
US20100220066A1 (en) 2009-02-27 2010-09-02 Murphy Kenneth M T Handheld electronic device having a touchscreen and a method of using a touchscreen of a handheld electronic device
EP2226991B1 (en) * 2009-03-03 2014-04-30 Lg Electronics Inc. Foldable mobile terminal
EP2226787B1 (en) 2009-03-03 2016-12-07 Lg Electronics Inc. Mobile terminal and method for displaying data in mobile terminal
EP2226713A1 (en) 2009-03-05 2010-09-08 TELEFONAKTIEBOLAGET LM ERICSSON (publ) Cooperative drag and drop
JP4697558B2 (ja) 2009-03-09 2011-06-08 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP5157971B2 (ja) * 2009-03-09 2013-03-06 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8984431B2 (en) 2009-03-16 2015-03-17 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US8291440B2 (en) 2009-03-16 2012-10-16 Apple Inc. Providing a proxy view for an application in a window manager
US8471781B2 (en) * 2009-03-17 2013-06-25 Litera Technologies, LLC System and method for the auto-detection and presentation of pre-set configurations for multiple monitor layout display
US8121640B2 (en) 2009-03-19 2012-02-21 Microsoft Corporation Dual module portable devices
US8446377B2 (en) 2009-03-24 2013-05-21 Microsoft Corporation Dual screen portable touch sensitive computing system
US20100251233A1 (en) 2009-03-25 2010-09-30 Honeywell International Inc. Embedded computing system user interface emulated on a separate computing device
KR101640460B1 (ko) * 2009-03-25 2016-07-18 삼성전자 주식회사 휴대 단말기의 분할 화면 운용 방법 및 이를 지원하는 휴대 단말기
US8806371B2 (en) 2009-03-26 2014-08-12 Apple Inc. Interface navigation tools
US8630088B2 (en) 2009-03-27 2014-01-14 Qualcomm Incorporated Portable docking station for a portable computing device
US8194001B2 (en) 2009-03-27 2012-06-05 Microsoft Corporation Mobile computer device display postures
US8707061B2 (en) 2009-03-27 2014-04-22 Qualcomm Incorporated System and method of providing scalable computing between a portable computing device and a portable computing device docking station
US7864517B2 (en) * 2009-03-30 2011-01-04 Microsoft Corporation Mobile computer device binding feedback
JP4904375B2 (ja) 2009-03-31 2012-03-28 京セラ株式会社 ユーザインタフェース装置及び携帯端末装置
KR101510484B1 (ko) * 2009-03-31 2015-04-08 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
CN102369504B (zh) 2009-03-31 2016-10-26 日本电气株式会社 便携终端装置、其控制程序以及多个显示画面的控制方法
US8412590B2 (en) 2009-04-13 2013-04-02 Nintendo Co., Ltd. In-store wireless shopping network using hand-held devices
US20110038470A1 (en) 2009-04-14 2011-02-17 Carl Ernest Kent Centrally Located Server Delivery Of Personalized Content To Telecommunications Devices
JP5229083B2 (ja) 2009-04-14 2013-07-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP5606686B2 (ja) 2009-04-14 2014-10-15 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US8873728B2 (en) * 2009-04-22 2014-10-28 Avaya Inc. Join-us call-log and call-answer messages
WO2010126615A1 (en) 2009-04-30 2010-11-04 Green Plug, Inc. Multi-functional bi-directional communication and bias power architecture for power supply control
US20100287513A1 (en) 2009-05-05 2010-11-11 Microsoft Corporation Multi-device gesture interactivity
KR20100122383A (ko) * 2009-05-12 2010-11-22 삼성전자주식회사 좌표 예측을 통한 이미지의 출력 속도 향상 방법 및 장치
US8619029B2 (en) 2009-05-22 2013-12-31 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting consecutive gestures
US8417297B2 (en) 2009-05-22 2013-04-09 Lg Electronics Inc. Mobile terminal and method of providing graphic user interface using the same
KR101560718B1 (ko) * 2009-05-29 2015-10-15 엘지전자 주식회사 이동 단말기 및 이동 단말기에서의 정보 표시 방법
US20100305843A1 (en) 2009-05-29 2010-12-02 Nokia Corporation Navigation indicator
KR101566353B1 (ko) 2009-06-02 2015-11-05 엘지전자 주식회사 이동 단말기 및 이동 단말기의 정보 표시 방법
US20100313150A1 (en) 2009-06-03 2010-12-09 Microsoft Corporation Separable displays and composable surfaces
US8621387B2 (en) 2009-06-08 2013-12-31 Apple Inc. User interface for multiple display regions
TWI400652B (zh) 2009-06-11 2013-07-01 Insyde Software Corp Dual operating system parallel processing methods, recording media and computer program products
US20110069021A1 (en) 2009-06-12 2011-03-24 Hill Jared C Reducing false touchpad data by ignoring input when area gesture does not behave as predicted
US20100321319A1 (en) 2009-06-17 2010-12-23 Hefti Thierry Method for displaying and updating a view of a graphical scene in response to commands via a touch-sensitive device
US20100321275A1 (en) * 2009-06-18 2010-12-23 Microsoft Corporation Multiple display computing device with position-based operating modes
WO2010150892A1 (ja) 2009-06-26 2010-12-29 京セラ株式会社 携帯型電子機器、および携帯型電子機器の動作方法
US8745518B2 (en) 2009-06-30 2014-06-03 Oracle America, Inc. Touch screen input recognition and character selection
US8839422B2 (en) 2009-06-30 2014-09-16 George Mason Research Foundation, Inc. Virtual browsing environment
US8928551B2 (en) 2009-07-07 2015-01-06 Village Green Technologies, LLC Multiple displays for a portable electronic device and a method of use
US9767438B2 (en) 2009-07-14 2017-09-19 Bitvore Corp. Presentation and sorting of email
JP2011022842A (ja) 2009-07-16 2011-02-03 Sony Corp 表示装置、表示方法及びプログラム
JP5013548B2 (ja) 2009-07-16 2012-08-29 ソニーモバイルコミュニケーションズ, エービー 情報端末、情報端末の情報提示方法及び情報提示プログラム
US9367331B2 (en) 2009-07-20 2016-06-14 Google Technology Holdings LLC Multi-environment operating system
US9389877B2 (en) 2009-07-20 2016-07-12 Google Technology Holdings LLC Multi-environment operating system
US9372711B2 (en) 2009-07-20 2016-06-21 Google Technology Holdings LLC System and method for initiating a multi-environment operating system
US9348633B2 (en) 2009-07-20 2016-05-24 Google Technology Holdings LLC Multi-environment operating system
US8868899B2 (en) 2009-07-20 2014-10-21 Motorola Mobility Llc System and method for switching between environments in a multi-environment operating system
US8847984B2 (en) 2009-07-27 2014-09-30 Disney Enterprises, Inc. System and method for forming a composite image in a portable computing device having a dual screen display
JP2011028673A (ja) 2009-07-29 2011-02-10 Kyocera Corp 携帯端末装置
EP2287702B1 (en) 2009-08-17 2018-05-02 Lg Electronics Inc. Mobile terminal and display controlling method thereof
JP2011048431A (ja) * 2009-08-25 2011-03-10 Brother Industries Ltd 画像表示システム,画像処理装置および電子ペーパー
CN101996031A (zh) 2009-08-25 2011-03-30 鸿富锦精密工业(深圳)有限公司 具有触摸输入功能的电子装置及其触摸输入方法
JP2011048538A (ja) 2009-08-26 2011-03-10 Access Co Ltd コンテキスト配置方法、コンテキスト配置プログラム、及び情報表示装置
US8341558B2 (en) 2009-09-16 2012-12-25 Google Inc. Gesture recognition on computing device correlating input to a template
KR101629645B1 (ko) 2009-09-18 2016-06-21 엘지전자 주식회사 휴대 단말기 및 그 동작방법
US8624933B2 (en) * 2009-09-25 2014-01-07 Apple Inc. Device, method, and graphical user interface for scrolling a multi-section document
US20110074696A1 (en) 2009-09-25 2011-03-31 Peter William Rapp Device, Method, and Graphical User Interface Using Mid-Drag Gestures
US8832585B2 (en) * 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
US8766928B2 (en) * 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
JP4959765B2 (ja) 2009-09-28 2012-06-27 京セラ株式会社 携帯端末装置
JP4824805B2 (ja) * 2009-09-28 2011-11-30 京セラ株式会社 携帯端末装置
US9338274B2 (en) 2009-10-02 2016-05-10 Blackberry Limited Method of interacting with electronic devices in a locked state and handheld electronic device configured to permit interaction when in a locked state
CA2717639C (en) 2009-10-14 2014-12-30 Research In Motion Limited Management of access to entry points on a communication device
US20110090155A1 (en) * 2009-10-15 2011-04-21 Qualcomm Incorporated Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input
US8624925B2 (en) 2009-10-16 2014-01-07 Qualcomm Incorporated Content boundary signaling techniques
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
KR101636570B1 (ko) * 2009-10-28 2016-07-20 엘지전자 주식회사 출력표시영역 제어 장치 및 방법
US20110102314A1 (en) 2009-10-30 2011-05-05 Xerox Corporation Dual-screen electronic reader with tilt detection for page navigation
US8677284B2 (en) * 2009-11-04 2014-03-18 Alpine Electronics, Inc. Method and apparatus for controlling and displaying contents in a user interface
US20110113329A1 (en) * 2009-11-09 2011-05-12 Michael Pusateri Multi-touch sensing device for use with radiological workstations and associated methods of use
KR101714781B1 (ko) * 2009-11-17 2017-03-22 엘지전자 주식회사 컨텐츠 재생 방법
US8797268B2 (en) * 2009-11-18 2014-08-05 Qualcomm Incorporated Folding mobile device
KR20110055203A (ko) * 2009-11-19 2011-05-25 삼성전자주식회사 디스플레이 장치의 동작 모드에 기초한 디스플레이 제어방법 및 이를 적용한 디지털 기기
US9460422B2 (en) * 2009-11-20 2016-10-04 Sears Brands, L.L.C. Systems and methods for managing to-do list task items to automatically suggest and add purchasing items via a computer network
US9152314B2 (en) 2009-11-30 2015-10-06 Lg Electronics Inc. Mobile terminal and controlling method thereof
US8769428B2 (en) 2009-12-09 2014-07-01 Citrix Systems, Inc. Methods and systems for generating a combined display of taskbar button group entries generated on a local machine and on a remote machine
US20110145758A1 (en) 2009-12-10 2011-06-16 International Business Machines Corporation Display navigation system, method and computer program product
US9177298B2 (en) * 2009-12-15 2015-11-03 International Business Machines Corporation Abbreviated user interface for instant messaging to minimize active window focus changes
US8621391B2 (en) 2009-12-16 2013-12-31 Apple Inc. Device, method, and computer readable medium for maintaining a selection order in a displayed thumbnail stack of user interface elements acted upon via gestured operations
US20110143769A1 (en) 2009-12-16 2011-06-16 Microsoft Corporation Dual display mobile communication device
US8923995B2 (en) 2009-12-22 2014-12-30 Apple Inc. Directional audio interface for portable media device
JP5351006B2 (ja) 2009-12-24 2013-11-27 京セラ株式会社 携帯端末及び表示制御プログラム
US8949734B2 (en) 2010-01-04 2015-02-03 Verizon Patent And Licensing Inc. Mobile device color-based content mapping and navigation
US8786559B2 (en) * 2010-01-06 2014-07-22 Apple Inc. Device, method, and graphical user interface for manipulating tables using multi-contact gestures
CN101847075A (zh) 2010-01-08 2010-09-29 宏碁股份有限公司 多屏幕电子装置及其影像显示方法
US8791898B2 (en) * 2010-01-20 2014-07-29 Apple Inc. Motion controllable dual display portable media device
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
KR101087479B1 (ko) 2010-01-29 2011-11-25 주식회사 팬택 멀티 디스플레이 장치 및 그 제어 방법
KR20110089012A (ko) 2010-01-29 2011-08-04 삼성전자주식회사 전자책 단말기 및 그의 멀티태스킹 히스토리 제공방법
KR101642722B1 (ko) 2010-02-04 2016-07-27 삼성전자 주식회사 듀얼 표시부를 가지는 휴대단말 및 그 표시부의 표시 제어 방법
KR20110092802A (ko) 2010-02-10 2011-08-18 삼성전자주식회사 복수개의 표시부를 가지는 단말기의 데이터 운용 방법 및 이를 지원하는 단말기
KR101622635B1 (ko) 2010-02-12 2016-05-20 삼성전자주식회사 3개의 표시부를 가지는 단말기의 데이터 운용 방법 및 이를 지원하는 단말기
US9417787B2 (en) 2010-02-12 2016-08-16 Microsoft Technology Licensing, Llc Distortion effects to indicate location in a movable data collection
US20150169119A1 (en) 2010-02-17 2015-06-18 Google Inc. Major-Axis Pinch Navigation In A Three-Dimensional Environment On A Mobile Device
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US8539384B2 (en) 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US20110209101A1 (en) * 2010-02-25 2011-08-25 Hinckley Kenneth P Multi-screen pinch-to-pocket gesture
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US20110209058A1 (en) 2010-02-25 2011-08-25 Microsoft Corporation Multi-screen hold and tap gesture
US20110210922A1 (en) * 2010-02-26 2011-09-01 Research In Motion Limited Dual-screen mobile device
US8621379B2 (en) 2010-03-12 2013-12-31 Apple Inc. Device, method, and graphical user interface for creating and using duplicate virtual keys
JP5800501B2 (ja) 2010-03-12 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
US8634873B2 (en) 2010-03-17 2014-01-21 Microsoft Corporation Mobile communication device having multiple, interchangeable second devices
US20110228463A1 (en) * 2010-03-22 2011-09-22 Matagne James D Laptop Back-to-Back Display Screen System for Face-to-Face Interactions
EP2369820B1 (en) 2010-03-22 2016-04-06 BlackBerry Limited Management and display of grouped messages on a communication device
TW201133327A (en) * 2010-03-24 2011-10-01 Acer Inc Multiple displays electric apparatus and operation method thereof
JP5557314B2 (ja) * 2010-03-24 2014-07-23 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
US20110239142A1 (en) * 2010-03-25 2011-09-29 Nokia Corporation Method and apparatus for providing content over multiple displays
JP5355466B2 (ja) 2010-03-25 2013-11-27 京セラ株式会社 携帯端末装置
CN102822785A (zh) 2010-03-30 2012-12-12 惠普发展公司有限责任合伙企业 键盘的图像
US20110242138A1 (en) 2010-03-31 2011-10-06 Tribble Guy L Device, Method, and Graphical User Interface with Concurrent Virtual Keyboards
WO2011123840A2 (en) 2010-04-01 2011-10-06 Citrix Systems, Inc. Interacting with remote applications displayed within a virtual desktop of a tablet computing device
US8228292B1 (en) * 2010-04-02 2012-07-24 Google Inc. Flipping for motion-based input
US8881060B2 (en) * 2010-04-07 2014-11-04 Apple Inc. Device, method, and graphical user interface for managing folders
US8744420B2 (en) 2010-04-07 2014-06-03 Apple Inc. Establishing a video conference during a phone call
US20110252357A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
US9213480B2 (en) 2010-04-08 2015-12-15 Nokia Technologies Oy Method, apparatus and computer program product for joining the displays of multiple devices
JP4865053B2 (ja) 2010-04-22 2012-02-01 株式会社東芝 情報処理装置およびドラッグ制御方法
TWI413922B (zh) 2010-04-23 2013-11-01 Primax Electronics Ltd 觸控板之控制方法與應用該方法之觸控裝置
US8558756B2 (en) 2010-04-30 2013-10-15 International Business Machines Corporation Displaying messages on created collections of displays
US8400564B2 (en) 2010-05-03 2013-03-19 Microsoft Corporation Image capture
US20110283212A1 (en) * 2010-05-13 2011-11-17 Nokia Corporation User Interface
JP2011248411A (ja) 2010-05-21 2011-12-08 Toshiba Corp 情報処理装置および仮想キーボードの表示方法
US9851747B2 (en) 2010-05-21 2017-12-26 Peter G. Winsky Electronic book reader with closely juxtaposed display screens
US20110296333A1 (en) 2010-05-25 2011-12-01 Bateman Steven S User interaction gestures with virtual keyboard
US20110296351A1 (en) 2010-05-26 2011-12-01 T-Mobile Usa, Inc. User Interface with Z-axis Interaction and Multiple Stacks
US8860672B2 (en) 2010-05-26 2014-10-14 T-Mobile Usa, Inc. User interface with z-axis interaction
JP2011248784A (ja) * 2010-05-28 2011-12-08 Toshiba Corp 電子機器、及び表示制御方法
US9110749B2 (en) 2010-06-01 2015-08-18 Apple Inc. Digital content bundle
US20110291964A1 (en) * 2010-06-01 2011-12-01 Kno, Inc. Apparatus and Method for Gesture Control of a Dual Panel Electronic Device
US8385057B2 (en) 2010-06-08 2013-02-26 Hewlett-Packard Development Company, L.P. Fully extendable dual-segmented housing assembly for mobile computing device
US8954099B2 (en) 2010-06-16 2015-02-10 Qualcomm Incorporated Layout design of proximity sensors to enable shortcuts
US8522165B2 (en) 2010-06-18 2013-08-27 Adobe Systems Incorporated User interface and method for object management
US8589952B2 (en) 2010-06-30 2013-11-19 Palm, Inc. Dual operating system operation and configuration
US20120005602A1 (en) 2010-07-02 2012-01-05 Nokia Corporation Methods and apparatuses for facilitating task switching
US8599105B2 (en) * 2010-07-02 2013-12-03 Nokia Corporation Method and apparatus for implementing a multiple display mode
US8397245B2 (en) 2010-07-12 2013-03-12 International Business Machines Corporation Managing loading and unloading of shared kernel extensions in isolated virtual space
US20120032981A1 (en) 2010-08-04 2012-02-09 Tina Hackwell Electronic Book With Configurable Display Panels
US8855609B2 (en) 2010-08-24 2014-10-07 Cisco Technology, Inc. User interface for selectively playing back content of a forwarded message
US20120054401A1 (en) 2010-08-25 2012-03-01 Cheng jeff Method And System For A Mobile Device Docking Station
JP5075240B2 (ja) 2010-08-27 2012-11-21 シャープ株式会社 操作装置、画像処理装置、及び、表示方法
US8823656B2 (en) 2010-08-30 2014-09-02 Atmel Corporation Touch tracking across multiple touch screens
US8531417B2 (en) 2010-09-02 2013-09-10 Blackberry Limited Location of a touch-sensitive control method and apparatus
KR101688942B1 (ko) 2010-09-03 2016-12-22 엘지전자 주식회사 다중 디스플레이에 기반한 사용자 인터페이스 제공 방법 및 이를 이용하는 이동 단말기
US8700987B2 (en) * 2010-09-09 2014-04-15 Sony Corporation Annotating E-books / E-magazines with application results and function calls
US8350919B2 (en) 2010-09-09 2013-01-08 Vizio, Inc. Configuration of a device based upon orientation
US20120066624A1 (en) * 2010-09-13 2012-03-15 Ati Technologies Ulc Method and apparatus for controlling movement of graphical user interface objects
US9164670B2 (en) * 2010-09-15 2015-10-20 Microsoft Technology Licensing, Llc Flexible touch-based scrolling
US8724696B2 (en) 2010-09-23 2014-05-13 Vmware, Inc. System and method for transmitting video and user interface elements
US9361604B2 (en) 2010-09-23 2016-06-07 Avaya Inc. System and method for a context-based rich communication log
US20120218202A1 (en) 2010-10-01 2012-08-30 Sanjiv Sirpal Windows position control for phone applications
US20120225693A1 (en) 2010-10-01 2012-09-06 Sanjiv Sirpal Windows position control for phone applications
US9588545B2 (en) 2010-10-01 2017-03-07 Z124 Windows position control for phone applications
US9001149B2 (en) 2010-10-01 2015-04-07 Z124 Max mode
US8749484B2 (en) 2010-10-01 2014-06-10 Z124 Multi-screen user interface with orientation based control
US9733665B2 (en) 2010-10-01 2017-08-15 Z124 Windows position control for phone applications
US9430122B2 (en) 2010-10-01 2016-08-30 Z124 Secondary single screen mode activation through off-screen gesture area activation
US20120220340A1 (en) 2010-10-01 2012-08-30 Sanjiv Sirpal Windows position control for phone applications
US20130312106A1 (en) 2010-10-01 2013-11-21 Z124 Selective Remote Wipe
US9436217B2 (en) 2010-10-01 2016-09-06 Z124 Windows position control for phone applications
WO2012044539A2 (en) 2010-10-01 2012-04-05 Imerj, Llc Multi-operating system
US20120225694A1 (en) 2010-10-01 2012-09-06 Sanjiv Sirpal Windows position control for phone applications
US20120220341A1 (en) 2010-10-01 2012-08-30 Sanjiv Sirpal Windows position control for phone applications
US9189018B2 (en) 2010-10-01 2015-11-17 Z124 Windows position control for phone applications
WO2012048057A2 (en) 2010-10-05 2012-04-12 Centric Software, Inc. Interactive collection book for mobile devices
US8856688B2 (en) * 2010-10-11 2014-10-07 Facebook, Inc. Pinch gesture to navigate application layers
US8761831B2 (en) 2010-10-15 2014-06-24 Z124 Mirrored remote peripheral interface
US9203796B2 (en) 2010-11-12 2015-12-01 Facebook, Inc. Messaging system with multiple messaging channels
US9292171B2 (en) 2010-11-17 2016-03-22 International Business Machines Corporation Border menu for context dependent actions within a graphical user interface
US9235828B2 (en) 2010-11-17 2016-01-12 Z124 Email client display transition
US8369893B2 (en) 2010-12-31 2013-02-05 Motorola Mobility Llc Method and system for adapting mobile device to accommodate external display
US20120176413A1 (en) 2011-01-11 2012-07-12 Qualcomm Incorporated Methods and apparatuses for mobile device display mode selection based on motion direction
US8689116B2 (en) 2011-01-14 2014-04-01 Apple Inc. Email user interface
KR101802522B1 (ko) 2011-02-10 2017-11-29 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면변경방법
EP3734404A1 (en) * 2011-02-10 2020-11-04 Samsung Electronics Co., Ltd. Portable device comprising a touch-screen display, and method for controlling same
US8645604B2 (en) 2011-03-25 2014-02-04 Apple Inc. Device orientation based docking functions
US10001806B2 (en) 2011-04-20 2018-06-19 Shang-Che Cheng Computing device with two or more display panels
US20120278747A1 (en) 2011-04-28 2012-11-01 Motorola Mobility, Inc. Method and apparatus for user interface in a system having two operating system environments
US9354900B2 (en) 2011-04-28 2016-05-31 Google Technology Holdings LLC Method and apparatus for presenting a window in a system having two operating system environments
US9927839B2 (en) 2011-05-03 2018-03-27 DISH Technologies L.L.C. Communications device with extendable screen
US8819576B2 (en) 2011-05-09 2014-08-26 Blackberry Limited Systems and methods for facilitating an input to an electronic device
US20120297304A1 (en) 2011-05-17 2012-11-22 Apple Inc. Adaptive Operating System
KR101563066B1 (ko) 2011-05-27 2015-10-23 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 디바이스 배터리 관리
US9104307B2 (en) * 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9310834B2 (en) 2011-06-30 2016-04-12 Z124 Full screen mode
US8732302B2 (en) * 2011-07-15 2014-05-20 Inetco Systems Limited Method and system for monitoring performance of an application system
CA2746065C (en) 2011-07-18 2013-02-19 Research In Motion Limited Electronic device and method for selectively applying message actions
US8810533B2 (en) 2011-07-20 2014-08-19 Z124 Systems and methods for receiving gesture inputs spanning multiple input devices
US9588668B2 (en) 2011-07-21 2017-03-07 Imerj, Llc Methods of displaying a second view
US8884892B2 (en) 2011-08-12 2014-11-11 Blackberry Limited Portable electronic device and method of controlling same
US8878794B2 (en) 2011-09-27 2014-11-04 Z124 State of screen info: easel
US10394441B2 (en) 2011-10-15 2019-08-27 Apple Inc. Device, method, and graphical user interface for controlling display of application windows
US8634807B2 (en) 2011-10-17 2014-01-21 Blackberry Limited System and method for managing electronic groups
US20130100167A1 (en) 2011-10-20 2013-04-25 Nokia Corporation Method and apparatus for control of orientation of information presented based upon device use state
KR20130053185A (ko) 2011-11-15 2013-05-23 삼성전자주식회사 전자기기들 간의 상호 제어 방법 및 시스템
WO2013074901A2 (en) 2011-11-16 2013-05-23 Flextronics Ap, Llc Control of device features based on vehicle indications and state
US9438554B2 (en) 2012-03-08 2016-09-06 Citrix Systems, Inc. Cross platform messaging
KR101952682B1 (ko) 2012-04-23 2019-02-27 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP2014010691A (ja) * 2012-06-29 2014-01-20 Canon Inc 情報処理装置、画面表示方法、およびプログラム
US20140022285A1 (en) 2012-07-20 2014-01-23 Thomas Jan Stovicek Handheld device with ergonomic display features
US9542004B1 (en) 2013-09-24 2017-01-10 Amazon Technologies, Inc. Gesture-based flash
KR102118408B1 (ko) * 2014-07-07 2020-06-03 삼성전자 주식회사 터치 감지 디바이스에서 터치 동작을 수행하는 방법

Also Published As

Publication number Publication date
US20150149936A1 (en) 2015-05-28
US20180348995A1 (en) 2018-12-06
US8866763B2 (en) 2014-10-21
US20120084737A1 (en) 2012-04-05
EP2622434A4 (en) 2014-07-30
CN103403658B (zh) 2017-06-20
WO2012044518A3 (en) 2012-06-14
CN103329062A (zh) 2013-09-25
WO2012044510A9 (en) 2012-07-19
US9870121B2 (en) 2018-01-16
JP2013542512A (ja) 2013-11-21
US20120081397A1 (en) 2012-04-05
US20200057548A1 (en) 2020-02-20
US8947376B2 (en) 2015-02-03
US20120081307A1 (en) 2012-04-05
US20120081310A1 (en) 2012-04-05
US20120084690A1 (en) 2012-04-05
CN103076967B (zh) 2018-06-29
US20160048299A1 (en) 2016-02-18
WO2012044545A2 (en) 2012-04-05
WO2012044527A2 (en) 2012-04-05
EP2622433B1 (en) 2018-04-11
US20190294315A1 (en) 2019-09-26
US20120084735A1 (en) 2012-04-05
US20200348800A1 (en) 2020-11-05
US20160034176A1 (en) 2016-02-04
US20160103603A1 (en) 2016-04-14
US9052800B2 (en) 2015-06-09
MX341479B (es) 2016-08-22
US20160179367A1 (en) 2016-06-23
US20160062554A1 (en) 2016-03-03
WO2012044515A3 (en) 2012-07-05
US20140380203A1 (en) 2014-12-25
US10990242B2 (en) 2021-04-27
MX2013003424A (es) 2013-10-28
BR112013007810A2 (pt) 2017-12-26
WO2012044516A3 (en) 2012-06-14
US9001158B2 (en) 2015-04-07
US8866764B2 (en) 2014-10-21
US20120084673A1 (en) 2012-04-05
WO2012044510A2 (en) 2012-04-05
WO2012044515A2 (en) 2012-04-05
WO2012044516A2 (en) 2012-04-05
CN103076967A (zh) 2013-05-01
US10048827B2 (en) 2018-08-14
US20150046858A1 (en) 2015-02-12
US20200089391A1 (en) 2020-03-19
US20120084697A1 (en) 2012-04-05
US11068124B2 (en) 2021-07-20
JP5847826B2 (ja) 2016-01-27
WO2012044511A2 (en) 2012-04-05
WO2012044545A3 (en) 2012-06-21
WO2012044527A3 (en) 2012-06-21
WO2012044511A3 (en) 2012-05-24
MX2013003247A (es) 2013-10-30
US20120081303A1 (en) 2012-04-05
US20120081304A1 (en) 2012-04-05
US20120081267A1 (en) 2012-04-05
EP2622433A2 (en) 2013-08-07
CN108897483B (zh) 2022-01-14
US9026923B2 (en) 2015-05-05
WO2012044517A3 (en) 2012-06-14
US20120081309A1 (en) 2012-04-05
US10318106B2 (en) 2019-06-11
US11537259B2 (en) 2022-12-27
US11182046B2 (en) 2021-11-23
US9019214B2 (en) 2015-04-28
EP2622433A4 (en) 2016-07-06
US20120081306A1 (en) 2012-04-05
US9372618B2 (en) 2016-06-21
US20120081277A1 (en) 2012-04-05
US8917221B2 (en) 2014-12-23
US20200089392A1 (en) 2020-03-19
EP2622432B1 (en) 2020-07-15
US10613706B2 (en) 2020-04-07
CN103282851A (zh) 2013-09-04
US20120081268A1 (en) 2012-04-05
US10705674B2 (en) 2020-07-07
US9405444B2 (en) 2016-08-02
US10664121B2 (en) 2020-05-26
US8749484B2 (en) 2014-06-10
US20120081269A1 (en) 2012-04-05
US20120084738A1 (en) 2012-04-05
US20160062593A1 (en) 2016-03-03
US20190310763A1 (en) 2019-10-10
CN108897483A (zh) 2018-11-27
US20150268851A1 (en) 2015-09-24
WO2012044510A3 (en) 2012-05-31
US10558321B2 (en) 2020-02-11
US20120084714A1 (en) 2012-04-05
US9046992B2 (en) 2015-06-02
US11231829B2 (en) 2022-01-25
US20140380202A1 (en) 2014-12-25
US10331296B2 (en) 2019-06-25
US8872731B2 (en) 2014-10-28
WO2012044518A2 (en) 2012-04-05
JP2013540316A (ja) 2013-10-31
US20120081308A1 (en) 2012-04-05
US9285957B2 (en) 2016-03-15
US20120084736A1 (en) 2012-04-05
US9727205B2 (en) 2017-08-08
US9632674B2 (en) 2017-04-25
US20160034175A1 (en) 2016-02-04
US20120084719A1 (en) 2012-04-05
US11599240B2 (en) 2023-03-07
US20120081278A1 (en) 2012-04-05
US20200257410A1 (en) 2020-08-13
EP2622432A4 (en) 2015-06-03
US9052801B2 (en) 2015-06-09
US20120081302A1 (en) 2012-04-05
US20120081305A1 (en) 2012-04-05
JP2013545168A (ja) 2013-12-19
WO2012044517A2 (en) 2012-04-05
US8842080B2 (en) 2014-09-23
EP2622432A2 (en) 2013-08-07
EP2622434A2 (en) 2013-08-07
CN103403658A (zh) 2013-11-20
US20200050344A1 (en) 2020-02-13

Similar Documents

Publication Publication Date Title
US10652383B2 (en) Smart dock call handling rules
MX2013003249A (es) Captura de gestos para manipulacion de presentaciones en una o mas pantallas de visualizacion de dispositivo.
JP6073792B2 (ja) ジェスチャを用いて積み重ねられた画面表示を閲覧するための方法及びシステム
US10528312B2 (en) Dual screen property detail display
US10282065B2 (en) Filling stack opening in display
US9164544B2 (en) Unified desktop: laptop dock, hardware configuration
US9003426B2 (en) Physical key secure peripheral interconnection
US9244491B2 (en) Smart dock for auxiliary devices
US9246353B2 (en) Smart dock charging
US9086840B2 (en) RSID proximity peripheral interconnection
US9383770B2 (en) Mobile device that docks with multiple types of docks
US9507930B2 (en) Physical key secure peripheral interconnection
JP6073793B2 (ja) デバイス開放と同時のデスクトップ表示

Legal Events

Date Code Title Description
FA Abandonment or withdrawal