KR20100039194A - Method for displaying graphic user interface according to user's touch pattern and apparatus having the same - Google Patents
Method for displaying graphic user interface according to user's touch pattern and apparatus having the same Download PDFInfo
- Publication number
- KR20100039194A KR20100039194A KR1020090012687A KR20090012687A KR20100039194A KR 20100039194 A KR20100039194 A KR 20100039194A KR 1020090012687 A KR1020090012687 A KR 1020090012687A KR 20090012687 A KR20090012687 A KR 20090012687A KR 20100039194 A KR20100039194 A KR 20100039194A
- Authority
- KR
- South Korea
- Prior art keywords
- sensor
- user
- hand
- contact
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
- G06F3/04142—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position the force sensing means being located peripherally, e.g. disposed at the corners or at the side of a touch sensing plate
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
- G06F3/04855—Interaction with scrollbars
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 사용자 접촉 패턴에 따른 GUI(Graphic User Interface) 표시 방법 및 이를 구비하는 장치에 관한 것이다. 특히 본 발명에 있어서, 조작 손에 따른 GUI 표시 방법은 촉각 감지 센서를 구비한 장치에서 상기 장치로의 사용자 접촉을 감지하는 접촉 감지 단계, 상기 감지된 사용자 접촉에 따라 사용자의 접촉 패턴을 판단하는 접촉 패턴 판단 단계 및 상기 판단된 사용자의 접촉 패턴에 대응하는 GUI를 표시하는 표시 단계를 포함하는 것을 특징으로 한다. 본 발명을 통해 사용자는 터치스크린 화면을 가리지 않고도 한 손으로 터치스크린을 구비한 장치를 조작할 수 있다. 또한 상기 장치를 파지하는 손가락 위치에 따라 GUI를 표시함으로써 사용자는 편리하게 조작 명령을 입력할 수 있다. The present invention relates to a method of displaying a graphical user interface (GUI) according to a user contact pattern and an apparatus having the same. In particular, in the present invention, the GUI display method according to the operation hand is a touch sensing step of detecting a user contact to the device in a device having a tactile sensor, the contact to determine the contact pattern of the user according to the detected user contact And a display step of displaying a pattern determination step and a GUI corresponding to the determined contact pattern of the user. According to the present invention, a user can operate a device having a touch screen with one hand without covering the touch screen screen. In addition, by displaying the GUI according to the position of the finger holding the device, the user can conveniently input an operation command.
Description
본 발명은 GUI 표시 방법 및 이를 구비하는 장치에 관한 발명으로서, 특히 사용자 접촉 패턴에 따른 GUI를 표시하는 방법 및 이를 구비하는 장치에 관한 발명이다.The present invention relates to a method of displaying a GUI and a device having the same, and more particularly, to a method of displaying a GUI according to a user contact pattern and a device having the same.
최근 터치스크린을 이용한 장치들이 실생활에서 널리 사용되고 있다. 터치스크린은 사용자가 손가락이나 펜 모양의 터치 기구를 이용하여 스크린에 직접 접촉하면, 스크린을 구비한 장치는 접촉이 발생한 부분을 인지하고 이에 따라 해당되는 명령을 실행하거나 커서의 위치를 이동하도록 설계된 디스플레이 장치를 의미한다. 터치스크린은 키입력부가 형성되는 공간을 별도로 요구하지 않아, 소형 단말기에 적합하며, 현재 모바일 기기에 널리 이용되고 있다. Recently, devices using touch screens are widely used in real life. The touch screen is a display designed to allow a user to directly touch the screen by using a finger or pen-like touch mechanism, and the device having the screen recognizes the touched portion and executes a corresponding command or moves the position of the cursor accordingly. Means the device. Since the touch screen does not require a space where a key input unit is formed, it is suitable for a small terminal and is widely used in mobile devices.
사용자는 일반적으로 한 손 또는 양 손으로 터치스크린을 구비한 장치를 조작하고 해당 기능을 실행한다. 사용자가 양 손으로 터치스크린을 구비한 장치를 조작할 때에는 한 손으로 장치를 고정하고 다른 한 손으로 터치 동작을 수행하므로 터치스크린에 표시된 화면을 가리지 않으면서 장치를 조작할 수 있다. 그러나 한 손으로 장치를 조작할 때에는 조작하는 손가락에 의해 터치스크린에 표시된 화면이 가려지는 문제가 발생한다.A user generally operates a device with a touch screen with one or both hands and executes the corresponding function. When a user operates a device having a touch screen with both hands, the device is fixed with one hand and a touch operation is performed with the other hand so that the device can be operated without covering the screen displayed on the touch screen. However, when operating the device with one hand, a problem occurs in that the screen displayed on the touch screen is covered by the operating finger.
도 10a는 터치스크린에 메뉴 아이콘이 표시된 상태에서 왼손 엄지손가락에 의해 메뉴 아이콘이 터치되는 화면이다. 사용자는 음악 메뉴 아이콘을 터치하는 경우, 게임 메뉴 아이콘, 화면 메뉴 아이콘, 일정 메뉴 아이콘이 조작하는 손가락에 의해 가려지게 된다. 또한 가려지는 부분의 아이콘에 엄지손가락의 일부가 접촉된다면, 사용자가 의도하지 않은 기능이 실행될 수 있다.10A illustrates a screen in which a menu icon is touched by a left thumb while a menu icon is displayed on a touch screen. When the user touches the music menu icon, the game menu icon, the screen menu icon, and the schedule menu icon are covered by a finger that operates. In addition, if a part of the thumb touches the icon of the hidden part, a function not intended by the user may be executed.
도 10b는 터치스크린에 인터넷 접속 화면이 표시된 상태에서 왼손 엄지손가락에 의해 스크롤바가 조작되는 화면이다. 스크롤바는 표시화면의 우측에 표시되는 것이 일반적이어서, 사용자가 왼손 엄지손가락으로 스크롤바를 조작하는 경우, 엄지손가락에 의해 인터넷 접속화면이 가려질 수 있으며, 역시 엄지손가락의 일부가 특정 컨텐츠에 접촉되어 사용자가 의도하지 않은 터치가 이루어질 수 있다. 10B is a screen in which a scroll bar is operated by the thumb of the left hand while the Internet access screen is displayed on the touch screen. Since the scroll bar is generally displayed on the right side of the display screen, when the user manipulates the scroll bar with his left thumb, the user may hide the internet access screen by his or her thumb. Unintended touch can be made.
촉각 감지 센서를 이용하여 어플리케이션을 제어하는 장치의 경우, 터치스크린 또는 키패드를 이용하지 않고 상기 장치의 특정 부분에 접촉을 입력하는 것만으로도 어플리케이션을 제어할 수 있다. 이 때 장치는 입력이 요구되는 접촉을 안내하는 GUI를 표시화면에 표시할 수 있다. 그런데 장치가 사용자의 접촉 패턴을 고려하지 않고 일정한 형태로 GUI를 표시하는 경우, 사용자의 손가락이 접촉한 위치와 GUI가 표시된 위치가 매칭되지 않는 경우가 발생할 수 있다. 사용자마다 손 및 손가락의 크기가 다르고 사용자 마다 장치를 파지하는 형태가 다르기 때문에 모든 사 용자에게 적합한 GUI를 표시하는 것은 한계가 있다. 사용자의 손가락이 접촉한 위치와 GUI가 표시된 위치가 매칭되지 않는 경우, 사용자가 어플리케이션을 제어함에 있어서 혼동이 유발될 수 있다. In the case of a device for controlling an application using a tactile sensor, the application may be controlled by simply inputting a contact to a specific part of the device without using a touch screen or a keypad. In this case, the device may display a GUI for guiding a contact requiring input on a display screen. However, when the device displays the GUI in a predetermined form without considering the contact pattern of the user, the position where the user's finger touches and the position where the GUI is displayed may not match. Since the size of the hands and fingers of each user and the type of holding the device is different for each user, displaying a GUI suitable for all users is limited. If the position where the user's finger touches and the position where the GUI is displayed do not match, confusion may occur when the user controls the application.
따라서 촉각 감지 센서를 구비한 장치에 있어서, 사용자 접촉 패턴에 따라 GUI를 표시하는 방법의 필요성이 대두된다. Therefore, in a device having a tactile sensor, there is a need for a method of displaying a GUI according to a user contact pattern.
본 발명의 목적은 터치스크린 및 촉각 감지 센서가 구비된 장치를 조작함에 있어서, 조작하는 손에 적합한 GUI를 표시하는 방법을 제공하는데 있다.An object of the present invention is to provide a method for displaying a GUI suitable for a hand to operate in operating a device equipped with a touch screen and a tactile sensor.
본 발명의 다른 목적은 촉각 감지 센서가 구비된 장치에 있어서, 상기 장치에 접촉한 사용자의 손가락 위치에 따라 GUI를 표시하는 방법을 제공하는데 있다. Another object of the present invention is to provide a method for displaying a GUI according to a position of a finger of a user in contact with the device in a device provided with a tactile sensor.
본 발명의 또 다른 목적은 상기 방법을 이용하는 장치를 제공하는데 있다.Another object of the present invention is to provide an apparatus using the method.
본 발명의 실시예에 따른 GUI를 표시하는 방법은 촉각 감지 센서를 구비한 장치로의 사용자 접촉을 감지하는 접촉 감지 단계, 접촉 감지 단계에서 감지된 사용자 접촉에 따라 사용자의 접촉 패턴을 판단하는 접촉 패턴 판단 단계, 판단된 사용자의 접촉 패턴에 대응하는 GUI를 표시하는 단계를 포함한다. In the method for displaying a GUI according to an embodiment of the present invention, a touch pattern for detecting a user contact with a device having a tactile sensor and determining a contact pattern of a user according to the detected user contact in the touch sensing step And determining the GUI corresponding to the determined contact pattern of the user.
본 발명의 제1실시예에 따른 GUI를 표시하는 방법에서 접촉 패턴 판단 단계는 감지된 사용자의 접촉에 따라 사용자의 접촉 패턴을 판단하고, 판단된 사용자의 접촉 패턴에 따라 사용자의 조작 손을 추정하는 것을 특징으로 한다. In the method for displaying a GUI according to the first embodiment of the present invention, the contact pattern determination step may include determining a user's contact pattern according to the detected user's contact, and estimating a user's manipulation hand according to the determined user's contact pattern. It is characterized by.
본 발명의 제1실시예에 따른 GUI를 표시하는 방법에서 접촉 패턴 판단 단계는 촉각 감지 센서를 구성하는 복수의 센서 유닛들 중 접촉을 감지한 센서 유닛들을 인접한 센서 유닛 별로 그룹핑하여 유닛 그룹을 생성하는 단계, 생성된 유닛 그룹에 근거하여 접촉 패턴 정보를 생성하는 단계, 생성된 접촉 패턴 정보와 미리 저장된 접촉 패턴 정보를 비교하는 단계 및 생성된 접촉 패턴 정보가 미리 저장된 접 촉 패턴 정보의 범위에 포함되는 경우, 생성된 접촉 패턴 정보에 대응하는 손 정보에 근거하여 조작 손을 추정하는 단계를 포함할 수 있다.In the method for displaying a GUI according to the first embodiment of the present invention, the contact pattern determination step may include generating a unit group by grouping sensor units that sense a contact among adjacent sensor units among a plurality of sensor units constituting the tactile sensor. Generating contact pattern information based on the generated unit group, comparing the generated contact pattern information with previously stored contact pattern information, and the generated contact pattern information included in a range of previously stored contact pattern information. In this case, the method may include estimating the manipulation hand based on the hand information corresponding to the generated contact pattern information.
본 발명의 제1실시예에 따른 GUI를 표시하는 방법에서 접촉 패턴 판단 단계는 촉각 감지 센서를 구성하는 복수의 센서 유닛들 중 접촉을 감지한 센서 유닛들을 인접한 센서 유닛 별로 그룹핑하여 유닛 그룹을 생성하는 단계, 센서 유닛의 개수가 최대인 유닛 그룹이 위치하는 센서(이하 '최대 유닛 그룹 센서')를 판단하는 단계, 최대 유닛 그룹 센서에 추가적인 유닛 그룹이 존재하는지 판단하는 단계 및 추가적인 유닛 그룹이 존재하지 않는 경우, 최대 유닛 그룹 센서가 좌측 센서일 때, 조작 손을 왼손으로 추정하며, 최대 유닛 그룹 센서가 우측 센서일 때, 조작 손을 오른손으로 추정하는 단계를 포함하는 것을 특징으로 한다. In the method for displaying a GUI according to the first embodiment of the present invention, the contact pattern determination step may include generating a unit group by grouping sensor units that sense a contact among adjacent sensor units among a plurality of sensor units constituting the tactile sensor. Determining a sensor in which a unit group having the maximum number of sensor units is located (hereinafter, 'maximum unit group sensor'), determining whether an additional unit group exists in the maximum unit group sensor, and no additional unit group exists. Otherwise, estimating the manipulation hand with the left hand when the maximum unit group sensor is the left sensor, and estimating the manipulation hand with the right hand when the maximum unit group sensor is the right sensor.
본 발명의 제1실시예에 따른 GUI를 표시하는 방법에서 접촉 패턴 판단 단계는 촉각 감지 센서를 구성하는 복수의 센서 유닛들 중 접촉을 감지한 센서 유닛들을 인접한 센서 유닛 별로 그룹핑하여 유닛 그룹을 생성하는 단계, 좌측 센서 및 우측 센서에 위치하는 유닛 그룹의 개수를 산출하는 단계 및 산출된 유닛 그룹의 개수에 근거하여 조작 손을 추정하는 단계를 포함할 수 있다.In the method for displaying a GUI according to the first embodiment of the present invention, the contact pattern determination step may include generating a unit group by grouping sensor units that sense a contact among adjacent sensor units among a plurality of sensor units constituting the tactile sensor. The method may include calculating the number of unit groups located in the left sensor and the right sensor, and estimating the manipulation hand based on the calculated number of unit groups.
본 발명의 제1실시예에 따른 GUI를 표시하는 방법에서 표시 단계는 조작 손이 왼손으로 추정되는 경우, 왼손 엄지손가락의 동선을 따라 아이콘을 배열하며, 조작 손이 오른손으로 추정되는 경우, 오른손 엄지손가락의 동선을 따라 아이콘을 배열할 수 있다. In the method for displaying a GUI according to the first embodiment of the present invention, the display step includes arranging icons along the line of the thumb of the left hand when the manipulation hand is estimated to be the left hand, and when the manipulation hand is estimated to be the right hand, the right hand thumb. You can arrange icons along the line of your finger.
본 발명의 제1실시예에 따른 GUI를 표시하는 방법에서 표시 단계는 조작 손 이 왼손으로 추정되는 경우, 스크롤바를 표시화면의 좌측에 표시하며, 조작 손이 오른손으로 추정되는 경우, 스크롤바를 표시화면의 우측에 배열할 수 있다. In the method for displaying a GUI according to the first embodiment of the present invention, the display step includes displaying a scroll bar on the left side of the display screen when the manipulation hand is estimated to be the left hand, and displaying a scroll bar when the manipulation hand is estimated to be the right hand. Can be arranged on the right side of the.
본 발명의 제2실시예에 따른 GUI를 표시하는 방법에서 접촉 패턴 판단 단계는 사용자가 입력한 접촉 위치에 근거하여 사용자의 파지 형태를 판단하는 것을 특징으로 한다. In the method for displaying a GUI according to the second embodiment of the present invention, the contact pattern determination step is characterized by determining the grip type of the user based on the contact position input by the user.
본 발명의 제2실시예에 따른 GUI를 표시하는 방법에서 접촉 패턴 판단 단계는 사용자가 입력한 접촉 압력이 미리 설정된 세기 이상의 압력에 해당하는지 여부를 판단하는 단계를 더 포함하는 것을 특징으로 한다.In the method for displaying a GUI according to the second embodiment of the present invention, the contact pattern determining step may further include determining whether the contact pressure input by the user corresponds to a pressure equal to or greater than a preset intensity.
본 발명의 제2실시예에 따른 GUI를 표시하는 방법은 현재 실행 중인 어플리케이션 및 상기 판단된 사용자의 파지 형태에 근거하여 GUI 배열 패턴을 결정하는 단계를 더 포함하는 것을 특징으로 한다. The method for displaying a GUI according to a second embodiment of the present invention may further include determining a GUI arrangement pattern based on a currently running application and the determined grip type of the user.
본 발명의 제2실시예에 따른 GUI를 표시하는 방법에서 표시 단계는 사용자가 입력한 접촉 위치에 대응하여 설정된 표시 화면의 일정 지점에 GUI를 표시하는 것을 특징으로 한다.In the method for displaying a GUI according to the second embodiment of the present invention, the displaying step may include displaying the GUI at a predetermined point of a display screen set in correspondence with a contact position input by a user.
본 발명의 제2실시예에 따른 GUI를 표시하는 방법에서 표시 단계는 사용자가 입력하는 접촉 압력에 따라 상기 GUI를 변경하여 표시하는 것을 특징으로 한다. In the method of displaying a GUI according to a second embodiment of the present invention, the displaying step may be performed by changing the GUI according to a contact pressure input by a user.
본 발명의 실시예에 따른 GUI를 표시하는 장치는 사용자의 접촉을 감지하는 촉각 감지 센서부, GUI를 표시하는 표시부 및 촉각 감지 센서부로부터 촉각 감지 신호를 수신하면, 촉각 감지 신호에 따라 사용자의 접촉 패턴을 판단하며, 표시부가 판단된 사용자의 접촉 패턴에 대응하여 GUI를 표시하도록 제어하는 제어부를 포 함한다.The apparatus for displaying a GUI according to an embodiment of the present invention, when receiving a tactile detection signal from a tactile sensor for detecting a user's touch, a display for displaying a GUI, and a tactile sensor, the user's touch according to the tactile detection signal The controller may include determining a pattern and controlling the display unit to display a GUI in response to the determined contact pattern of the user.
본 발명을 통해 사용자는 터치스크린 화면을 가리지 않고도 한 손으로 터치스크린을 구비한 장치를 조작하여, 사용자가 의도하지 않은 터치의 발생을 방지할 수 있다. 또한 촉각 센서를 이용하여 조작 가능한 장치의 경우, 상기 장치를 파지하는 손가락 위치에 따라 GUI를 표시함으로써 사용자가 편리하게 조작 명령을 입력할 수 있다. According to the present invention, a user may operate a device having a touch screen with one hand without covering the touch screen screen, thereby preventing the user from generating an unintended touch. In addition, in the case of a device which can be operated using the tactile sensor, the user can conveniently input the operation command by displaying the GUI according to the position of the finger holding the device.
본 발명에 있어서, 'GUI(Graphic User Interface)'는 표시화면 상에 표시되는 그래픽을 의미한다. GUI는 윈도우(window), 아이콘, 스크롤바 등을 포함하며, 사용자가 장치에 명령을 입력하는데 사용되는 모든 그래픽이 이에 해당될 수 있다.In the present invention, 'GUI (Graphic User Interface)' means a graphic displayed on the display screen. The GUI includes windows, icons, scrollbars, and the like, which can be any graphics used by a user to enter commands into the device.
본 발명에 있어서, '조작 손'은 터치스크린을 구비한 장치를 조작하는데 사용되는 손을 의미한다. 조작 손은 터치스크린으로의 터치 동작을 수행하는 손뿐만 아니라, 터치스크린을 구비한 장치에 접촉되는 모든 손이 조작 손에 포함된다. 즉, 장치를 파지하고 있는 손도 조작 손에 해당할 수 있다. 본 발명의 실시예에 따른 조작 손은 왼손, 오른손 또는 양손이 될 수 있다.In the present invention, the "operating hand" means a hand used to operate a device having a touch screen. The operating hand includes not only a hand performing a touch operation on the touch screen, but also all hands that are in contact with the device with the touch screen. That is, the hand holding the device may also correspond to the manipulation hand. The manipulation hand according to the embodiment of the present invention may be left hand, right hand or both hands.
본 발명에 있어서, '촉각 감지 센서부' 및 '촉각 감지 센서'는 사용자의 접촉을 감지하는 센서에 해당한다. 촉각 감지 센서부는 터치스크린을 구성하는 터치센서와는 구별되는 구성요소로서 장치의 측면에 위치할 수 있다. 촉감 감지 센서부는 사용자가 장치를 파지하는 경우, 사용자 손의 접촉을 인식하고, 촉각 감지 신호 를 제어부로 송신하는 역할을 수행한다. 촉각 감지 센서부는 압력의 정도 및 접촉/압력의 위치를 측정할 수 있는 촉각 센서 또는 압력센서와 터치센서의 조합으로 구성될 수 있다. 또한 촉각 감지 센서부는 좌측 센서와 우측 센서로 구성될 수 있으며, 좌측 센서와 우측 센서는 각각 복수의 센서 유닛들로 구성될 수 있다. 본 발명의 실시예에 따라 촉각 감지 센서부는 장치의 상측면 및 하측면에도 형성될 수 있으며, 장치의 모든 면에 형성될 수도 있다. In the present invention, the "tactile sensor" and the "tactile sensor" correspond to a sensor for detecting a user's touch. The tactile sensor may be positioned on the side of the device as a component that is distinguished from the touch sensor constituting the touch screen. When the user grips the device, the tactile sensor recognizes contact of the user's hand and transmits a tactile sensor to the controller. The tactile sensor may be configured as a tactile sensor or a combination of a pressure sensor and a touch sensor capable of measuring the degree of pressure and the position of contact / pressure. In addition, the tactile sensor may be configured as a left sensor and a right sensor, the left sensor and the right sensor may be composed of a plurality of sensor units, respectively. According to an embodiment of the present invention, the tactile sensor may be formed on the upper side and the lower side of the device, or may be formed on all sides of the device.
본 발명에 있어서, '센서 유닛'은 촉각 감지 센서부를 구성하는 요소로서 각각의 센서 유닛은 사용자의 접촉을 감지한다. 촉각 감지 센서부에는 복수개의 센서유닛이 포함되며, 센서의 종류 및 크기에 따라 센서 유닛의 개수가 결정된다. In the present invention, the 'sensor unit' is an element constituting the tactile sensor, and each sensor unit senses a user's touch. The tactile sensor includes a plurality of sensor units, and the number of sensor units is determined according to the type and size of the sensor.
본 발명에 있어서, '유닛 그룹'은 접촉을 감지한 센서 유닛들 중 연속으로 배열된(인접한) 센서 유닛들이 포함되는 유닛 집합을 의미한다. 유닛 그룹은 접촉 패턴 정보를 생성하는데 사용되며, 유닛 그룹이 형성되는 위치, 하나의 유닛 그룹에 포함되는 센서 유닛의 개수 등은 사용자가 장치를 파지하는 방법에 따라 변경될 수 있다. In the present invention, the 'unit group' refers to a unit set including sensor units arranged in succession (adjacent) among the sensor units sensing a contact. The unit group is used to generate contact pattern information, and the position where the unit group is formed, the number of sensor units included in one unit group, and the like may be changed according to a method of holding a device by a user.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예들을 상세히 설명한다. 이 때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. At this time, it should be noted that the same components in the accompanying drawings are represented by the same reference numerals as possible. In addition, detailed descriptions of well-known functions and configurations that may blur the gist of the present invention will be omitted.
도 1은 본 발명의 실시예의 설명을 위해 참조되는 장치(100)의 내부 구성도이다.1 is an internal configuration diagram of an apparatus 100 referred for description of an embodiment of the present invention.
본 발명의 실시예에 따른 장치(100)는 이동통신 단말기, PDA를 비롯한 휴대 단말기, 컴퓨터 및 TV 등 터치스크린을 구비한 모든 기기에 해당될 수 있다. 터치스크린을 구비한 장치(100)는 촉각 감지 센서부(110), 저장부(120), 터치스크린부(130) 및 제어부(140)를 포함한다. The apparatus 100 according to the embodiment of the present invention may correspond to any device having a touch screen, such as a mobile communication terminal, a portable terminal including a PDA, a computer, and a TV. The device 100 having a touch screen includes a
촉각 감지 센서부(110)는 사용자가 장치(100)를 파지하는 경우 사용자 손의 접촉을 감지하는 역할을 수행한다. 촉각 감지 센서부(110)는 압력의 정도 및 접촉/압력의 위치를 측정할 수 있는 촉각 센서, 터치센서 및 압력센서와 터치센서의 조합중 어느 하나로 구성될 수 있다. 촉각 감지 센서부(110)는 장치(100)의 측면에 위치할 수 있으나 이에 한정되는 것은 아니다. 본 발명의 실시예에 따라 촉각 감지 센서부(110)는 장치(100)의 모든 면에 위치할 수 있다. 도 1b는 장치(100)의 측면에 촉각 감지 센서부(110)가 위치한 모습을 나타낸다. 촉각 감지 센서부(110)가 사용자 손의 접촉을 인식하면 촉각 감지 신호를 제어부(140)로 송신하는 역할을 수행한다. 촉각 감지 센서부(110)는 좌측 센서와 우측 센서로 구성될 수 있으며, 좌측 센서와 우측 센서는 각각 복수의 센서 유닛들로 구성될 수 있다. The
저장부(120)는 장치(100)와 관련된 모든 데이터를 저장하는 역할을 수행한다. 본 발명의 실시예에 따르면 저장부(120)는 조작 손을 추정하는 방법과 관련된 데이터 및 접촉 패턴 정보를 저장하는 역할을 수행한다. The
터치스크린부(130)는 데이터를 표시하고 사용자의 입력을 감지하는 구성요소로서 표시부(132) 및 터치센서부(134)를 포함한다. The
표시부(132)는 LCD 등으로 이루어질 수 있으며, 장치에서 발생하는 각종 표 시 데이터 및 동작 상태를 화면에 표시한다. 본 발명에 있어서, 표시부(132)는 조작 손에 대응하는 GUI를 표시하는 역할을 수행한다. 또한 표시부(132)는 장치(100)를 파지한 손가락의 위치에 따라 GUI를 표시하는 역할을 수행한다. The
터치 센서부(134)는 사용자의 손이 터치스크린에 접촉되는지 여부를 감지하는 역할을 수행한다. 터치 센서부(134)는 정전용량 터치 감지 센서 또는 압력 센서로 구성될 수도 있으며 이에 한정되지 않고 물체의 터치를 감지할 수 있는 모든 센서가 사용될 수 있다. 터치 센서부(134)는 사용자 손의 터치를 감지하면 터치 신호를 제어부(140)로 전송하는 역할을 수행한다. 터치 신호에는 터치 기구의 터치를 감지하였는지 여부 및 터치 기구의 터치 좌표 정보가 포함될 수 있다. 본 발명의 제2실시예에 따른 GUI를 표시하는 장치에서는 터치 센서부(134)가 생략 될 수 있다. The
제어부(140)는 휴대 단말기의 전반적인 동작을 제어하는 기능을 수행한다. 본 발명의 실시예에 따르면 제어부(140)는 촉각 감지 센서부(110)로부터 촉각 감지 신호를 수신하면, 촉각 감지 신호에 따라 사용자의 접촉 패턴을 판단하는 역할을 수행한다. 또한 판단된 사용자 접촉 패턴에 대응하여 표시부(132)에 GUI를 표시하는 역할을 수행한다. The
도 2는 본 발명의 제1실시예에 따른 조작 손에 따른 GUI를 표시하는 방법을 나타내는 순서도에 해당한다.2 is a flowchart illustrating a method of displaying a GUI according to a manipulation hand according to the first embodiment of the present invention.
210 단계에서 촉각 감지 센서부(110)는 사용자의 접촉을 감지한다. 사용자의 접촉은 사용자가 장치(100)를 파지함으로써 이루어진다. 촉각 감지 센서부(110)는 사용자의 접촉을 감지하면, 촉각 감지 신호를 제어부(140)로 송신한다. 220단계에서 제어부(140)는 촉각 감지 신호를 촉각 감지 센서부(110)로부터 수신한다. 이후 제어부(140)는 230단계에서 사용자 접촉 패턴을 판단하고, 판단된 사용자 접촉 패턴에 따라 조작 손을 추정한다. 사용자 접촉 패턴을 판단하고 조작 손을 추정하는 과정은 도 3 내지 도 5에 구체적으로 개시되어 있다. 제어부(140)는 사용자 접촉 패턴 판단 및 조작 손 추정과정을 종료한 후, 240단계에서 조작 손에 대응하는 GUI를 표시한다. 이후 제어부(140)는 250단계에서 추가적인 촉각 감지 신호를 수신하는지 여부를 판단하여, 신호를 수신하는 경우, 230단계에서 사용자 접촉 패턴 판단 및 조작 손 추정 과정을 수행한다. 추가적인 촉각 감지 신호는 사용자가 기존에 파지한 형태를 변경하여 장치(100)를 새로 파지하는 경우, 촉각 감지 센서부(110)가 사용자의 접촉을 감지하여 제어부(140)로 송신하는 신호에 해당한다. 제어부(140)가 추가적인 촉각 감지 신호를 수신하지 않는 경우, 표시부(132)는 현재 GUI 표시 상태를 유지한다. 이후 사용자는 터치스크린부(130)에 표시된 GUI를 조작하여 장치(100)에 명령을 입력한다. In step 210, the
도 3은 본 발명의 제1실시예에 따른 GUI 표시 방법에 있어서 도 2의 230단계의 구체적인 과정을 나타내는 순서도이다.3 is a flowchart illustrating a specific process of step 230 of FIG. 2 in the GUI display method according to the first embodiment of the present invention.
310단계에서 제어부(140)는 촉각 감지 센서부(110)로부터 수신한 촉각 감지 신호에 근거하여 유닛 그룹을 생성한다. 유닛 그룹은 접촉을 감지한 센서 유닛들 중 연속으로 배열된(인접한) 센서 유닛들이 포함되는 유닛 집합을 의미한다. In
센서 유닛과 유닛 그룹은 도 6a 내지 7b에 도시되어 있다. 도 6a는 왼손으로 장치(100)를 파지한 모습 및 장치(100)의 측면에 위치하는 촉각 감지 센서부(110)를 나타내는 도면이다. 좌측 센서는 장치(100)의 좌측면에 위치한 센서를 의미하며, 우측 센서는 장치(100)의 우측면에 위치한 센서를 의미한다. 각각의 센서는 복수개의 센서 유닛들로 이루어져 있다. 센서 유닛의 개수는 센서 유닛의 크기에 따라 변경될 수 있다. 즉, 센서 유닛의 크기가 작아질수록 같은 공간에 포함되는 센서 유닛 수는 증가하게 된다. 본 명세서에서는 발명의 명확한 설명을 위해 촉각 감지 센서부가 23개의 센서 유닛으로 이루어져 있음을 가정하여 설명하기로 한다. 도 6a의 좌측 센서에는 왼 손바닥이 접촉된 센서 유닛이 빗금으로 표시되어 있다. 도 6a의 우측 센서에는 엄지손가락을 제외한 검지, 중지, 약지, 소지(새끼손가락)가 접촉된 센서 유닛이 빗금으로 표시되어 있다. 사용자의 접촉을 감지한 센서 유닛들을 서로 인접한 센서 유닛들 별로 그룹핑한다면, 좌측 센서의 연속하여 배열된 9개의 센서 유닛들은 하나의 유닛 그룹으로 그룹핑된다. 우측 센서의 연속하여 배열된 2개의 센서 유닛들은 하나의 유닛 그룹으로 그룹핑되며, 우측 센서에 총 4개의 유닛 그룹이 형성된다. Sensor units and unit groups are shown in FIGS. 6A-7B. 6A is a view showing the device 100 held by the left hand and a
제어부(140)는 310단계에서 유닛 그룹을 생성한 후, 생성한 유닛 그룹에 근거하여 접촉 패턴 정보를 생성한다. 접촉 패턴 정보는 사용자가 장치(100)를 파지한 방법에 따라 변경될 수 있다. 접촉 패턴 정보는 각 센서에 형성되는 유닛 그룹의 개수, 유닛 그룹들이 형성되는 위치, 형성된 유닛 그룹들 간의 간격, 유닛 그룹들에 포함되는 센서 유닛의 개수 및 각 센서 유닛이 감지한 압력에 관한 정보가 포함될 수 있다. The
도 6a를 참조할 때, 좌측 센서의 접촉 패턴 정보에는 1개의 유닛 그룹이 형성되고, 12번째 센서 유닛부터 20번째 센서 유닛까지의 위치에 유닛 그룹이 형성되고, 유닛 그룹에는 9개의 센서 유닛으로 구성되는 내용이 포함될 수 있다. 도 6a의 우측 센서의 접촉 패턴 정보에는 4개의 유닛 그룹이 형성되고, 4, 5번째, 9, 10번째, 14, 15번째 및 19, 20번째 센서 유닛의 위치에 각각의 유닛 그룹이 형성되고, 위에서부터 첫 번째 유닛 그룹과 두 번째 유닛 그룹 간에는 3개의 센서유닛 간격이 존재하고, 두 번째 유닛 그룹과 세 번째 유닛 그룹간에는 3개의 센서유닛 간격이 존재하고, 세 번째 유닛 그룹과 네 번째 유닛 그룹간에는 3개의 센서유닛 간격이 존재하며, 4개의 유닛 그룹은 각각 2개의 센서 유닛으로 구성되는 내용이 포함될 수 있다. Referring to FIG. 6A, one unit group is formed in the contact pattern information of the left sensor, a unit group is formed at a position from the 12th sensor unit to the 20th sensor unit, and the unit group includes nine sensor units. May be included. 4 unit groups are formed in the contact pattern information of the right sensor of FIG. 6A, and each unit group is formed at positions of the 4th, 5th, 9th, 10th, 14th, 15th and 19th, 20th sensor units, From the top, there are three sensor unit gaps between the first and second unit groups, three sensor unit gaps between the second and third unit groups, and between the third and fourth unit groups. There are three sensor unit intervals, and the four unit groups may each include two sensor units.
제어부(140)는 330단계에서 저장부(120)에 저장된 접촉 패턴 정보를 추출한다. 저장된 접촉 패턴 정보에는 사용자의 파지 방법에 따른 접촉 패턴 정보가 저장되어 있다. 저장된 접촉 패턴 정보는 복수개가 될 수 있으며, 각각의 파지 방법에 따라 서로 다른 접촉 패턴 정보가 저장된다. 저장부(120)에 저장된 접촉 패턴 정보에도 유닛 그룹의 개수, 유닛 그룹들이 형성되는 위치, 형성되는 유닛 그룹들 간의 간격, 각각의 유닛 그룹들에 포함되는 센서 유닛의 개수 및 각 센서 유닛이 감지한 압력에 관한 정보가 포함될 수 있다. The
제어부(140)는 340단계에서 생성한 접촉 패턴 정보와 추출된 접촉 패턴 정보를 비교한다. 제어부(140)는 유닛 그룹의 개수, 유닛 그룹들이 형성되는 위치, 형성되는 유닛 그룹들 간의 간격, 각각의 유닛 그룹들에 포함되는 센서 유닛의 개수 등을 각각 비교한다. The
제어부(140)는 350단계에서 생성된 접촉 패턴 정보가 저장된 접촉 패턴 정보의 범위에 포함되는지 여부를 판단한다. 생성된 접촉 패턴 정보가 저장된 접촉 패턴 정보의 범위에 포함되는 경우는 생성된 접촉 패턴 정보가 저장된 접촉 패턴 정보와 완전히 일치하는 경우 또는 저장부(120)에 오차범위가 설정되어 있을 때, 생성된 접촉 패턴 정보가 저장된 접촉 패턴 정보의 오차범위에 포함되는 경우에 해당한다. 오차 범위는 유닛 그룹의 개수, 유닛 그룹들이 형성되는 위치, 형성되는 유닛 그룹들 간의 간격, 각각의 유닛 그룹들에 포함되는 센서 유닛의 개수 각각에 대해 설정될 수 있다. The
판단 결과, 저장된 접촉 패턴 정보에 생성된 접촉 패턴 정보가 포함되는 경우, 제어부(140)는 360단계에서 생성된 접촉 패턴 정보에 대응하는 조작 손을 추정한다. 저장부(120)에는 각각의 접촉 패턴 정보마다 대응하는 조작 손에 관한 정보가 저장되어 있다. 생성된 접촉 패턴 정보가 저장된 접촉 패턴 정보 범위에 포함되는 경우, 제어부(140)는 생성된 접촉 패턴 정보에 대응하는 조작 손을 추정하게 된다. 추정되는 조작 손은 왼손 또는 오른손이 될 수 있다. As a result of the determination, when the generated contact pattern information is included in the stored contact pattern information, the
만약 생성된 접촉 패턴 정보가 저장된 접촉 패턴 정보 범위에 포함되지 않는 경우에는 제어부(140)는 370단계에서 조작 손을 양손으로 추정한다. 조작 손 추정 동작을 마친 후 제어부(140)는 240단계로 진행하여 조작 손에 대응하는 GUI를 표시한다. If the generated contact pattern information is not included in the stored contact pattern information range, the
도 4는 본 발명의 제1실시예에 따른 GUI 표시 방법에 있어서 도 2의 230단계 의 다른 구체적인 과정을 나타내는 순서도이다.4 is a flowchart illustrating another specific process of step 230 of FIG. 2 in the GUI display method according to the first embodiment of the present invention.
410단계에서 제어부(140)는 접촉을 감지한 센서 유닛들 중 연속으로 배열된 센서 유닛들 별로 그룹핑하여 유닛 그룹을 생성한다. 제어부(140)는 420단계에서 각각의 유닛 그룹에 포함되는 센서 유닛의 개수를 산출한다. 도 6a의 좌측 센서에 존재하는 1개의 유닛 그룹은 9개의 센서 유닛을 포함한다. 도 6a의 우측 센서에 존재하는 4개의 유닛 그룹은 각각 2개의 센서 유닛을 포함한다. In
각각의 유닛 그룹 별로 센서 유닛의 개수를 산출한 후, 제어부(140)는 430단계에서 최대 유닛 그룹 센서가 어느 센서인지 판단한다. 최대 유닛 그룹 센서는 센서 유닛 개수가 최대인 유닛 그룹이 위치하는 센서를 의미한다. 최대 유닛 그룹 센서는 좌측 센서 및 우측 센서 중 어느 하나가 될 수 있다. 제어부(140)는 좌측 센서 및 우측 센서 중 하나의 센서를 결정한다. 도 6a에서 센서 유닛을 가장 많이 포함하는 유닛 그룹은 좌측 센서에 존재하는 9개의 센서 유닛을 포함하는 유닛 그룹이며, 제어부(140)는 최대 유닛 그룹 센서를 좌측 센서로 판단한다. 도 6b에서는 센서 유닛을 가장 많이 포함하는 유닛 그룹은 우측 센서에 존재하는 9개의 센서 유닛을 포함하는 유닛 그룹이며 제어부(140)는 최대 유닛 그룹 센서를 우측 센서로 판단한다. 이와 마찬가지로 판단하면 도 7a에서 제어부(140)는 최대 유닛 그룹 센서를 좌측 센서로 판단하며, 도 7b에서는 최대 유닛 그룹 센서를 우측 센서로 판단한다.After calculating the number of sensor units for each unit group, the
최대 유닛 그룹 센서가 좌측 센서로 판단된 경우, 제어부(140)는 440단계에서 좌측 센서에 추가적인 유닛 그룹이 존재하는지 여부를 판단한다. 추가적인 유닛 그룹은 센서 유닛의 개수가 최대인 유닛 그룹을 제외한 유닛 그룹을 의미한다. 도 6a의 좌측 센서에는 센서 유닛의 개수가 최대인 유닛 그룹만이 존재하며 추가적인 유닛 그룹이 존재하지 않는다. 반면 도 7a의 좌측 센서에는 센서 유닛의 개수가 최대인 유닛 그룹이외에 3번째부터 5번째까지의 센서 유닛으로 구성된 유닛 그룹이 존재한다. 도 6a의 좌측 센서와 같이 추가적인 유닛 그룹이 존재하지 않는 경우에는 제어부(140)는 조작 손을 왼손으로 추정한다. 센서 유닛의 개수가 최대인 유닛 그룹은 사용자의 왼손의 손바닥 부분이 접촉하는 부분이며, 추가적인 유닛 그룹이 존재하지 않는 것은 왼손 엄지손가락이 촉각 감지 센서에 접촉하지 않는 경우를 의미한다. 이러한 경우, 사용자는 왼손 엄지손가락으로 터치스크린을 터치할 가능성이 크며, 장치(100)를 파지하고 있는 손과 터치스크린을 터치하는 손 모두 왼손에 해당하므로, 제어부(140)는 조작 손을 왼손으로 추정하게 되는 것이다. If it is determined that the maximum unit group sensor is the left sensor, the
이는 조작 손을 오른손으로 추정하는 경우에도 마찬가지로 적용된다. 제어부(140)는 430단계에서 센서 유닛의 개수가 최대인 유닛 그룹이 우측 센서에 위치한다고 판단하면, 460단계에서 우측 센서에 추가적인 유닛 그룹이 존재하는지 여부를 판단한다. 판단 결과, 추가적인 유닛 그룹이 존재하지 않는 경우, 제어부(140)는 470단계에서 조작 손을 오른손으로 추정한다. The same applies to the case where the manipulation hand is assumed to be the right hand. If the
제어부(140)는 440단계 또는 460단계에서 좌측 센서 또는 우측 센서에 추가적인 유닛 그룹이 존재하는지 여부를 판단하여, 존재하는 경우 480단계에서 조작 손을 양 손으로 추정한다. 추가적인 유닛 그룹이 존재하는 경우에는 장치(100)를 파지하고 있는 손의 엄지손가락이 장치(100)의 촉각 감지 센서부에 접촉했음을 의 미하며, 이러한 경우, 사용자는 한 손으로 장치(100)를 파지하고, 파지하는 손 이외의 손으로 터치스크린을 터치할 가능성이 크므로, 제어부(140)는 조작 손을 양손으로 추정하게 되는 것이다. The
도 5는 본 발명의 제1실시예에 따른 GUI 표시 방법에 있어서 도 2의 230단계의 또 다른 구체적인 과정을 나타내는 순서도이다.FIG. 5 is a flowchart illustrating still another specific process of step 230 of FIG. 2 in the GUI display method according to the first embodiment of the present invention.
510단계에서 제어부(140)는 접촉을 감지한 센서 유닛들 중 연속으로 배열된 센서 유닛들 별로 그룹핑하여 유닛 그룹을 생성한다. 520단계에서 제어부(140)는 각각의 센서에 위치하는 유닛 그룹의 개수를 산출한다. 센서에는 좌측 센서 및 우측 센서가 포함될 수 있으며, 제어부(140)는 좌측 센서에 위치하는 유닛 그룹 개수와 우측 센서에 위치하는 유닛 그룹 개수를 산출한다. In
도 6a의 좌측센서에 위치하는 유닛 그룹의 개수는 1개이며, 도 6a의 우측 센서에 위치하는 유닛 그룹의 개수는 4개이다. 도 6b의 좌측 센서에는 4개, 우측 센서에는 1개이고, 도 7a의 좌측 센서에는 2개, 우측 센서에는 4개이며, 도 7b의 좌측센서에는 4개, 우측 센서에는 2개의 유닛 그룹이 위치한다. The number of unit groups located in the left sensor of FIG. 6A is one, and the number of unit groups located in the right sensor of FIG. 6A is four. There are four on the left sensor and one on the right sensor, two on the left sensor and four on the right sensor in FIG. 7A, four on the left sensor and two on the right sensor in FIG. 7B. .
제어부(140)는 530단계에서 좌측 센서에 유닛 그룹의 개수가 3개 이상이며, 우측 센서에 유닛 그룹의 개수가 1개 이하인지 여부를 판단한다. 이러한 요건을 만족하는 경우 제어부(140)는 540단계에서 조작 손을 오른손으로 추정한다. 좌측 센서에 유닛 그룹의 개수가 3개 이상인 경우, 좌측 센서에 오른손 검지, 약지, 중지, 소지(새끼손가락)중 적어도 3개 이상이 접촉하는 경우에 해당하며, 우측 센서에 유닛 그룹의 개수가 1개 이하인 경우에는 오른손 손바닥부분만이 촉각 감지 센서 부(110)에 접촉하며, 오른손 엄지손가락은 우측 센서에 접촉하지 않는 경우를 의미한다. 이러한 경우, 사용자는 오른손 엄지손가락으로 터치스크린을 터치할 가능성이 크며, 장치(100)를 파지하고 있는 손과 터치스크린을 터치하는 손 모두 오른손에 해당하므로, 제어부(140)는 조작 손을 오른손으로 추정하게 되는 것이다. In
이는 조작 손을 왼손으로 추정하는 경우에도 동일하게 적용된다. 제어부(140)가 550단계에서 우측 센서의 유닛 그룹이 3개 이상이고 좌측 센서의 유닛그룹이 1개 이하에 해당하는지 여부를 판단한다. 이러한 요건을 만족하는 경우 제어부(140)는 560단계에서 조작 손을 왼손으로 추정한다. The same applies to the case where the manipulation hand is estimated with the left hand. The
만일 530단계 및 550단계에서 각 단계에 해당하는 유닛 그룹의 개수 요건을 만족하지 않는 경우 570단계에서 제어부(140)는 조작 손을 양손으로 추정한다. If the number requirement of the group of units corresponding to each step is not satisfied in
도 8은 본 발명의 실시예에 따라 GUI를 표시한 화면을 나타내는 도면이다.8 is a diagram illustrating a screen displaying a GUI according to an embodiment of the present invention.
도 8의 참조번호 810은 조작 손이 왼손으로 추정된 경우, 메뉴 아이콘을 나타내는 표시화면에 해당한다. 제어부(140)는 메뉴 아이콘을 표시화면의 좌측 상단에서 우측 하단 방향으로 왼손 엄지손가락의 동선을 따라 배열한다. 사용자는 왼손의 엄지손가락을 사용하여 아이콘을 터치하고, 터치된 아이콘에 대응하는 기능을 실행시킬 수 있다. 메뉴 아이콘이 왼손 엄지손가락의 동선을 따라 배열되기 때문에 메뉴 아이콘은 왼손 엄지손가락에 의해 가려지지 않으며, 왼손 엄지손가락의 일부분이 터치스크린에 접촉하여 사용자가 의도하지 않은 아이콘이 터치됨을 방지할 수 있다.
도 8의 참조번호 820은 조작 손이 오른손으로 추정된 경우, 메뉴 아이콘을 나타내는 표시화면에 해당한다. 제어부(140)는 오른손 엄지손가락의 동선을 따라 메뉴 아이콘을 배열한다. 도 8의 참조번호 830은 조작 손이 양손으로 추정될 때 메뉴 아이콘을 표시한 화면을 나타낸다. 조작 손이 양손으로 추정되는 경우, 일반적인 GUI 표시방법에 따라 GUI를 표시한다. 일반적인 GUI 표시방법은 설정에 따라 변경될 수 있다.
도 9는 본 발명의 다른 실시예에 따라 GUI를 표시한 화면을 나타내는 도면이다.9 is a diagram illustrating a screen displaying a GUI according to another exemplary embodiment of the present invention.
도 9의 참조번호 910은 조작 손이 왼손으로 추정된 경우, 스크롤바를 나타내는 표시화면에 해당한다. 제어부(140)는 스크롤바를 표시화면의 좌측에 세로 방향으로 표시한다. 사용자는 왼손의 엄지손가락을 사용하여 스크롤바를 조작할 수 있다. 사용자는 왼손 엄지손가락으로 표시화면을 가리지 않고, 스크롤바를 조작할 수 있으며, 사용자가 의도하지 않은 아이콘 또는 컨텐츠가 터치됨을 방지할 수 있다.
도 9의 참조번호 920은 조작 손이 오른손으로 추정되는 경우, 스크롤바를 표시하는 화면을 나타낸다. 제어부(140)는 표시화면의 우측에 세로방향으로 스크롤바를 표시한다. 사용자는 표시화면을 가리지 않고 오른손 엄지손가락을 이용하여 스크롤바를 조작할 수 있으며, 사용자가 의도하지 않은 터치를 방지할 수 있다. 참조번호 830은 조작 손이 양손으로 추정되는 경우 스크롤바를 나타내는 표시화면에 해당한다. 조작 손이 양손으로 추정되는 경우 일반적인 GUI를 표시하며, 제어부(140)는 표시화면의 우측에 스크롤바를 표시한다. 일반적인 GUI 표시방법은 설정에 따라 변경될 수 있다.
도 11은 본 발명의 제2실시예에 따른 사용자 접촉 패턴에 따른 GUI를 표시하는 방법을 나타내는 순서도에 해당한다. 본 발명의 제2실시예는 사용자가 촉각 감지 센서부(110)를 이용하여 장치(100)에 명령을 입력하는 경우에 적용될 수 있다. 따라서 본 발명의 제2실시예는 터치스크린 기반이 아닌 장치의 경우에도 적용 가능하다. 11 is a flowchart illustrating a method of displaying a GUI according to a user contact pattern according to a second embodiment of the present invention. The second embodiment of the present invention may be applied when a user inputs a command to the device 100 using the
사용자가 장치(100)에 접촉을 입력하면 촉각 감지 센서부(110)는 1110단계에서 사용자의 접촉을 감지한다. 사용자의 접촉은 사용자가 장치(100)를 파지함으로써 이루어질 수 있다. 사용자는 도 12a에 도시된 바와 같이 한 손으로 장치(100)를 파지할 수 있으며, 도 13a에 도시된 바와 같이 양 손으로 장치(100)를 파지할 수도 있다. 촉각 감지 센서부(110)는 사용자 접촉을 감지하면, 사용자 접촉의 위치 및 압력에 관한 정보를 포함하는 촉각 감지 신호를 제어부(140)로 송신한다. 제어부(140)는 1120단계에서 촉각 감지 센서부(110)로부터 상기 촉각 감지 신호를 수신하고, 1130단계에서 수신한 촉각 감지 신호에 근거하여 사용자 접촉 패턴을 판단한다. 제어부(140)는 사용자 접촉 패턴 판단 시, 사용자의 접촉 위치 및 압력 정보에 근거하여 사용자의 파지 형태를 판단하게 된다. 본 발명의 실시예에 따른 저장부(120)는 사용자의 접촉 위치 및 압력에 대응하는 파지 형태 목록에 대한 데이터를 저장할 수 있다. 제어부(140)는 사용자의 접촉 위치 및 압력에 관한 정보에 근거하여 이에 대응하는 파지 형태를 저장부(120)로부터 추출한다. 예를 들어, 도 12a에 도시된 바와 같이 사용자가 왼손으로 장치(100)를 파지하여 장치(100)의 좌측면에 위치한 센서가 두 곳에 접촉이 발생하였음을 감지하고, 우측면에 위치한 센 서가 네 곳에 접촉이 발생하였음을 감지하는 경우, 제어부(140)는 사용자가 왼손으로 장치(100)를 파지한 것으로 판단하게 된다. When the user inputs a contact to the device 100, the
제어부(140)는 1140단계에서 사용자의 접촉 위치에 대응하는 일정 지점에 GUI를 표시한다. 우선 제어부(140)는 GUI를 표시하기 전 현재 실행 중인 어플리케이션을 확인하고 이에 대응하는 GUI를 선정하게 된다. 예를 들어, 현재 대기 화면 어플리케이션이 실행 중인 경우, 제어부(140)는 표시할 GUI로서 메뉴 아이콘들을 선정한다. 현재 카메라 어플리케이션이 실행 중인 경우에는 제어부(140)는 표시할 GUI로서 촬영 기능에 대응하는 아이콘과 줌인아웃 스크롤바를 선정할 수 있다. 이어 제어부(140)는 현재 실행 중인 어플리케이션과 사용자의 파지 형태를 고려하여 GUI 배열 패턴을 결정하게 된다. 도 12a를 참조할 때, 제어부(140)가 현재 실행 중인 어플리케이션이 대기 화면 어플리케이션임을 확인하고, 사용자가 장치(100)를 왼손으로 파지하고 있다고 판단하는 경우, 검지, 중지, 약지, 소지 중 적어도 하나가 접촉되는 부분에 근접하도록 메뉴 아이콘을 배열하는 GUI 배열 패턴을 결정하게 된다. The
제어부(140)는 표시부(132)를 제어하여 결정된 GUI 배열 패턴에 따라 GUI를 표시한다. 이 때, 제어부(140)는 사용자 접촉이 입력된 위치를 확인하고 이에 대응하는 표시부(132)의 일정 지점에 GUI를 표시하게 된다. 즉, 제어부(140)는 사용자의 손가락 또는 손바닥이 접촉하는 위치를 고려하여 해당 위치에 대응하는 일정 지점에 GUI를 표시한다. The
도 12a는 대기 화면 어플리케이션에서 사용자 접촉 입력 시 메뉴 아이콘을 표시하는 화면을 나타낸다. 도 12a에서는 사용자의 검지, 중지 및 약지가 접촉하는 위치에 수평을 이루어 아이콘을 표시하고 있다. 본 발명의 실시예에 따라 제어부(140)는 표시부(132)를 제어하여 사용 빈도수가 높은 메뉴 아이콘들을 순차적으로 표시할 수 있다. 저장부(120)에는 사용 빈도수가 높은 메뉴의 순위가 저장되어 있으며, 대기 화면 어플리케이션 실행 상태에서 사용자가 장치(100)를 파지하면, 제어부(140)는 저장부(120)에 저장된 사용 빈도수가 높은 메뉴의 순위를 확인하고, 표시부(132)를 제어하여 이에 해당하는 메뉴 아이콘을 차례로 표시할 수 있다. 표시부(132)에 표시되는 메뉴 아이콘들은 사용자의 설정에 의해 변경될 수 있다. 12A illustrates a screen displaying a menu icon when a user touches an input in a standby screen application. In FIG. 12A, an icon is displayed horizontally at a position where the user's index finger, middle finger, and ring finger contact each other. According to an exemplary embodiment of the present invention, the
본 발명의 실시예에 따라 제어부(140)는 사용자 접촉의 압력에 따라 GUI를 변경하여 표시할 수 있다. 도 12a를 참조할 때, 사용자가 장치(100)를 파지하고 있는 상태에서 세게 눌러 접촉 압력을 크게 하면 제어부(140)는 표시부(132)를 제어하여 아이콘의 위치를 표시부(132)의 우측면 가장자리로 이동시켜 표시할 수 있다. 즉, 제어부(140)는 표시부(132)를 제어하여 검지, 중지, 약지가 접촉된 부분과 인접하도록 아이콘을 이동시켜 표시할 수 있다. 아이콘이 표시부(132)의 우측면 가장자리에 접할 때 해당 어플리케이션이 실행되도록 설정되어 있는 경우에는, 사용자는 표시부(132)에 표시된 아이콘의 위치를 확인하면서 접촉 압력을 조절하고 어플리케이션 실행 여부를 결정할 수 있다. According to an exemplary embodiment of the present invention, the
또한 제어부(140)는 표시부(132)를 제어하여 사용자의 접촉 압력에 따라 GUI의 크기를 변경시켜 표시할 수 있다. 도 12a를 참조할 때, 사용자가 압력을 크게 하여 장치(100)를 파지하는 경우, 제어부(140)는 표시부(132)를 제어하여 아이콘의 크기를 변경시켜 표시할 수 있다. 이외에도 제어부(140)는 압력이 큰 사용자의 접촉이 입력될 때, 표시부(132)를 제어하여 아이콘에 하이라이트(highlight) 효과가 반영되도록 표시할 수 있다. 제어부(140)는 사용자의 접촉 압력에 따라 GUI의 위치 또는 형태를 변경시켜 표시함으로써 사용자가 접촉 압력을 조절할 수 있도록 한다. In addition, the
도 13a는 카메라 어플리케이션에서 사용자 접촉 입력 시 기능 아이콘을 표시하는 화면을 나타낸다. 도 13a에서는 사용자가 양손을 이용하여 장치(100)를 파지하고 있으며, 왼손의 엄지와 검지, 오른손의 엄지와 검지를 이용하여 장치(100)를 파지하고 있다. 도 13a에서는 표시부(132)가 사용자의 오른손 검지가 접촉한 부분 바로 밑에 촬영 기능 아이콘을 표시하고 있으며, 사용자의 오른손 엄지가 접촉한 부분 바로 위에 줌인아웃 스크롤바를 표시하고 있다. 도 13a에서 사용자가 오른손 검지의 압력을 크게 하여 장치(100)에 접촉을 입력하는 경우, 제어부(140)는 표시부(132)를 제어하여 촬영 기능 아이콘을 상방향으로 이동시켜 표시할 수 있다. 즉, 제어부(140)는 표시부(132)를 제어하여 오른손 검지가 접촉한 부분에 근접하도록 촬영 기능 아이콘을 이동시켜 표시할 수 있다. 또한 사용자가 오른손 엄지의 압력을 크게 하여 장치(100)에 접촉을 입력하는 경우, 제어부(140)는 줌인 기능을 실행하며, 표시부(132)를 제어하여 이에 대응하도록 스크롤바의 형태를 변경시켜 표시할 수 있다. 13A illustrates a screen displaying a function icon when a user touches an input in a camera application. In FIG. 13A, the user grips the device 100 using both hands, and the device 100 is gripped using the thumb and index finger of the left hand and the thumb and index finger of the right hand. In FIG. 13A, the
도 14a는 MP3 어플리케이션에서 사용자 접촉 입력 시 기능 아이콘을 표시하는 화면을 나타낸다. 도 14a에서는 사용자가 왼손으로 장치(100)를 파지하고 있으며, 사용자의 엄지, 검지, 중지, 약지, 소지의 위치와 수평을 이루어 아이콘을 표 시하고 있다. 본 발명의 실시예에 따라 제어부(140)는 미리 설정된 아이콘 배열 패턴에 따라 엄지, 검지, 중지, 약지, 소지의 위치에 대응되도록 아이콘을 표시할 수 있다. 본 발명의 실시예에 따라 엄지, 검지, 중지, 약지, 소지에 대응하는 아이콘은 사용자 설정에 의해 변경 가능할 수 있다. 사용자는 장치(100)를 파지한 상태에서 압력을 크게 하여 파지하거나, 두드리기(tapping) 동작을 입력하여 MP3 어플리케이션을 제어할 수 있으며, 이 때 제어부(140)는 표시부(132)를 제어하여 손가락이 접촉하는 부분에 대응하는 아이콘들의 위치, 크기, 표현 효과 등을 달리하여 표시할 수 있다. 14A illustrates a screen displaying a function icon when a user touches an input in an MP3 application. In FIG. 14A, the user grips the device 100 with his left hand and displays an icon in parallel with the position of the thumb, index finger, middle finger, ring finger, and the hand of the user. According to an embodiment of the present invention, the
제어부(140)는 1150단계에서 사용자의 접촉이 변경되는지 여부를 판단한다. 예를 들어, 사용자가 장치(100)를 파지한 상태에서 위치를 변경하여 다시 파지하는 경우 촉각 감지 센서부(110)는 새로운 사용자 접촉이 발생되었음을 감지한다. 제어부(140)는 촉각 감지 센서부(110)로부터 수신한 촉각 신호로부터 사용자 접촉 패턴을 판단하고, 판단된 사용자 접촉 패턴에 따라 GUI를 재배열하여 표시한다. The
도 12b는 대기 화면 어플리케이션에서 사용자 접촉 재입력 시 메뉴 아이콘을 변경하여 표시하는 화면을 나타낸다. 도 12b는 도 12a와 비교할 때 사용자가 접촉 위치를 낮추어 장치(100)에 접촉을 입력한 형태를 나타낸다. 즉, 도 12b에서는 엄지, 검지, 중지, 약지, 소지의 위치가 도 12a와 비교할 때 모두 장치(100)의 낮은 위치에 접촉해 있다. 제어부(140)는 촉각 감지 신호로부터 사용자의 접촉 위치 및 압력을 인식하고, 이로부터 사용자 접촉 패턴을 판단하여 이에 대응하도록 아이콘을 배열하여 표시하게 된다. 이 때 제어부(140)는 사용자의 손가락 위치가 변경되 었음을 인식하고, 변경된 손가락 위치에 대응하도록 메뉴 아이콘을 변경하여 표시한다. 도 12a와 도 12b를 비교하면 메뉴 아이콘의 위치가 서로 다르게 표시되어 있다. 12B illustrates a screen of changing and displaying a menu icon when re-entering a user contact in a standby screen application. FIG. 12B illustrates a form in which a user inputs a contact to the device 100 by lowering a contact position as compared with FIG. 12A. That is, in FIG. 12B, the positions of the thumb, the index finger, the middle finger, the ring finger, and the holder are all in contact with the lower position of the apparatus 100 as compared with FIG. 12A. The
도 13b는 카메라 어플리케이션에서 사용자 접촉 재입력 시 기능 아이콘을 변경하여 표시하는 화면을 나타낸다. 도 13b는 도 13a와 비교할 때 사용자가 오른손 검지의 위치를 왼쪽으로 이동시켜 접촉하고 있는 형태를 나타낸다. 제어부(140)는 오른손 검지가 접촉된 부분이 변경되었음을 인식하고, 변경된 손가락 위치에 대응하도록 촬영 기능 아이콘을 표시하게 된다. 도 13b와 도 13a를 비교하면 촬영 기능 아이콘의 위치가 서로 다르게 표시되어 있다.13B illustrates a screen of changing and displaying a function icon when re-entering a user contact in a camera application. FIG. 13B illustrates a form in which the user is in contact with the user by moving the position of the right hand index finger to the left as compared with FIG. 13A. The
도 14b는 MP3 어플리케이션에서 사용자 접촉 재입력 시 기능 아이콘을 변경하여 표시하는 화면을 나타낸다. 도 14b는 도 14a와 비교할 때, 사용자가 접촉 위치를 낮추어 장치(100)에 접촉을 입력한 형태를 나타낸다. 즉, 도 14b에서는 엄지, 검지, 중지, 약지의 위치가 도 14a와 비교할 때 모두 낮은 위치에 접촉해 있다. 또한 도 14a에서는 소지가 장치(100)에 접촉하고 있지만, 도 14b에서는 소지가 장치(100)에 접촉해 있지 않다. 제어부(140)는 사용자의 손가락 위치가 변경되었음을 인식하고, 변경된 손가락 위치에 대응하도록 기능 아이콘을 변경하여 표시한다. 제어부(140)는 엄지의 접촉 위치가 변경됨에 따라 이에 대응하는 위치에 볼륨 조절 스크롤 바를 표시하며, 검지의 변경된 접촉 위치에 뒤로 가기 기능 아이콘을 표시하고, 중지의 변경된 접촉 위치에 재생 또는 일시정지 기능 아이콘을 표시하며, 약지의 변경된 접촉 위치에 정지 기능 아이콘을 표시하게 된다. 소지는 장치(100)에 접촉되지 않기 때문에 제어부(140)는 앞으로 가기 기능 아이콘을 표시부(132)에 표시하지 않는다. 14B illustrates a screen for changing and displaying a function icon when re-entering a user contact in an MP3 application. FIG. 14B illustrates a form in which a user inputs a contact to the device 100 by lowering a contact position as compared with FIG. 14A. That is, in FIG. 14B, the positions of the thumb, the index finger, the middle finger, and the ring finger are all in contact with the lower positions as compared with FIG. 14A. In addition, while the body is in contact with the apparatus 100 in FIG. 14A, the body is not in contact with the apparatus 100 in FIG. 14B. The
이처럼 장치(100)는 사용자의 손가락 또는 손바닥이 접촉되는 위치가 변경됨에 따라 GUI를 변경하여 표시함으로써 사용자는 장치(100)를 조작함에 있어서 혼동 유발을 방지할 수 있다. As such, the device 100 changes and displays the GUI as the position where the user's finger or the palm is in contact changes, thereby preventing the user from causing confusion in operating the device 100.
한편, 본 명세서와 도면에 개시 된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. On the other hand, the embodiments of the present invention disclosed in the specification and drawings are merely presented specific examples to easily explain the technical contents of the present invention and help the understanding of the present invention, and are not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention can be carried out in addition to the embodiments disclosed herein.
도 1은 본 발명의 실시예의 설명을 위해 참조되는 장치(100)의 내부 구성도이다. 1 is an internal configuration diagram of an apparatus 100 referred for description of an embodiment of the present invention.
도 2는 본 발명의 제1실시예에 따른 조작 손에 따른 GUI를 표시하는 방법을 나타내는 순서도에 해당한다.2 is a flowchart illustrating a method of displaying a GUI according to a manipulation hand according to the first embodiment of the present invention.
도 3은 본 발명의 제1실시예에 따른 GUI 표시 방법에 있어서 도 2의 230단계의 구체적인 과정을 나타내는 순서도이다.3 is a flowchart illustrating a specific process of step 230 of FIG. 2 in the GUI display method according to the first embodiment of the present invention.
도 4는 본 발명의 제1실시예에 따른 GUI 표시 방법에 있어서 도 2의 230단계의 다른 구체적인 과정을 나타내는 순서도이다.4 is a flowchart illustrating another specific process of step 230 of FIG. 2 in the GUI display method according to the first embodiment of the present invention.
도 5는 본 발명의 제1실시예에 따른 GUI 표시 방법에 있어서 도 2의 230단계의 또 다른 구체적인 과정을 나타내는 순서도이다.FIG. 5 is a flowchart illustrating still another specific process of step 230 of FIG. 2 in the GUI display method according to the first embodiment of the present invention.
도 6a는 본 발명의 실시예에 따라 왼손으로 장치(100)를 파지한 모습 및 장치(100)의 측면에 위치하는 촉각 감지 센서부(110)를 나타내는 도면이다.FIG. 6A is a view showing the device 100 held by the left hand and the
도 6b는 본 발명의 실시예에 따라 오른손으로 장치(100)를 파지한 모습 및 장치(100)의 측면에 위치하는 촉각 감지 센서부(110)를 나타내는 도면이다.6B is a view showing the gripping device 100 with the right hand and the
도 7a는 본 발명의 다른 실시예에 따라 왼손으로 장치(100)를 파지한 모습 및 장치(100)의 측면에 위치하는 촉각 감지 센서부(110)를 나타내는 도면이다.FIG. 7A is a view showing the device 100 held by the left hand and the
도 7b는 본 발명의 다른 실시예에 따라 오른손으로 장치(100)를 파지한 모습 및 장치(100)의 측면에 위치하는 촉각 감지 센서부(110)를 나타내는 도면이다.FIG. 7B is a view showing a gripping device 100 with a right hand and a
도 8은 본 발명의 실시예에 따라 GUI를 표시한 화면을 나타내는 도면이다.8 is a diagram illustrating a screen displaying a GUI according to an embodiment of the present invention.
도 9는 본 발명의 다른 실시예에 따라 GUI를 표시한 화면을 나타내는 도면이다.9 is a diagram illustrating a screen displaying a GUI according to another exemplary embodiment of the present invention.
도 10a는 종래기술에 따른 터치스크린에 메뉴 아이콘이 표시된 상태에서 왼손 엄지손가락에 의해 메뉴 아이콘이 터치되는 화면이다.10A illustrates a screen in which a menu icon is touched by a left thumb while a menu icon is displayed on a touch screen according to the related art.
도 10b는 종래기술에 따른 터치스크린에 인터넷 접속 화면이 표시된 상태에서 왼손 엄지손가락에 의해 스크롤 바가 조작되는 화면이다.10B is a screen in which a scroll bar is operated by the thumb of the left hand while the Internet access screen is displayed on the touch screen according to the related art.
도 11은 본 발명의 제2실시예에 따른 사용자 접촉 패턴에 따른 GUI를 표시하는 방법을 나타내는 순서도에 해당한다.11 is a flowchart illustrating a method of displaying a GUI according to a user contact pattern according to a second embodiment of the present invention.
도 12a는 대기 화면 어플리케이션에서 사용자 접촉 입력 시 메뉴 아이콘을 표시하는 화면을 나타낸다.12A illustrates a screen displaying a menu icon when a user touches an input in a standby screen application.
도 12b는 대기 화면 어플리케이션에서 사용자 접촉 재입력 시 메뉴 아이콘을 변경하여 표시하는 화면을 나타낸다.12B illustrates a screen of changing and displaying a menu icon when re-entering a user contact in a standby screen application.
도 13a는 카메라 어플리케이션에서 사용자 접촉 입력 시 기능 아이콘을 표시하는 화면을 나타낸다.13A illustrates a screen displaying a function icon when a user touches an input in a camera application.
도 13b는 카메라 어플리케이션에서 사용자 접촉 재입력 시 기능 아이콘을 변경하여 표시하는 화면을 나타낸다.13B illustrates a screen of changing and displaying a function icon when re-entering a user contact in a camera application.
도 14a는 MP3 어플리케이션에서 사용자 접촉 입력 시 기능 아이콘을 표시하는 화면을 나타낸다.14A illustrates a screen displaying a function icon when a user touches an input in an MP3 application.
도 14b는 MP3 어플리케이션에서 사용자 접촉 재입력 시 기능 아이콘을 변경하여 표시하는 화면을 나타낸다.14B illustrates a screen for changing and displaying a function icon when re-entering a user contact in an MP3 application.
Claims (28)
Priority Applications (10)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP09167533.0A EP2175344B1 (en) | 2008-10-06 | 2009-08-10 | Method and apparatus for displaying graphical user interface depending on a user's contact pattern |
| ES09167533T ES2776103T3 (en) | 2008-10-06 | 2009-08-10 | Procedure and apparatus to display graphical user interface depending on a contact pattern of the user |
| EP20150507.0A EP3654141A1 (en) | 2008-10-06 | 2009-08-10 | Method and apparatus for displaying graphical user interface depending on a user's contact pattern |
| US12/548,704 US8493342B2 (en) | 2008-10-06 | 2009-08-27 | Method and apparatus for displaying graphical user interface depending on a user's contact pattern |
| CN201710119962.2A CN106909305B (en) | 2008-10-06 | 2009-09-14 | Method and apparatus for displaying graphical user interface |
| CN200910169036A CN101714055A (en) | 2008-10-06 | 2009-09-14 | Method and apparatus for displaying graphical user interface according to user's contact mode |
| CN201710119581.4A CN106909304B (en) | 2008-10-06 | 2009-09-14 | Method and apparatus for displaying graphical user interface |
| US13/928,010 US8749510B2 (en) | 2008-10-06 | 2013-06-26 | Method and apparatus for displaying graphical user interface depending on a user's contact pattern |
| US14/297,263 US9176650B2 (en) | 2008-10-06 | 2014-06-05 | Method and apparatus for displaying graphical user interface depending on a user's contact pattern |
| US14/831,268 US10180778B2 (en) | 2008-10-06 | 2015-08-20 | Method and apparatus for displaying graphical user interface depending on a user's contact pattern |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR20080097591 | 2008-10-06 | ||
| KR1020080097591 | 2008-10-06 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20100039194A true KR20100039194A (en) | 2010-04-15 |
Family
ID=42215793
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020090012687A Ceased KR20100039194A (en) | 2008-10-06 | 2009-02-17 | Method for displaying graphic user interface according to user's touch pattern and apparatus having the same |
Country Status (3)
| Country | Link |
|---|---|
| KR (1) | KR20100039194A (en) |
| CN (3) | CN106909304B (en) |
| ES (1) | ES2776103T3 (en) |
Cited By (40)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20130068250A (en) * | 2011-12-15 | 2013-06-26 | 삼성전자주식회사 | Apparatas and method of user based using for grip sensor in a portable terminal |
| KR20140000932A (en) * | 2012-06-26 | 2014-01-06 | 엘지전자 주식회사 | Mobile terminal and control method thereof |
| KR101354614B1 (en) * | 2011-02-10 | 2014-01-22 | 소니 컴퓨터 엔터테인먼트 인코포레이티드 | Method and apparatus for area-efficient graphical user interface |
| JP2014178750A (en) * | 2013-03-13 | 2014-09-25 | Sharp Corp | Electronic apparatus, information processing method, and information processing program |
| KR20140147647A (en) * | 2013-06-20 | 2014-12-30 | 삼성전자주식회사 | Electronic device and method for controlling using grip sensing in the electronic device |
| KR20160022396A (en) * | 2013-07-12 | 2016-02-29 | 페이스북, 인크. | Isolating mobile device electrode |
| KR20160094152A (en) * | 2015-01-30 | 2016-08-09 | 한국과학기술연구원 | METHOD, APPARATUS, AND COMPUTER READABLE RECORDING MEDIUM FOR PERFORMING THE SAME - Patent application |
| KR20160118078A (en) * | 2015-04-01 | 2016-10-11 | 삼성전자주식회사 | Apparatus and method for controlling volume using touch screen |
| US9959030B2 (en) | 2015-03-05 | 2018-05-01 | Samsung Display Co., Ltd. | Display apparatus |
| KR20180060683A (en) * | 2016-11-29 | 2018-06-07 | 삼성전자주식회사 | Device for displaying user interface based on sensing signal of grip sensor |
| KR101876020B1 (en) * | 2016-05-10 | 2018-07-06 | 홍익대학교세종캠퍼스산학협력단 | Cursor Scrolling Control Method Using A 3D Touch Of A Mobile Device |
| US10241608B2 (en) | 2014-12-03 | 2019-03-26 | Samsung Display Co., Ltd. | Display device and driving method for display device using the same |
| KR20210032876A (en) * | 2019-09-12 | 2021-03-25 | 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 | Button setting method, device and recording medium |
| KR20210043755A (en) * | 2014-06-24 | 2021-04-21 | 애플 인크. | Input device and user interface interactions |
| US20210166288A1 (en) * | 2015-07-14 | 2021-06-03 | Ebay Inc. | Enhanced Shopping Actions on A Mobile Device |
| US11070889B2 (en) | 2012-12-10 | 2021-07-20 | Apple Inc. | Channel bar user interface |
| US11194546B2 (en) | 2012-12-31 | 2021-12-07 | Apple Inc. | Multi-user TV user interface |
| US11245967B2 (en) | 2012-12-13 | 2022-02-08 | Apple Inc. | TV side bar user interface |
| US11290762B2 (en) | 2012-11-27 | 2022-03-29 | Apple Inc. | Agnostic media delivery system |
| US11297392B2 (en) | 2012-12-18 | 2022-04-05 | Apple Inc. | Devices and method for providing remote control hints on a display |
| US11302037B2 (en) | 2018-12-18 | 2022-04-12 | Samsung Electronics Co., Ltd. | Electronic device for adaptively altering information display area and operation method thereof |
| WO2022103015A1 (en) * | 2020-11-11 | 2022-05-19 | 삼성전자 주식회사 | Electronic device comprising stretchable display |
| US11445263B2 (en) | 2019-03-24 | 2022-09-13 | Apple Inc. | User interfaces including selectable representations of content items |
| US11461397B2 (en) | 2014-06-24 | 2022-10-04 | Apple Inc. | Column interface for navigating in a user interface |
| US11467726B2 (en) | 2019-03-24 | 2022-10-11 | Apple Inc. | User interfaces for viewing and accessing content on an electronic device |
| US11520858B2 (en) | 2016-06-12 | 2022-12-06 | Apple Inc. | Device-level authorization for viewing content |
| US11543938B2 (en) | 2016-06-12 | 2023-01-03 | Apple Inc. | Identifying applications on which content is available |
| US11582517B2 (en) | 2018-06-03 | 2023-02-14 | Apple Inc. | Setup procedures for an electronic device |
| US11609678B2 (en) | 2016-10-26 | 2023-03-21 | Apple Inc. | User interfaces for browsing content from multiple content applications on an electronic device |
| US11683565B2 (en) | 2019-03-24 | 2023-06-20 | Apple Inc. | User interfaces for interacting with channels that provide content that plays in a media browsing application |
| US11720229B2 (en) | 2020-12-07 | 2023-08-08 | Apple Inc. | User interfaces for browsing and presenting content |
| US11797606B2 (en) | 2019-05-31 | 2023-10-24 | Apple Inc. | User interfaces for a podcast browsing and playback application |
| US11843838B2 (en) | 2020-03-24 | 2023-12-12 | Apple Inc. | User interfaces for accessing episodes of a content series |
| US11863837B2 (en) | 2019-05-31 | 2024-01-02 | Apple Inc. | Notification of augmented reality content on an electronic device |
| US11899895B2 (en) | 2020-06-21 | 2024-02-13 | Apple Inc. | User interfaces for setting up an electronic device |
| US11934640B2 (en) | 2021-01-29 | 2024-03-19 | Apple Inc. | User interfaces for record labels |
| US11962836B2 (en) | 2019-03-24 | 2024-04-16 | Apple Inc. | User interfaces for a media browsing application |
| US12149779B2 (en) | 2013-03-15 | 2024-11-19 | Apple Inc. | Advertisement user interface |
| US12307082B2 (en) | 2018-02-21 | 2025-05-20 | Apple Inc. | Scrollable set of content items with locking feature |
| US12335569B2 (en) | 2018-06-03 | 2025-06-17 | Apple Inc. | Setup procedures for an electronic device |
Families Citing this family (70)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012019350A1 (en) * | 2010-08-12 | 2012-02-16 | Google Inc. | Finger identification on a touchscreen |
| CN102375652A (en) * | 2010-08-16 | 2012-03-14 | 中国移动通信集团公司 | Mobile terminal user interface regulation system and method |
| CN102402275B (en) * | 2010-09-13 | 2017-05-24 | 联想(北京)有限公司 | Portable electronic equipment and holding gesture detection method |
| JPWO2012049942A1 (en) * | 2010-10-13 | 2014-02-24 | Necカシオモバイルコミュニケーションズ株式会社 | Mobile terminal device and display method of touch panel in mobile terminal device |
| CN102479035A (en) * | 2010-11-23 | 2012-05-30 | 汉王科技股份有限公司 | Electronic device with touch screen, and method for displaying left or right hand control interface |
| CN102131003A (en) * | 2011-04-06 | 2011-07-20 | 罗蒙明 | Method for judging finger key pressing on virtual keyboard of mobile phone with touch screen |
| CN102790816A (en) * | 2011-05-16 | 2012-11-21 | 中兴通讯股份有限公司 | Processing method and device of pushbutton function |
| CN102810039A (en) * | 2011-05-31 | 2012-12-05 | 中兴通讯股份有限公司 | Left or right hand adapting virtual keyboard display method and terminal |
| CN102841723B (en) * | 2011-06-20 | 2016-08-10 | 联想(北京)有限公司 | Portable terminal and display changeover method thereof |
| JP5453351B2 (en) * | 2011-06-24 | 2014-03-26 | 株式会社Nttドコモ | Mobile information terminal, operation state determination method, program |
| JP5588931B2 (en) * | 2011-06-29 | 2014-09-10 | 株式会社Nttドコモ | Mobile information terminal, arrangement area acquisition method, program |
| CN102299996A (en) * | 2011-08-19 | 2011-12-28 | 华为终端有限公司 | Handheld device operating mode distinguishing method and handheld device |
| WO2013048461A1 (en) * | 2011-09-30 | 2013-04-04 | Intel Corporation | Mobile device rejection of unintentional touch sensor contact |
| KR101908947B1 (en) * | 2011-11-23 | 2018-10-17 | 삼성전자주식회사 | Method and apparatus for peripheral connection |
| CN102722247A (en) * | 2012-03-09 | 2012-10-10 | 张伟明 | Operation and control component, information processing system using same and information processing method thereof |
| CN103324423B (en) * | 2012-03-21 | 2018-11-13 | 北京三星通信技术研究有限公司 | A kind of terminal and its method for displaying user interface |
| KR101979666B1 (en) | 2012-05-15 | 2019-05-17 | 삼성전자 주식회사 | Operation Method For plural Touch Panel And Portable Device supporting the same |
| CN102662603A (en) * | 2012-05-18 | 2012-09-12 | 广州市渡明信息技术有限公司 | Input method display method and input method display system for mobile phone with touch screen |
| CN102890558B (en) * | 2012-10-26 | 2015-08-19 | 北京金和软件股份有限公司 | The method of mobile hand-held device handheld motion state is detected based on sensor |
| CN103809866B (en) * | 2012-11-13 | 2018-07-06 | 联想(北京)有限公司 | A kind of operation mode switching method and electronic equipment |
| CN103118166B (en) * | 2012-11-27 | 2014-11-12 | 广东欧珀移动通信有限公司 | Method of realizing single hand operation of mobile phone based on pressure sensing |
| CN103870140B (en) * | 2012-12-13 | 2018-01-23 | 联想(北京)有限公司 | A kind of object processing method and device |
| CN103576850A (en) * | 2012-12-26 | 2014-02-12 | 深圳市创荣发电子有限公司 | Method and system for judging holding mode of handheld device |
| CN103902141A (en) * | 2012-12-27 | 2014-07-02 | 北京富纳特创新科技有限公司 | Device and method for achieving dynamic arrangement of desktop functional icons |
| US20140184519A1 (en) * | 2012-12-28 | 2014-07-03 | Hayat Benchenaa | Adapting user interface based on handedness of use of mobile computing device |
| US9904394B2 (en) * | 2013-03-13 | 2018-02-27 | Immerson Corporation | Method and devices for displaying graphical user interfaces based on user contact |
| CN104360813B (en) * | 2013-04-12 | 2016-03-30 | 努比亚技术有限公司 | A kind of display device and information processing method thereof |
| CN104216602B (en) * | 2013-05-31 | 2017-10-20 | 国际商业机器公司 | A kind of method and system for control slide block |
| KR102138505B1 (en) * | 2013-07-10 | 2020-07-28 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
| US10162416B2 (en) * | 2013-09-06 | 2018-12-25 | Immersion Corporation | Dynamic haptic conversion system |
| CN104714731B (en) * | 2013-12-12 | 2019-10-11 | 南京中兴软件有限责任公司 | The display methods and device of terminal interface |
| US20150192989A1 (en) * | 2014-01-07 | 2015-07-09 | Samsung Electronics Co., Ltd. | Electronic device and method of controlling electronic device |
| CN103795949A (en) * | 2014-01-14 | 2014-05-14 | 四川长虹电器股份有限公司 | Control terminal, device terminal and system for adjusting volume of device terminal |
| KR102155091B1 (en) * | 2014-01-22 | 2020-09-11 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
| CN104850339B (en) * | 2014-02-19 | 2018-06-01 | 联想(北京)有限公司 | A kind of information processing method and electronic equipment |
| CN104915073B (en) * | 2014-03-14 | 2018-06-01 | 敦泰科技有限公司 | Hand-held type touch device |
| US9239648B2 (en) * | 2014-03-17 | 2016-01-19 | Google Inc. | Determining user handedness and orientation using a touchscreen device |
| US9727161B2 (en) * | 2014-06-12 | 2017-08-08 | Microsoft Technology Licensing, Llc | Sensor correlation for pen and touch-sensitive computing device interaction |
| CN105468269A (en) * | 2014-08-15 | 2016-04-06 | 深圳市中兴微电子技术有限公司 | Mobile terminal capable of automatically identifying holding by left hand or right hand, and implementation method thereof |
| CN105468245B (en) * | 2014-08-22 | 2020-05-01 | 中兴通讯股份有限公司 | A terminal and a display method of a terminal operation interface |
| US10401390B2 (en) * | 2014-11-20 | 2019-09-03 | Keithley Instruments, Llc | Formatting and navigating graphed information |
| CN104461322A (en) * | 2014-12-30 | 2015-03-25 | 中科创达软件股份有限公司 | Display method and system for user interface of handheld device |
| CN104615368A (en) * | 2015-01-21 | 2015-05-13 | 上海华豚科技有限公司 | Following switching method of keyboard interface |
| CN104571919A (en) * | 2015-01-26 | 2015-04-29 | 深圳市中兴移动通信有限公司 | Terminal screen display method and device |
| CN104679427B (en) * | 2015-01-29 | 2017-03-15 | 努比亚技术有限公司 | Terminal split-screen display method and system |
| CN105988692A (en) * | 2015-02-02 | 2016-10-05 | 中兴通讯股份有限公司 | Handheld electronic equipment, and method and device for controlling handheld electronic equipment |
| CN104731501B (en) * | 2015-03-25 | 2016-03-23 | 努比亚技术有限公司 | Control chart calibration method and mobile terminal |
| CN104735256B (en) * | 2015-03-27 | 2016-05-18 | 努比亚技术有限公司 | Holding mode determination methods and the device of mobile terminal |
| CN104834463A (en) * | 2015-03-31 | 2015-08-12 | 努比亚技术有限公司 | Holding recognition method and device of mobile terminal |
| CN104765541A (en) * | 2015-04-10 | 2015-07-08 | 南京理工大学 | Method and system for identifying whether left hand or right hand operates mobile phone |
| CN104898959B (en) * | 2015-04-30 | 2018-06-05 | 努比亚技术有限公司 | A kind of method and apparatus for adjusting virtual push button position |
| CN104866136B (en) * | 2015-05-11 | 2019-02-15 | 努比亚技术有限公司 | A kind of method and device of determining terminal operating mode |
| KR102422181B1 (en) * | 2015-06-02 | 2022-07-18 | 삼성전자주식회사 | Method for controling a display of an electronic device and the electronic device thereof |
| CN104915143B (en) * | 2015-06-19 | 2019-01-22 | 努比亚技术有限公司 | The control method and terminal of Rimless mobile terminal |
| CN105227768A (en) * | 2015-09-18 | 2016-01-06 | 努比亚技术有限公司 | A kind of application APP display system and method |
| CN105183235B (en) * | 2015-10-19 | 2018-02-06 | 上海斐讯数据通信技术有限公司 | A kind of method of touch-control platen edge false-touch prevention |
| CN105224181B (en) * | 2015-10-20 | 2018-05-25 | 魅族科技(中国)有限公司 | A kind of sidebar display methods and device |
| CN106610746A (en) * | 2015-10-26 | 2017-05-03 | 青岛海信移动通信技术股份有限公司 | Mobile terminal and control method thereof |
| CN105573622A (en) * | 2015-12-15 | 2016-05-11 | 广东欧珀移动通信有限公司 | User interface one-handed control method, device and terminal equipment |
| CN106406656B (en) * | 2016-08-30 | 2019-07-26 | 维沃移动通信有限公司 | A kind of control method and mobile terminal of application tool bar |
| CN106648329A (en) * | 2016-12-30 | 2017-05-10 | 维沃移动通信有限公司 | Application icon display method and mobile terminal |
| US10635255B2 (en) * | 2017-04-18 | 2020-04-28 | Google Llc | Electronic device response to force-sensitive interface |
| CN109710099A (en) * | 2017-10-26 | 2019-05-03 | 南昌欧菲生物识别技术有限公司 | Electronic device |
| CN110709808A (en) * | 2017-12-14 | 2020-01-17 | 深圳市柔宇科技有限公司 | Control method and electronic device |
| US10838541B2 (en) * | 2018-09-03 | 2020-11-17 | Htc Corporation | Method for operating handheld device, handheld device and computer-readable recording medium thereof |
| JP7279622B2 (en) * | 2019-11-22 | 2023-05-23 | トヨタ自動車株式会社 | display device and display program |
| CN115087952A (en) * | 2020-02-10 | 2022-09-20 | 日本电气株式会社 | Program for portable terminal, processing method, and portable terminal |
| CN112543362A (en) * | 2020-11-02 | 2021-03-23 | 当趣网络科技(杭州)有限公司 | Display interface switching method, remote controller, television system and electronic equipment |
| CN113867594A (en) * | 2021-10-21 | 2021-12-31 | 元心信息科技集团有限公司 | Information input panel switching method, device, electronic device and storage medium |
| CN120223805B (en) * | 2025-04-21 | 2025-12-26 | 赵润龙 | A method and electronic device for displaying a mobile phone input box. |
Family Cites Families (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7800592B2 (en) * | 2005-03-04 | 2010-09-21 | Apple Inc. | Hand held electronic device with multiple touch sensing devices |
| US20050134578A1 (en) * | 2001-07-13 | 2005-06-23 | Universal Electronics Inc. | System and methods for interacting with a control environment |
| CN1241109C (en) * | 2001-07-17 | 2006-02-08 | 仁宝电脑工业股份有限公司 | Touch display method for controlling magnification according to pressure |
| US7009599B2 (en) * | 2001-11-20 | 2006-03-07 | Nokia Corporation | Form factor for portable device |
| US20030117376A1 (en) * | 2001-12-21 | 2003-06-26 | Elen Ghulam | Hand gesturing input device |
| GB0201074D0 (en) * | 2002-01-18 | 2002-03-06 | 3G Lab Ltd | Graphic user interface for data processing device |
| US7116314B2 (en) * | 2003-05-06 | 2006-10-03 | International Business Machines Corporation | Method for distribution wear for a touch entry display |
| WO2005008444A2 (en) * | 2003-07-14 | 2005-01-27 | Matt Pallakoff | System and method for a portbale multimedia client |
| EP1557744B1 (en) * | 2004-01-20 | 2008-04-16 | Sony Deutschland GmbH | Haptic key controlled data input |
| KR100608576B1 (en) * | 2004-11-19 | 2006-08-03 | 삼성전자주식회사 | Mobile terminal control device and method |
| CN101133385B (en) * | 2005-03-04 | 2014-05-07 | 苹果公司 | Handheld electronic device, handheld device and method of operation thereof |
| CN1901785B (en) * | 2005-07-22 | 2012-08-29 | 鸿富锦精密工业(深圳)有限公司 | Display device and its display control method |
| CN100592247C (en) * | 2005-09-21 | 2010-02-24 | 鸿富锦精密工业(深圳)有限公司 | Multi-level menu display device and display control method thereof |
| CN1940834B (en) * | 2005-09-30 | 2014-10-29 | 鸿富锦精密工业(深圳)有限公司 | Circular menu display device and its display controlling method |
| JP4699955B2 (en) * | 2006-07-21 | 2011-06-15 | シャープ株式会社 | Information processing device |
| KR101144423B1 (en) * | 2006-11-16 | 2012-05-10 | 엘지전자 주식회사 | Mobile phone and display method of the same |
| JP2008204402A (en) * | 2007-02-22 | 2008-09-04 | Eastman Kodak Co | User interface device |
-
2009
- 2009-02-17 KR KR1020090012687A patent/KR20100039194A/en not_active Ceased
- 2009-08-10 ES ES09167533T patent/ES2776103T3/en active Active
- 2009-09-14 CN CN201710119581.4A patent/CN106909304B/en active Active
- 2009-09-14 CN CN200910169036A patent/CN101714055A/en active Pending
- 2009-09-14 CN CN201710119962.2A patent/CN106909305B/en active Active
Cited By (68)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101354614B1 (en) * | 2011-02-10 | 2014-01-22 | 소니 컴퓨터 엔터테인먼트 인코포레이티드 | Method and apparatus for area-efficient graphical user interface |
| US9207864B2 (en) | 2011-02-10 | 2015-12-08 | Sony Corporation | Method and apparatus for area-efficient graphical user interface |
| KR20130068250A (en) * | 2011-12-15 | 2013-06-26 | 삼성전자주식회사 | Apparatas and method of user based using for grip sensor in a portable terminal |
| KR20140000932A (en) * | 2012-06-26 | 2014-01-06 | 엘지전자 주식회사 | Mobile terminal and control method thereof |
| US11290762B2 (en) | 2012-11-27 | 2022-03-29 | Apple Inc. | Agnostic media delivery system |
| US12225253B2 (en) | 2012-11-27 | 2025-02-11 | Apple Inc. | Agnostic media delivery system |
| US12342050B2 (en) | 2012-12-10 | 2025-06-24 | Apple Inc. | Channel bar user interface |
| US11070889B2 (en) | 2012-12-10 | 2021-07-20 | Apple Inc. | Channel bar user interface |
| US12177527B2 (en) | 2012-12-13 | 2024-12-24 | Apple Inc. | TV side bar user interface |
| US11317161B2 (en) | 2012-12-13 | 2022-04-26 | Apple Inc. | TV side bar user interface |
| US11245967B2 (en) | 2012-12-13 | 2022-02-08 | Apple Inc. | TV side bar user interface |
| US12301948B2 (en) | 2012-12-18 | 2025-05-13 | Apple Inc. | Devices and method for providing remote control hints on a display |
| US11297392B2 (en) | 2012-12-18 | 2022-04-05 | Apple Inc. | Devices and method for providing remote control hints on a display |
| US12229475B2 (en) | 2012-12-31 | 2025-02-18 | Apple Inc. | Multi-user TV user interface |
| US11822858B2 (en) | 2012-12-31 | 2023-11-21 | Apple Inc. | Multi-user TV user interface |
| US11194546B2 (en) | 2012-12-31 | 2021-12-07 | Apple Inc. | Multi-user TV user interface |
| JP2014178750A (en) * | 2013-03-13 | 2014-09-25 | Sharp Corp | Electronic apparatus, information processing method, and information processing program |
| US12149779B2 (en) | 2013-03-15 | 2024-11-19 | Apple Inc. | Advertisement user interface |
| KR20140147647A (en) * | 2013-06-20 | 2014-12-30 | 삼성전자주식회사 | Electronic device and method for controlling using grip sensing in the electronic device |
| KR20160022396A (en) * | 2013-07-12 | 2016-02-29 | 페이스북, 인크. | Isolating mobile device electrode |
| US11520467B2 (en) | 2014-06-24 | 2022-12-06 | Apple Inc. | Input device and user interface interactions |
| KR20210043755A (en) * | 2014-06-24 | 2021-04-21 | 애플 인크. | Input device and user interface interactions |
| US12086186B2 (en) | 2014-06-24 | 2024-09-10 | Apple Inc. | Interactive interface for navigating in a user interface associated with a series of content |
| US12105942B2 (en) | 2014-06-24 | 2024-10-01 | Apple Inc. | Input device and user interface interactions |
| US12468436B2 (en) | 2014-06-24 | 2025-11-11 | Apple Inc. | Input device and user interface interactions |
| US11461397B2 (en) | 2014-06-24 | 2022-10-04 | Apple Inc. | Column interface for navigating in a user interface |
| US10969890B2 (en) | 2014-12-03 | 2021-04-06 | Samsung Display Co., Ltd. | Display device and driving method for display device using the same |
| US10452194B2 (en) | 2014-12-03 | 2019-10-22 | Samsung Display Co., Ltd. | Display device and driving method for display device using the same |
| US10241608B2 (en) | 2014-12-03 | 2019-03-26 | Samsung Display Co., Ltd. | Display device and driving method for display device using the same |
| KR20160094152A (en) * | 2015-01-30 | 2016-08-09 | 한국과학기술연구원 | METHOD, APPARATUS, AND COMPUTER READABLE RECORDING MEDIUM FOR PERFORMING THE SAME - Patent application |
| US9959030B2 (en) | 2015-03-05 | 2018-05-01 | Samsung Display Co., Ltd. | Display apparatus |
| US10705716B2 (en) | 2015-03-05 | 2020-07-07 | Samsung Display Co., Ltd. | Display apparatus |
| US10209878B2 (en) | 2015-03-05 | 2019-02-19 | Samsung Display Co., Ltd. | Display apparatus |
| KR20160118078A (en) * | 2015-04-01 | 2016-10-11 | 삼성전자주식회사 | Apparatus and method for controlling volume using touch screen |
| US11640633B2 (en) * | 2015-07-14 | 2023-05-02 | Ebay Inc. | Enhanced shopping actions on a mobile device |
| US20210166288A1 (en) * | 2015-07-14 | 2021-06-03 | Ebay Inc. | Enhanced Shopping Actions on A Mobile Device |
| KR101876020B1 (en) * | 2016-05-10 | 2018-07-06 | 홍익대학교세종캠퍼스산학협력단 | Cursor Scrolling Control Method Using A 3D Touch Of A Mobile Device |
| US11543938B2 (en) | 2016-06-12 | 2023-01-03 | Apple Inc. | Identifying applications on which content is available |
| US12287953B2 (en) | 2016-06-12 | 2025-04-29 | Apple Inc. | Identifying applications on which content is available |
| US11520858B2 (en) | 2016-06-12 | 2022-12-06 | Apple Inc. | Device-level authorization for viewing content |
| US11609678B2 (en) | 2016-10-26 | 2023-03-21 | Apple Inc. | User interfaces for browsing content from multiple content applications on an electronic device |
| US11966560B2 (en) | 2016-10-26 | 2024-04-23 | Apple Inc. | User interfaces for browsing content from multiple content applications on an electronic device |
| KR20180060683A (en) * | 2016-11-29 | 2018-06-07 | 삼성전자주식회사 | Device for displaying user interface based on sensing signal of grip sensor |
| US12307082B2 (en) | 2018-02-21 | 2025-05-20 | Apple Inc. | Scrollable set of content items with locking feature |
| US11582517B2 (en) | 2018-06-03 | 2023-02-14 | Apple Inc. | Setup procedures for an electronic device |
| US12335569B2 (en) | 2018-06-03 | 2025-06-17 | Apple Inc. | Setup procedures for an electronic device |
| US11302037B2 (en) | 2018-12-18 | 2022-04-12 | Samsung Electronics Co., Ltd. | Electronic device for adaptively altering information display area and operation method thereof |
| US11962836B2 (en) | 2019-03-24 | 2024-04-16 | Apple Inc. | User interfaces for a media browsing application |
| US11467726B2 (en) | 2019-03-24 | 2022-10-11 | Apple Inc. | User interfaces for viewing and accessing content on an electronic device |
| US12008232B2 (en) | 2019-03-24 | 2024-06-11 | Apple Inc. | User interfaces for viewing and accessing content on an electronic device |
| US12432412B2 (en) | 2019-03-24 | 2025-09-30 | Apple Inc. | User interfaces for a media browsing application |
| US11445263B2 (en) | 2019-03-24 | 2022-09-13 | Apple Inc. | User interfaces including selectable representations of content items |
| US11683565B2 (en) | 2019-03-24 | 2023-06-20 | Apple Inc. | User interfaces for interacting with channels that provide content that plays in a media browsing application |
| US11750888B2 (en) | 2019-03-24 | 2023-09-05 | Apple Inc. | User interfaces including selectable representations of content items |
| US12299273B2 (en) | 2019-03-24 | 2025-05-13 | Apple Inc. | User interfaces for viewing and accessing content on an electronic device |
| US12204584B2 (en) | 2019-05-31 | 2025-01-21 | Apple Inc. | User interfaces for a podcast browsing and playback application |
| US11797606B2 (en) | 2019-05-31 | 2023-10-24 | Apple Inc. | User interfaces for a podcast browsing and playback application |
| US12250433B2 (en) | 2019-05-31 | 2025-03-11 | Apple Inc. | Notification of augmented reality content on an electronic device |
| US11863837B2 (en) | 2019-05-31 | 2024-01-02 | Apple Inc. | Notification of augmented reality content on an electronic device |
| KR20210032876A (en) * | 2019-09-12 | 2021-03-25 | 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 | Button setting method, device and recording medium |
| US11320926B2 (en) | 2019-09-12 | 2022-05-03 | Beijing Xiaomi Mobile Software Co., Ltd. | Key setting method and device, and storage medium |
| US11843838B2 (en) | 2020-03-24 | 2023-12-12 | Apple Inc. | User interfaces for accessing episodes of a content series |
| US12301950B2 (en) | 2020-03-24 | 2025-05-13 | Apple Inc. | User interfaces for accessing episodes of a content series |
| US12271568B2 (en) | 2020-06-21 | 2025-04-08 | Apple Inc. | User interfaces for setting up an electronic device |
| US11899895B2 (en) | 2020-06-21 | 2024-02-13 | Apple Inc. | User interfaces for setting up an electronic device |
| WO2022103015A1 (en) * | 2020-11-11 | 2022-05-19 | 삼성전자 주식회사 | Electronic device comprising stretchable display |
| US11720229B2 (en) | 2020-12-07 | 2023-08-08 | Apple Inc. | User interfaces for browsing and presenting content |
| US11934640B2 (en) | 2021-01-29 | 2024-03-19 | Apple Inc. | User interfaces for record labels |
Also Published As
| Publication number | Publication date |
|---|---|
| CN106909304A (en) | 2017-06-30 |
| ES2776103T3 (en) | 2020-07-29 |
| CN106909304B (en) | 2020-08-14 |
| CN101714055A (en) | 2010-05-26 |
| CN106909305A (en) | 2017-06-30 |
| CN106909305B (en) | 2020-10-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR20100039194A (en) | Method for displaying graphic user interface according to user's touch pattern and apparatus having the same | |
| US10180778B2 (en) | Method and apparatus for displaying graphical user interface depending on a user's contact pattern | |
| JP5983503B2 (en) | Information processing apparatus and program | |
| US9851809B2 (en) | User interface control using a keyboard | |
| US10203869B2 (en) | Information processing apparatus, and input control method and program of information processing apparatus | |
| JP5730667B2 (en) | Method for dual-screen user gesture and dual-screen device | |
| JP5529616B2 (en) | Information processing system, operation input device, information processing device, information processing method, program, and information storage medium | |
| JP2011221640A (en) | Information processor, information processing method and program | |
| KR20150068479A (en) | Adapting user interface based on handedness of use of mobile computing device | |
| WO2015025458A1 (en) | Information processing apparatus and information processing method | |
| TWI659353B (en) | Electronic apparatus and method for operating thereof | |
| TWI615747B (en) | Virtual keyboard display system and method | |
| JP5997921B2 (en) | Character input method and character input device | |
| US20120218207A1 (en) | Electronic device, operation control method, and storage medium storing operation control program | |
| JP2018139158A (en) | Mobile terminal and program | |
| US10101905B1 (en) | Proximity-based input device | |
| KR20130026646A (en) | Touch based mobile terminal and method for controlling soft keyboard in touch type mobile terminal | |
| KR101237127B1 (en) | Cursor moving method in the touch screen keypad including sliding key | |
| JP2016186824A (en) | Information processing apparatus and program | |
| KR20160072446A (en) | Method for inputting execute command by pointer and multimedia apparatus using the same | |
| JPWO2015079578A1 (en) | Input support computer program and input support computer system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20090217 |
|
| PG1501 | Laying open of application | ||
| A201 | Request for examination | ||
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20140217 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20090217 Comment text: Patent Application |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20150821 Patent event code: PE09021S01D |
|
| AMND | Amendment | ||
| PE0601 | Decision on rejection of patent |
Patent event date: 20160229 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20150821 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
| AMND | Amendment | ||
| J201 | Request for trial against refusal decision | ||
| PJ0201 | Trial against decision of rejection |
Patent event date: 20160328 Comment text: Request for Trial against Decision on Refusal Patent event code: PJ02012R01D Patent event date: 20160229 Comment text: Decision to Refuse Application Patent event code: PJ02011S01I Appeal kind category: Appeal against decision to decline refusal Decision date: 20171213 Appeal identifier: 2016101001842 Request date: 20160328 |
|
| PB0901 | Examination by re-examination before a trial |
Comment text: Amendment to Specification, etc. Patent event date: 20160328 Patent event code: PB09011R02I Comment text: Request for Trial against Decision on Refusal Patent event date: 20160328 Patent event code: PB09011R01I Comment text: Amendment to Specification, etc. Patent event date: 20151021 Patent event code: PB09011R02I |
|
| E801 | Decision on dismissal of amendment | ||
| PE0801 | Dismissal of amendment |
Patent event code: PE08012E01D Comment text: Decision on Dismissal of Amendment Patent event date: 20160523 Patent event code: PE08011R01I Comment text: Amendment to Specification, etc. Patent event date: 20160328 Patent event code: PE08011R01I Comment text: Amendment to Specification, etc. Patent event date: 20151021 |
|
| B601 | Maintenance of original decision after re-examination before a trial | ||
| PB0601 | Maintenance of original decision after re-examination before a trial | ||
| J301 | Trial decision |
Free format text: TRIAL NUMBER: 2016101001842; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20160328 Effective date: 20171213 |
|
| PJ1301 | Trial decision |
Patent event code: PJ13011S01D Patent event date: 20171213 Comment text: Trial Decision on Objection to Decision on Refusal Appeal kind category: Appeal against decision to decline refusal Request date: 20160328 Decision date: 20171213 Appeal identifier: 2016101001842 |