[go: up one dir, main page]

KR20100039194A - Method for displaying graphic user interface according to user's touch pattern and apparatus having the same - Google Patents

Method for displaying graphic user interface according to user's touch pattern and apparatus having the same Download PDF

Info

Publication number
KR20100039194A
KR20100039194A KR1020090012687A KR20090012687A KR20100039194A KR 20100039194 A KR20100039194 A KR 20100039194A KR 1020090012687 A KR1020090012687 A KR 1020090012687A KR 20090012687 A KR20090012687 A KR 20090012687A KR 20100039194 A KR20100039194 A KR 20100039194A
Authority
KR
South Korea
Prior art keywords
sensor
user
hand
contact
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020090012687A
Other languages
Korean (ko)
Inventor
박용국
추희정
박민규
김현기
김현진
곽지연
임은영
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP09167533.0A priority Critical patent/EP2175344B1/en
Priority to ES09167533T priority patent/ES2776103T3/en
Priority to EP20150507.0A priority patent/EP3654141A1/en
Priority to US12/548,704 priority patent/US8493342B2/en
Priority to CN200910169036A priority patent/CN101714055A/en
Priority to CN201710119962.2A priority patent/CN106909305B/en
Priority to CN201710119581.4A priority patent/CN106909304B/en
Publication of KR20100039194A publication Critical patent/KR20100039194A/en
Priority to US13/928,010 priority patent/US8749510B2/en
Priority to US14/297,263 priority patent/US9176650B2/en
Priority to US14/831,268 priority patent/US10180778B2/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04142Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position the force sensing means being located peripherally, e.g. disposed at the corners or at the side of a touch sensing plate
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 사용자 접촉 패턴에 따른 GUI(Graphic User Interface) 표시 방법 및 이를 구비하는 장치에 관한 것이다. 특히 본 발명에 있어서, 조작 손에 따른 GUI 표시 방법은 촉각 감지 센서를 구비한 장치에서 상기 장치로의 사용자 접촉을 감지하는 접촉 감지 단계, 상기 감지된 사용자 접촉에 따라 사용자의 접촉 패턴을 판단하는 접촉 패턴 판단 단계 및 상기 판단된 사용자의 접촉 패턴에 대응하는 GUI를 표시하는 표시 단계를 포함하는 것을 특징으로 한다. 본 발명을 통해 사용자는 터치스크린 화면을 가리지 않고도 한 손으로 터치스크린을 구비한 장치를 조작할 수 있다. 또한 상기 장치를 파지하는 손가락 위치에 따라 GUI를 표시함으로써 사용자는 편리하게 조작 명령을 입력할 수 있다. The present invention relates to a method of displaying a graphical user interface (GUI) according to a user contact pattern and an apparatus having the same. In particular, in the present invention, the GUI display method according to the operation hand is a touch sensing step of detecting a user contact to the device in a device having a tactile sensor, the contact to determine the contact pattern of the user according to the detected user contact And a display step of displaying a pattern determination step and a GUI corresponding to the determined contact pattern of the user. According to the present invention, a user can operate a device having a touch screen with one hand without covering the touch screen screen. In addition, by displaying the GUI according to the position of the finger holding the device, the user can conveniently input an operation command.

Description

사용자 접촉 패턴에 따른 GUI(Graphic User Interface) 표시 방법 및 이를 구비하는 장치{METHOD FOR DISPLAYING GRAPHIC USER INTERFACE ACCORDING TO USER'S TOUCH PATTERN AND APPARATUS HAVING THE SAME} TECHNICAL FOR DISPLAYING GRAPHIC USER INTERFACE ACCORDING TO USER'S TOUCH PATTERN AND APPARATUS HAVING THE SAME}

본 발명은 GUI 표시 방법 및 이를 구비하는 장치에 관한 발명으로서, 특히 사용자 접촉 패턴에 따른 GUI를 표시하는 방법 및 이를 구비하는 장치에 관한 발명이다.The present invention relates to a method of displaying a GUI and a device having the same, and more particularly, to a method of displaying a GUI according to a user contact pattern and a device having the same.

최근 터치스크린을 이용한 장치들이 실생활에서 널리 사용되고 있다. 터치스크린은 사용자가 손가락이나 펜 모양의 터치 기구를 이용하여 스크린에 직접 접촉하면, 스크린을 구비한 장치는 접촉이 발생한 부분을 인지하고 이에 따라 해당되는 명령을 실행하거나 커서의 위치를 이동하도록 설계된 디스플레이 장치를 의미한다. 터치스크린은 키입력부가 형성되는 공간을 별도로 요구하지 않아, 소형 단말기에 적합하며, 현재 모바일 기기에 널리 이용되고 있다. Recently, devices using touch screens are widely used in real life. The touch screen is a display designed to allow a user to directly touch the screen by using a finger or pen-like touch mechanism, and the device having the screen recognizes the touched portion and executes a corresponding command or moves the position of the cursor accordingly. Means the device. Since the touch screen does not require a space where a key input unit is formed, it is suitable for a small terminal and is widely used in mobile devices.

사용자는 일반적으로 한 손 또는 양 손으로 터치스크린을 구비한 장치를 조작하고 해당 기능을 실행한다. 사용자가 양 손으로 터치스크린을 구비한 장치를 조작할 때에는 한 손으로 장치를 고정하고 다른 한 손으로 터치 동작을 수행하므로 터치스크린에 표시된 화면을 가리지 않으면서 장치를 조작할 수 있다. 그러나 한 손으로 장치를 조작할 때에는 조작하는 손가락에 의해 터치스크린에 표시된 화면이 가려지는 문제가 발생한다.A user generally operates a device with a touch screen with one or both hands and executes the corresponding function. When a user operates a device having a touch screen with both hands, the device is fixed with one hand and a touch operation is performed with the other hand so that the device can be operated without covering the screen displayed on the touch screen. However, when operating the device with one hand, a problem occurs in that the screen displayed on the touch screen is covered by the operating finger.

도 10a는 터치스크린에 메뉴 아이콘이 표시된 상태에서 왼손 엄지손가락에 의해 메뉴 아이콘이 터치되는 화면이다. 사용자는 음악 메뉴 아이콘을 터치하는 경우, 게임 메뉴 아이콘, 화면 메뉴 아이콘, 일정 메뉴 아이콘이 조작하는 손가락에 의해 가려지게 된다. 또한 가려지는 부분의 아이콘에 엄지손가락의 일부가 접촉된다면, 사용자가 의도하지 않은 기능이 실행될 수 있다.10A illustrates a screen in which a menu icon is touched by a left thumb while a menu icon is displayed on a touch screen. When the user touches the music menu icon, the game menu icon, the screen menu icon, and the schedule menu icon are covered by a finger that operates. In addition, if a part of the thumb touches the icon of the hidden part, a function not intended by the user may be executed.

도 10b는 터치스크린에 인터넷 접속 화면이 표시된 상태에서 왼손 엄지손가락에 의해 스크롤바가 조작되는 화면이다. 스크롤바는 표시화면의 우측에 표시되는 것이 일반적이어서, 사용자가 왼손 엄지손가락으로 스크롤바를 조작하는 경우, 엄지손가락에 의해 인터넷 접속화면이 가려질 수 있으며, 역시 엄지손가락의 일부가 특정 컨텐츠에 접촉되어 사용자가 의도하지 않은 터치가 이루어질 수 있다. 10B is a screen in which a scroll bar is operated by the thumb of the left hand while the Internet access screen is displayed on the touch screen. Since the scroll bar is generally displayed on the right side of the display screen, when the user manipulates the scroll bar with his left thumb, the user may hide the internet access screen by his or her thumb. Unintended touch can be made.

촉각 감지 센서를 이용하여 어플리케이션을 제어하는 장치의 경우, 터치스크린 또는 키패드를 이용하지 않고 상기 장치의 특정 부분에 접촉을 입력하는 것만으로도 어플리케이션을 제어할 수 있다. 이 때 장치는 입력이 요구되는 접촉을 안내하는 GUI를 표시화면에 표시할 수 있다. 그런데 장치가 사용자의 접촉 패턴을 고려하지 않고 일정한 형태로 GUI를 표시하는 경우, 사용자의 손가락이 접촉한 위치와 GUI가 표시된 위치가 매칭되지 않는 경우가 발생할 수 있다. 사용자마다 손 및 손가락의 크기가 다르고 사용자 마다 장치를 파지하는 형태가 다르기 때문에 모든 사 용자에게 적합한 GUI를 표시하는 것은 한계가 있다. 사용자의 손가락이 접촉한 위치와 GUI가 표시된 위치가 매칭되지 않는 경우, 사용자가 어플리케이션을 제어함에 있어서 혼동이 유발될 수 있다. In the case of a device for controlling an application using a tactile sensor, the application may be controlled by simply inputting a contact to a specific part of the device without using a touch screen or a keypad. In this case, the device may display a GUI for guiding a contact requiring input on a display screen. However, when the device displays the GUI in a predetermined form without considering the contact pattern of the user, the position where the user's finger touches and the position where the GUI is displayed may not match. Since the size of the hands and fingers of each user and the type of holding the device is different for each user, displaying a GUI suitable for all users is limited. If the position where the user's finger touches and the position where the GUI is displayed do not match, confusion may occur when the user controls the application.

따라서 촉각 감지 센서를 구비한 장치에 있어서, 사용자 접촉 패턴에 따라 GUI를 표시하는 방법의 필요성이 대두된다. Therefore, in a device having a tactile sensor, there is a need for a method of displaying a GUI according to a user contact pattern.

본 발명의 목적은 터치스크린 및 촉각 감지 센서가 구비된 장치를 조작함에 있어서, 조작하는 손에 적합한 GUI를 표시하는 방법을 제공하는데 있다.An object of the present invention is to provide a method for displaying a GUI suitable for a hand to operate in operating a device equipped with a touch screen and a tactile sensor.

본 발명의 다른 목적은 촉각 감지 센서가 구비된 장치에 있어서, 상기 장치에 접촉한 사용자의 손가락 위치에 따라 GUI를 표시하는 방법을 제공하는데 있다. Another object of the present invention is to provide a method for displaying a GUI according to a position of a finger of a user in contact with the device in a device provided with a tactile sensor.

본 발명의 또 다른 목적은 상기 방법을 이용하는 장치를 제공하는데 있다.Another object of the present invention is to provide an apparatus using the method.

본 발명의 실시예에 따른 GUI를 표시하는 방법은 촉각 감지 센서를 구비한 장치로의 사용자 접촉을 감지하는 접촉 감지 단계, 접촉 감지 단계에서 감지된 사용자 접촉에 따라 사용자의 접촉 패턴을 판단하는 접촉 패턴 판단 단계, 판단된 사용자의 접촉 패턴에 대응하는 GUI를 표시하는 단계를 포함한다. In the method for displaying a GUI according to an embodiment of the present invention, a touch pattern for detecting a user contact with a device having a tactile sensor and determining a contact pattern of a user according to the detected user contact in the touch sensing step And determining the GUI corresponding to the determined contact pattern of the user.

본 발명의 제1실시예에 따른 GUI를 표시하는 방법에서 접촉 패턴 판단 단계는 감지된 사용자의 접촉에 따라 사용자의 접촉 패턴을 판단하고, 판단된 사용자의 접촉 패턴에 따라 사용자의 조작 손을 추정하는 것을 특징으로 한다. In the method for displaying a GUI according to the first embodiment of the present invention, the contact pattern determination step may include determining a user's contact pattern according to the detected user's contact, and estimating a user's manipulation hand according to the determined user's contact pattern. It is characterized by.

본 발명의 제1실시예에 따른 GUI를 표시하는 방법에서 접촉 패턴 판단 단계는 촉각 감지 센서를 구성하는 복수의 센서 유닛들 중 접촉을 감지한 센서 유닛들을 인접한 센서 유닛 별로 그룹핑하여 유닛 그룹을 생성하는 단계, 생성된 유닛 그룹에 근거하여 접촉 패턴 정보를 생성하는 단계, 생성된 접촉 패턴 정보와 미리 저장된 접촉 패턴 정보를 비교하는 단계 및 생성된 접촉 패턴 정보가 미리 저장된 접 촉 패턴 정보의 범위에 포함되는 경우, 생성된 접촉 패턴 정보에 대응하는 손 정보에 근거하여 조작 손을 추정하는 단계를 포함할 수 있다.In the method for displaying a GUI according to the first embodiment of the present invention, the contact pattern determination step may include generating a unit group by grouping sensor units that sense a contact among adjacent sensor units among a plurality of sensor units constituting the tactile sensor. Generating contact pattern information based on the generated unit group, comparing the generated contact pattern information with previously stored contact pattern information, and the generated contact pattern information included in a range of previously stored contact pattern information. In this case, the method may include estimating the manipulation hand based on the hand information corresponding to the generated contact pattern information.

본 발명의 제1실시예에 따른 GUI를 표시하는 방법에서 접촉 패턴 판단 단계는 촉각 감지 센서를 구성하는 복수의 센서 유닛들 중 접촉을 감지한 센서 유닛들을 인접한 센서 유닛 별로 그룹핑하여 유닛 그룹을 생성하는 단계, 센서 유닛의 개수가 최대인 유닛 그룹이 위치하는 센서(이하 '최대 유닛 그룹 센서')를 판단하는 단계, 최대 유닛 그룹 센서에 추가적인 유닛 그룹이 존재하는지 판단하는 단계 및 추가적인 유닛 그룹이 존재하지 않는 경우, 최대 유닛 그룹 센서가 좌측 센서일 때, 조작 손을 왼손으로 추정하며, 최대 유닛 그룹 센서가 우측 센서일 때, 조작 손을 오른손으로 추정하는 단계를 포함하는 것을 특징으로 한다. In the method for displaying a GUI according to the first embodiment of the present invention, the contact pattern determination step may include generating a unit group by grouping sensor units that sense a contact among adjacent sensor units among a plurality of sensor units constituting the tactile sensor. Determining a sensor in which a unit group having the maximum number of sensor units is located (hereinafter, 'maximum unit group sensor'), determining whether an additional unit group exists in the maximum unit group sensor, and no additional unit group exists. Otherwise, estimating the manipulation hand with the left hand when the maximum unit group sensor is the left sensor, and estimating the manipulation hand with the right hand when the maximum unit group sensor is the right sensor.

본 발명의 제1실시예에 따른 GUI를 표시하는 방법에서 접촉 패턴 판단 단계는 촉각 감지 센서를 구성하는 복수의 센서 유닛들 중 접촉을 감지한 센서 유닛들을 인접한 센서 유닛 별로 그룹핑하여 유닛 그룹을 생성하는 단계, 좌측 센서 및 우측 센서에 위치하는 유닛 그룹의 개수를 산출하는 단계 및 산출된 유닛 그룹의 개수에 근거하여 조작 손을 추정하는 단계를 포함할 수 있다.In the method for displaying a GUI according to the first embodiment of the present invention, the contact pattern determination step may include generating a unit group by grouping sensor units that sense a contact among adjacent sensor units among a plurality of sensor units constituting the tactile sensor. The method may include calculating the number of unit groups located in the left sensor and the right sensor, and estimating the manipulation hand based on the calculated number of unit groups.

본 발명의 제1실시예에 따른 GUI를 표시하는 방법에서 표시 단계는 조작 손이 왼손으로 추정되는 경우, 왼손 엄지손가락의 동선을 따라 아이콘을 배열하며, 조작 손이 오른손으로 추정되는 경우, 오른손 엄지손가락의 동선을 따라 아이콘을 배열할 수 있다. In the method for displaying a GUI according to the first embodiment of the present invention, the display step includes arranging icons along the line of the thumb of the left hand when the manipulation hand is estimated to be the left hand, and when the manipulation hand is estimated to be the right hand, the right hand thumb. You can arrange icons along the line of your finger.

본 발명의 제1실시예에 따른 GUI를 표시하는 방법에서 표시 단계는 조작 손 이 왼손으로 추정되는 경우, 스크롤바를 표시화면의 좌측에 표시하며, 조작 손이 오른손으로 추정되는 경우, 스크롤바를 표시화면의 우측에 배열할 수 있다. In the method for displaying a GUI according to the first embodiment of the present invention, the display step includes displaying a scroll bar on the left side of the display screen when the manipulation hand is estimated to be the left hand, and displaying a scroll bar when the manipulation hand is estimated to be the right hand. Can be arranged on the right side of the.

본 발명의 제2실시예에 따른 GUI를 표시하는 방법에서 접촉 패턴 판단 단계는 사용자가 입력한 접촉 위치에 근거하여 사용자의 파지 형태를 판단하는 것을 특징으로 한다. In the method for displaying a GUI according to the second embodiment of the present invention, the contact pattern determination step is characterized by determining the grip type of the user based on the contact position input by the user.

본 발명의 제2실시예에 따른 GUI를 표시하는 방법에서 접촉 패턴 판단 단계는 사용자가 입력한 접촉 압력이 미리 설정된 세기 이상의 압력에 해당하는지 여부를 판단하는 단계를 더 포함하는 것을 특징으로 한다.In the method for displaying a GUI according to the second embodiment of the present invention, the contact pattern determining step may further include determining whether the contact pressure input by the user corresponds to a pressure equal to or greater than a preset intensity.

본 발명의 제2실시예에 따른 GUI를 표시하는 방법은 현재 실행 중인 어플리케이션 및 상기 판단된 사용자의 파지 형태에 근거하여 GUI 배열 패턴을 결정하는 단계를 더 포함하는 것을 특징으로 한다. The method for displaying a GUI according to a second embodiment of the present invention may further include determining a GUI arrangement pattern based on a currently running application and the determined grip type of the user.

본 발명의 제2실시예에 따른 GUI를 표시하는 방법에서 표시 단계는 사용자가 입력한 접촉 위치에 대응하여 설정된 표시 화면의 일정 지점에 GUI를 표시하는 것을 특징으로 한다.In the method for displaying a GUI according to the second embodiment of the present invention, the displaying step may include displaying the GUI at a predetermined point of a display screen set in correspondence with a contact position input by a user.

본 발명의 제2실시예에 따른 GUI를 표시하는 방법에서 표시 단계는 사용자가 입력하는 접촉 압력에 따라 상기 GUI를 변경하여 표시하는 것을 특징으로 한다. In the method of displaying a GUI according to a second embodiment of the present invention, the displaying step may be performed by changing the GUI according to a contact pressure input by a user.

본 발명의 실시예에 따른 GUI를 표시하는 장치는 사용자의 접촉을 감지하는 촉각 감지 센서부, GUI를 표시하는 표시부 및 촉각 감지 센서부로부터 촉각 감지 신호를 수신하면, 촉각 감지 신호에 따라 사용자의 접촉 패턴을 판단하며, 표시부가 판단된 사용자의 접촉 패턴에 대응하여 GUI를 표시하도록 제어하는 제어부를 포 함한다.The apparatus for displaying a GUI according to an embodiment of the present invention, when receiving a tactile detection signal from a tactile sensor for detecting a user's touch, a display for displaying a GUI, and a tactile sensor, the user's touch according to the tactile detection signal The controller may include determining a pattern and controlling the display unit to display a GUI in response to the determined contact pattern of the user.

본 발명을 통해 사용자는 터치스크린 화면을 가리지 않고도 한 손으로 터치스크린을 구비한 장치를 조작하여, 사용자가 의도하지 않은 터치의 발생을 방지할 수 있다. 또한 촉각 센서를 이용하여 조작 가능한 장치의 경우, 상기 장치를 파지하는 손가락 위치에 따라 GUI를 표시함으로써 사용자가 편리하게 조작 명령을 입력할 수 있다. According to the present invention, a user may operate a device having a touch screen with one hand without covering the touch screen screen, thereby preventing the user from generating an unintended touch. In addition, in the case of a device which can be operated using the tactile sensor, the user can conveniently input the operation command by displaying the GUI according to the position of the finger holding the device.

본 발명에 있어서, 'GUI(Graphic User Interface)'는 표시화면 상에 표시되는 그래픽을 의미한다. GUI는 윈도우(window), 아이콘, 스크롤바 등을 포함하며, 사용자가 장치에 명령을 입력하는데 사용되는 모든 그래픽이 이에 해당될 수 있다.In the present invention, 'GUI (Graphic User Interface)' means a graphic displayed on the display screen. The GUI includes windows, icons, scrollbars, and the like, which can be any graphics used by a user to enter commands into the device.

본 발명에 있어서, '조작 손'은 터치스크린을 구비한 장치를 조작하는데 사용되는 손을 의미한다. 조작 손은 터치스크린으로의 터치 동작을 수행하는 손뿐만 아니라, 터치스크린을 구비한 장치에 접촉되는 모든 손이 조작 손에 포함된다. 즉, 장치를 파지하고 있는 손도 조작 손에 해당할 수 있다. 본 발명의 실시예에 따른 조작 손은 왼손, 오른손 또는 양손이 될 수 있다.In the present invention, the "operating hand" means a hand used to operate a device having a touch screen. The operating hand includes not only a hand performing a touch operation on the touch screen, but also all hands that are in contact with the device with the touch screen. That is, the hand holding the device may also correspond to the manipulation hand. The manipulation hand according to the embodiment of the present invention may be left hand, right hand or both hands.

본 발명에 있어서, '촉각 감지 센서부' 및 '촉각 감지 센서'는 사용자의 접촉을 감지하는 센서에 해당한다. 촉각 감지 센서부는 터치스크린을 구성하는 터치센서와는 구별되는 구성요소로서 장치의 측면에 위치할 수 있다. 촉감 감지 센서부는 사용자가 장치를 파지하는 경우, 사용자 손의 접촉을 인식하고, 촉각 감지 신호 를 제어부로 송신하는 역할을 수행한다. 촉각 감지 센서부는 압력의 정도 및 접촉/압력의 위치를 측정할 수 있는 촉각 센서 또는 압력센서와 터치센서의 조합으로 구성될 수 있다. 또한 촉각 감지 센서부는 좌측 센서와 우측 센서로 구성될 수 있으며, 좌측 센서와 우측 센서는 각각 복수의 센서 유닛들로 구성될 수 있다. 본 발명의 실시예에 따라 촉각 감지 센서부는 장치의 상측면 및 하측면에도 형성될 수 있으며, 장치의 모든 면에 형성될 수도 있다. In the present invention, the "tactile sensor" and the "tactile sensor" correspond to a sensor for detecting a user's touch. The tactile sensor may be positioned on the side of the device as a component that is distinguished from the touch sensor constituting the touch screen. When the user grips the device, the tactile sensor recognizes contact of the user's hand and transmits a tactile sensor to the controller. The tactile sensor may be configured as a tactile sensor or a combination of a pressure sensor and a touch sensor capable of measuring the degree of pressure and the position of contact / pressure. In addition, the tactile sensor may be configured as a left sensor and a right sensor, the left sensor and the right sensor may be composed of a plurality of sensor units, respectively. According to an embodiment of the present invention, the tactile sensor may be formed on the upper side and the lower side of the device, or may be formed on all sides of the device.

본 발명에 있어서, '센서 유닛'은 촉각 감지 센서부를 구성하는 요소로서 각각의 센서 유닛은 사용자의 접촉을 감지한다. 촉각 감지 센서부에는 복수개의 센서유닛이 포함되며, 센서의 종류 및 크기에 따라 센서 유닛의 개수가 결정된다. In the present invention, the 'sensor unit' is an element constituting the tactile sensor, and each sensor unit senses a user's touch. The tactile sensor includes a plurality of sensor units, and the number of sensor units is determined according to the type and size of the sensor.

본 발명에 있어서, '유닛 그룹'은 접촉을 감지한 센서 유닛들 중 연속으로 배열된(인접한) 센서 유닛들이 포함되는 유닛 집합을 의미한다. 유닛 그룹은 접촉 패턴 정보를 생성하는데 사용되며, 유닛 그룹이 형성되는 위치, 하나의 유닛 그룹에 포함되는 센서 유닛의 개수 등은 사용자가 장치를 파지하는 방법에 따라 변경될 수 있다. In the present invention, the 'unit group' refers to a unit set including sensor units arranged in succession (adjacent) among the sensor units sensing a contact. The unit group is used to generate contact pattern information, and the position where the unit group is formed, the number of sensor units included in one unit group, and the like may be changed according to a method of holding a device by a user.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예들을 상세히 설명한다. 이 때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. At this time, it should be noted that the same components in the accompanying drawings are represented by the same reference numerals as possible. In addition, detailed descriptions of well-known functions and configurations that may blur the gist of the present invention will be omitted.

도 1은 본 발명의 실시예의 설명을 위해 참조되는 장치(100)의 내부 구성도이다.1 is an internal configuration diagram of an apparatus 100 referred for description of an embodiment of the present invention.

본 발명의 실시예에 따른 장치(100)는 이동통신 단말기, PDA를 비롯한 휴대 단말기, 컴퓨터 및 TV 등 터치스크린을 구비한 모든 기기에 해당될 수 있다. 터치스크린을 구비한 장치(100)는 촉각 감지 센서부(110), 저장부(120), 터치스크린부(130) 및 제어부(140)를 포함한다. The apparatus 100 according to the embodiment of the present invention may correspond to any device having a touch screen, such as a mobile communication terminal, a portable terminal including a PDA, a computer, and a TV. The device 100 having a touch screen includes a tactile sensor 110, a storage 120, a touch screen 130, and a controller 140.

촉각 감지 센서부(110)는 사용자가 장치(100)를 파지하는 경우 사용자 손의 접촉을 감지하는 역할을 수행한다. 촉각 감지 센서부(110)는 압력의 정도 및 접촉/압력의 위치를 측정할 수 있는 촉각 센서, 터치센서 및 압력센서와 터치센서의 조합중 어느 하나로 구성될 수 있다. 촉각 감지 센서부(110)는 장치(100)의 측면에 위치할 수 있으나 이에 한정되는 것은 아니다. 본 발명의 실시예에 따라 촉각 감지 센서부(110)는 장치(100)의 모든 면에 위치할 수 있다. 도 1b는 장치(100)의 측면에 촉각 감지 센서부(110)가 위치한 모습을 나타낸다. 촉각 감지 센서부(110)가 사용자 손의 접촉을 인식하면 촉각 감지 신호를 제어부(140)로 송신하는 역할을 수행한다. 촉각 감지 센서부(110)는 좌측 센서와 우측 센서로 구성될 수 있으며, 좌측 센서와 우측 센서는 각각 복수의 센서 유닛들로 구성될 수 있다. The tactile sensor 110 detects the touch of the user's hand when the user grips the device 100. The tactile sensor 110 may be configured as any one of a tactile sensor, a touch sensor, and a combination of a pressure sensor and a touch sensor capable of measuring a degree of pressure and a position of contact / pressure. The tactile sensor 110 may be located at the side of the device 100, but is not limited thereto. According to the exemplary embodiment of the present invention, the tactile sensor 110 may be located on all sides of the device 100. FIG. 1B illustrates a state in which the tactile sensor 110 is located on the side of the device 100. When the tactile sensor 110 detects the touch of the user's hand, the tactile sensor 110 transmits the tactile sensor to the controller 140. The tactile sensor 110 may be configured as a left sensor and a right sensor, and the left sensor and the right sensor may be configured as a plurality of sensor units, respectively.

저장부(120)는 장치(100)와 관련된 모든 데이터를 저장하는 역할을 수행한다. 본 발명의 실시예에 따르면 저장부(120)는 조작 손을 추정하는 방법과 관련된 데이터 및 접촉 패턴 정보를 저장하는 역할을 수행한다. The storage unit 120 stores all data related to the device 100. According to an exemplary embodiment of the present invention, the storage unit 120 stores data and contact pattern information related to a method of estimating a manipulation hand.

터치스크린부(130)는 데이터를 표시하고 사용자의 입력을 감지하는 구성요소로서 표시부(132) 및 터치센서부(134)를 포함한다. The touch screen unit 130 is a component that displays data and senses a user's input, and includes a display unit 132 and a touch sensor unit 134.

표시부(132)는 LCD 등으로 이루어질 수 있으며, 장치에서 발생하는 각종 표 시 데이터 및 동작 상태를 화면에 표시한다. 본 발명에 있어서, 표시부(132)는 조작 손에 대응하는 GUI를 표시하는 역할을 수행한다. 또한 표시부(132)는 장치(100)를 파지한 손가락의 위치에 따라 GUI를 표시하는 역할을 수행한다. The display unit 132 may be formed of an LCD or the like, and displays various display data and operation states generated in the device on the screen. In the present invention, the display unit 132 serves to display a GUI corresponding to the manipulation hand. In addition, the display unit 132 serves to display the GUI according to the position of the finger holding the device 100.

터치 센서부(134)는 사용자의 손이 터치스크린에 접촉되는지 여부를 감지하는 역할을 수행한다. 터치 센서부(134)는 정전용량 터치 감지 센서 또는 압력 센서로 구성될 수도 있으며 이에 한정되지 않고 물체의 터치를 감지할 수 있는 모든 센서가 사용될 수 있다. 터치 센서부(134)는 사용자 손의 터치를 감지하면 터치 신호를 제어부(140)로 전송하는 역할을 수행한다. 터치 신호에는 터치 기구의 터치를 감지하였는지 여부 및 터치 기구의 터치 좌표 정보가 포함될 수 있다. 본 발명의 제2실시예에 따른 GUI를 표시하는 장치에서는 터치 센서부(134)가 생략 될 수 있다. The touch sensor unit 134 detects whether a user's hand touches the touch screen. The touch sensor unit 134 may be configured as a capacitive touch sensor or a pressure sensor, and not limited thereto. Any sensor capable of detecting a touch of an object may be used. The touch sensor unit 134 transmits a touch signal to the controller 140 when a touch of the user's hand is detected. The touch signal may include whether a touch of the touch mechanism is sensed and touch coordinate information of the touch mechanism. In the apparatus for displaying a GUI according to the second embodiment of the present invention, the touch sensor unit 134 may be omitted.

제어부(140)는 휴대 단말기의 전반적인 동작을 제어하는 기능을 수행한다. 본 발명의 실시예에 따르면 제어부(140)는 촉각 감지 센서부(110)로부터 촉각 감지 신호를 수신하면, 촉각 감지 신호에 따라 사용자의 접촉 패턴을 판단하는 역할을 수행한다. 또한 판단된 사용자 접촉 패턴에 대응하여 표시부(132)에 GUI를 표시하는 역할을 수행한다. The controller 140 performs a function of controlling the overall operation of the portable terminal. According to the exemplary embodiment of the present invention, when the controller 140 receives the tactile sensor signal from the tactile sensor 110, the controller 140 determines a user's contact pattern according to the tactile sensor signal. In addition, the display unit 132 displays a GUI corresponding to the determined user contact pattern.

도 2는 본 발명의 제1실시예에 따른 조작 손에 따른 GUI를 표시하는 방법을 나타내는 순서도에 해당한다.2 is a flowchart illustrating a method of displaying a GUI according to a manipulation hand according to the first embodiment of the present invention.

210 단계에서 촉각 감지 센서부(110)는 사용자의 접촉을 감지한다. 사용자의 접촉은 사용자가 장치(100)를 파지함으로써 이루어진다. 촉각 감지 센서부(110)는 사용자의 접촉을 감지하면, 촉각 감지 신호를 제어부(140)로 송신한다. 220단계에서 제어부(140)는 촉각 감지 신호를 촉각 감지 센서부(110)로부터 수신한다. 이후 제어부(140)는 230단계에서 사용자 접촉 패턴을 판단하고, 판단된 사용자 접촉 패턴에 따라 조작 손을 추정한다. 사용자 접촉 패턴을 판단하고 조작 손을 추정하는 과정은 도 3 내지 도 5에 구체적으로 개시되어 있다. 제어부(140)는 사용자 접촉 패턴 판단 및 조작 손 추정과정을 종료한 후, 240단계에서 조작 손에 대응하는 GUI를 표시한다. 이후 제어부(140)는 250단계에서 추가적인 촉각 감지 신호를 수신하는지 여부를 판단하여, 신호를 수신하는 경우, 230단계에서 사용자 접촉 패턴 판단 및 조작 손 추정 과정을 수행한다. 추가적인 촉각 감지 신호는 사용자가 기존에 파지한 형태를 변경하여 장치(100)를 새로 파지하는 경우, 촉각 감지 센서부(110)가 사용자의 접촉을 감지하여 제어부(140)로 송신하는 신호에 해당한다. 제어부(140)가 추가적인 촉각 감지 신호를 수신하지 않는 경우, 표시부(132)는 현재 GUI 표시 상태를 유지한다. 이후 사용자는 터치스크린부(130)에 표시된 GUI를 조작하여 장치(100)에 명령을 입력한다. In step 210, the tactile sensor 110 detects a user's touch. The user's contact is made by the user holding the device 100. When the tactile sensor 110 detects a user's touch, the tactile sensor 110 transmits a tactile sensor to the controller 140. In step 220, the control unit 140 receives a tactile sensing signal from the tactile sensing sensor unit 110. In step 230, the controller 140 determines the user contact pattern, and estimates the manipulation hand according to the determined user contact pattern. The process of determining the user contact pattern and estimating the manipulation hand is described in detail with reference to FIGS. 3 to 5. The controller 140 displays the GUI corresponding to the manipulation hand after completing the user contact pattern determination and manipulation hand estimation process. Thereafter, the controller 140 determines whether an additional tactile detection signal is received in step 250, and when receiving the signal, the controller 140 performs a user contact pattern determination and manipulation hand estimation process in step 230. The additional tactile detection signal corresponds to a signal transmitted by the tactile detection sensor unit 110 to the control unit 140 by detecting the user's contact when the device 100 is newly gripped by changing the shape of the user's existing grip. . If the controller 140 does not receive the additional tactile sensing signal, the display unit 132 maintains the current GUI display state. Thereafter, the user inputs a command to the device 100 by manipulating the GUI displayed on the touch screen unit 130.

도 3은 본 발명의 제1실시예에 따른 GUI 표시 방법에 있어서 도 2의 230단계의 구체적인 과정을 나타내는 순서도이다.3 is a flowchart illustrating a specific process of step 230 of FIG. 2 in the GUI display method according to the first embodiment of the present invention.

310단계에서 제어부(140)는 촉각 감지 센서부(110)로부터 수신한 촉각 감지 신호에 근거하여 유닛 그룹을 생성한다. 유닛 그룹은 접촉을 감지한 센서 유닛들 중 연속으로 배열된(인접한) 센서 유닛들이 포함되는 유닛 집합을 의미한다. In step 310, the controller 140 generates a unit group based on the tactile detection signal received from the tactile sensor 110. The unit group refers to a unit set including sensor units arranged in succession (adjacent) among the sensor units that detect a contact.

센서 유닛과 유닛 그룹은 도 6a 내지 7b에 도시되어 있다. 도 6a는 왼손으로 장치(100)를 파지한 모습 및 장치(100)의 측면에 위치하는 촉각 감지 센서부(110)를 나타내는 도면이다. 좌측 센서는 장치(100)의 좌측면에 위치한 센서를 의미하며, 우측 센서는 장치(100)의 우측면에 위치한 센서를 의미한다. 각각의 센서는 복수개의 센서 유닛들로 이루어져 있다. 센서 유닛의 개수는 센서 유닛의 크기에 따라 변경될 수 있다. 즉, 센서 유닛의 크기가 작아질수록 같은 공간에 포함되는 센서 유닛 수는 증가하게 된다. 본 명세서에서는 발명의 명확한 설명을 위해 촉각 감지 센서부가 23개의 센서 유닛으로 이루어져 있음을 가정하여 설명하기로 한다. 도 6a의 좌측 센서에는 왼 손바닥이 접촉된 센서 유닛이 빗금으로 표시되어 있다. 도 6a의 우측 센서에는 엄지손가락을 제외한 검지, 중지, 약지, 소지(새끼손가락)가 접촉된 센서 유닛이 빗금으로 표시되어 있다. 사용자의 접촉을 감지한 센서 유닛들을 서로 인접한 센서 유닛들 별로 그룹핑한다면, 좌측 센서의 연속하여 배열된 9개의 센서 유닛들은 하나의 유닛 그룹으로 그룹핑된다. 우측 센서의 연속하여 배열된 2개의 센서 유닛들은 하나의 유닛 그룹으로 그룹핑되며, 우측 센서에 총 4개의 유닛 그룹이 형성된다. Sensor units and unit groups are shown in FIGS. 6A-7B. 6A is a view showing the device 100 held by the left hand and a tactile sensor 110 positioned on the side of the device 100. The left sensor refers to the sensor located on the left side of the device 100, the right sensor refers to the sensor located on the right side of the device 100. Each sensor consists of a plurality of sensor units. The number of sensor units can vary depending on the size of the sensor unit. That is, as the size of the sensor unit decreases, the number of sensor units included in the same space increases. In the present specification, for the sake of clarity, the description will be made based on the assumption that the tactile sensor unit comprises 23 sensor units. In the left sensor of FIG. 6A, the sensor unit to which the left palm is in contact is indicated by hatching. In the right sensor of FIG. 6A, the sensor unit in which the index finger, the middle finger, the ring finger, and the hand (the little finger) are in contact with each other except for the thumb is indicated by hatching. If sensor units that sense a user's contact are grouped by adjacent sensor units, nine sensor units arranged in succession of the left sensor are grouped into one unit group. Two sensor units arranged in succession of the right sensor are grouped into one unit group, and a total of four unit groups are formed in the right sensor.

제어부(140)는 310단계에서 유닛 그룹을 생성한 후, 생성한 유닛 그룹에 근거하여 접촉 패턴 정보를 생성한다. 접촉 패턴 정보는 사용자가 장치(100)를 파지한 방법에 따라 변경될 수 있다. 접촉 패턴 정보는 각 센서에 형성되는 유닛 그룹의 개수, 유닛 그룹들이 형성되는 위치, 형성된 유닛 그룹들 간의 간격, 유닛 그룹들에 포함되는 센서 유닛의 개수 및 각 센서 유닛이 감지한 압력에 관한 정보가 포함될 수 있다. The controller 140 generates a unit group in operation 310 and then generates contact pattern information based on the generated unit group. The contact pattern information may be changed depending on how the user grips the device 100. The contact pattern information includes information about the number of unit groups formed in each sensor, the location where the unit groups are formed, the distance between the formed unit groups, the number of sensor units included in the unit groups, and the pressure sensed by each sensor unit. May be included.

도 6a를 참조할 때, 좌측 센서의 접촉 패턴 정보에는 1개의 유닛 그룹이 형성되고, 12번째 센서 유닛부터 20번째 센서 유닛까지의 위치에 유닛 그룹이 형성되고, 유닛 그룹에는 9개의 센서 유닛으로 구성되는 내용이 포함될 수 있다. 도 6a의 우측 센서의 접촉 패턴 정보에는 4개의 유닛 그룹이 형성되고, 4, 5번째, 9, 10번째, 14, 15번째 및 19, 20번째 센서 유닛의 위치에 각각의 유닛 그룹이 형성되고, 위에서부터 첫 번째 유닛 그룹과 두 번째 유닛 그룹 간에는 3개의 센서유닛 간격이 존재하고, 두 번째 유닛 그룹과 세 번째 유닛 그룹간에는 3개의 센서유닛 간격이 존재하고, 세 번째 유닛 그룹과 네 번째 유닛 그룹간에는 3개의 센서유닛 간격이 존재하며, 4개의 유닛 그룹은 각각 2개의 센서 유닛으로 구성되는 내용이 포함될 수 있다. Referring to FIG. 6A, one unit group is formed in the contact pattern information of the left sensor, a unit group is formed at a position from the 12th sensor unit to the 20th sensor unit, and the unit group includes nine sensor units. May be included. 4 unit groups are formed in the contact pattern information of the right sensor of FIG. 6A, and each unit group is formed at positions of the 4th, 5th, 9th, 10th, 14th, 15th and 19th, 20th sensor units, From the top, there are three sensor unit gaps between the first and second unit groups, three sensor unit gaps between the second and third unit groups, and between the third and fourth unit groups. There are three sensor unit intervals, and the four unit groups may each include two sensor units.

제어부(140)는 330단계에서 저장부(120)에 저장된 접촉 패턴 정보를 추출한다. 저장된 접촉 패턴 정보에는 사용자의 파지 방법에 따른 접촉 패턴 정보가 저장되어 있다. 저장된 접촉 패턴 정보는 복수개가 될 수 있으며, 각각의 파지 방법에 따라 서로 다른 접촉 패턴 정보가 저장된다. 저장부(120)에 저장된 접촉 패턴 정보에도 유닛 그룹의 개수, 유닛 그룹들이 형성되는 위치, 형성되는 유닛 그룹들 간의 간격, 각각의 유닛 그룹들에 포함되는 센서 유닛의 개수 및 각 센서 유닛이 감지한 압력에 관한 정보가 포함될 수 있다. The controller 140 extracts contact pattern information stored in the storage 120 in step 330. The stored contact pattern information stores contact pattern information according to a user's gripping method. There may be a plurality of stored contact pattern information, and different contact pattern information is stored according to each holding method. In the contact pattern information stored in the storage unit 120, the number of unit groups, the position at which the unit groups are formed, the distance between the unit groups formed, the number of sensor units included in each unit group, and each sensor unit detected Information about pressure may be included.

제어부(140)는 340단계에서 생성한 접촉 패턴 정보와 추출된 접촉 패턴 정보를 비교한다. 제어부(140)는 유닛 그룹의 개수, 유닛 그룹들이 형성되는 위치, 형성되는 유닛 그룹들 간의 간격, 각각의 유닛 그룹들에 포함되는 센서 유닛의 개수 등을 각각 비교한다. The controller 140 compares the contact pattern information generated in step 340 with the extracted contact pattern information. The controller 140 compares the number of unit groups, the position at which the unit groups are formed, the spacing between the formed unit groups, and the number of sensor units included in each unit group.

제어부(140)는 350단계에서 생성된 접촉 패턴 정보가 저장된 접촉 패턴 정보의 범위에 포함되는지 여부를 판단한다. 생성된 접촉 패턴 정보가 저장된 접촉 패턴 정보의 범위에 포함되는 경우는 생성된 접촉 패턴 정보가 저장된 접촉 패턴 정보와 완전히 일치하는 경우 또는 저장부(120)에 오차범위가 설정되어 있을 때, 생성된 접촉 패턴 정보가 저장된 접촉 패턴 정보의 오차범위에 포함되는 경우에 해당한다. 오차 범위는 유닛 그룹의 개수, 유닛 그룹들이 형성되는 위치, 형성되는 유닛 그룹들 간의 간격, 각각의 유닛 그룹들에 포함되는 센서 유닛의 개수 각각에 대해 설정될 수 있다. The controller 140 determines whether the contact pattern information generated in operation 350 is included in a range of stored contact pattern information. When the generated contact pattern information is included in the range of the stored contact pattern information, the generated contact pattern information perfectly matches the stored contact pattern information or when the error range is set in the storage unit 120, the generated contact The pattern information is included in the error range of the stored contact pattern information. The error range may be set for each of the number of unit groups, a location where unit groups are formed, an interval between unit groups to be formed, and a number of sensor units included in each unit group.

판단 결과, 저장된 접촉 패턴 정보에 생성된 접촉 패턴 정보가 포함되는 경우, 제어부(140)는 360단계에서 생성된 접촉 패턴 정보에 대응하는 조작 손을 추정한다. 저장부(120)에는 각각의 접촉 패턴 정보마다 대응하는 조작 손에 관한 정보가 저장되어 있다. 생성된 접촉 패턴 정보가 저장된 접촉 패턴 정보 범위에 포함되는 경우, 제어부(140)는 생성된 접촉 패턴 정보에 대응하는 조작 손을 추정하게 된다. 추정되는 조작 손은 왼손 또는 오른손이 될 수 있다. As a result of the determination, when the generated contact pattern information is included in the stored contact pattern information, the controller 140 estimates an operation hand corresponding to the contact pattern information generated in step 360. The storage unit 120 stores information on the corresponding operation hand for each contact pattern information. When the generated contact pattern information is included in the stored contact pattern information range, the controller 140 estimates an operation hand corresponding to the generated contact pattern information. The putative manipulation hand may be the left hand or the right hand.

만약 생성된 접촉 패턴 정보가 저장된 접촉 패턴 정보 범위에 포함되지 않는 경우에는 제어부(140)는 370단계에서 조작 손을 양손으로 추정한다. 조작 손 추정 동작을 마친 후 제어부(140)는 240단계로 진행하여 조작 손에 대응하는 GUI를 표시한다. If the generated contact pattern information is not included in the stored contact pattern information range, the controller 140 estimates the manipulation hand with both hands in step 370. After finishing the manipulation of hand manipulation, the controller 140 proceeds to step 240 and displays a GUI corresponding to the manipulation hand.

도 4는 본 발명의 제1실시예에 따른 GUI 표시 방법에 있어서 도 2의 230단계 의 다른 구체적인 과정을 나타내는 순서도이다.4 is a flowchart illustrating another specific process of step 230 of FIG. 2 in the GUI display method according to the first embodiment of the present invention.

410단계에서 제어부(140)는 접촉을 감지한 센서 유닛들 중 연속으로 배열된 센서 유닛들 별로 그룹핑하여 유닛 그룹을 생성한다. 제어부(140)는 420단계에서 각각의 유닛 그룹에 포함되는 센서 유닛의 개수를 산출한다. 도 6a의 좌측 센서에 존재하는 1개의 유닛 그룹은 9개의 센서 유닛을 포함한다. 도 6a의 우측 센서에 존재하는 4개의 유닛 그룹은 각각 2개의 센서 유닛을 포함한다. In step 410, the control unit 140 generates a unit group by grouping each of the sensor units arranged in series among the sensor units that detect a contact. The controller 140 calculates the number of sensor units included in each unit group in step 420. One unit group present in the left sensor of FIG. 6A includes nine sensor units. The four unit groups present in the right sensor of FIG. 6A each comprise two sensor units.

각각의 유닛 그룹 별로 센서 유닛의 개수를 산출한 후, 제어부(140)는 430단계에서 최대 유닛 그룹 센서가 어느 센서인지 판단한다. 최대 유닛 그룹 센서는 센서 유닛 개수가 최대인 유닛 그룹이 위치하는 센서를 의미한다. 최대 유닛 그룹 센서는 좌측 센서 및 우측 센서 중 어느 하나가 될 수 있다. 제어부(140)는 좌측 센서 및 우측 센서 중 하나의 센서를 결정한다. 도 6a에서 센서 유닛을 가장 많이 포함하는 유닛 그룹은 좌측 센서에 존재하는 9개의 센서 유닛을 포함하는 유닛 그룹이며, 제어부(140)는 최대 유닛 그룹 센서를 좌측 센서로 판단한다. 도 6b에서는 센서 유닛을 가장 많이 포함하는 유닛 그룹은 우측 센서에 존재하는 9개의 센서 유닛을 포함하는 유닛 그룹이며 제어부(140)는 최대 유닛 그룹 센서를 우측 센서로 판단한다. 이와 마찬가지로 판단하면 도 7a에서 제어부(140)는 최대 유닛 그룹 센서를 좌측 센서로 판단하며, 도 7b에서는 최대 유닛 그룹 센서를 우측 센서로 판단한다.After calculating the number of sensor units for each unit group, the controller 140 determines which sensor is the maximum unit group sensor in step 430. The maximum unit group sensor refers to a sensor in which a unit group having the maximum number of sensor units is located. The maximum unit group sensor may be either a left sensor or a right sensor. The controller 140 determines one of the left sensor and the right sensor. In FIG. 6A, the unit group including the most sensor unit is a unit group including nine sensor units existing in the left sensor, and the controller 140 determines the maximum unit group sensor as the left sensor. In FIG. 6B, the unit group including the most sensor units is a unit group including nine sensor units existing in the right sensor, and the controller 140 determines the maximum unit group sensor as the right sensor. In the same manner, the controller 140 determines the maximum unit group sensor as the left sensor in FIG. 7A, and the maximum unit group sensor as the right sensor in FIG. 7B.

최대 유닛 그룹 센서가 좌측 센서로 판단된 경우, 제어부(140)는 440단계에서 좌측 센서에 추가적인 유닛 그룹이 존재하는지 여부를 판단한다. 추가적인 유닛 그룹은 센서 유닛의 개수가 최대인 유닛 그룹을 제외한 유닛 그룹을 의미한다. 도 6a의 좌측 센서에는 센서 유닛의 개수가 최대인 유닛 그룹만이 존재하며 추가적인 유닛 그룹이 존재하지 않는다. 반면 도 7a의 좌측 센서에는 센서 유닛의 개수가 최대인 유닛 그룹이외에 3번째부터 5번째까지의 센서 유닛으로 구성된 유닛 그룹이 존재한다. 도 6a의 좌측 센서와 같이 추가적인 유닛 그룹이 존재하지 않는 경우에는 제어부(140)는 조작 손을 왼손으로 추정한다. 센서 유닛의 개수가 최대인 유닛 그룹은 사용자의 왼손의 손바닥 부분이 접촉하는 부분이며, 추가적인 유닛 그룹이 존재하지 않는 것은 왼손 엄지손가락이 촉각 감지 센서에 접촉하지 않는 경우를 의미한다. 이러한 경우, 사용자는 왼손 엄지손가락으로 터치스크린을 터치할 가능성이 크며, 장치(100)를 파지하고 있는 손과 터치스크린을 터치하는 손 모두 왼손에 해당하므로, 제어부(140)는 조작 손을 왼손으로 추정하게 되는 것이다. If it is determined that the maximum unit group sensor is the left sensor, the controller 140 determines whether an additional unit group exists in the left sensor in step 440. The additional unit group refers to a unit group except a unit group in which the number of sensor units is maximum. In the left sensor of FIG. 6A, only a unit group having the maximum number of sensor units exists and no additional unit group exists. On the other hand, in the left sensor of FIG. 7A, in addition to the unit group in which the number of sensor units is the largest, there is a unit group composed of the third to fifth sensor units. When there is no additional unit group as in the left sensor of FIG. 6A, the controller 140 estimates the manipulation hand as the left hand. The unit group having the maximum number of sensor units is a portion where the palm of the user's left hand is in contact, and the absence of an additional unit group means that the thumb of the left hand is not in contact with the tactile sensor. In this case, the user is likely to touch the touch screen with the thumb of the left hand, and both the hand holding the device 100 and the hand touching the touch screen correspond to the left hand, and the controller 140 controls the operation hand to the left hand. It is estimated.

이는 조작 손을 오른손으로 추정하는 경우에도 마찬가지로 적용된다. 제어부(140)는 430단계에서 센서 유닛의 개수가 최대인 유닛 그룹이 우측 센서에 위치한다고 판단하면, 460단계에서 우측 센서에 추가적인 유닛 그룹이 존재하는지 여부를 판단한다. 판단 결과, 추가적인 유닛 그룹이 존재하지 않는 경우, 제어부(140)는 470단계에서 조작 손을 오른손으로 추정한다. The same applies to the case where the manipulation hand is assumed to be the right hand. If the controller 140 determines that the unit group having the maximum number of sensor units is located in the right sensor in step 430, the controller 140 determines whether an additional unit group exists in the right sensor in step 460. As a result of the determination, when no additional unit group exists, the controller 140 estimates the manipulation hand as the right hand in step 470.

제어부(140)는 440단계 또는 460단계에서 좌측 센서 또는 우측 센서에 추가적인 유닛 그룹이 존재하는지 여부를 판단하여, 존재하는 경우 480단계에서 조작 손을 양 손으로 추정한다. 추가적인 유닛 그룹이 존재하는 경우에는 장치(100)를 파지하고 있는 손의 엄지손가락이 장치(100)의 촉각 감지 센서부에 접촉했음을 의 미하며, 이러한 경우, 사용자는 한 손으로 장치(100)를 파지하고, 파지하는 손 이외의 손으로 터치스크린을 터치할 가능성이 크므로, 제어부(140)는 조작 손을 양손으로 추정하게 되는 것이다. The controller 140 determines whether an additional unit group exists in the left sensor or the right sensor in step 440 or 460, and if present, estimates the manipulation hand with both hands in step 480. If an additional group of units is present, it means that the thumb of the hand holding the device 100 has touched the tactile sensor of the device 100, in which case the user can hold the device 100 with one hand. Since the touch screen is likely to be touched by a hand other than a hand to hold and hold, the control unit 140 estimates the manipulation hand with both hands.

도 5는 본 발명의 제1실시예에 따른 GUI 표시 방법에 있어서 도 2의 230단계의 또 다른 구체적인 과정을 나타내는 순서도이다.FIG. 5 is a flowchart illustrating still another specific process of step 230 of FIG. 2 in the GUI display method according to the first embodiment of the present invention.

510단계에서 제어부(140)는 접촉을 감지한 센서 유닛들 중 연속으로 배열된 센서 유닛들 별로 그룹핑하여 유닛 그룹을 생성한다. 520단계에서 제어부(140)는 각각의 센서에 위치하는 유닛 그룹의 개수를 산출한다. 센서에는 좌측 센서 및 우측 센서가 포함될 수 있으며, 제어부(140)는 좌측 센서에 위치하는 유닛 그룹 개수와 우측 센서에 위치하는 유닛 그룹 개수를 산출한다. In operation 510, the controller 140 generates a unit group by grouping the sensor units arranged in succession among the sensor units that detect the contact. In step 520, the controller 140 calculates the number of unit groups located in each sensor. The sensor may include a left sensor and a right sensor, and the controller 140 calculates the number of unit groups located in the left sensor and the number of unit groups located in the right sensor.

도 6a의 좌측센서에 위치하는 유닛 그룹의 개수는 1개이며, 도 6a의 우측 센서에 위치하는 유닛 그룹의 개수는 4개이다. 도 6b의 좌측 센서에는 4개, 우측 센서에는 1개이고, 도 7a의 좌측 센서에는 2개, 우측 센서에는 4개이며, 도 7b의 좌측센서에는 4개, 우측 센서에는 2개의 유닛 그룹이 위치한다. The number of unit groups located in the left sensor of FIG. 6A is one, and the number of unit groups located in the right sensor of FIG. 6A is four. There are four on the left sensor and one on the right sensor, two on the left sensor and four on the right sensor in FIG. 7A, four on the left sensor and two on the right sensor in FIG. 7B. .

제어부(140)는 530단계에서 좌측 센서에 유닛 그룹의 개수가 3개 이상이며, 우측 센서에 유닛 그룹의 개수가 1개 이하인지 여부를 판단한다. 이러한 요건을 만족하는 경우 제어부(140)는 540단계에서 조작 손을 오른손으로 추정한다. 좌측 센서에 유닛 그룹의 개수가 3개 이상인 경우, 좌측 센서에 오른손 검지, 약지, 중지, 소지(새끼손가락)중 적어도 3개 이상이 접촉하는 경우에 해당하며, 우측 센서에 유닛 그룹의 개수가 1개 이하인 경우에는 오른손 손바닥부분만이 촉각 감지 센서 부(110)에 접촉하며, 오른손 엄지손가락은 우측 센서에 접촉하지 않는 경우를 의미한다. 이러한 경우, 사용자는 오른손 엄지손가락으로 터치스크린을 터치할 가능성이 크며, 장치(100)를 파지하고 있는 손과 터치스크린을 터치하는 손 모두 오른손에 해당하므로, 제어부(140)는 조작 손을 오른손으로 추정하게 되는 것이다. In operation 530, the controller 140 determines whether the number of unit groups is three or more in the left sensor and the number of unit groups in the right sensor is one or less. If the requirement is satisfied, the controller 140 estimates the manipulation hand as the right hand in step 540. When the number of unit groups is 3 or more in the left sensor, at least 3 or more of the right hand index finger, ring finger, middle finger, and holding finger are in contact with the left sensor, and the number of unit groups is 1 in the right sensor. In the case of less than a dog, only the palm of the right hand contacts the tactile sensor 110, and the thumb of the right hand does not touch the right sensor. In this case, the user is likely to touch the touch screen with the thumb of the right hand, and both the hand holding the device 100 and the hand touching the touch screen correspond to the right hand, so that the controller 140 controls the operation hand with the right hand. It is estimated.

이는 조작 손을 왼손으로 추정하는 경우에도 동일하게 적용된다. 제어부(140)가 550단계에서 우측 센서의 유닛 그룹이 3개 이상이고 좌측 센서의 유닛그룹이 1개 이하에 해당하는지 여부를 판단한다. 이러한 요건을 만족하는 경우 제어부(140)는 560단계에서 조작 손을 왼손으로 추정한다. The same applies to the case where the manipulation hand is estimated with the left hand. The controller 140 determines whether there are three or more unit groups of the right sensor and one or less unit groups of the left sensor in step 550. If the requirement is satisfied, the controller 140 estimates the manipulation hand as the left hand in step 560.

만일 530단계 및 550단계에서 각 단계에 해당하는 유닛 그룹의 개수 요건을 만족하지 않는 경우 570단계에서 제어부(140)는 조작 손을 양손으로 추정한다. If the number requirement of the group of units corresponding to each step is not satisfied in steps 530 and 550, the controller 140 estimates the manipulation hand as both hands in step 570.

도 8은 본 발명의 실시예에 따라 GUI를 표시한 화면을 나타내는 도면이다.8 is a diagram illustrating a screen displaying a GUI according to an embodiment of the present invention.

도 8의 참조번호 810은 조작 손이 왼손으로 추정된 경우, 메뉴 아이콘을 나타내는 표시화면에 해당한다. 제어부(140)는 메뉴 아이콘을 표시화면의 좌측 상단에서 우측 하단 방향으로 왼손 엄지손가락의 동선을 따라 배열한다. 사용자는 왼손의 엄지손가락을 사용하여 아이콘을 터치하고, 터치된 아이콘에 대응하는 기능을 실행시킬 수 있다. 메뉴 아이콘이 왼손 엄지손가락의 동선을 따라 배열되기 때문에 메뉴 아이콘은 왼손 엄지손가락에 의해 가려지지 않으며, 왼손 엄지손가락의 일부분이 터치스크린에 접촉하여 사용자가 의도하지 않은 아이콘이 터치됨을 방지할 수 있다. Reference numeral 810 of FIG. 8 corresponds to a display screen indicating a menu icon when the manipulation hand is estimated to be the left hand. The controller 140 arranges a menu icon along a line of the thumb of the left hand from the upper left to the lower right of the display screen. The user may touch the icon using the thumb of the left hand and execute a function corresponding to the touched icon. Since the menu icons are arranged along the copper wire of the left hand thumb, the menu icons are not covered by the left hand thumb, and a part of the left hand thumb touches the touch screen to prevent the user from touching an icon not intended.

도 8의 참조번호 820은 조작 손이 오른손으로 추정된 경우, 메뉴 아이콘을 나타내는 표시화면에 해당한다. 제어부(140)는 오른손 엄지손가락의 동선을 따라 메뉴 아이콘을 배열한다. 도 8의 참조번호 830은 조작 손이 양손으로 추정될 때 메뉴 아이콘을 표시한 화면을 나타낸다. 조작 손이 양손으로 추정되는 경우, 일반적인 GUI 표시방법에 따라 GUI를 표시한다. 일반적인 GUI 표시방법은 설정에 따라 변경될 수 있다. Reference numeral 820 of FIG. 8 corresponds to a display screen indicating a menu icon when the manipulation hand is estimated to be the right hand. The controller 140 arranges a menu icon along a moving line of the right thumb. Reference numeral 830 of FIG. 8 denotes a screen displaying a menu icon when the manipulation hand is estimated to be both hands. When the operation hand is estimated to be both hands, the GUI is displayed according to the general GUI display method. The general GUI display method can be changed according to the setting.

도 9는 본 발명의 다른 실시예에 따라 GUI를 표시한 화면을 나타내는 도면이다.9 is a diagram illustrating a screen displaying a GUI according to another exemplary embodiment of the present invention.

도 9의 참조번호 910은 조작 손이 왼손으로 추정된 경우, 스크롤바를 나타내는 표시화면에 해당한다. 제어부(140)는 스크롤바를 표시화면의 좌측에 세로 방향으로 표시한다. 사용자는 왼손의 엄지손가락을 사용하여 스크롤바를 조작할 수 있다. 사용자는 왼손 엄지손가락으로 표시화면을 가리지 않고, 스크롤바를 조작할 수 있으며, 사용자가 의도하지 않은 아이콘 또는 컨텐츠가 터치됨을 방지할 수 있다. Reference numeral 910 of FIG. 9 corresponds to a display screen showing a scroll bar when the manipulation hand is estimated to be the left hand. The controller 140 displays the scroll bar in a vertical direction on the left side of the display screen. The user can operate the scroll bar using the thumb of the left hand. The user may operate the scroll bar without covering the display screen with his left thumb, and may prevent the user from touching an icon or content not intended by the user.

도 9의 참조번호 920은 조작 손이 오른손으로 추정되는 경우, 스크롤바를 표시하는 화면을 나타낸다. 제어부(140)는 표시화면의 우측에 세로방향으로 스크롤바를 표시한다. 사용자는 표시화면을 가리지 않고 오른손 엄지손가락을 이용하여 스크롤바를 조작할 수 있으며, 사용자가 의도하지 않은 터치를 방지할 수 있다. 참조번호 830은 조작 손이 양손으로 추정되는 경우 스크롤바를 나타내는 표시화면에 해당한다. 조작 손이 양손으로 추정되는 경우 일반적인 GUI를 표시하며, 제어부(140)는 표시화면의 우측에 스크롤바를 표시한다. 일반적인 GUI 표시방법은 설정에 따라 변경될 수 있다. Reference numeral 920 of FIG. 9 denotes a screen for displaying a scroll bar when the manipulation hand is estimated to be the right hand. The controller 140 displays a scroll bar in a vertical direction on the right side of the display screen. The user may operate the scroll bar by using the right thumb of the user without covering the display screen, and may prevent an unintended touch by the user. Reference numeral 830 corresponds to a display screen indicating a scroll bar when the manipulation hand is estimated to be both hands. When the manipulation hand is estimated to be both hands, a general GUI is displayed, and the controller 140 displays a scroll bar on the right side of the display screen. The general GUI display method can be changed according to the setting.

도 11은 본 발명의 제2실시예에 따른 사용자 접촉 패턴에 따른 GUI를 표시하는 방법을 나타내는 순서도에 해당한다. 본 발명의 제2실시예는 사용자가 촉각 감지 센서부(110)를 이용하여 장치(100)에 명령을 입력하는 경우에 적용될 수 있다. 따라서 본 발명의 제2실시예는 터치스크린 기반이 아닌 장치의 경우에도 적용 가능하다. 11 is a flowchart illustrating a method of displaying a GUI according to a user contact pattern according to a second embodiment of the present invention. The second embodiment of the present invention may be applied when a user inputs a command to the device 100 using the tactile sensor 110. Therefore, the second embodiment of the present invention can be applied to a device that is not based on a touch screen.

사용자가 장치(100)에 접촉을 입력하면 촉각 감지 센서부(110)는 1110단계에서 사용자의 접촉을 감지한다. 사용자의 접촉은 사용자가 장치(100)를 파지함으로써 이루어질 수 있다. 사용자는 도 12a에 도시된 바와 같이 한 손으로 장치(100)를 파지할 수 있으며, 도 13a에 도시된 바와 같이 양 손으로 장치(100)를 파지할 수도 있다. 촉각 감지 센서부(110)는 사용자 접촉을 감지하면, 사용자 접촉의 위치 및 압력에 관한 정보를 포함하는 촉각 감지 신호를 제어부(140)로 송신한다. 제어부(140)는 1120단계에서 촉각 감지 센서부(110)로부터 상기 촉각 감지 신호를 수신하고, 1130단계에서 수신한 촉각 감지 신호에 근거하여 사용자 접촉 패턴을 판단한다. 제어부(140)는 사용자 접촉 패턴 판단 시, 사용자의 접촉 위치 및 압력 정보에 근거하여 사용자의 파지 형태를 판단하게 된다. 본 발명의 실시예에 따른 저장부(120)는 사용자의 접촉 위치 및 압력에 대응하는 파지 형태 목록에 대한 데이터를 저장할 수 있다. 제어부(140)는 사용자의 접촉 위치 및 압력에 관한 정보에 근거하여 이에 대응하는 파지 형태를 저장부(120)로부터 추출한다. 예를 들어, 도 12a에 도시된 바와 같이 사용자가 왼손으로 장치(100)를 파지하여 장치(100)의 좌측면에 위치한 센서가 두 곳에 접촉이 발생하였음을 감지하고, 우측면에 위치한 센 서가 네 곳에 접촉이 발생하였음을 감지하는 경우, 제어부(140)는 사용자가 왼손으로 장치(100)를 파지한 것으로 판단하게 된다. When the user inputs a contact to the device 100, the tactile sensor 110 detects the user's contact in operation 1110. The contact of the user may be made by the user holding the device 100. The user may hold the device 100 with one hand as shown in FIG. 12A, and the device 100 may be held with both hands as shown in FIG. 13A. When the tactile sensor 110 detects a user contact, the tactile sensor 110 transmits a tactile sensor, which includes information about a position and pressure of the user, to the controller 140. The controller 140 receives the tactile sensing signal from the tactile sensor 110 in step 1120, and determines a user contact pattern based on the tactile sensing signal received in operation 1130. When determining the user contact pattern, the controller 140 determines the grip type of the user based on the contact position and the pressure information of the user. The storage unit 120 according to an exemplary embodiment of the present invention may store data on a grip type list corresponding to a user's contact position and pressure. The controller 140 extracts a grip form corresponding to the contact position and the pressure of the user from the storage 120. For example, as illustrated in FIG. 12A, the user grips the device 100 with his left hand to detect that the sensor located on the left side of the device 100 has touched two places, and the sensor located on the right side has four places. When detecting that a contact has occurred, the controller 140 determines that the user grips the device 100 with his left hand.

제어부(140)는 1140단계에서 사용자의 접촉 위치에 대응하는 일정 지점에 GUI를 표시한다. 우선 제어부(140)는 GUI를 표시하기 전 현재 실행 중인 어플리케이션을 확인하고 이에 대응하는 GUI를 선정하게 된다. 예를 들어, 현재 대기 화면 어플리케이션이 실행 중인 경우, 제어부(140)는 표시할 GUI로서 메뉴 아이콘들을 선정한다. 현재 카메라 어플리케이션이 실행 중인 경우에는 제어부(140)는 표시할 GUI로서 촬영 기능에 대응하는 아이콘과 줌인아웃 스크롤바를 선정할 수 있다. 이어 제어부(140)는 현재 실행 중인 어플리케이션과 사용자의 파지 형태를 고려하여 GUI 배열 패턴을 결정하게 된다. 도 12a를 참조할 때, 제어부(140)가 현재 실행 중인 어플리케이션이 대기 화면 어플리케이션임을 확인하고, 사용자가 장치(100)를 왼손으로 파지하고 있다고 판단하는 경우, 검지, 중지, 약지, 소지 중 적어도 하나가 접촉되는 부분에 근접하도록 메뉴 아이콘을 배열하는 GUI 배열 패턴을 결정하게 된다. The controller 140 displays the GUI at a predetermined point corresponding to the contact location of the user in step 1140. First, the controller 140 checks the currently running application and selects the corresponding GUI before displaying the GUI. For example, when the idle screen application is currently running, the controller 140 selects menu icons as a GUI to be displayed. When the camera application is currently running, the controller 140 may select an icon and a zoom-in-out scroll bar corresponding to a shooting function as a GUI to be displayed. Subsequently, the controller 140 determines a GUI arrangement pattern in consideration of a currently executed application and a user's gripping form. Referring to FIG. 12A, when the controller 140 determines that the currently running application is a standby screen application and determines that the user is holding the device 100 with his left hand, at least one of the detection, stop, ring finger, and possession The GUI arrangement pattern for arranging the menu icons so as to be close to the contacted portion is determined.

제어부(140)는 표시부(132)를 제어하여 결정된 GUI 배열 패턴에 따라 GUI를 표시한다. 이 때, 제어부(140)는 사용자 접촉이 입력된 위치를 확인하고 이에 대응하는 표시부(132)의 일정 지점에 GUI를 표시하게 된다. 즉, 제어부(140)는 사용자의 손가락 또는 손바닥이 접촉하는 위치를 고려하여 해당 위치에 대응하는 일정 지점에 GUI를 표시한다. The controller 140 displays the GUI according to the GUI array pattern determined by controlling the display unit 132. At this time, the controller 140 checks the position where the user contact is input and displays the GUI at a predetermined point of the display unit 132 corresponding thereto. That is, the controller 140 displays the GUI at a predetermined point corresponding to the position in consideration of the position where the user's finger or palm touches.

도 12a는 대기 화면 어플리케이션에서 사용자 접촉 입력 시 메뉴 아이콘을 표시하는 화면을 나타낸다. 도 12a에서는 사용자의 검지, 중지 및 약지가 접촉하는 위치에 수평을 이루어 아이콘을 표시하고 있다. 본 발명의 실시예에 따라 제어부(140)는 표시부(132)를 제어하여 사용 빈도수가 높은 메뉴 아이콘들을 순차적으로 표시할 수 있다. 저장부(120)에는 사용 빈도수가 높은 메뉴의 순위가 저장되어 있으며, 대기 화면 어플리케이션 실행 상태에서 사용자가 장치(100)를 파지하면, 제어부(140)는 저장부(120)에 저장된 사용 빈도수가 높은 메뉴의 순위를 확인하고, 표시부(132)를 제어하여 이에 해당하는 메뉴 아이콘을 차례로 표시할 수 있다. 표시부(132)에 표시되는 메뉴 아이콘들은 사용자의 설정에 의해 변경될 수 있다. 12A illustrates a screen displaying a menu icon when a user touches an input in a standby screen application. In FIG. 12A, an icon is displayed horizontally at a position where the user's index finger, middle finger, and ring finger contact each other. According to an exemplary embodiment of the present invention, the controller 140 may control the display unit 132 to sequentially display menu icons having a high frequency of use. The storage unit 120 stores the rank of a menu having a high frequency of use, and when the user grips the device 100 in the idle screen application execution state, the controller 140 stores a high frequency of use stored in the storage unit 120. The rank of the menu may be checked, and the display unit 132 may be controlled to sequentially display a menu icon corresponding thereto. The menu icons displayed on the display unit 132 may be changed by the user's setting.

본 발명의 실시예에 따라 제어부(140)는 사용자 접촉의 압력에 따라 GUI를 변경하여 표시할 수 있다. 도 12a를 참조할 때, 사용자가 장치(100)를 파지하고 있는 상태에서 세게 눌러 접촉 압력을 크게 하면 제어부(140)는 표시부(132)를 제어하여 아이콘의 위치를 표시부(132)의 우측면 가장자리로 이동시켜 표시할 수 있다. 즉, 제어부(140)는 표시부(132)를 제어하여 검지, 중지, 약지가 접촉된 부분과 인접하도록 아이콘을 이동시켜 표시할 수 있다. 아이콘이 표시부(132)의 우측면 가장자리에 접할 때 해당 어플리케이션이 실행되도록 설정되어 있는 경우에는, 사용자는 표시부(132)에 표시된 아이콘의 위치를 확인하면서 접촉 압력을 조절하고 어플리케이션 실행 여부를 결정할 수 있다. According to an exemplary embodiment of the present invention, the controller 140 may change and display the GUI according to the pressure of the user contact. Referring to FIG. 12A, when the user grips the device 100 and presses it hard to increase the contact pressure, the controller 140 controls the display unit 132 to move the icon position to the right edge of the display unit 132. It can be moved and displayed. That is, the controller 140 may control the display unit 132 to move and display the icon so as to be adjacent to the part where the index finger, middle finger, and ring finger are in contact. When the application is set to be executed when the icon is in contact with the right edge of the display unit 132, the user may adjust the contact pressure and determine whether to execute the application while checking the position of the icon displayed on the display unit 132.

또한 제어부(140)는 표시부(132)를 제어하여 사용자의 접촉 압력에 따라 GUI의 크기를 변경시켜 표시할 수 있다. 도 12a를 참조할 때, 사용자가 압력을 크게 하여 장치(100)를 파지하는 경우, 제어부(140)는 표시부(132)를 제어하여 아이콘의 크기를 변경시켜 표시할 수 있다. 이외에도 제어부(140)는 압력이 큰 사용자의 접촉이 입력될 때, 표시부(132)를 제어하여 아이콘에 하이라이트(highlight) 효과가 반영되도록 표시할 수 있다. 제어부(140)는 사용자의 접촉 압력에 따라 GUI의 위치 또는 형태를 변경시켜 표시함으로써 사용자가 접촉 압력을 조절할 수 있도록 한다. In addition, the controller 140 may control the display unit 132 to change the size of the GUI according to the contact pressure of the user and display the same. Referring to FIG. 12A, when the user grips the device 100 by increasing the pressure, the controller 140 may control the display unit 132 to change the size of the icon and display the same. In addition, the controller 140 may control the display unit 132 to display a highlight effect on an icon when a user's contact with a large pressure is input. The controller 140 changes the position or shape of the GUI according to the contact pressure of the user and displays the GUI, thereby allowing the user to adjust the contact pressure.

도 13a는 카메라 어플리케이션에서 사용자 접촉 입력 시 기능 아이콘을 표시하는 화면을 나타낸다. 도 13a에서는 사용자가 양손을 이용하여 장치(100)를 파지하고 있으며, 왼손의 엄지와 검지, 오른손의 엄지와 검지를 이용하여 장치(100)를 파지하고 있다. 도 13a에서는 표시부(132)가 사용자의 오른손 검지가 접촉한 부분 바로 밑에 촬영 기능 아이콘을 표시하고 있으며, 사용자의 오른손 엄지가 접촉한 부분 바로 위에 줌인아웃 스크롤바를 표시하고 있다. 도 13a에서 사용자가 오른손 검지의 압력을 크게 하여 장치(100)에 접촉을 입력하는 경우, 제어부(140)는 표시부(132)를 제어하여 촬영 기능 아이콘을 상방향으로 이동시켜 표시할 수 있다. 즉, 제어부(140)는 표시부(132)를 제어하여 오른손 검지가 접촉한 부분에 근접하도록 촬영 기능 아이콘을 이동시켜 표시할 수 있다. 또한 사용자가 오른손 엄지의 압력을 크게 하여 장치(100)에 접촉을 입력하는 경우, 제어부(140)는 줌인 기능을 실행하며, 표시부(132)를 제어하여 이에 대응하도록 스크롤바의 형태를 변경시켜 표시할 수 있다. 13A illustrates a screen displaying a function icon when a user touches an input in a camera application. In FIG. 13A, the user grips the device 100 using both hands, and the device 100 is gripped using the thumb and index finger of the left hand and the thumb and index finger of the right hand. In FIG. 13A, the display unit 132 displays a photographing function icon directly under the part where the user's right hand index finger contacts, and displays a zoom-in-out scroll bar just above the part where the user's right hand thumb contacts. In FIG. 13A, when the user inputs a contact to the apparatus 100 by increasing the pressure of the right hand detection, the controller 140 may control the display unit 132 to move and display the photographing function icon upward. That is, the controller 140 may control the display unit 132 to move and display the photographing function icon so as to be close to the part where the right hand index finger contacts. In addition, when the user inputs a contact to the apparatus 100 by increasing the pressure of the right hand thumb, the controller 140 executes a zoom-in function and controls the display unit 132 to change the shape of the scroll bar so as to correspond thereto. Can be.

도 14a는 MP3 어플리케이션에서 사용자 접촉 입력 시 기능 아이콘을 표시하는 화면을 나타낸다. 도 14a에서는 사용자가 왼손으로 장치(100)를 파지하고 있으며, 사용자의 엄지, 검지, 중지, 약지, 소지의 위치와 수평을 이루어 아이콘을 표 시하고 있다. 본 발명의 실시예에 따라 제어부(140)는 미리 설정된 아이콘 배열 패턴에 따라 엄지, 검지, 중지, 약지, 소지의 위치에 대응되도록 아이콘을 표시할 수 있다. 본 발명의 실시예에 따라 엄지, 검지, 중지, 약지, 소지에 대응하는 아이콘은 사용자 설정에 의해 변경 가능할 수 있다. 사용자는 장치(100)를 파지한 상태에서 압력을 크게 하여 파지하거나, 두드리기(tapping) 동작을 입력하여 MP3 어플리케이션을 제어할 수 있으며, 이 때 제어부(140)는 표시부(132)를 제어하여 손가락이 접촉하는 부분에 대응하는 아이콘들의 위치, 크기, 표현 효과 등을 달리하여 표시할 수 있다. 14A illustrates a screen displaying a function icon when a user touches an input in an MP3 application. In FIG. 14A, the user grips the device 100 with his left hand and displays an icon in parallel with the position of the thumb, index finger, middle finger, ring finger, and the hand of the user. According to an embodiment of the present invention, the control unit 140 may display an icon so as to correspond to the position of the thumb, the index finger, the middle finger, the ring finger, and the hand in accordance with a preset icon arrangement pattern. According to an exemplary embodiment of the present invention, an icon corresponding to a thumb, an index finger, a middle finger, a ring finger, and a hand may be changed by user setting. The user can hold the device 100 in a state of increasing the pressure to grip or input a tapping operation to control the MP3 application. At this time, the controller 140 controls the display unit 132 so that the finger The positions, sizes, and expression effects of the icons corresponding to the contacted parts may be displayed differently.

제어부(140)는 1150단계에서 사용자의 접촉이 변경되는지 여부를 판단한다. 예를 들어, 사용자가 장치(100)를 파지한 상태에서 위치를 변경하여 다시 파지하는 경우 촉각 감지 센서부(110)는 새로운 사용자 접촉이 발생되었음을 감지한다. 제어부(140)는 촉각 감지 센서부(110)로부터 수신한 촉각 신호로부터 사용자 접촉 패턴을 판단하고, 판단된 사용자 접촉 패턴에 따라 GUI를 재배열하여 표시한다. The controller 140 determines whether the contact of the user is changed in step 1150. For example, when the user changes the position and grips the device 100 again, the haptic sensor 110 detects that a new user contact has occurred. The controller 140 determines a user contact pattern from the tactile signal received from the tactile sensor 110, and rearranges and displays the GUI according to the determined user contact pattern.

도 12b는 대기 화면 어플리케이션에서 사용자 접촉 재입력 시 메뉴 아이콘을 변경하여 표시하는 화면을 나타낸다. 도 12b는 도 12a와 비교할 때 사용자가 접촉 위치를 낮추어 장치(100)에 접촉을 입력한 형태를 나타낸다. 즉, 도 12b에서는 엄지, 검지, 중지, 약지, 소지의 위치가 도 12a와 비교할 때 모두 장치(100)의 낮은 위치에 접촉해 있다. 제어부(140)는 촉각 감지 신호로부터 사용자의 접촉 위치 및 압력을 인식하고, 이로부터 사용자 접촉 패턴을 판단하여 이에 대응하도록 아이콘을 배열하여 표시하게 된다. 이 때 제어부(140)는 사용자의 손가락 위치가 변경되 었음을 인식하고, 변경된 손가락 위치에 대응하도록 메뉴 아이콘을 변경하여 표시한다. 도 12a와 도 12b를 비교하면 메뉴 아이콘의 위치가 서로 다르게 표시되어 있다. 12B illustrates a screen of changing and displaying a menu icon when re-entering a user contact in a standby screen application. FIG. 12B illustrates a form in which a user inputs a contact to the device 100 by lowering a contact position as compared with FIG. 12A. That is, in FIG. 12B, the positions of the thumb, the index finger, the middle finger, the ring finger, and the holder are all in contact with the lower position of the apparatus 100 as compared with FIG. 12A. The controller 140 recognizes the contact position and the pressure of the user from the tactile detection signal, determines the user contact pattern therefrom, and arranges and displays the icons corresponding thereto. At this time, the controller 140 recognizes that the user's finger position is changed, and changes and displays a menu icon to correspond to the changed finger position. 12A and 12B, the positions of the menu icons are displayed differently.

도 13b는 카메라 어플리케이션에서 사용자 접촉 재입력 시 기능 아이콘을 변경하여 표시하는 화면을 나타낸다. 도 13b는 도 13a와 비교할 때 사용자가 오른손 검지의 위치를 왼쪽으로 이동시켜 접촉하고 있는 형태를 나타낸다. 제어부(140)는 오른손 검지가 접촉된 부분이 변경되었음을 인식하고, 변경된 손가락 위치에 대응하도록 촬영 기능 아이콘을 표시하게 된다. 도 13b와 도 13a를 비교하면 촬영 기능 아이콘의 위치가 서로 다르게 표시되어 있다.13B illustrates a screen of changing and displaying a function icon when re-entering a user contact in a camera application. FIG. 13B illustrates a form in which the user is in contact with the user by moving the position of the right hand index finger to the left as compared with FIG. 13A. The controller 140 recognizes that the portion where the right hand indexing contact is changed, and displays the shooting function icon to correspond to the changed finger position. 13B and 13A, the positions of the shooting function icons are displayed differently.

도 14b는 MP3 어플리케이션에서 사용자 접촉 재입력 시 기능 아이콘을 변경하여 표시하는 화면을 나타낸다. 도 14b는 도 14a와 비교할 때, 사용자가 접촉 위치를 낮추어 장치(100)에 접촉을 입력한 형태를 나타낸다. 즉, 도 14b에서는 엄지, 검지, 중지, 약지의 위치가 도 14a와 비교할 때 모두 낮은 위치에 접촉해 있다. 또한 도 14a에서는 소지가 장치(100)에 접촉하고 있지만, 도 14b에서는 소지가 장치(100)에 접촉해 있지 않다. 제어부(140)는 사용자의 손가락 위치가 변경되었음을 인식하고, 변경된 손가락 위치에 대응하도록 기능 아이콘을 변경하여 표시한다. 제어부(140)는 엄지의 접촉 위치가 변경됨에 따라 이에 대응하는 위치에 볼륨 조절 스크롤 바를 표시하며, 검지의 변경된 접촉 위치에 뒤로 가기 기능 아이콘을 표시하고, 중지의 변경된 접촉 위치에 재생 또는 일시정지 기능 아이콘을 표시하며, 약지의 변경된 접촉 위치에 정지 기능 아이콘을 표시하게 된다. 소지는 장치(100)에 접촉되지 않기 때문에 제어부(140)는 앞으로 가기 기능 아이콘을 표시부(132)에 표시하지 않는다. 14B illustrates a screen for changing and displaying a function icon when re-entering a user contact in an MP3 application. FIG. 14B illustrates a form in which a user inputs a contact to the device 100 by lowering a contact position as compared with FIG. 14A. That is, in FIG. 14B, the positions of the thumb, the index finger, the middle finger, and the ring finger are all in contact with the lower positions as compared with FIG. 14A. In addition, while the body is in contact with the apparatus 100 in FIG. 14A, the body is not in contact with the apparatus 100 in FIG. 14B. The controller 140 recognizes that the user's finger position has changed and changes and displays a function icon to correspond to the changed finger position. The controller 140 displays a volume control scroll bar at a position corresponding to the change of the contact position of the thumb, displays a back function icon at the changed contact position of the index finger, and plays or pauses at the changed contact position of the middle finger. The icon is displayed and the stop function icon is displayed at the changed contact position of the ring finger. Since the possession does not touch the device 100, the controller 140 does not display the forward function icon on the display unit 132.

이처럼 장치(100)는 사용자의 손가락 또는 손바닥이 접촉되는 위치가 변경됨에 따라 GUI를 변경하여 표시함으로써 사용자는 장치(100)를 조작함에 있어서 혼동 유발을 방지할 수 있다. As such, the device 100 changes and displays the GUI as the position where the user's finger or the palm is in contact changes, thereby preventing the user from causing confusion in operating the device 100.

한편, 본 명세서와 도면에 개시 된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. On the other hand, the embodiments of the present invention disclosed in the specification and drawings are merely presented specific examples to easily explain the technical contents of the present invention and help the understanding of the present invention, and are not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention can be carried out in addition to the embodiments disclosed herein.

도 1은 본 발명의 실시예의 설명을 위해 참조되는 장치(100)의 내부 구성도이다. 1 is an internal configuration diagram of an apparatus 100 referred for description of an embodiment of the present invention.

도 2는 본 발명의 제1실시예에 따른 조작 손에 따른 GUI를 표시하는 방법을 나타내는 순서도에 해당한다.2 is a flowchart illustrating a method of displaying a GUI according to a manipulation hand according to the first embodiment of the present invention.

도 3은 본 발명의 제1실시예에 따른 GUI 표시 방법에 있어서 도 2의 230단계의 구체적인 과정을 나타내는 순서도이다.3 is a flowchart illustrating a specific process of step 230 of FIG. 2 in the GUI display method according to the first embodiment of the present invention.

도 4는 본 발명의 제1실시예에 따른 GUI 표시 방법에 있어서 도 2의 230단계의 다른 구체적인 과정을 나타내는 순서도이다.4 is a flowchart illustrating another specific process of step 230 of FIG. 2 in the GUI display method according to the first embodiment of the present invention.

도 5는 본 발명의 제1실시예에 따른 GUI 표시 방법에 있어서 도 2의 230단계의 또 다른 구체적인 과정을 나타내는 순서도이다.FIG. 5 is a flowchart illustrating still another specific process of step 230 of FIG. 2 in the GUI display method according to the first embodiment of the present invention.

도 6a는 본 발명의 실시예에 따라 왼손으로 장치(100)를 파지한 모습 및 장치(100)의 측면에 위치하는 촉각 감지 센서부(110)를 나타내는 도면이다.FIG. 6A is a view showing the device 100 held by the left hand and the tactile sensor 110 positioned at the side of the device 100 according to an embodiment of the present invention.

도 6b는 본 발명의 실시예에 따라 오른손으로 장치(100)를 파지한 모습 및 장치(100)의 측면에 위치하는 촉각 감지 센서부(110)를 나타내는 도면이다.6B is a view showing the gripping device 100 with the right hand and the tactile sensor 110 positioned on the side of the device 100 according to an embodiment of the present invention.

도 7a는 본 발명의 다른 실시예에 따라 왼손으로 장치(100)를 파지한 모습 및 장치(100)의 측면에 위치하는 촉각 감지 센서부(110)를 나타내는 도면이다.FIG. 7A is a view showing the device 100 held by the left hand and the tactile sensor 110 positioned at the side of the device 100 according to another embodiment of the present invention.

도 7b는 본 발명의 다른 실시예에 따라 오른손으로 장치(100)를 파지한 모습 및 장치(100)의 측면에 위치하는 촉각 감지 센서부(110)를 나타내는 도면이다.FIG. 7B is a view showing a gripping device 100 with a right hand and a tactile sensor 110 positioned on the side of the device 100 according to another embodiment of the present invention.

도 8은 본 발명의 실시예에 따라 GUI를 표시한 화면을 나타내는 도면이다.8 is a diagram illustrating a screen displaying a GUI according to an embodiment of the present invention.

도 9는 본 발명의 다른 실시예에 따라 GUI를 표시한 화면을 나타내는 도면이다.9 is a diagram illustrating a screen displaying a GUI according to another exemplary embodiment of the present invention.

도 10a는 종래기술에 따른 터치스크린에 메뉴 아이콘이 표시된 상태에서 왼손 엄지손가락에 의해 메뉴 아이콘이 터치되는 화면이다.10A illustrates a screen in which a menu icon is touched by a left thumb while a menu icon is displayed on a touch screen according to the related art.

도 10b는 종래기술에 따른 터치스크린에 인터넷 접속 화면이 표시된 상태에서 왼손 엄지손가락에 의해 스크롤 바가 조작되는 화면이다.10B is a screen in which a scroll bar is operated by the thumb of the left hand while the Internet access screen is displayed on the touch screen according to the related art.

도 11은 본 발명의 제2실시예에 따른 사용자 접촉 패턴에 따른 GUI를 표시하는 방법을 나타내는 순서도에 해당한다.11 is a flowchart illustrating a method of displaying a GUI according to a user contact pattern according to a second embodiment of the present invention.

도 12a는 대기 화면 어플리케이션에서 사용자 접촉 입력 시 메뉴 아이콘을 표시하는 화면을 나타낸다.12A illustrates a screen displaying a menu icon when a user touches an input in a standby screen application.

도 12b는 대기 화면 어플리케이션에서 사용자 접촉 재입력 시 메뉴 아이콘을 변경하여 표시하는 화면을 나타낸다.12B illustrates a screen of changing and displaying a menu icon when re-entering a user contact in a standby screen application.

도 13a는 카메라 어플리케이션에서 사용자 접촉 입력 시 기능 아이콘을 표시하는 화면을 나타낸다.13A illustrates a screen displaying a function icon when a user touches an input in a camera application.

도 13b는 카메라 어플리케이션에서 사용자 접촉 재입력 시 기능 아이콘을 변경하여 표시하는 화면을 나타낸다.13B illustrates a screen of changing and displaying a function icon when re-entering a user contact in a camera application.

도 14a는 MP3 어플리케이션에서 사용자 접촉 입력 시 기능 아이콘을 표시하는 화면을 나타낸다.14A illustrates a screen displaying a function icon when a user touches an input in an MP3 application.

도 14b는 MP3 어플리케이션에서 사용자 접촉 재입력 시 기능 아이콘을 변경하여 표시하는 화면을 나타낸다.14B illustrates a screen for changing and displaying a function icon when re-entering a user contact in an MP3 application.

Claims (28)

촉각 감지 센서를 구비한 장치에서 GUI(Graphic User Interface)를 표시하는 방법에 있어서,In a method for displaying a graphical user interface (GUI) in a device having a tactile sensor, 상기 장치로의 사용자 접촉을 감지하는 접촉 감지 단계;A touch sensing step of sensing user contact with the device; 상기 감지된 사용자 접촉에 따라 사용자의 접촉 패턴을 판단하는 접촉 패턴 판단 단계; 및A contact pattern determining step of determining a contact pattern of a user according to the detected user contact; And 상기 판단된 사용자의 접촉 패턴에 대응하는 GUI를 표시하는 표시 단계를 포함하는 것을 특징으로 하는 GUI 표시 방법. And a display step of displaying a GUI corresponding to the determined contact pattern of the user. 제1항에 있어서,The method of claim 1, 상기 접촉 패턴 판단 단계는The contact pattern determination step 상기 감지된 사용자의 접촉에 따라 사용자의 접촉 패턴을 판단하고, 판단된 사용자의 접촉 패턴에 따라 사용자의 조작 손을 추정하는 것을 특징으로 하는 GUI 표시 방법.And determining a user's contact pattern according to the detected user's contact, and estimating a user's manipulation hand according to the determined user's contact pattern. 제2항에 있어서,The method of claim 2, 상기 접촉 패턴 판단 단계는The contact pattern determination step 상기 촉각 감지 센서를 구성하는 복수의 센서 유닛들 중 접촉을 감지한 센서 유닛들을 인접한 센서 유닛 별로 그룹핑하여 유닛 그룹을 생성하는 단계;Generating a unit group by grouping sensor units sensing a contact among adjacent sensor units among the plurality of sensor units constituting the tactile sensor; 상기 생성된 유닛 그룹에 근거하여 접촉 패턴 정보를 생성하는 단계;Generating contact pattern information based on the generated unit group; 상기 생성된 접촉 패턴 정보와 미리 저장된 접촉 패턴 정보를 비교하는 단계; 및Comparing the generated contact pattern information with previously stored contact pattern information; And 상기 생성된 접촉 패턴 정보가 상기 미리 저장된 접촉 패턴 정보의 범위에 포함되는 경우, 상기 생성된 접촉 패턴 정보에 대응하는 손 정보에 근거하여 조작 손을 추정하는 단계를 포함하는 것을 특징으로 하는 GUI 표시 방법.And when the generated contact pattern information is included in a range of the pre-stored contact pattern information, estimating a manipulation hand based on hand information corresponding to the generated contact pattern information. . 제3항에 있어서, The method of claim 3, 상기 접촉 패턴 정보는The contact pattern information is 각각의 촉각 감지 센서에 형성되는 유닛 그룹의 개수, 상기 유닛 그룹들이 형성되는 위치, 상기 유닛 그룹들 간의 간격, 상기 유닛 그룹들에 포함되는 센서 유닛의 개수 및 상기 센서 유닛이 감지한 압력 중 적어도 하나에 관한 정보를 포함하는 것을 특징으로 하는 GUI 표시 방법. At least one of a number of unit groups formed in each tactile sensor, a position at which the unit groups are formed, a distance between the unit groups, a number of sensor units included in the unit groups, and a pressure sensed by the sensor unit GUI display method comprising the information on. 제2항에 있어서,The method of claim 2, 상기 접촉 패턴 판단 단계는The contact pattern determination step 상기 촉각 감지 센서를 구성하는 복수의 센서 유닛들 중 접촉을 감지한 센서 유닛들을 인접한 센서 유닛 별로 그룹핑하여 유닛 그룹을 생성하는 단계;Generating a unit group by grouping sensor units sensing a contact among adjacent sensor units among the plurality of sensor units constituting the tactile sensor; 최대 유닛 그룹 센서를 판단하는 단계;Determining a maximum unit group sensor; 상기 최대 유닛 그룹 센서에 추가적인 유닛 그룹이 존재하는지 판단하는 단 계; 및Determining whether an additional unit group exists in the maximum unit group sensor; And 상기 추가적인 유닛 그룹이 존재하지 않는 경우, 상기 최대 유닛 그룹 센서가 좌측 센서일 때, 상기 조작 손을 왼손으로 추정하며, 상기 최대 유닛 그룹 센서가 우측 센서일 때, 상기 조작 손을 오른손으로 추정하는 단계를 더 포함하는 것을 특징으로 하는 GUI 표시 방법.Estimating the manipulation hand with the left hand when the maximum unit group sensor is the left sensor when there is no additional unit group, and estimating the manipulation hand with the right hand when the maximum unit group sensor is the right sensor GUI display method further comprising. 제2항에 있어서,The method of claim 2, 상기 접촉 패턴 판단 단계는The contact pattern determination step 상기 촉각 감지 센서를 구성하는 복수의 센서 유닛들 중 접촉을 감지한 센서 유닛들을 인접한 센서 유닛 별로 그룹핑하여 유닛 그룹을 생성하는 단계;Generating a unit group by grouping sensor units sensing a contact among adjacent sensor units among the plurality of sensor units constituting the tactile sensor; 상기 좌측 센서 및 우측 센서에 위치하는 유닛 그룹의 개수를 산출하는 단계; 및Calculating the number of unit groups located in the left sensor and the right sensor; And 상기 산출된 유닛 그룹의 개수에 근거하여 조작 손을 추정하는 단계를 포함하는 것을 특징으로 하는 GUI 표시 방법.And estimating a manipulation hand based on the calculated number of unit groups. 제6항에 있어서,The method of claim 6, 상기 좌측 센서에 위치하는 유닛 그룹의 개수가 3개 이상이며, 상기 우측 센서에 위치하는 유닛 그룹의 개수가 1개 이하에 해당하는 경우, 상기 조작 손을 오른손으로 추정하고, If the number of unit groups located in the left sensor is three or more, and the number of unit groups located in the right sensor corresponds to one or less, the manipulation hand is estimated as the right hand, 상기 우측 센서에 위치하는 유닛 그룹의 개수가 3개 이상이며, 상기 좌측 센서에 위치하는 유닛 그룹의 개수가 1개 이하인 경우, 상기 조작 손을 왼손으로 추정하는 단계를 더 포함하는 것을 특징으로 하는 GUI 표시 방법. And estimating the manipulation hand to the left hand when the number of unit groups located on the right sensor is three or more and the number of unit groups located on the left sensor is one or less. Display method. 제2항에 있어서,The method of claim 2, 상기 표시 단계는The display step 상기 조작 손이 왼손으로 추정되는 경우, 왼손 엄지손가락의 동선을 따라 아이콘을 배열하며,If the manipulation hand is assumed to be the left hand, icons are arranged along the line of the thumb of the left hand, 상기 조작 손이 오른손으로 추정되는 경우, 오른손 엄지손가락의 동선을 따라 아이콘을 배열하는 것을 특징으로 하는 GUI 표시 방법. And when the manipulation hand is estimated to be a right hand, arranging icons along a moving line of the thumb of the right hand. 제2항에 있어서,The method of claim 2, 상기 표시 단계는The display step 상기 조작 손이 왼손으로 추정되는 경우, 스크롤바를 표시화면의 좌측에 표시하며, If the manipulation hand is estimated to be left hand, a scroll bar is displayed on the left side of the display screen, 상기 조작 손이 오른손으로 추정되는 경우, 스크롤바를 표시화면의 우측에 배열하는 것을 특징으로 하는 GUI 표시 방법. And the scroll bar is arranged on the right side of the display screen when the manipulation hand is estimated to be the right hand. 제1항에 있어서,The method of claim 1, 상기 접촉 패턴 판단 단계는The contact pattern determination step 상기 사용자가 입력한 접촉 위치에 근거하여 사용자의 파지 형태를 판단하는 것을 특징으로 하는 GUI 표시 방법.GUI display method, characterized in that for determining the grip type of the user based on the contact position input by the user. 제10항에 있어서,The method of claim 10, 상기 접촉 패턴 판단 단계는The contact pattern determination step 사용자가 입력한 접촉 압력이 미리 설정된 세기 이상의 압력에 해당하는지 여부를 판단하는 단계를 더 포함하는 것을 특징으로 하는 GUI 표시 방법. And determining whether the contact pressure input by the user corresponds to a pressure equal to or greater than a preset intensity. 제10항에 있어서,The method of claim 10, 현재 실행 중인 어플리케이션 및 상기 판단된 사용자의 파지 형태에 근거하여 GUI 배열 패턴을 결정하는 단계를 더 포함하는 것을 특징으로 하는 GUI표시 방법.And determining a GUI arrangement pattern based on the currently executing application and the determined grip type of the user. 제1항에 있어서,The method of claim 1, 상기 표시 단계는The display step 상기 사용자가 입력한 접촉 위치에 대응하여 설정된 표시 화면의 일정 지점에 GUI를 표시하는 것을 특징으로 하는 GUI 표시 방법. And displaying the GUI at a predetermined point on the display screen set corresponding to the contact position input by the user. 제13항에 있어서,The method of claim 13, 상기 일정 지점은 The point is 상기 사용자의 접촉이 입력된 위치에서 상기 장치의 표시 화면이 위치하는 방향으로 일직선을 이루는 지점에 해당하는 것을 특징으로 하는 GUI 표시 방법.GUI display method, characterized in that the point corresponding to the straight line in the direction in which the display screen of the device from the position where the user's contact is input. 제1항에 있어서,The method of claim 1, 상기 표시 단계는 The display step 상기 사용자가 입력하는 접촉 압력에 따라 상기 GUI를 변경하여 표시하는 것을 특징으로 하는 GUI 표시 방법.GUI display method, characterized in that for changing the GUI according to the contact pressure input by the user. 제15항에 있어서, The method of claim 15, 상기 표시 단계는The display step 상기 GUI의 위치 및 크기 중 적어도 하나를 변경하여 표시하는 것을 특징으로 하는 GUI 표시 방법.And displaying at least one of a position and a size of the GUI. GUI를 표시하는 장치에 있어서,In a device for displaying a GUI, 사용자의 접촉을 감지하는 촉각 감지 센서부;A tactile sensor detecting a user's touch; 상기 GUI를 표시하는 표시부; 및A display unit for displaying the GUI; And 상기 촉각 감지 센서부로부터 촉각 감지 신호를 수신하면, 상기 촉각 감지 신호에 따라 사용자의 접촉 패턴을 판단하며, 상기 표시부가 상기 판단된 사용자의 접촉 패턴에 대응하여 GUI를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 장치.Receiving a tactile detection signal from the tactile sensor, the control unit determines a user's contact pattern according to the tactile detection signal, and includes a control unit for controlling the display unit to display a GUI corresponding to the determined user's contact pattern Device characterized in that. 제17항에 있어서,The method of claim 17, 상기 촉각 감지 센서부는 The haptic sensor unit 각각 복수의 센서 유닛들로 구성되는 좌측 센서와 우측 센서를 포함하는 것을 특징으로 하는 장치. And a left sensor and a right sensor each comprising a plurality of sensor units. 제17항에 있어서, The method of claim 17, 상기 촉각 감지 센서부는The haptic sensor unit 압력의 정도 및 접촉/압력의 위치를 측정할 수 있는 촉각 센서, 터치센서 및 압력센서와 터치센서의 조합 중 어느 하나로 구성되는 것을 특징으로 하는 장치.A device comprising a tactile sensor, a touch sensor and a combination of a pressure sensor and a touch sensor capable of measuring the degree of pressure and the position of contact / pressure. 제18항에 있어서, The method of claim 18, 상기 제어부는 The control unit 접촉을 감지한 센서 유닛들 중 연속으로 배열된 센서 유닛들 별로 그룹핑하여 유닛 그룹을 생성하고,A unit group is generated by grouping the sensor units arranged in series among the sensor units that detect a contact, 상기 생성된 유닛 그룹에 근거하여 접촉 패턴 정보를 생성하고,Generating contact pattern information based on the generated unit group, 상기 생성된 접촉 패턴 정보와 미리 저장된 접촉 패턴 정보를 비교하고,Comparing the generated contact pattern information with previously stored contact pattern information, 상기 생성된 접촉 패턴 정보가 상기 미리 저장된 접촉 패턴 정보의 범위에 포함되는 경우, 상기 생성된 접촉 패턴 정보에 대응하는 손 정보에 근거하여 조작 손을 추정하는 것을 특징으로 하는 장치.And when the generated contact pattern information is included in a range of the previously stored contact pattern information, estimating an operation hand based on hand information corresponding to the generated contact pattern information. 제18항에 있어서, The method of claim 18, 상기 제어부는 The control unit 접촉을 감지한 센서 유닛들 중 연속으로 배열된 센서 유닛들 별로 그룹핑하여 유닛 그룹을 생성하고,A unit group is generated by grouping the sensor units arranged in series among the sensor units that detect a contact, 최대 유닛 그룹 센서를 판단하고,Determine the maximum unit group sensor, 상기 최대 유닛 그룹 센서에 추가적인 유닛 그룹이 존재하는지 판단하고,It is determined whether an additional unit group exists in the maximum unit group sensor. 상기 추가적인 유닛 그룹이 존재하지 않는 경우, 상기 최대 유닛 그룹 센서가 좌측 센서일 때, 상기 조작 손을 왼손으로 추정하며, 상기 최대 유닛 그룹 센서가 우측 센서일 때, 상기 조작 손을 오른손으로 추정하는 것을 특징으로 하는 장치.When the additional unit group does not exist, when the maximum unit group sensor is the left sensor, the manipulation hand is estimated to be the left hand, and when the maximum unit group sensor is the right sensor, estimating the manipulation hand with the right hand. Characterized in that the device. 제18항에 있어서, The method of claim 18, 상기 제어부는 The control unit 접촉을 감지한 센서 유닛들 중 연속으로 배열된 센서 유닛들 별로 그룹핑하여 유닛 그룹을 생성하고,A unit group is generated by grouping the sensor units arranged in series among the sensor units that detect a contact, 상기 좌측 센서 및 우측 센서에 위치하는 유닛 그룹의 개수를 산출하고,Calculating the number of unit groups located in the left sensor and the right sensor, 상기 좌측 센서에 위치하는 유닛 그룹의 개수가 3개 이상이며, 상기 우측 센서에 위치하는 유닛 그룹의 개수가 1개 이하에 해당하는 경우, 상기 조작 손을 오른손으로 추정하고,If the number of unit groups located in the left sensor is three or more, and the number of unit groups located in the right sensor corresponds to one or less, the manipulation hand is estimated as the right hand, 상기 우측 센서에 위치하는 그룹의 개수가 3개 이상이며, 상기 좌측 센서 에 위치하는 유닛 그룹의 개수가 1개 이하인 경우, 상기 조작 손을 왼손으로 추정하는 것을 특징으로 하는 장치.  And when the number of groups located in the right sensor is three or more and the number of group of units located in the left sensor is one or less, the apparatus according to claim 1, wherein the manipulation hand is estimated as the left hand. 제17항에 있어서, The method of claim 17, 상기 제어부는 The control unit 상기 촉각 감지 센서부로부터 사용자가 입력한 접촉 위치에 관한 정보를 수신하여 사용자의 파지 형태를 판단하는 것을 특징으로 하는 장치.Device for determining the gripping type of the user by receiving information about the contact position input by the user from the tactile sensor sensor. 제17항에 있어서,The method of claim 17, 상기 제어부는The control unit 상기 촉각 감지 센서부로부터 사용자가 입력한 접촉 압력에 관한 정보를 수신하여 상기 사용자가 입력한 접촉 압력이 미리 설정된 세기 이상의 압력에 해당하는지 여부를 판단하는 것을 특징으로 하는 장치.And receiving information about the contact pressure input by the user from the tactile sensor, and determining whether the contact pressure input by the user corresponds to a pressure equal to or greater than a preset intensity. 제23항에 있어서,24. The method of claim 23, 상기 제어부는The control unit 현재 실행 중인 어플리케이션 및 상기 판단된 사용자의 파지 형태에 근거하여 GUI 배열 패턴을 결정하는 것을 특징으로 하는 장치.And determining a GUI array pattern based on the currently running application and the determined grip type of the user. 제17항에 있어서, 상기 표시부는 The method of claim 17, wherein the display unit 상기 조작 손이 왼손으로 추정되는 경우, 왼손 엄지손가락의 동선을 따라 아이콘을 배열하거나, 스크롤바를 표시화면의 좌측에 표시하고,If the manipulation hand is assumed to be the left hand, the icons are arranged along the same line of the thumb of the left hand, or a scroll bar is displayed on the left side of the display screen, 상기 조작 손이 오른손으로 추정되는 경우, 오른손 엄지손가락의 동선을 따라 아이콘을 배열하거나, 스크롤바를 표시화면의 우측에 표시하는 것을 특징으로 하는 장치.And when the manipulation hand is estimated to be a right hand, arrange icons along a line of the thumb of the right hand, or display a scroll bar on the right side of the display screen. 제17항에 있어서,The method of claim 17, 상기 표시부는 The display unit 상기 사용자가 접촉을 입력한 위치에 대응하여 설정된 일정 지점에 GUI를 표시하는 것을 특징으로 하는 장치.And displaying a GUI at a predetermined point corresponding to a position at which the user inputs a contact. 제17항에 있어서,The method of claim 17, 상기 표시부는The display unit 상기 사용자가 입력한 접촉 압력에 따라 GUI의 위치를 변경시켜 표시하는 것을 특징으로 하는 장치.And change the position of the GUI according to the contact pressure input by the user.
KR1020090012687A 2008-10-06 2009-02-17 Method for displaying graphic user interface according to user's touch pattern and apparatus having the same Ceased KR20100039194A (en)

Priority Applications (10)

Application Number Priority Date Filing Date Title
EP09167533.0A EP2175344B1 (en) 2008-10-06 2009-08-10 Method and apparatus for displaying graphical user interface depending on a user's contact pattern
ES09167533T ES2776103T3 (en) 2008-10-06 2009-08-10 Procedure and apparatus to display graphical user interface depending on a contact pattern of the user
EP20150507.0A EP3654141A1 (en) 2008-10-06 2009-08-10 Method and apparatus for displaying graphical user interface depending on a user's contact pattern
US12/548,704 US8493342B2 (en) 2008-10-06 2009-08-27 Method and apparatus for displaying graphical user interface depending on a user's contact pattern
CN201710119962.2A CN106909305B (en) 2008-10-06 2009-09-14 Method and apparatus for displaying graphical user interface
CN200910169036A CN101714055A (en) 2008-10-06 2009-09-14 Method and apparatus for displaying graphical user interface according to user's contact mode
CN201710119581.4A CN106909304B (en) 2008-10-06 2009-09-14 Method and apparatus for displaying graphical user interface
US13/928,010 US8749510B2 (en) 2008-10-06 2013-06-26 Method and apparatus for displaying graphical user interface depending on a user's contact pattern
US14/297,263 US9176650B2 (en) 2008-10-06 2014-06-05 Method and apparatus for displaying graphical user interface depending on a user's contact pattern
US14/831,268 US10180778B2 (en) 2008-10-06 2015-08-20 Method and apparatus for displaying graphical user interface depending on a user's contact pattern

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20080097591 2008-10-06
KR1020080097591 2008-10-06

Publications (1)

Publication Number Publication Date
KR20100039194A true KR20100039194A (en) 2010-04-15

Family

ID=42215793

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090012687A Ceased KR20100039194A (en) 2008-10-06 2009-02-17 Method for displaying graphic user interface according to user's touch pattern and apparatus having the same

Country Status (3)

Country Link
KR (1) KR20100039194A (en)
CN (3) CN106909304B (en)
ES (1) ES2776103T3 (en)

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130068250A (en) * 2011-12-15 2013-06-26 삼성전자주식회사 Apparatas and method of user based using for grip sensor in a portable terminal
KR20140000932A (en) * 2012-06-26 2014-01-06 엘지전자 주식회사 Mobile terminal and control method thereof
KR101354614B1 (en) * 2011-02-10 2014-01-22 소니 컴퓨터 엔터테인먼트 인코포레이티드 Method and apparatus for area-efficient graphical user interface
JP2014178750A (en) * 2013-03-13 2014-09-25 Sharp Corp Electronic apparatus, information processing method, and information processing program
KR20140147647A (en) * 2013-06-20 2014-12-30 삼성전자주식회사 Electronic device and method for controlling using grip sensing in the electronic device
KR20160022396A (en) * 2013-07-12 2016-02-29 페이스북, 인크. Isolating mobile device electrode
KR20160094152A (en) * 2015-01-30 2016-08-09 한국과학기술연구원 METHOD, APPARATUS, AND COMPUTER READABLE RECORDING MEDIUM FOR PERFORMING THE SAME - Patent application
KR20160118078A (en) * 2015-04-01 2016-10-11 삼성전자주식회사 Apparatus and method for controlling volume using touch screen
US9959030B2 (en) 2015-03-05 2018-05-01 Samsung Display Co., Ltd. Display apparatus
KR20180060683A (en) * 2016-11-29 2018-06-07 삼성전자주식회사 Device for displaying user interface based on sensing signal of grip sensor
KR101876020B1 (en) * 2016-05-10 2018-07-06 홍익대학교세종캠퍼스산학협력단 Cursor Scrolling Control Method Using A 3D Touch Of A Mobile Device
US10241608B2 (en) 2014-12-03 2019-03-26 Samsung Display Co., Ltd. Display device and driving method for display device using the same
KR20210032876A (en) * 2019-09-12 2021-03-25 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 Button setting method, device and recording medium
KR20210043755A (en) * 2014-06-24 2021-04-21 애플 인크. Input device and user interface interactions
US20210166288A1 (en) * 2015-07-14 2021-06-03 Ebay Inc. Enhanced Shopping Actions on A Mobile Device
US11070889B2 (en) 2012-12-10 2021-07-20 Apple Inc. Channel bar user interface
US11194546B2 (en) 2012-12-31 2021-12-07 Apple Inc. Multi-user TV user interface
US11245967B2 (en) 2012-12-13 2022-02-08 Apple Inc. TV side bar user interface
US11290762B2 (en) 2012-11-27 2022-03-29 Apple Inc. Agnostic media delivery system
US11297392B2 (en) 2012-12-18 2022-04-05 Apple Inc. Devices and method for providing remote control hints on a display
US11302037B2 (en) 2018-12-18 2022-04-12 Samsung Electronics Co., Ltd. Electronic device for adaptively altering information display area and operation method thereof
WO2022103015A1 (en) * 2020-11-11 2022-05-19 삼성전자 주식회사 Electronic device comprising stretchable display
US11445263B2 (en) 2019-03-24 2022-09-13 Apple Inc. User interfaces including selectable representations of content items
US11461397B2 (en) 2014-06-24 2022-10-04 Apple Inc. Column interface for navigating in a user interface
US11467726B2 (en) 2019-03-24 2022-10-11 Apple Inc. User interfaces for viewing and accessing content on an electronic device
US11520858B2 (en) 2016-06-12 2022-12-06 Apple Inc. Device-level authorization for viewing content
US11543938B2 (en) 2016-06-12 2023-01-03 Apple Inc. Identifying applications on which content is available
US11582517B2 (en) 2018-06-03 2023-02-14 Apple Inc. Setup procedures for an electronic device
US11609678B2 (en) 2016-10-26 2023-03-21 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
US11683565B2 (en) 2019-03-24 2023-06-20 Apple Inc. User interfaces for interacting with channels that provide content that plays in a media browsing application
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
US11797606B2 (en) 2019-05-31 2023-10-24 Apple Inc. User interfaces for a podcast browsing and playback application
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
US11962836B2 (en) 2019-03-24 2024-04-16 Apple Inc. User interfaces for a media browsing application
US12149779B2 (en) 2013-03-15 2024-11-19 Apple Inc. Advertisement user interface
US12307082B2 (en) 2018-02-21 2025-05-20 Apple Inc. Scrollable set of content items with locking feature
US12335569B2 (en) 2018-06-03 2025-06-17 Apple Inc. Setup procedures for an electronic device

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012019350A1 (en) * 2010-08-12 2012-02-16 Google Inc. Finger identification on a touchscreen
CN102375652A (en) * 2010-08-16 2012-03-14 中国移动通信集团公司 Mobile terminal user interface regulation system and method
CN102402275B (en) * 2010-09-13 2017-05-24 联想(北京)有限公司 Portable electronic equipment and holding gesture detection method
JPWO2012049942A1 (en) * 2010-10-13 2014-02-24 Necカシオモバイルコミュニケーションズ株式会社 Mobile terminal device and display method of touch panel in mobile terminal device
CN102479035A (en) * 2010-11-23 2012-05-30 汉王科技股份有限公司 Electronic device with touch screen, and method for displaying left or right hand control interface
CN102131003A (en) * 2011-04-06 2011-07-20 罗蒙明 Method for judging finger key pressing on virtual keyboard of mobile phone with touch screen
CN102790816A (en) * 2011-05-16 2012-11-21 中兴通讯股份有限公司 Processing method and device of pushbutton function
CN102810039A (en) * 2011-05-31 2012-12-05 中兴通讯股份有限公司 Left or right hand adapting virtual keyboard display method and terminal
CN102841723B (en) * 2011-06-20 2016-08-10 联想(北京)有限公司 Portable terminal and display changeover method thereof
JP5453351B2 (en) * 2011-06-24 2014-03-26 株式会社Nttドコモ Mobile information terminal, operation state determination method, program
JP5588931B2 (en) * 2011-06-29 2014-09-10 株式会社Nttドコモ Mobile information terminal, arrangement area acquisition method, program
CN102299996A (en) * 2011-08-19 2011-12-28 华为终端有限公司 Handheld device operating mode distinguishing method and handheld device
WO2013048461A1 (en) * 2011-09-30 2013-04-04 Intel Corporation Mobile device rejection of unintentional touch sensor contact
KR101908947B1 (en) * 2011-11-23 2018-10-17 삼성전자주식회사 Method and apparatus for peripheral connection
CN102722247A (en) * 2012-03-09 2012-10-10 张伟明 Operation and control component, information processing system using same and information processing method thereof
CN103324423B (en) * 2012-03-21 2018-11-13 北京三星通信技术研究有限公司 A kind of terminal and its method for displaying user interface
KR101979666B1 (en) 2012-05-15 2019-05-17 삼성전자 주식회사 Operation Method For plural Touch Panel And Portable Device supporting the same
CN102662603A (en) * 2012-05-18 2012-09-12 广州市渡明信息技术有限公司 Input method display method and input method display system for mobile phone with touch screen
CN102890558B (en) * 2012-10-26 2015-08-19 北京金和软件股份有限公司 The method of mobile hand-held device handheld motion state is detected based on sensor
CN103809866B (en) * 2012-11-13 2018-07-06 联想(北京)有限公司 A kind of operation mode switching method and electronic equipment
CN103118166B (en) * 2012-11-27 2014-11-12 广东欧珀移动通信有限公司 Method of realizing single hand operation of mobile phone based on pressure sensing
CN103870140B (en) * 2012-12-13 2018-01-23 联想(北京)有限公司 A kind of object processing method and device
CN103576850A (en) * 2012-12-26 2014-02-12 深圳市创荣发电子有限公司 Method and system for judging holding mode of handheld device
CN103902141A (en) * 2012-12-27 2014-07-02 北京富纳特创新科技有限公司 Device and method for achieving dynamic arrangement of desktop functional icons
US20140184519A1 (en) * 2012-12-28 2014-07-03 Hayat Benchenaa Adapting user interface based on handedness of use of mobile computing device
US9904394B2 (en) * 2013-03-13 2018-02-27 Immerson Corporation Method and devices for displaying graphical user interfaces based on user contact
CN104360813B (en) * 2013-04-12 2016-03-30 努比亚技术有限公司 A kind of display device and information processing method thereof
CN104216602B (en) * 2013-05-31 2017-10-20 国际商业机器公司 A kind of method and system for control slide block
KR102138505B1 (en) * 2013-07-10 2020-07-28 엘지전자 주식회사 Mobile terminal and method for controlling the same
US10162416B2 (en) * 2013-09-06 2018-12-25 Immersion Corporation Dynamic haptic conversion system
CN104714731B (en) * 2013-12-12 2019-10-11 南京中兴软件有限责任公司 The display methods and device of terminal interface
US20150192989A1 (en) * 2014-01-07 2015-07-09 Samsung Electronics Co., Ltd. Electronic device and method of controlling electronic device
CN103795949A (en) * 2014-01-14 2014-05-14 四川长虹电器股份有限公司 Control terminal, device terminal and system for adjusting volume of device terminal
KR102155091B1 (en) * 2014-01-22 2020-09-11 엘지전자 주식회사 Mobile terminal and method for controlling the same
CN104850339B (en) * 2014-02-19 2018-06-01 联想(北京)有限公司 A kind of information processing method and electronic equipment
CN104915073B (en) * 2014-03-14 2018-06-01 敦泰科技有限公司 Hand-held type touch device
US9239648B2 (en) * 2014-03-17 2016-01-19 Google Inc. Determining user handedness and orientation using a touchscreen device
US9727161B2 (en) * 2014-06-12 2017-08-08 Microsoft Technology Licensing, Llc Sensor correlation for pen and touch-sensitive computing device interaction
CN105468269A (en) * 2014-08-15 2016-04-06 深圳市中兴微电子技术有限公司 Mobile terminal capable of automatically identifying holding by left hand or right hand, and implementation method thereof
CN105468245B (en) * 2014-08-22 2020-05-01 中兴通讯股份有限公司 A terminal and a display method of a terminal operation interface
US10401390B2 (en) * 2014-11-20 2019-09-03 Keithley Instruments, Llc Formatting and navigating graphed information
CN104461322A (en) * 2014-12-30 2015-03-25 中科创达软件股份有限公司 Display method and system for user interface of handheld device
CN104615368A (en) * 2015-01-21 2015-05-13 上海华豚科技有限公司 Following switching method of keyboard interface
CN104571919A (en) * 2015-01-26 2015-04-29 深圳市中兴移动通信有限公司 Terminal screen display method and device
CN104679427B (en) * 2015-01-29 2017-03-15 努比亚技术有限公司 Terminal split-screen display method and system
CN105988692A (en) * 2015-02-02 2016-10-05 中兴通讯股份有限公司 Handheld electronic equipment, and method and device for controlling handheld electronic equipment
CN104731501B (en) * 2015-03-25 2016-03-23 努比亚技术有限公司 Control chart calibration method and mobile terminal
CN104735256B (en) * 2015-03-27 2016-05-18 努比亚技术有限公司 Holding mode determination methods and the device of mobile terminal
CN104834463A (en) * 2015-03-31 2015-08-12 努比亚技术有限公司 Holding recognition method and device of mobile terminal
CN104765541A (en) * 2015-04-10 2015-07-08 南京理工大学 Method and system for identifying whether left hand or right hand operates mobile phone
CN104898959B (en) * 2015-04-30 2018-06-05 努比亚技术有限公司 A kind of method and apparatus for adjusting virtual push button position
CN104866136B (en) * 2015-05-11 2019-02-15 努比亚技术有限公司 A kind of method and device of determining terminal operating mode
KR102422181B1 (en) * 2015-06-02 2022-07-18 삼성전자주식회사 Method for controling a display of an electronic device and the electronic device thereof
CN104915143B (en) * 2015-06-19 2019-01-22 努比亚技术有限公司 The control method and terminal of Rimless mobile terminal
CN105227768A (en) * 2015-09-18 2016-01-06 努比亚技术有限公司 A kind of application APP display system and method
CN105183235B (en) * 2015-10-19 2018-02-06 上海斐讯数据通信技术有限公司 A kind of method of touch-control platen edge false-touch prevention
CN105224181B (en) * 2015-10-20 2018-05-25 魅族科技(中国)有限公司 A kind of sidebar display methods and device
CN106610746A (en) * 2015-10-26 2017-05-03 青岛海信移动通信技术股份有限公司 Mobile terminal and control method thereof
CN105573622A (en) * 2015-12-15 2016-05-11 广东欧珀移动通信有限公司 User interface one-handed control method, device and terminal equipment
CN106406656B (en) * 2016-08-30 2019-07-26 维沃移动通信有限公司 A kind of control method and mobile terminal of application tool bar
CN106648329A (en) * 2016-12-30 2017-05-10 维沃移动通信有限公司 Application icon display method and mobile terminal
US10635255B2 (en) * 2017-04-18 2020-04-28 Google Llc Electronic device response to force-sensitive interface
CN109710099A (en) * 2017-10-26 2019-05-03 南昌欧菲生物识别技术有限公司 Electronic device
CN110709808A (en) * 2017-12-14 2020-01-17 深圳市柔宇科技有限公司 Control method and electronic device
US10838541B2 (en) * 2018-09-03 2020-11-17 Htc Corporation Method for operating handheld device, handheld device and computer-readable recording medium thereof
JP7279622B2 (en) * 2019-11-22 2023-05-23 トヨタ自動車株式会社 display device and display program
CN115087952A (en) * 2020-02-10 2022-09-20 日本电气株式会社 Program for portable terminal, processing method, and portable terminal
CN112543362A (en) * 2020-11-02 2021-03-23 当趣网络科技(杭州)有限公司 Display interface switching method, remote controller, television system and electronic equipment
CN113867594A (en) * 2021-10-21 2021-12-31 元心信息科技集团有限公司 Information input panel switching method, device, electronic device and storage medium
CN120223805B (en) * 2025-04-21 2025-12-26 赵润龙 A method and electronic device for displaying a mobile phone input box.

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US20050134578A1 (en) * 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
CN1241109C (en) * 2001-07-17 2006-02-08 仁宝电脑工业股份有限公司 Touch display method for controlling magnification according to pressure
US7009599B2 (en) * 2001-11-20 2006-03-07 Nokia Corporation Form factor for portable device
US20030117376A1 (en) * 2001-12-21 2003-06-26 Elen Ghulam Hand gesturing input device
GB0201074D0 (en) * 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
US7116314B2 (en) * 2003-05-06 2006-10-03 International Business Machines Corporation Method for distribution wear for a touch entry display
WO2005008444A2 (en) * 2003-07-14 2005-01-27 Matt Pallakoff System and method for a portbale multimedia client
EP1557744B1 (en) * 2004-01-20 2008-04-16 Sony Deutschland GmbH Haptic key controlled data input
KR100608576B1 (en) * 2004-11-19 2006-08-03 삼성전자주식회사 Mobile terminal control device and method
CN101133385B (en) * 2005-03-04 2014-05-07 苹果公司 Handheld electronic device, handheld device and method of operation thereof
CN1901785B (en) * 2005-07-22 2012-08-29 鸿富锦精密工业(深圳)有限公司 Display device and its display control method
CN100592247C (en) * 2005-09-21 2010-02-24 鸿富锦精密工业(深圳)有限公司 Multi-level menu display device and display control method thereof
CN1940834B (en) * 2005-09-30 2014-10-29 鸿富锦精密工业(深圳)有限公司 Circular menu display device and its display controlling method
JP4699955B2 (en) * 2006-07-21 2011-06-15 シャープ株式会社 Information processing device
KR101144423B1 (en) * 2006-11-16 2012-05-10 엘지전자 주식회사 Mobile phone and display method of the same
JP2008204402A (en) * 2007-02-22 2008-09-04 Eastman Kodak Co User interface device

Cited By (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101354614B1 (en) * 2011-02-10 2014-01-22 소니 컴퓨터 엔터테인먼트 인코포레이티드 Method and apparatus for area-efficient graphical user interface
US9207864B2 (en) 2011-02-10 2015-12-08 Sony Corporation Method and apparatus for area-efficient graphical user interface
KR20130068250A (en) * 2011-12-15 2013-06-26 삼성전자주식회사 Apparatas and method of user based using for grip sensor in a portable terminal
KR20140000932A (en) * 2012-06-26 2014-01-06 엘지전자 주식회사 Mobile terminal and control method thereof
US11290762B2 (en) 2012-11-27 2022-03-29 Apple Inc. Agnostic media delivery system
US12225253B2 (en) 2012-11-27 2025-02-11 Apple Inc. Agnostic media delivery system
US12342050B2 (en) 2012-12-10 2025-06-24 Apple Inc. Channel bar user interface
US11070889B2 (en) 2012-12-10 2021-07-20 Apple Inc. Channel bar user interface
US12177527B2 (en) 2012-12-13 2024-12-24 Apple Inc. TV side bar user interface
US11317161B2 (en) 2012-12-13 2022-04-26 Apple Inc. TV side bar user interface
US11245967B2 (en) 2012-12-13 2022-02-08 Apple Inc. TV side bar user interface
US12301948B2 (en) 2012-12-18 2025-05-13 Apple Inc. Devices and method for providing remote control hints on a display
US11297392B2 (en) 2012-12-18 2022-04-05 Apple Inc. Devices and method for providing remote control hints on a display
US12229475B2 (en) 2012-12-31 2025-02-18 Apple Inc. Multi-user TV user interface
US11822858B2 (en) 2012-12-31 2023-11-21 Apple Inc. Multi-user TV user interface
US11194546B2 (en) 2012-12-31 2021-12-07 Apple Inc. Multi-user TV user interface
JP2014178750A (en) * 2013-03-13 2014-09-25 Sharp Corp Electronic apparatus, information processing method, and information processing program
US12149779B2 (en) 2013-03-15 2024-11-19 Apple Inc. Advertisement user interface
KR20140147647A (en) * 2013-06-20 2014-12-30 삼성전자주식회사 Electronic device and method for controlling using grip sensing in the electronic device
KR20160022396A (en) * 2013-07-12 2016-02-29 페이스북, 인크. Isolating mobile device electrode
US11520467B2 (en) 2014-06-24 2022-12-06 Apple Inc. Input device and user interface interactions
KR20210043755A (en) * 2014-06-24 2021-04-21 애플 인크. Input device and user interface interactions
US12086186B2 (en) 2014-06-24 2024-09-10 Apple Inc. Interactive interface for navigating in a user interface associated with a series of content
US12105942B2 (en) 2014-06-24 2024-10-01 Apple Inc. Input device and user interface interactions
US12468436B2 (en) 2014-06-24 2025-11-11 Apple Inc. Input device and user interface interactions
US11461397B2 (en) 2014-06-24 2022-10-04 Apple Inc. Column interface for navigating in a user interface
US10969890B2 (en) 2014-12-03 2021-04-06 Samsung Display Co., Ltd. Display device and driving method for display device using the same
US10452194B2 (en) 2014-12-03 2019-10-22 Samsung Display Co., Ltd. Display device and driving method for display device using the same
US10241608B2 (en) 2014-12-03 2019-03-26 Samsung Display Co., Ltd. Display device and driving method for display device using the same
KR20160094152A (en) * 2015-01-30 2016-08-09 한국과학기술연구원 METHOD, APPARATUS, AND COMPUTER READABLE RECORDING MEDIUM FOR PERFORMING THE SAME - Patent application
US9959030B2 (en) 2015-03-05 2018-05-01 Samsung Display Co., Ltd. Display apparatus
US10705716B2 (en) 2015-03-05 2020-07-07 Samsung Display Co., Ltd. Display apparatus
US10209878B2 (en) 2015-03-05 2019-02-19 Samsung Display Co., Ltd. Display apparatus
KR20160118078A (en) * 2015-04-01 2016-10-11 삼성전자주식회사 Apparatus and method for controlling volume using touch screen
US11640633B2 (en) * 2015-07-14 2023-05-02 Ebay Inc. Enhanced shopping actions on a mobile device
US20210166288A1 (en) * 2015-07-14 2021-06-03 Ebay Inc. Enhanced Shopping Actions on A Mobile Device
KR101876020B1 (en) * 2016-05-10 2018-07-06 홍익대학교세종캠퍼스산학협력단 Cursor Scrolling Control Method Using A 3D Touch Of A Mobile Device
US11543938B2 (en) 2016-06-12 2023-01-03 Apple Inc. Identifying applications on which content is available
US12287953B2 (en) 2016-06-12 2025-04-29 Apple Inc. Identifying applications on which content is available
US11520858B2 (en) 2016-06-12 2022-12-06 Apple Inc. Device-level authorization for viewing content
US11609678B2 (en) 2016-10-26 2023-03-21 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
KR20180060683A (en) * 2016-11-29 2018-06-07 삼성전자주식회사 Device for displaying user interface based on sensing signal of grip sensor
US12307082B2 (en) 2018-02-21 2025-05-20 Apple Inc. Scrollable set of content items with locking feature
US11582517B2 (en) 2018-06-03 2023-02-14 Apple Inc. Setup procedures for an electronic device
US12335569B2 (en) 2018-06-03 2025-06-17 Apple Inc. Setup procedures for an electronic device
US11302037B2 (en) 2018-12-18 2022-04-12 Samsung Electronics Co., Ltd. Electronic device for adaptively altering information display area and operation method thereof
US11962836B2 (en) 2019-03-24 2024-04-16 Apple Inc. User interfaces for a media browsing application
US11467726B2 (en) 2019-03-24 2022-10-11 Apple Inc. User interfaces for viewing and accessing content on an electronic device
US12008232B2 (en) 2019-03-24 2024-06-11 Apple Inc. User interfaces for viewing and accessing content on an electronic device
US12432412B2 (en) 2019-03-24 2025-09-30 Apple Inc. User interfaces for a media browsing application
US11445263B2 (en) 2019-03-24 2022-09-13 Apple Inc. User interfaces including selectable representations of content items
US11683565B2 (en) 2019-03-24 2023-06-20 Apple Inc. User interfaces for interacting with channels that provide content that plays in a media browsing application
US11750888B2 (en) 2019-03-24 2023-09-05 Apple Inc. User interfaces including selectable representations of content items
US12299273B2 (en) 2019-03-24 2025-05-13 Apple Inc. User interfaces for viewing and accessing content on an electronic device
US12204584B2 (en) 2019-05-31 2025-01-21 Apple Inc. User interfaces for a podcast browsing and playback application
US11797606B2 (en) 2019-05-31 2023-10-24 Apple Inc. User interfaces for a podcast browsing and playback application
US12250433B2 (en) 2019-05-31 2025-03-11 Apple Inc. Notification of augmented reality content on an electronic device
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
KR20210032876A (en) * 2019-09-12 2021-03-25 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 Button setting method, device and recording medium
US11320926B2 (en) 2019-09-12 2022-05-03 Beijing Xiaomi Mobile Software Co., Ltd. Key setting method and device, and storage medium
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
US12301950B2 (en) 2020-03-24 2025-05-13 Apple Inc. User interfaces for accessing episodes of a content series
US12271568B2 (en) 2020-06-21 2025-04-08 Apple Inc. User interfaces for setting up an electronic device
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
WO2022103015A1 (en) * 2020-11-11 2022-05-19 삼성전자 주식회사 Electronic device comprising stretchable display
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels

Also Published As

Publication number Publication date
CN106909304A (en) 2017-06-30
ES2776103T3 (en) 2020-07-29
CN106909304B (en) 2020-08-14
CN101714055A (en) 2010-05-26
CN106909305A (en) 2017-06-30
CN106909305B (en) 2020-10-27

Similar Documents

Publication Publication Date Title
KR20100039194A (en) Method for displaying graphic user interface according to user's touch pattern and apparatus having the same
US10180778B2 (en) Method and apparatus for displaying graphical user interface depending on a user's contact pattern
JP5983503B2 (en) Information processing apparatus and program
US9851809B2 (en) User interface control using a keyboard
US10203869B2 (en) Information processing apparatus, and input control method and program of information processing apparatus
JP5730667B2 (en) Method for dual-screen user gesture and dual-screen device
JP5529616B2 (en) Information processing system, operation input device, information processing device, information processing method, program, and information storage medium
JP2011221640A (en) Information processor, information processing method and program
KR20150068479A (en) Adapting user interface based on handedness of use of mobile computing device
WO2015025458A1 (en) Information processing apparatus and information processing method
TWI659353B (en) Electronic apparatus and method for operating thereof
TWI615747B (en) Virtual keyboard display system and method
JP5997921B2 (en) Character input method and character input device
US20120218207A1 (en) Electronic device, operation control method, and storage medium storing operation control program
JP2018139158A (en) Mobile terminal and program
US10101905B1 (en) Proximity-based input device
KR20130026646A (en) Touch based mobile terminal and method for controlling soft keyboard in touch type mobile terminal
KR101237127B1 (en) Cursor moving method in the touch screen keypad including sliding key
JP2016186824A (en) Information processing apparatus and program
KR20160072446A (en) Method for inputting execute command by pointer and multimedia apparatus using the same
JPWO2015079578A1 (en) Input support computer program and input support computer system

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20090217

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20140217

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20090217

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20150821

Patent event code: PE09021S01D

AMND Amendment
PE0601 Decision on rejection of patent

Patent event date: 20160229

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20150821

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I

AMND Amendment
J201 Request for trial against refusal decision
PJ0201 Trial against decision of rejection

Patent event date: 20160328

Comment text: Request for Trial against Decision on Refusal

Patent event code: PJ02012R01D

Patent event date: 20160229

Comment text: Decision to Refuse Application

Patent event code: PJ02011S01I

Appeal kind category: Appeal against decision to decline refusal

Decision date: 20171213

Appeal identifier: 2016101001842

Request date: 20160328

PB0901 Examination by re-examination before a trial

Comment text: Amendment to Specification, etc.

Patent event date: 20160328

Patent event code: PB09011R02I

Comment text: Request for Trial against Decision on Refusal

Patent event date: 20160328

Patent event code: PB09011R01I

Comment text: Amendment to Specification, etc.

Patent event date: 20151021

Patent event code: PB09011R02I

E801 Decision on dismissal of amendment
PE0801 Dismissal of amendment

Patent event code: PE08012E01D

Comment text: Decision on Dismissal of Amendment

Patent event date: 20160523

Patent event code: PE08011R01I

Comment text: Amendment to Specification, etc.

Patent event date: 20160328

Patent event code: PE08011R01I

Comment text: Amendment to Specification, etc.

Patent event date: 20151021

B601 Maintenance of original decision after re-examination before a trial
PB0601 Maintenance of original decision after re-examination before a trial
J301 Trial decision

Free format text: TRIAL NUMBER: 2016101001842; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20160328

Effective date: 20171213

PJ1301 Trial decision

Patent event code: PJ13011S01D

Patent event date: 20171213

Comment text: Trial Decision on Objection to Decision on Refusal

Appeal kind category: Appeal against decision to decline refusal

Request date: 20160328

Decision date: 20171213

Appeal identifier: 2016101001842