[go: up one dir, main page]

WO2017030301A1 - Apparatus for providing responsive user interface and method for providing responsive user interface using same - Google Patents

Apparatus for providing responsive user interface and method for providing responsive user interface using same Download PDF

Info

Publication number
WO2017030301A1
WO2017030301A1 PCT/KR2016/008360 KR2016008360W WO2017030301A1 WO 2017030301 A1 WO2017030301 A1 WO 2017030301A1 KR 2016008360 W KR2016008360 W KR 2016008360W WO 2017030301 A1 WO2017030301 A1 WO 2017030301A1
Authority
WO
WIPO (PCT)
Prior art keywords
menu
information
user interface
coordinate information
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2016/008360
Other languages
French (fr)
Korean (ko)
Inventor
김기태
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
INNOSPARK Inc
Original Assignee
INNOSPARK Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by INNOSPARK Inc filed Critical INNOSPARK Inc
Publication of WO2017030301A1 publication Critical patent/WO2017030301A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • Responsive user interface providing method for solving the above problems is a step in which the touch recognition unit calculates contact coordinate information for the position of the object contact on the display unit of the user device and the menu output unit the contact And displaying, on the display unit, a user interface including at least one menu within a predetermined distance with respect to the position corresponding to the contact coordinate information using coordinate information.
  • the memory unit of the user device may further include first menu separation distance information on a distance from which the at least one menu is to be spaced apart from a position corresponding to the contact coordinate information, and a distance to be spaced apart from each other.
  • the second menu separation distance information may be stored in advance.
  • the displaying of the user interface on the display unit may include the menu output unit corresponding to the contact coordinate information using the contact coordinate information, the first menu separation distance information, and the second menu separation distance information.
  • the method may include determining a location where each of the at least one menu is to be arranged from a location, and displaying the at least one menu on the display unit based on the determined location of the menu output unit.
  • the first menu separation distance information may be formed such that the distance from which each of the at least one menu is separated from a position corresponding to the contact coordinate information is the same.
  • the first menu distance information may be formed so that the distance from which each of the at least one menu is spaced apart from each other corresponding to the contact coordinate information.
  • the first menu separation distance information may be formed such that the distance from which each of the at least one menu is spaced from the position corresponding to the contact coordinate information is the same or different from each other.
  • the method of providing a responsive user interface includes the steps of the touch recognition unit calculating contact time information on a time when the object is in contact with one of the at least one menu, and the menu output unit by the contact.
  • Selectively activating a menu editing mode for changing the position of the at least one menu by using time information and when the menu editing mode is activated, the touch recognition unit selects one of the at least one menu by the object
  • Calculating menu movement coordinate information on the selected and moved position wherein the menu output unit moves the menu moved using the menu movement coordinate information and the contact coordinate information at a distance separated from a position corresponding to the contact coordinate information;
  • Calculating first menu separation distance correction information for the menu output unit may further include calculating second menu separation distance correction information on the spaced distance between the position of the moved menu and the positions of other menus using the new movement coordinate information.
  • the menu output unit may update the first menu separation distance information with the first menu separation distance information, update the second menu separation distance modification information with the second menu separation distance information, and store the same in the memory unit. Can be.
  • the method for providing a reactive user interface according to an embodiment of the present invention may be recorded on a computer-readable recording medium.
  • responsive user interface providing apparatus for solving the above problems is a touch recognition unit for calculating the contact coordinate information for the position of the object contact on the display unit of the user device, and the contact coordinates And a menu output unit configured to display a user interface including at least one menu within a predetermined distance about a position corresponding to the information on the display unit.
  • the memory unit of the user device may further include first menu separation distance information on a distance from which the at least one menu is to be spaced apart from a position corresponding to the contact coordinate information, and a distance to be spaced apart from each other.
  • the second menu separation distance information may be stored in advance.
  • the menu output unit may determine a position where at least one menu is to be arranged from a position corresponding to the contact coordinate by using the contact coordinate information, the first menu separation distance information, and the second menu separation distance information. At least one menu may be displayed on the display unit based on the determined position.
  • the first menu separation distance information may be formed such that the distance from which each of the at least one menu is separated from a position corresponding to the contact coordinate information is the same.
  • the first menu distance information may be formed so that the distance from which each of the at least one menu is spaced apart from each other corresponding to the contact coordinate information.
  • the first menu separation distance information may be formed such that the distance from which each of the at least one menu is spaced from the position corresponding to the contact coordinate information is the same or different from each other.
  • the touch recognition unit may be configured to calculate contact time information on a time when the object is in contact with one of the at least one menu, and the menu output unit to change the position of the at least one menu using the contact time information.
  • Selectively activates a menu editing mode for the menu editing mode and when the menu editing mode is activated, the touch recognition unit calculates menu movement coordinate information on a position where one of the at least one menu is selected by the object and moved;
  • a menu output unit calculates first menu separation distance correction information for a distance spaced from a position corresponding to the contact coordinate information by using the menu movement coordinate information and the contact coordinate information; The distance between the position of the moved menu and the position of other menus using the menu movement coordinate information. It can calculate the second menu edit distance information on the distance.
  • the menu output unit may update the first menu separation distance information with the first menu separation distance information, update the second menu separation distance modification information with the second menu separation distance information, and store the same in the memory unit. Can be.
  • Responsive user interface providing apparatus and a responsive user interface providing method using the same is a user whose menu output unit includes at least one menu within a predetermined distance from the position of the object contact on the display unit of the user equipment By displaying the interface, it is possible to freely activate and use the user interface at a desired position when necessary, thereby increasing user convenience.
  • FIG. 1 is a diagram schematically illustrating a user device in which a responsive user interface providing apparatus according to an exemplary embodiment of the present invention is installed.
  • FIG. 3 is a flowchart illustrating a procedure of a method of providing a responsive user interface according to an embodiment of the present invention.
  • FIG. 4 is a view schematically illustrating a position where an object contacts a display unit.
  • FIG. 5 is a view schematically showing a user interface displayed on a display unit.
  • FIG. 6 is a view schematically illustrating that one of at least one menu displayed on the display unit is moved.
  • FIG. 1 is a diagram schematically illustrating a user device 10 in which a responsive user interface providing apparatus 100 according to an exemplary embodiment of the present invention is installed.
  • 2 is a view schematically showing a responsive user interface providing apparatus 100 according to an embodiment of the present invention.
  • the user device 10 is a device used by a user, and not only a smart device such as a smartphone or a tablet PC, but also a device capable of receiving a user's input through a touch on a touch screen. It may include.
  • the user device 10 is connected to the control unit 11 and the control unit 11 which perform overall control of the user device 10, and to the memory unit 12 and the control unit 11, which store various information. It is electrically connected to the transmission and reception unit 13, the control unit 11, which is electrically connected and transmits and receives predetermined information from the web server, and is electrically connected to the display unit 14 and the control unit 11 on which various information is displayed. It may be configured to include an interface unit 15 formed by input means such as a touch screen.
  • the responsive user interface providing apparatus 100 may be electrically connected to the control unit 11 of the user device 10.
  • the responsive user interface providing apparatus 100 may calculate contact coordinate information about a position where an object contacts the display unit 14.
  • the responsive user interface providing apparatus 100 corresponds to the contact coordinate information by using the contact coordinate information and the first menu separation distance information and the second menu separation distance information previously stored in the memory unit 12 to be described below.
  • a user interface including at least one menu within a predetermined distance with respect to the position may be displayed on the display unit 14.
  • Responsive user interface providing apparatus 100 may be configured to include a touch recognition unit 110 and the menu output unit 120.
  • the touch recognition unit 110 may calculate contact coordinate information on a position where the object contacts the display unit 14. In this case, the touch recognition unit 110 may calculate contact coordinate information about a position where an object contacts the display unit 14 through the interface unit 15 formed as a touch screen. Alternatively, the touch recognition unit 110 may receive contact coordinate information regarding a position where an object contacts the display unit 14 from the interface unit 15 formed as a touch screen.
  • the touch recognition unit 110 may detect that the object is in contact with one of at least one menu included in the user interface through the interface unit 15 formed as a touch screen.
  • the touch recognition unit 110 at a time when the object is in contact with one of the at least one menu included in the user interface through the interface unit 15 formed of a touch screen Contact time information can be calculated.
  • the menu output unit 120 may receive the first menu separation distance information and the second separation distance information previously stored in the memory unit 12 through the control unit 11.
  • the first menu separation distance information may be formed as information on a distance at which each of the at least one menu is to be separated from a position corresponding to the contact coordinate information calculated by the touch recognition unit 110, and the second menu separation distance information.
  • At least one menu may be formed of information about the distance to be spaced from each other.
  • the menu output unit 120 may selectively activate a menu editing mode for changing the position of at least one menu included in the user interface using the contact time information calculated from the touch recognition unit 110.
  • the menu edit mode is activated and one of the at least one menu is selected and moved
  • the touch recognition unit 110 moves the menu movement coordinate information on the position where the selected one of the at least one menu included in the user interface is moved by the object.
  • the menu output unit 120 may calculate first menu separation distance correction information for the distance from which the moved menu is spaced from the position corresponding to the contact coordinate information by using the menu movement coordinate information and the contact coordinate information.
  • the menu output unit 120 may calculate second menu separation distance correction information on the spaced distance between the position of the moved menu and the positions of other menus using the menu movement coordinate information.
  • the menu output unit 120 updates the calculated first menu separation distance correction information and the second menu separation distance correction information with the first menu separation distance information and the second menu separation distance information to the memory unit 12. Can be stored.
  • a user interface including at least one menu is displayed on the display unit 14 of the user device 10 with reference to FIG. 3, which shows a procedure of a method of providing a responsive user interface according to an embodiment of the present invention.
  • the user device 10 may receive and install a separate application for performing the responsive user interface providing method according to the embodiment of the present invention through the transmission and reception unit 13.
  • the separate application installed in the user device 10 is activated, the method for providing a responsive user interface according to an embodiment of the present invention may be performed in the user device 10.
  • various information previously stored in the memory unit 12 to be described below may be stored in the memory unit 12 by the separate application is installed in the user device 10.
  • the touch recognition unit 110 calculates contact coordinate information on a position p at which an object contacts on the display unit 14 of the user device (S110, see FIG. 4).
  • the touch recognition unit 110 may calculate contact coordinate information about a position p at which an object contacts the display unit 14 through the interface unit 15 formed as a touch screen.
  • the object in contact with the display unit 14 may be a user's finger or a touch pen.
  • the menu output unit 120 may display a separate interface screen (not displayed) for selecting at least one menu to be included in the user interface u on the display unit 14.
  • the separate interface screen may be formed as a screen for selecting a predetermined number of a plurality of menus for selecting one of a plurality of icons or a plurality of functions for activating a specific application.
  • the menu output unit 120 may set a predetermined number of icons or menus selected through the interface unit 15 among a plurality of icons or a plurality of menus as at least one menu to be included in the user interface u.
  • the user interface u includes a first menu u1, a second menu u2, a third menu u3, and a fourth menu u4 will be described. do.
  • the menu output unit 120 may check whether specific content or an application is being activated in the user device 10 before outputting the user interface u on the display unit 14.
  • the menu output unit 120 may not display the user interface u on the display unit 14. That is, when a specific content or application is activated in the user device 10, the user interface u is not displayed on the display unit 14 by the menu output unit 120, but by the control unit 11.
  • a preset menu corresponding to the active content or application may be displayed on the display unit 14, but is not limited to the above example.
  • the memory unit 12 may store, in advance, region information on a region of a predetermined size among regions on the display unit 14.
  • the menu output unit 120 may determine whether the position p corresponding to the contact coordinate information is located within an area of a predetermined size by using the contact coordinate information and the area information.
  • the menu output unit 120 may display the user interface u on the display unit 14 only when the position p corresponding to the contact coordinate information is located within an area of a predetermined size. It is not.
  • the menu output unit 120 selectively activates a menu editing mode for changing the position of at least one menu using the contact time information (S140).
  • the menu output unit 120 the time that the object is in contact with one of the at least one menu using the contact time information and the activation time information should be in contact with one of the at least one menu to activate the menu editing mode. If less than the time, the application or content corresponding to the selected menu can be activated.
  • the menu output unit 120 calculates the first menu separation distance correction information by using the menu movement coordinate information and the contact coordinate information (S160).
  • the menu output unit 120 may calculate first menu separation distance correction information for the distance from which the moved menu is spaced from the position corresponding to the contact coordinate information by using the menu movement coordinate information and the contact coordinate information.
  • the menu output unit 120 calculates second menu separation distance correction information on the spaced distance between the position of the moved menu and the positions of other menus using the menu movement coordinate information (S170).

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to an apparatus for providing a responsive user interface and a method for providing a responsive user interface using the same. A method of providing a responsive user interface according to an embodiment of the present invention comprises the steps of: calculating, a touch recognition unit, contact coordinate information on a position at which an object touches a display unit of a user's device; and displaying, by a menu output unit, on the display unit a user interface including at least one menu within a predetermined distance about a position corresponding to the touch coordinate information using the touch coordinate information.

Description

반응형 유저인터페이스 제공장치 및 이를 이용한 반응형 유저인터페이스 제공방법Responsive user interface providing apparatus and responsive user interface providing method using the same

본 발명은 반응형 유저인터페이스 제공장치 및 이를 이용한 반응형 유저인터페이스 제공방법에 관한 것이다. 더욱 상세하게는 사용자기기의 디스플레이유닛에 객체가 접촉된 위치로부터 소정거리 내에 적어도 하나의 메뉴를 포함하는 유저인터페이스를 다스플레이유닛 상에 표시할 수 있는 반응형 유저인터페이스 제공장치 및 이를 이용한 반응형 유저인터페이스 제공방법에 관한 것이다.The present invention relates to a responsive user interface providing apparatus and a responsive user interface providing method using the same. More specifically, a responsive user interface providing apparatus capable of displaying a user interface including at least one menu on a display unit within a predetermined distance from a position where an object contacts a display unit of a user device, and a responsive user using the same. It relates to an interface providing method.

일반적으로 스마트폰 또는 테블릿PC 등과 같은 개인휴대단말기는 다양한 메뉴를 포함하는 유저인터페이스가 디스플레이 상에 표시될 수 있다. 사용자는 디스플레이 상의 메뉴를 선택하여 자신이 원하는 기능을 실행시킬 수 있는데, 기존의 유저인터페이스는 사용자가 자유롭게 배치 또는 표시되는 위치를 선택할 수 없게 되어 있기 때문에, 사용자의 편의성이 제한될 수 밖에 없다.In general, a personal mobile terminal such as a smartphone or tablet PC may display a user interface including various menus on a display. The user can execute a desired function by selecting a menu on the display. Since the existing user interface does not allow the user to freely select a location to be arranged or displayed, the user's convenience is inevitably limited.

본 발명은 사용자기기의 디스플레이 상에 객체가 접촉된 위치로부터 소정거리 내에 사용자가 선택한 아이콘 또는 메뉴를 포함하는 유저인터페이스를 디스플레이에 표시할 수 있는 반응형 유저인터페이스 제공장치 및 이를 이용한 반응형 유저인터페이스 제공방법을 제공하는 것에 목적이 있다.The present invention provides a responsive user interface providing apparatus for displaying a user interface including an icon or a menu selected by the user within a predetermined distance from the position of the object contact on the display of the user device on the display and a responsive user interface using the same The purpose is to provide a method.

본 발명의 목적은 이상에서 언급한 것으로 제한되지 않으며, 제한되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to those mentioned above, and other objects without limitation will be clearly understood by those skilled in the art from the following description.

상기 과제를 해결하기 위한 본 발명의 실시예에 따른 반응형 유저인터페이스 제공방법은 터치인식부가 사용자기기의 디스플레이유닛 상에 객체가 접촉되는 위치에 대한 접촉좌표정보를 산출하는 단계 및 메뉴출력부가 상기 접촉좌표정보를 이용하여 상기 접촉좌표정보에 대응하는 위치를 중심으로 소정거리 내에 적어도 하나의 메뉴를 포함하는 유저인터페이스를 상기 디스플레이유닛 상에 표시되도록 하는 단계를 포함한다.Responsive user interface providing method according to an embodiment of the present invention for solving the above problems is a step in which the touch recognition unit calculates contact coordinate information for the position of the object contact on the display unit of the user device and the menu output unit the contact And displaying, on the display unit, a user interface including at least one menu within a predetermined distance with respect to the position corresponding to the contact coordinate information using coordinate information.

또한, 상기 사용자기기의 메모리유닛은 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리에 대한 제 1 메뉴이격거리정보 및 상기 적어도 하나의 메뉴 상호 간에 서로 이격될 거리에 대한 제 2 메뉴이격거리정보가 기 저장될 수 있다.The memory unit of the user device may further include first menu separation distance information on a distance from which the at least one menu is to be spaced apart from a position corresponding to the contact coordinate information, and a distance to be spaced apart from each other. The second menu separation distance information may be stored in advance.

또한, 상기 유저인터페이스를 상기 디스플레이유닛 상에 표시되도록 하는 단계는 상기 메뉴출력부가 상기 접촉좌표정보, 상기 제 1 메뉴이격거리정보 및 상기 제 2 메뉴이격거리정보를 이용하여 상기 접촉좌표정보에 대응하는 위치로부터 적어도 하나의 메뉴 각각이 배치될 위치를 결정하는 단계 및 상기 메뉴출력부가 결정된 위치를 근거로 상기 적어도 하나의 메뉴를 상기 디스플레이유닛 상에 표시하는 단계를 포함할 수 있다.The displaying of the user interface on the display unit may include the menu output unit corresponding to the contact coordinate information using the contact coordinate information, the first menu separation distance information, and the second menu separation distance information. The method may include determining a location where each of the at least one menu is to be arranged from a location, and displaying the at least one menu on the display unit based on the determined location of the menu output unit.

또한, 상기 제 1 메뉴이격거리정보는 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리가 동일하도록 형성될 수 있다.In addition, the first menu separation distance information may be formed such that the distance from which each of the at least one menu is separated from a position corresponding to the contact coordinate information is the same.

또한, 상기 제 1 메뉴이격거리정보는 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리가 서로 상이하도록 형성될 수 있다.In addition, the first menu distance information may be formed so that the distance from which each of the at least one menu is spaced apart from each other corresponding to the contact coordinate information.

또한, 상기 제 1 메뉴이격거리정보는 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리가 동일하거나 서로 상이하도록 형성될 수 있다.In addition, the first menu separation distance information may be formed such that the distance from which each of the at least one menu is spaced from the position corresponding to the contact coordinate information is the same or different from each other.

또한, 본 발명의 실시예에 따른 반응형 유저인터페이스 제공방법은 상기 터치인식부가 상기 적어도 하나의 메뉴 중 하나에 상기 객체가 접촉되는 시간에 대한 접촉시간정보를 산출하는 단계, 상기 메뉴출력부가 상기 접촉시간정보를 이용하여 상기 적어도 하나의 메뉴의 위치를 변화시키기 위한 메뉴 편집모드를 선택적으로 활성화시키는 단계, 상기 메뉴 편집모드가 활성화되면, 상기 터치인식부가 상기 객체에 의해 상기 적어도 하나의 메뉴 중 하나가 선택되어 이동된 위치에 대한 메뉴이동좌표정보를 산출하는 단계, 상기 메뉴출력부가 상기 메뉴이동좌표정보와 상기 접촉좌표정보를 이용하여 이동된 메뉴가 상기 접촉좌표정보에 대응하는 위치로부터 이격된 거리에 대한 제 1 메뉴이격거리수정정보를 산출하는 단계 및 상기 메뉴출력부가 상기 메뉴이동좌표정보를 이용하여 이동된 메뉴의 위치와 다른 메뉴들의 위치 사이의 이격된 거리에 대한 제 2 메뉴이격거리수정정보를 산출하는 단계를 더 포함할 수 있다.The method of providing a responsive user interface according to an embodiment of the present invention includes the steps of the touch recognition unit calculating contact time information on a time when the object is in contact with one of the at least one menu, and the menu output unit by the contact. Selectively activating a menu editing mode for changing the position of the at least one menu by using time information, and when the menu editing mode is activated, the touch recognition unit selects one of the at least one menu by the object Calculating menu movement coordinate information on the selected and moved position, wherein the menu output unit moves the menu moved using the menu movement coordinate information and the contact coordinate information at a distance separated from a position corresponding to the contact coordinate information; Calculating first menu separation distance correction information for the menu output unit; The method may further include calculating second menu separation distance correction information on the spaced distance between the position of the moved menu and the positions of other menus using the new movement coordinate information.

또한, 상기 메뉴출력부는 상기 제 1 메뉴이격거리수정정보를 상기 제 1 메뉴이격거리정보로 업데이트하고, 상기 제 2 메뉴이격거리수정정보를 상기 제 2 메뉴이격거리정보로 업데이트하여 상기 메모리유닛에 저장할 수 있다.The menu output unit may update the first menu separation distance information with the first menu separation distance information, update the second menu separation distance modification information with the second menu separation distance information, and store the same in the memory unit. Can be.

또한, 본 발명의 실시예에 따른 반응형 유저인터페이스 제공방법은 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다.In addition, the method for providing a reactive user interface according to an embodiment of the present invention may be recorded on a computer-readable recording medium.

한편, 상기 과제를 해결하기 위한 본 발명의 실싱예에 따른 반응형 유저인터페이스 제공장치는 사용자기기의 디스플레이유닛 상에 객체가 접촉되는 위치에 대한 접촉좌표정보를 산출하는 터치인식부와, 상기 접촉좌표정보에 대응하는 위치를 중심으로 소정거리 내에 적어도 하나의 메뉴를 포함하는 유저인터페이스를 상기 디스플레이유닛 상에 표시되도록 하는 메뉴출력부를 포함한다.On the other hand, responsive user interface providing apparatus according to a practical example of the present invention for solving the above problems is a touch recognition unit for calculating the contact coordinate information for the position of the object contact on the display unit of the user device, and the contact coordinates And a menu output unit configured to display a user interface including at least one menu within a predetermined distance about a position corresponding to the information on the display unit.

또한, 상기 사용자기기의 메모리유닛은 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리에 대한 제 1 메뉴이격거리정보 및 상기 적어도 하나의 메뉴 상호 간에 서로 이격될 거리에 대한 제 2 메뉴이격거리정보가 기 저장될 수 있다.The memory unit of the user device may further include first menu separation distance information on a distance from which the at least one menu is to be spaced apart from a position corresponding to the contact coordinate information, and a distance to be spaced apart from each other. The second menu separation distance information may be stored in advance.

또한, 상기 메뉴출력부가 상기 접촉좌표정보, 상기 제 1 메뉴이격거리정보 및 상기 제 2 메뉴이격거리정보를 이용하여 상기 접촉좌표에 대응하는 위치로부터 적어도 하나의 메뉴 각각이 배치될 위치를 결정하고, 결정된 위치를 근거로 적어도 하나의 메뉴를 상기 디스플레이유닛 상에 표시할 수 있다.The menu output unit may determine a position where at least one menu is to be arranged from a position corresponding to the contact coordinate by using the contact coordinate information, the first menu separation distance information, and the second menu separation distance information. At least one menu may be displayed on the display unit based on the determined position.

또한, 상기 제 1 메뉴이격거리정보는 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리가 동일하도록 형성될 수 있다.In addition, the first menu separation distance information may be formed such that the distance from which each of the at least one menu is separated from a position corresponding to the contact coordinate information is the same.

또한, 상기 제 1 메뉴이격거리정보는 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리가 서로 상이하도록 형성될 수 있다.In addition, the first menu distance information may be formed so that the distance from which each of the at least one menu is spaced apart from each other corresponding to the contact coordinate information.

또한, 상기 제 1 메뉴이격거리정보는 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리가 동일하거나 서로 상이하도록 형성될 수 있다.In addition, the first menu separation distance information may be formed such that the distance from which each of the at least one menu is spaced from the position corresponding to the contact coordinate information is the same or different from each other.

또한, 상기 터치인식부가 상기 적어도 하나의 메뉴 중 하나에 상기 객체가 접촉되는 시간에 대한 접촉시간정보를 산출하고, 상기 메뉴출력부가 상기 접촉시간정보를 이용하여 상기 적어도 하나의 메뉴의 위치를 변화시키기 위한 메뉴 편집모드를 선택적으로 활성화시키며, 상기 메뉴 편집모드가 활성화되면, 상기 터치인식부가 상기 객체에 의해 상기 적어도 하나의 메뉴 중 하나가 선택되어 이동된 위치에 대한 메뉴이동좌표정보를 산출하고, 상기 메뉴출력부가 상기 메뉴이동좌표정보와 상기 접촉좌표정보를 이용하여 이동된 메뉴가 상기 접촉좌표정보에 대응하는 위치로부터 이격된 거리에 대한 제 1 메뉴이격거리수정정보를 산출하며, 상기 메뉴출력부가 상기 메뉴이동좌표정보를 이용하여 이동된 메뉴의 위치와 다른 메뉴들의 위치 사이의 이격된 거리에 대한 제 2 메뉴이격거리수정정보를 산출할 수 있다.The touch recognition unit may be configured to calculate contact time information on a time when the object is in contact with one of the at least one menu, and the menu output unit to change the position of the at least one menu using the contact time information. Selectively activates a menu editing mode for the menu editing mode, and when the menu editing mode is activated, the touch recognition unit calculates menu movement coordinate information on a position where one of the at least one menu is selected by the object and moved; A menu output unit calculates first menu separation distance correction information for a distance spaced from a position corresponding to the contact coordinate information by using the menu movement coordinate information and the contact coordinate information; The distance between the position of the moved menu and the position of other menus using the menu movement coordinate information. It can calculate the second menu edit distance information on the distance.

또한, 상기 메뉴출력부는 상기 제 1 메뉴이격거리수정정보를 상기 제 1 메뉴이격거리정보로 업데이트하고, 상기 제 2 메뉴이격거리수정정보를 상기 제 2 메뉴이격거리정보로 업데이트하여 상기 메모리유닛에 저장할 수 있다.The menu output unit may update the first menu separation distance information with the first menu separation distance information, update the second menu separation distance modification information with the second menu separation distance information, and store the same in the memory unit. Can be.

본 발명의 실시예에 따른 반응형 유저인터페이스 제공장치 및 이를 이용한 반응형 유저인터페이스 제공방법은 메뉴출력부가 사용자기기의 디스플레이유닛 상에 객체가 접촉되는 위치로부터 소정거리 내에 적어도 하나의 메뉴를 포함하는 유저인터페이스를 표시함으로써 필요한 때에 원하는 위치에서 자유롭게 유저인터페이스를 활성화시켜 사용할 수 있게 하여, 사용자의 편의성을 증대시킬 수 있다.Responsive user interface providing apparatus and a responsive user interface providing method using the same according to an embodiment of the present invention is a user whose menu output unit includes at least one menu within a predetermined distance from the position of the object contact on the display unit of the user equipment By displaying the interface, it is possible to freely activate and use the user interface at a desired position when necessary, thereby increasing user convenience.

본 발명의 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects, which are not mentioned above, will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 실시예에 따른 반응형 유저인터페이스 제공장치가 설치된 사용자 기기를 개략적으로 보여주는 도면이다.1 is a diagram schematically illustrating a user device in which a responsive user interface providing apparatus according to an exemplary embodiment of the present invention is installed.

도 2는 본 발명의 실시예에 따른 반응형 유저인터페이스 제공장치를 개략적으로 보여주는 도면이다.2 is a view schematically showing a responsive user interface providing apparatus according to an embodiment of the present invention.

도 3은 본 발명의 실시예에 따른 반응형 유저인터페이스 제공방법의 순서를 보여주는 순서도이다.3 is a flowchart illustrating a procedure of a method of providing a responsive user interface according to an embodiment of the present invention.

도 4는 디스플레이유닛 상에 객체가 접촉되는 위치를 개략적으로 보여주는 도면이다.4 is a view schematically illustrating a position where an object contacts a display unit.

도 5는 디스플레이유닛 상에 유저인터페이스가 표시되는 것을 개략적으로 보여주는 도면이다.5 is a view schematically showing a user interface displayed on a display unit.

도 6은 디스플레이유닛 상에 표시된 적어도 하나의 메뉴 중 하나가 이동되는 것을 개략적으로 보여주는 도면이다.6 is a view schematically illustrating that one of at least one menu displayed on the display unit is moved.

본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 뒤에 설명이 되는 실시 예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐를 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 뒤에 설명되는 용어들은 본 발명에서의 구조, 역할 및 기능 등을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.Objects and effects of the present invention, and technical configurations for achieving them will be apparent with reference to the embodiments described later in detail in conjunction with the accompanying drawings. In describing the present invention, when it is determined that a detailed description of a known function or configuration may unnecessarily flow the gist of the present invention, the detailed description thereof will be omitted. The terms to be described later are terms defined in consideration of structures, roles, functions, and the like in the present invention, which may vary according to intentions or customs of users and operators.

그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 오로지 특허청구범위에 기재된 청구항의 범주에 의하여 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.However, the present invention is not limited to the embodiments disclosed below but may be implemented in various forms. The present embodiments are merely provided to complete the disclosure of the present invention, and to fully inform the scope of the invention to those skilled in the art, and the present invention is described only in the claims. It is only defined by the scope of the claims. Therefore, the definition should be made based on the contents throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 또는 "구비"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to "include" or "include" a component, it means that it can further include other components, except to exclude other components unless otherwise stated. .

이하에서는 본 발명의 실시예에 따른 반응형 유저인터페이스 제공장치 및 이를 이용한 반응형 유저인터페이스 제공방법에 대하여 첨부한 도면을 참고하여 구체적으로 설명하기로 한다.Hereinafter, a responsive user interface providing apparatus and a responsive user interface providing method using the same according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 반응형 유저인터페이스 제공장치가(100) 설치된 사용자기기(10)를 개략적으로 보여주는 도면이다. 도 2는 본 발명의 실시예에 따른 반응형 유저인터페이스 제공장치(100)를 개략적으로 보여주는 도면이다.1 is a diagram schematically illustrating a user device 10 in which a responsive user interface providing apparatus 100 according to an exemplary embodiment of the present invention is installed. 2 is a view schematically showing a responsive user interface providing apparatus 100 according to an embodiment of the present invention.

도 1 및 도 2를 참고 하면, 사용자기기(10)는 사용자가 사용하는 기기로서, 스마트폰 또는 테블릿PC 등과 같은 스마트디바이스 뿐만 아니라 터치스크린 상의 터치를 통해 사용자의 입력을 받을 수 있는 기기를 모두 포함할 수 있다.Referring to FIGS. 1 and 2, the user device 10 is a device used by a user, and not only a smart device such as a smartphone or a tablet PC, but also a device capable of receiving a user's input through a touch on a touch screen. It may include.

사용자기기(10)는 사용자기기(10)의 전반적인 제어를 수행하는 제어유닛(11), 제어유닛(11)에 전기적으로 연결되며 다양한 정보가 저장되는 메모리유닛(12), 제어유닛(11)에 전기적으로 연결되며 웹서버로부터 소정의 정보를 송수신하는 송수신유닛(13), 제어유닛(11)에 전기적으로 연결되며 다양한 정보가 표시되는 디스플레이유닛(14) 및 제어유닛(11)에 전기적으로 연결되며 터치스크린 등과 같은 입력수단으로 형성되는 인터페이스유닛(15)을 포함하여 구성될 수 있다.The user device 10 is connected to the control unit 11 and the control unit 11 which perform overall control of the user device 10, and to the memory unit 12 and the control unit 11, which store various information. It is electrically connected to the transmission and reception unit 13, the control unit 11, which is electrically connected and transmits and receives predetermined information from the web server, and is electrically connected to the display unit 14 and the control unit 11 on which various information is displayed. It may be configured to include an interface unit 15 formed by input means such as a touch screen.

반응형 유저인터페이스 제공장치(100)는 사용자기기(10)의 제어유닛(11)에 전기적으로 연결될 수 있다. 반응형 유저인터페이스 제공장치(100)는 디스플레이유닛(14) 상에 객체가 접촉되는 위치에 대한 접촉좌표정보를 산출할 수 있다. 또한, 반응형 유저인터페이스 제공장치(100)는 접촉좌표정보와 하기에서 설명할 메모리유닛(12)에 미리 저장된 제 1 메뉴이격거리정보 및 제 2 메뉴이격거리정보를 이용하여 접촉좌표정보에 대응하는 위치를 중심으로 소정거리 내에 적어도 하나의 메뉴를 포함하는 유저인터페이스를 디스플레이유닛(14) 상에 표시할 수 있다. 반응형 유저인터페이스 제공장치(100)는 터치인식부(110) 및 메뉴출력부(120)를 포함하여 구성될 수 있다.The responsive user interface providing apparatus 100 may be electrically connected to the control unit 11 of the user device 10. The responsive user interface providing apparatus 100 may calculate contact coordinate information about a position where an object contacts the display unit 14. In addition, the responsive user interface providing apparatus 100 corresponds to the contact coordinate information by using the contact coordinate information and the first menu separation distance information and the second menu separation distance information previously stored in the memory unit 12 to be described below. A user interface including at least one menu within a predetermined distance with respect to the position may be displayed on the display unit 14. Responsive user interface providing apparatus 100 may be configured to include a touch recognition unit 110 and the menu output unit 120.

터치인식부(110)는 디스플레이유닛(14) 상에 객체가 접촉되는 위치에 대한 접촉좌표정보를 산출할 수 있다. 이때, 터치인식부(110)는 터치스크린으로 형성되는 인터페이스유닛(15)을 통해 디스플레이유닛(14) 상에 객체가 접촉되는 위치에 대한 접촉좌표정보를 산출할 수 있다. 또는, 터치인식부(110)는 터치스크린으로 형성되는 인터페이스유닛(15)으로부터 디스플레이유닛(14) 상에 객체가 접촉되는 위치에 대한 접촉좌표정보를 전달받을 수 있다.The touch recognition unit 110 may calculate contact coordinate information on a position where the object contacts the display unit 14. In this case, the touch recognition unit 110 may calculate contact coordinate information about a position where an object contacts the display unit 14 through the interface unit 15 formed as a touch screen. Alternatively, the touch recognition unit 110 may receive contact coordinate information regarding a position where an object contacts the display unit 14 from the interface unit 15 formed as a touch screen.

또한, 터치인식부(110)는 터치스크린으로 형성되는 인터페이스유닛(15)을 통해 유저인터페이스에 포함된 적어도 하나의 메뉴 중 하나에 객체가 접촉되는 것을 감지할 수 있다. 적어도 하나의 메뉴 중 하나에 객체가 접촉되는 경우, 터치인식부(110)는 터치스크린으로 형성되는 인터페이스유닛(15)을 통해 객체가 유저인터페이스에 포함된 적어도 하나의 메뉴 중 하나에 접촉되는 시간에 대한 접촉시간정보를 산출할 수 있다.In addition, the touch recognition unit 110 may detect that the object is in contact with one of at least one menu included in the user interface through the interface unit 15 formed as a touch screen. When the object is in contact with one of the at least one menu, the touch recognition unit 110 at a time when the object is in contact with one of the at least one menu included in the user interface through the interface unit 15 formed of a touch screen Contact time information can be calculated.

메뉴출력부(120)는 제어유닛(11)을 통해 메모리유닛(12)에 미리 저장된 제 1 메뉴이격거리정보 및 제 2 이격거리정보를 전달받을 수 있다. 이때, 제 1 메뉴이격거리정보는 터치인식부(110)로부터 산출된 접촉좌표정보에 대응하는 위치로부터 적어도 하나의 메뉴 각각이 이격될 거리에 대한 정보로 형성될 수 있고, 제 2 메뉴이격거리정보는 적어도 하나의 메뉴 상호 간에 서로 이격될 거리에 대한 정보로 형성될 수 있다.The menu output unit 120 may receive the first menu separation distance information and the second separation distance information previously stored in the memory unit 12 through the control unit 11. In this case, the first menu separation distance information may be formed as information on a distance at which each of the at least one menu is to be separated from a position corresponding to the contact coordinate information calculated by the touch recognition unit 110, and the second menu separation distance information. At least one menu may be formed of information about the distance to be spaced from each other.

메뉴출력부(120)는 접촉좌표정보, 제 1 메뉴이격거리정보 및 제 2 메뉴이격거리정보를 이용하여 접촉좌표정보에 대응하는 위치를 중심으로 소정거리 내에 적어도 하나의 메뉴를 포함하는 유저인터페이스를 디스플레이유닛(14) 상에 표시되도록 할 수 있다.The menu output unit 120 may include a user interface including at least one menu within a predetermined distance with respect to a position corresponding to the contact coordinate information by using contact coordinate information, first menu separation distance information, and second menu separation distance information. It may be displayed on the display unit 14.

또한, 메뉴출력부(120)는 터치인식부(110)로부터 산출된 접촉시간정보를 이용하여 유저인터페이스에 포함된 적어도 하나의 메뉴의 위치를 변화시키기 위한 메뉴 편집모드를 선택적으로 활성화시킬 수 있다. 메뉴 편집모드가 활성화되어 적어도 하나의 메뉴 중 하나가 선택되어 이동되면, 터치인식부(110)는 객체에 의해 유저인터페이스에 포함되는 적어도 하나의 메뉴 중 선택된 하나가 이동된 위치에 대한 메뉴이동좌표정보를 산출할 수 있다. 메뉴출력부(120)는 메뉴이동좌표정보와 접촉좌표정보를 이용하여 이동된 메뉴가 접촉좌표정보에 대응하는 위치로부터 이격된 거리에 대한 제 1 메뉴이격거리수정정보를 산출할 수 있다. 또한, 메뉴출력부(120)는 메뉴이동좌표정보를 이용하여 이동된 메뉴의 위치와 다른 메뉴들의 위치 사이의 이격된 거리에 대한 제 2 메뉴이격거리수정정보를 산출할 수 있다.In addition, the menu output unit 120 may selectively activate a menu editing mode for changing the position of at least one menu included in the user interface using the contact time information calculated from the touch recognition unit 110. When the menu edit mode is activated and one of the at least one menu is selected and moved, the touch recognition unit 110 moves the menu movement coordinate information on the position where the selected one of the at least one menu included in the user interface is moved by the object. Can be calculated. The menu output unit 120 may calculate first menu separation distance correction information for the distance from which the moved menu is spaced from the position corresponding to the contact coordinate information by using the menu movement coordinate information and the contact coordinate information. In addition, the menu output unit 120 may calculate second menu separation distance correction information on the spaced distance between the position of the moved menu and the positions of other menus using the menu movement coordinate information.

또한, 메뉴출력부(120)는 산출한 제 1 메뉴이격거리수정정보 및 제 2 메뉴이격거리수정정보 각각을 제 1 메뉴이격거리정보 및 제 2 메뉴이격거리정보로 업데이트하여 메모리유닛(12)에 저장할 수 있다.In addition, the menu output unit 120 updates the calculated first menu separation distance correction information and the second menu separation distance correction information with the first menu separation distance information and the second menu separation distance information to the memory unit 12. Can be stored.

이하에서는 본 발명의 실시예에 따른 반응형 유저인터페이스 제공방법의 순서를 보여주는 도면인 도 3을 참고하여 사용자기기(10)의 디스플레이유닛(14) 상에 적어도 하나의 메뉴를 포함하는 유저인터페이스가 표시되는 방법에 대해 구체적으로 설명하기로 한다. 한편, 사용자기기(10)는 송수신유닛(13)를 통해 본 발명의 실시예에 따른 반응형 유저인터페이스 제공방법을 수행하기 위한 별도의 어플리케이션을 수신하여 설치할 수 있다. 사용자기기(10)에 설치된 상기 별도의 어플리케이션이 활성화됨으로써, 본 발명의 실시예에 따른 반응형 유저인터페이스 제공방법이 사용자기기(10)에서 수행될 수 있다. 또한, 하기에서 설명할 메모리유닛(12)에 미리 저장되는 다양한 정보들은 상기 별도의 어플리케이션이 사용자기기(10)에 설치되는 것에 의해 메모리유닛(12)에 저장될 수 있다.Hereinafter, a user interface including at least one menu is displayed on the display unit 14 of the user device 10 with reference to FIG. 3, which shows a procedure of a method of providing a responsive user interface according to an embodiment of the present invention. This will be described in detail. Meanwhile, the user device 10 may receive and install a separate application for performing the responsive user interface providing method according to the embodiment of the present invention through the transmission and reception unit 13. As the separate application installed in the user device 10 is activated, the method for providing a responsive user interface according to an embodiment of the present invention may be performed in the user device 10. In addition, various information previously stored in the memory unit 12 to be described below may be stored in the memory unit 12 by the separate application is installed in the user device 10.

먼저, 터치인식부(110)가 사용자기기의 디스플레이유닛(14) 상에 객체가 접촉되는 위치(p)에 대한 접촉좌표정보를 산출한다(S110, 도 4 참고).First, the touch recognition unit 110 calculates contact coordinate information on a position p at which an object contacts on the display unit 14 of the user device (S110, see FIG. 4).

터치인식부(110)는 터치스크린으로 형성되는 인터페이스유닛(15)을 통해 디스플레이유닛(14) 상에 객체가 접촉되는 위치(p)에 대한 접촉좌표정보를 산출할 수 있다. 이때, 디스플레이유닛(14)에 접촉되는 객체는 사용자의 손가락 또는 터치펜 등이 될 수 있다.The touch recognition unit 110 may calculate contact coordinate information about a position p at which an object contacts the display unit 14 through the interface unit 15 formed as a touch screen. In this case, the object in contact with the display unit 14 may be a user's finger or a touch pen.

다음으로, 메뉴출력부(120)는 접촉좌표정보에 대응하는 위치(p)를 중심으로 소정거리 내에 적어도 하나의 메뉴를 포함하는 유저인터페이스(u)가 디스플레이유닛(14) 상에 표시되도록 한다(S120, 도 5 참고).Next, the menu output unit 120 allows the user interface u including at least one menu to be displayed on the display unit 14 within a predetermined distance with respect to the position p corresponding to the contact coordinate information. S120, see FIG. 5).

이때, 메뉴출력부(120)는 디스플레이유닛(14) 상에 유저인터페이스(u)에 포함될 적어도 하나의 메뉴를 선택할 수 있는 별도의 인터페이스화면(미표시)을 표시할 수 있다. 별도의 인터페이스화면은 특정 어플리케이션을 활성화시키기 위한 복수의 아이콘 또는 복수의 기능 중 하나를 선택하도록 하는 복수의 메뉴 중 소정개수를 선택할 수 있는 화면으로 형성될 수 있다. 메뉴출력부(120)는 복수의 아이콘 또는 복수의 메뉴 중 인터페이스유닛(15)을 통해 선택된 소정개수의 아이콘 또는 메뉴를 유저인터페이스(u)에 포함될 적어도 하나의 메뉴로 설정할 수 있다. 이하에서는 설명의 편의를 위하여 유저인터페이스(u)가 제 1 메뉴(u1), 제 2 메뉴(u2), 제 3 메뉴(u3) 및 제 4 메뉴(u4)를 포함하는 경우를 중심으로 설명하기로 한다.In this case, the menu output unit 120 may display a separate interface screen (not displayed) for selecting at least one menu to be included in the user interface u on the display unit 14. The separate interface screen may be formed as a screen for selecting a predetermined number of a plurality of menus for selecting one of a plurality of icons or a plurality of functions for activating a specific application. The menu output unit 120 may set a predetermined number of icons or menus selected through the interface unit 15 among a plurality of icons or a plurality of menus as at least one menu to be included in the user interface u. Hereinafter, for convenience of explanation, the case where the user interface u includes a first menu u1, a second menu u2, a third menu u3, and a fourth menu u4 will be described. do.

한편, 메모리유닛(12)에는 접촉좌표정보에 대응하는 위치로부터 적어도 하나의 메뉴 각각이 이격될 거리에 대한 제 1 메뉴이격거리정보가 미리 저장될 수 있다. 즉, 제 1 메뉴이격거리정보는 제 1 메뉴(u1), 제 2 메뉴(u2), 제 3 메뉴(u3) 및 제 4 메뉴(u4) 각각이 접촉좌표정보에 대응하는 위치(p)로부터 이격될 거리에 대한 정보로 형성될 수 있다. 이때, 제 1 메뉴이격거리정보는 제 1 메뉴(u1), 제 2 메뉴(u2), 제 3 메뉴(u3) 및 제 4 메뉴(u4) 각각이 접촉좌표정보에 대응하는 위치(p)로부터 이격될 거리가 동일하도록 형성될 수 있다. 또는, 제 1 메뉴이격거리정보는 제 1 메뉴(u1), 제 2 메뉴(u2), 제 3 메뉴(u3) 및 제 4 메뉴(u4) 각각이 접촉좌표정보에 대응하는 위치(p)로부터 이격될 거리가 서로 상이하도록 형성될 수 있다. 또는, 제 1 메뉴이격거리정보는 제 1 메뉴(u1), 제 2 메뉴(u2), 제 3 메뉴(u3) 및 제 4 메뉴(u4) 각각이 접촉좌표정보에 대응하는 위치(p)로부터 이격될 거리가 동일하거나 서로 상이하도록 형성될 수 있으며, 상기 예에 국한되는 것은 아니다. 이하에서는 설명의 편의를 위하여 제 1 메뉴이격거리정보가 제 1 메뉴(u1), 제 2 메뉴(u2), 제 3 메뉴(u3) 및 제 4 메뉴(u4) 각각이 접촉좌표정보에 대응하는 위치(p)로부터 이격될 거리가 동일하도록 형성되는 경우를 중심으로 설명하기로 한다.On the other hand, the memory unit 12 may be stored in advance the first menu separation distance information for the distance that each of the at least one menu from the position corresponding to the contact coordinate information. That is, the first menu separation distance information is spaced apart from the position p where each of the first menu u1, the second menu u2, the third menu u3, and the fourth menu u4 corresponds to the contact coordinate information. It can be formed of information about the distance to be. In this case, the first menu separation distance information is spaced apart from the position p of each of the first menu u1, the second menu u2, the third menu u3, and the fourth menu u4 corresponding to the contact coordinate information. The distances to be made may be the same. Alternatively, the first menu separation distance information may be spaced apart from a position p where each of the first menu u1, the second menu u2, the third menu u3, and the fourth menu u4 corresponds to the contact coordinate information. The distances to be formed may be different from each other. Alternatively, the first menu separation distance information may be spaced apart from a position p where each of the first menu u1, the second menu u2, the third menu u3, and the fourth menu u4 corresponds to the contact coordinate information. The distances to be formed may be the same or different from each other, but are not limited to the above examples. Hereinafter, for convenience of description, the first menu distance information is a position where each of the first menu u1, the second menu u2, the third menu u3, and the fourth menu u4 corresponds to the contact coordinate information. The case where the distance to be spaced apart from (p) is formed to be the same will be described.

또한, 메모리유닛(12)에는 적어도 하나의 메뉴 상호 간에 서로 이격될 거리에 대한 제 2 메뉴이격거리정보가 미리 저장될 수 있다. 즉, 제 2 메뉴이격거리정보는 제 1 메뉴(u1), 제 2 메뉴(u2), 제 3 메뉴(u3) 및 제 4 메뉴(u4) 상호 간에 서로 이격될 거리에 대한 정보로 형성될 수 있다. 이하에서는 설명의 편의를 위하여, 제 1 메뉴(u1)와 제 2 메뉴(u2)가 이격된 거리, 제 2 메뉴(u2)와 제 3 메뉴(u3)가 이격된 거리 및 제 3 메뉴(u3)와 제 4 메뉴(u4)가 이격될 거리가 동일한 경우를 중심으로 설명하기로 한다.In addition, the memory unit 12 may store second menu separation distance information about distances to be spaced apart from each other at least one menu in advance. That is, the second menu separation distance information may be formed as information on a distance to be spaced apart from each other between the first menu u1, the second menu u2, the third menu u3, and the fourth menu u4. . Hereinafter, for convenience of description, the distance between the first menu u1 and the second menu u2, the distance between the second menu u2 and the third menu u3, and the third menu u3 The case where the distance between the fourth menu u4 and the fourth menu u4 is the same will be described below.

상기 내용을 참고 하여 메뉴출력부(120)가 유저인터페이스(u)를 디스플레이유닛(14) 상에 표시하는 방법을 보다 구체적으로 설명하면, 메뉴출력부(120)가 제어유닛(11)을 통해 메모리유닛(12)으로부터 제 1 메뉴이격거리정보 및 제 2 메뉴이격거리정보를 전달받을 수 있다. 메뉴출력부(120)가 접촉좌표정보, 제 1 메뉴이격거리정보 및 제 2 메뉴이격거리정보를 이용하여 접촉좌표정보에 대응하는 위치(p)로부터 적어도 하나의 메뉴 각각이 배치될 위치를 결정할 수 있다.Referring to the above description in more detail how the menu output unit 120 displays the user interface u on the display unit 14, the menu output unit 120 to the memory through the control unit 11 The first menu separation distance information and the second menu separation distance information may be received from the unit 12. The menu output unit 120 may determine a position where at least one menu is to be arranged from the position p corresponding to the contact coordinate information using the contact coordinate information, the first menu separation distance information, and the second menu separation distance information. have.

예를 들어, 메뉴출력부(120)가 접촉좌표정보 및 제 1 메뉴이격거리정보를 이용하여 접촉좌표정보에 대응하는 위치(p)로부터 소정거리 이격된 임의의 위치 중 특정 위치를 제 1 메뉴(u1)가 배치될 위치로 결정할 수 있다. 메뉴출력부(120)는 제 1 메뉴(u1)가 배치될 위치를 결정하면, 접촉좌표정보, 제 1 메뉴이격거리정보 및 제 2 메뉴이격거리정보를 이용하여 접촉좌표정보에 대응하는 위치(p)로부터 소정거리 이격된 임의의 위치 중 제 1 메뉴(u1)가 배치될 위치로부터 소정거리 이격된 위치를 제 2 메뉴(u2)가 배치될 위치로 결정할 수 있다. 메뉴출력부(120)는 제 2 메뉴(u2)가 배치될 위치를 결정하면, 접촉좌표정보, 제 1 메뉴이격거리정보 및 제 2 메뉴이격거리정보를 이용하여 접촉좌표정보에 대응하는 위치(p)로부터 소정거리 이격된 임의의 위치 중 제 1 메뉴(u1) 및 제 2 메뉴(u2)가 배치될 위치로부터 소정거리 이격된 위치를 제 3 메뉴(u3)가 배치될 위치로 결정할 수 있다. 메뉴출력부(120)는 제 3 메뉴(u3)가 배치될 위치를 결정하면, 접촉좌표정보, 제 1 메뉴이격거리정보 및 제 2 메뉴이격거리정보를 이용하여 접촉좌표정보에 대응하는 위치(p)로부터 소정거리의 이격된 위치 중 제 1 메뉴(u1), 제 2 메뉴(u2) 및 제 3 메뉴(u3)가 배치될 위치로부터 소정거리 이격된 위치를 제 4 메뉴(u4)가 배치될 위치로 결정할 수 있다. For example, the menu output unit 120 may select a specific position from any position spaced a predetermined distance from the position p corresponding to the contact coordinate information by using the contact coordinate information and the first menu distance information. It can be determined as the position where u1) will be placed. When the menu output unit 120 determines the position where the first menu u1 is to be arranged, the position corresponding to the contact coordinate information using the contact coordinate information, the first menu separation distance information, and the second menu separation distance information (p) ) May be determined as a position where the second menu u2 is to be disposed from a position where the first menu u1 is to be disposed from any position spaced by a predetermined distance from the position. When the menu output unit 120 determines the position where the second menu u2 is to be arranged, the position corresponding to the contact coordinate information using the contact coordinate information, the first menu separation distance information, and the second menu separation distance information (p) The position where the third menu u3 is to be arranged may be determined as the position where the third menu u3 is to be disposed from a position where the first menu u1 and the second menu u2 are to be arranged. When the menu output unit 120 determines the position where the third menu u3 is to be arranged, the position corresponding to the contact coordinate information using the contact coordinate information, the first menu separation distance information, and the second menu separation distance information (p) A position where the fourth menu u4 is to be disposed at a position spaced apart from the position at which the first menu u1, the second menu u2, and the third menu u3 are to be arranged Can be determined.

*48이때, 메뉴출력부(120)는 제 1 메뉴(u1), 제 2 메뉴(u2), 제 3 메뉴(u3) 및 제 4 메뉴(u4)가 배치될 위치가 서로 겹치지 않도록 할 수 있다. 제 1 메뉴(u1), 제 2 메뉴(u2), 제 3 메뉴(u3) 및 제 4 메뉴(u4) 각각이 접촉좌표정보에 대응하는 위치(p)로부터 이격될 거리가 동일하고, 제 1 메뉴(u1)와 제 2 메뉴(u2)가 이격된 거리, 제 2 메뉴(u2)와 제 3 메뉴(u3)가 이격된 거리 및 제 3 메뉴(u3)와 제 4 메뉴(u4)가 이격될 거리가 동일하므로, 제 1 메뉴(u1), 제 2 메뉴(u2), 제 3 메뉴(u3) 및 제 4 메뉴(u4)는 접촉좌표정보에 대응하는 위치(p)를 중심으로 원호(圓弧) 형태로 배치될 위치가 결정될 수 있으며, 상기 예에 국한되는 것은 아니다.In this case, the menu output unit 120 may prevent the positions where the first menu u1, the second menu u2, the third menu u3, and the fourth menu u4 do not overlap each other. The first menu u1, the second menu u2, the third menu u3 and the fourth menu u4 each have the same distance from the position p corresponding to the contact coordinate information, and the first menu The distance at which u1 and the second menu u2 are spaced apart, the distance at which the second menu u2 and the third menu u3 are spaced apart, and the distance at which the third menu u3 and the fourth menu u4 are spaced apart from each other. Are the same, the first menu u1, the second menu u2, the third menu u3 and the fourth menu u4 are circular arcs around the position p corresponding to the contact coordinate information. The position to be arranged in the form can be determined, but is not limited to the above examples.

메뉴출력부(120)가 결정된 위치를 근거로 적어도 하나의 메뉴를 디스플레이유닛(14) 상에 표시할 수 있다. 즉, 메뉴출력부(120)는 디스플레이유닛(13) 상에 사용자가 선택한 아이콘 또는 메뉴를 포함하는 유저인터페이스를 포함할 수 있다. 따라서, 본 발명의 실시예에 따른 반응형 유저인터페이스 제공방법은 디스플레이유닛(14) 상에 객체가 접촉되는 위치로부터 소정거리 내에 사용자에 의해 선택된 아이콘 또는 메뉴를 포함하는 유저인터페이스를 표시함으로써, 사용자가 원하는 아이콘 또는 메뉴를 보다 신속하게 찾도록 할 수 있다. 또한, 본 발명의 실시예에 따른 반응형 유저인터페이스 제공방법은 객체가 접촉되는 위치로부터 소정거리 내에 유저인터페이스(u)를 표시함으로써, 사용자가 원하는 위치에서 자유롭게 유저인터페이스(u)를 활성화시켜 사용할 수 있게 하여, 사용자의 편의성을 증대시킬 수 있다.The menu output unit 120 may display at least one menu on the display unit 14 based on the determined position. That is, the menu output unit 120 may include a user interface including an icon or a menu selected by the user on the display unit 13. Accordingly, the method of providing a responsive user interface according to an embodiment of the present invention displays a user interface including an icon or a menu selected by the user within a predetermined distance from a position where an object contacts on the display unit 14, thereby allowing the user to display the user interface. You can find the icon or menu you want faster. In addition, the method of providing a responsive user interface according to an embodiment of the present invention displays the user interface u within a predetermined distance from a position where an object is in contact, thereby freely activating the user interface u at a desired position. In this way, the user's convenience can be increased.

한편, 메뉴출력부(120)는 접촉좌표정보를 이용하여 접촉좌표정보에 대응하는 위치에 아이콘이 배치되어 있는지 확인할 수 있다. 접촉좌표정보에 대응하는 위치에 아이콘이 배치되어 있는 경우, 메뉴출력부(120)는 유저인터페이스(u)를 디스플레이유닛(14) 상에 표시하지 않을 수 있다. 즉, 접촉좌표정보에 대응하는 위치에 아이콘이 배치되어 있으면, 메뉴출력부(120)에 의해 유저인터페이스가 디스플레이유닛(14) 상에 표시되는 것이 아니라, 제어유닛(11)에 의해 아이콘에 대응되는 컨텐츠 또는 어플리케이션이 활성화될 수 있으며, 상기 예에 국한되는 것은 아니다.Meanwhile, the menu output unit 120 may check whether the icon is disposed at a position corresponding to the contact coordinate information by using the contact coordinate information. When the icon is disposed at a position corresponding to the contact coordinate information, the menu output unit 120 may not display the user interface u on the display unit 14. That is, if the icon is disposed at the position corresponding to the contact coordinate information, the user interface is not displayed on the display unit 14 by the menu output unit 120, but the control unit 11 corresponds to the icon. The content or application may be activated, but is not limited to the above examples.

또는, 메뉴출력부(120)는 디스플레이유닛(14) 상에 유저인터페이스(u)를 출력하기 전, 사용자기기(10)에서 특정 컨텐츠 또는 어플리케이션이 활성화 중인지 확인할 수 있다. 사용자기기(10)에서 특정 컨텐츠 또는 어플리케이션이 활성화 중이면, 메뉴출력부(120)는 유저인터페이스(u)를 디스플레이유닛(14) 상에 표시하지 않을 수 있다. 즉, 사용자기기(10)에서 특정 컨텐츠 또는 어플리케이션이 활성화 중이면, 메뉴출력부(120)에 의해 유저인터페이스(u)가 디스플레이유닛(14) 상에 표시되는 것이 아니라, 제어유닛(11)에 의해 활성화 중인 컨텐츠 또는 어플리케이션에 대응되는 기 설정된 메뉴가 디스플레이유닛(14) 상에 표시될 수 있으며, 상기 예에 국한되는 것은 아니다.Alternatively, the menu output unit 120 may check whether specific content or an application is being activated in the user device 10 before outputting the user interface u on the display unit 14. When a specific content or application is activated in the user device 10, the menu output unit 120 may not display the user interface u on the display unit 14. That is, when a specific content or application is activated in the user device 10, the user interface u is not displayed on the display unit 14 by the menu output unit 120, but by the control unit 11. A preset menu corresponding to the active content or application may be displayed on the display unit 14, but is not limited to the above example.

또는, 메모리유닛(12)에는 디스플레이유닛(14) 상의 영역 중 소정크기의 영역에 대한 영역정보가 미리 저장될 수 있다. 메뉴출력부(120)는 접촉좌표정보와 영역정보를 이용하여 접촉좌표정보에 대응하는 위치(p)가 소정크기의 영역 안에 위치하지 확인할 수 있다. 메뉴출력부(120)는 접촉좌표정보에 대응하는 위치(p)가 소정크기의 영역 안에 위치할 때만, 유저인터페이스(u)를 디스플레이유닛(14) 상에 표시할 수 있으며, 상기 예에 국한되는 것은 아니다.Alternatively, the memory unit 12 may store, in advance, region information on a region of a predetermined size among regions on the display unit 14. The menu output unit 120 may determine whether the position p corresponding to the contact coordinate information is located within an area of a predetermined size by using the contact coordinate information and the area information. The menu output unit 120 may display the user interface u on the display unit 14 only when the position p corresponding to the contact coordinate information is located within an area of a predetermined size. It is not.

다음으로, 터치인식부(110)가 적어도 하나의 메뉴 중 하나에 객체가 접촉되는 시간에 대한 접촉시간정보를 산출한다(S130).Next, the touch recognition unit 110 calculates contact time information on the time when the object is in contact with one of the at least one menu (S130).

터치인식부(110)는 터치스크린으로 형성되는 인터페이스유닛(15)을 통해 적어도 하나의 메뉴 중 하나에 객체가 접촉되는 시간을 측정하여 접촉시간정보를 산출할 수 있다.The touch recognition unit 110 may calculate contact time information by measuring a time when the object is in contact with one of the at least one menu through the interface unit 15 formed as a touch screen.

다음으로, 메뉴출력부(120)가 접촉시간정보를 이용하여 적어도 하나의 메뉴의 위치를 변화시키기 위한 메뉴 편집모드를 선택적으로 활성화시킨다(S140).Next, the menu output unit 120 selectively activates a menu editing mode for changing the position of at least one menu using the contact time information (S140).

보다 구체적으로 설명하면, 메모리유닛(12)에는 메뉴 편집모드를 활성화 시키기 위해 적어도 하나의 메뉴 중 하나에 객체가 접촉되어야 하는 시간에 대한 활성화시간정보가 미리 저장될 수 있다. 메뉴출력부(120)는 접촉시간정보 및 활성화시간정보를 이용하여 적어도 하나의 메뉴 중 하나에 객체가 접촉되는 시간이 메뉴 편집모드를 활성화 시키기 위해 적어도 하나의 메뉴 중 하나에 객체가 접촉되어야 하는 시간을 초과하면, 메뉴 편집모드를 활성화시킬 수 있다.More specifically, the memory unit 12 may store in advance activation time information on a time when an object should be in contact with one of at least one menu to activate a menu editing mode. The menu output unit 120 uses the contact time information and the activation time information to time the object is in contact with one of the at least one menu in order to activate the menu editing mode. When exceeding, the menu edit mode can be activated.

반면, 메뉴출력부(120)는 접촉시간정보 및 활성화시간정보를 이용하여 적어도 하나의 메뉴 중 하나에 객체가 접촉되는 시간이 메뉴 편집모드를 활성화 시키기 위해 적어도 하나의 메뉴 중 하나에 객체가 접촉되어야 하는 시간 미만이면, 선택된 메뉴에 대응되는 어플리케이션 또는 컨텐츠를 활성화시킬 수 있다.On the other hand, the menu output unit 120, the time that the object is in contact with one of the at least one menu using the contact time information and the activation time information should be in contact with one of the at least one menu to activate the menu editing mode. If less than the time, the application or content corresponding to the selected menu can be activated.

메뉴출력부(120)에 의해 메뉴 편집모드가 활성화되면, 다음으로, 터치인식부(110)가 객체에 의해 적어도 하나의 메뉴 중 하나가 선택되어 이동된 위치에 대한 메뉴이동좌표정보를 산출한다(S150).When the menu editing mode is activated by the menu output unit 120, the touch recognition unit 110 calculates menu movement coordinate information on a position at which one of at least one menu is selected by the object and moved. S150).

예를 들어, 메뉴출력부(120)에 의해 메뉴 편집모드가 활성화된 상태에서, 적어도 하나의 메뉴 중 제 1 메뉴(u1)가 객체에 의해 선택된 상태에서 이동되면(도 6 참고), 터치인식부(110)는 제 1 메뉴(u1)의 이동된 위치에 대한 메뉴이동좌표정보를 산출할 수 있다.For example, when the menu editing mode is activated by the menu output unit 120 and the first menu u1 of the at least one menu is moved in the state selected by the object (see FIG. 6), the touch recognition unit 110 may calculate menu movement coordinate information on the moved position of the first menu u1.

다음으로, 메뉴출력부(120)가 메뉴이동좌표정보와 접촉좌표정보를 이용하여 제 1 메뉴이격거리수정정보를 산출한다(S160). 메뉴출력부(120)는 메뉴이동좌표정보와 접촉좌표정보를 이용하여 이동된 메뉴가 접촉좌표정보에 대응하는 위치로부터 이격된 거리에 대한 제 1 메뉴이격거리수정정보를 산출할 수 있다.Next, the menu output unit 120 calculates the first menu separation distance correction information by using the menu movement coordinate information and the contact coordinate information (S160). The menu output unit 120 may calculate first menu separation distance correction information for the distance from which the moved menu is spaced from the position corresponding to the contact coordinate information by using the menu movement coordinate information and the contact coordinate information.

마지막으로, 메뉴출력부(120)가 메뉴이동좌표정보를 이용하여 이동된 메뉴의 위치와 다른 메뉴들의 위치 사이의 이격된 거리에 대한 제 2 메뉴이격거리수정정보를 산출한다(S170).Finally, the menu output unit 120 calculates second menu separation distance correction information on the spaced distance between the position of the moved menu and the positions of other menus using the menu movement coordinate information (S170).

예를 들어, 제 1 메뉴(u1)가 객체에 의해 선택되어 이동되는 것에 의해 터치인식부(110)로부터 메뉴이동좌표정보가 산출되면, 메뉴출력부(120)는 메뉴이동좌표정보를 이용하여 제 1 메뉴(u1)가 이동된 위치로부터 제 2 메뉴(u2)가 배치된 위치, 제 3 메뉴(u3)가 배치된 위치 또는 제 4 메뉴(u4)가 배치된 위치로부터 이격된 거리를 산출하여 제 2 메뉴이격거리수정정보를 산출할 수 있으며, 상기 예에 국한되는 것은 아니다. For example, when the menu moving coordinate information is calculated from the touch recognition unit 110 by selecting and moving the first menu u1, the menu output unit 120 may use the menu moving coordinate information. The distance spaced from the position where the first menu u1 is disposed, the position where the second menu u2 is disposed, the position where the third menu u3 is disposed, or the position where the fourth menu u4 is disposed, is calculated. 2 Menu distance distance correction information can be calculated, but is not limited to the above examples.

메뉴출력부(120)는 산출한 제 1 메뉴이격거리수정정보 및 제 2 메뉴이격거리수정정보 각각을 제 1 메뉴이격거리정보 및 제 2 메뉴이격거리정보로 업데이트하여 메모리유닛(12)에 저장할 수 있다. 이에 따라, 메뉴출력부(120)는 차후에 유저인터페이스(u)를 디스플레이유닛(14) 상에 출력할 때, 수정된 위치가 반영된 유저인터페이스(u)를 디스플레이유닛(14) 상에 출력할 수 있다.The menu output unit 120 may update the calculated first menu separation distance correction information and the second menu separation distance correction information, respectively, with the first menu separation distance information and the second menu separation distance information and store them in the memory unit 12. have. Accordingly, when the menu output unit 120 later outputs the user interface u on the display unit 14, the menu output unit 120 may output the user interface u reflecting the modified position on the display unit 14. .

상기와 같은 반응형 유저인터페이스 제공방법은 사용자기기가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 사용자 기기가 읽을 수 있는 기록매체는 컴퓨터 시스템 또는 스마트폰 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함할 수 있다. 컴퓨터 또는 스마트폰이 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD, DVD, 블루레이, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치, 플래시 메모리 등이 있다. 또한, 컴퓨터 또는 스마트폰이 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터 또는 스마트폰이 읽을 수 있는 코드가 저장되고 실행될 수 있다.The method of providing a reactive user interface as described above may be implemented as code that can be read by a user device. The recording medium readable by the user device may include any kind of recording device that stores data that can be read by a computer system or a smartphone system. Examples of recording media that can be read by a computer or a smartphone include ROM, RAM, CD, DVD, Blu-ray, magnetic tape, floppy disk, optical data storage device, flash memory, and the like. In addition, the computer- or smartphone-readable recording medium can be distributed over network coupled computer systems so that the computer- or smartphone-readable code is stored and executed in a distributed fashion.

이상, 본 발명의 실시예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한, 본 발명의 권리 범위 내에 포함된다고 할 것이다.As mentioned above, although embodiment of this invention was described, the person of ordinary skill in the art should add, change, delete, add, etc. the component within the range which does not deviate from the idea of this invention described in the claim. The present invention may be modified and changed in various ways, which will also be included within the scope of the present invention.

Claims (17)

터치인식부가 사용자기기의 디스플레이유닛 상에 객체가 접촉되는 위치에 대한 접촉좌표정보를 산출하는 단계; 및Calculating, by the touch recognition unit, contact coordinate information regarding a position where the object contacts the display unit of the user device; And 메뉴출력부가 상기 접촉좌표정보를 이용하여 상기 접촉좌표정보에 대응하는 위치를 중심으로 소정거리 내에 적어도 하나의 메뉴를 포함하는 유저인터페이스를 상기 디스플레이유닛 상에 표시되도록 하는 단계;를 포함하는,And causing a menu output unit to display, on the display unit, a user interface including at least one menu within a predetermined distance with respect to a position corresponding to the contact coordinate information using the contact coordinate information. 반응형 유저인터페이스 제공방법.How to provide responsive user interface. 제 1 항에 있어서,The method of claim 1, 상기 사용자기기의 메모리유닛은 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리에 대한 제 1 메뉴이격거리정보 및 상기 적어도 하나의 메뉴 상호 간에 서로 이격될 거리에 대한 제 2 메뉴이격거리정보가 기 저장되는,The memory unit of the user device may include first menu separation distance information on a distance from which the at least one menu is to be spaced apart from a position corresponding to the contact coordinate information, and a second distance on a distance from each other between the at least one menu. Menu distance information is stored in advance, 반응형 유저인터페이스 제공방법.How to provide responsive user interface. 제 2 항에 있어서,The method of claim 2, 상기 유저인터페이스를 상기 디스플레이유닛 상에 표시되도록 하는 단계는,The step of displaying the user interface on the display unit, 상기 메뉴출력부가 상기 접촉좌표정보, 상기 제 1 메뉴이격거리정보 및 상기 제 2 메뉴이격거리정보를 이용하여 상기 접촉좌표정보에 대응하는 위치로부터 적어도 하나의 메뉴 각각이 배치될 위치를 결정하는 단계; 및Determining, by the menu output unit, at least one menu from each of the positions corresponding to the contact coordinate information by using the contact coordinate information, the first menu separation distance information, and the second menu separation distance information; And 상기 메뉴출력부가 결정된 위치를 근거로 상기 적어도 하나의 메뉴를 상기 디스플레이유닛 상에 표시하는 단계;를 포함하는,Displaying the at least one menu on the display unit based on the determined position of the menu output unit. 반응형 유저인터페이스 제공방법.How to provide responsive user interface. 제 2 항에 있어서,The method of claim 2, 상기 제 1 메뉴이격거리정보는 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리가 동일하도록 형성되는,The first menu separation distance information is formed such that the distance from which each of the at least one menu is spaced from the position corresponding to the contact coordinate information is the same. 반응형 유저인터페이스 제공방법.How to provide responsive user interface. 제 2 항에 있어서,The method of claim 2, 상기 제 1 메뉴이격거리정보는 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리가 서로 상이하도록 형성되는,The first menu distance information is formed so that the distance from which each of the at least one menu is spaced apart from each other corresponding to the contact coordinate information is different from each other. 반응형 유저인터페이스 제공방법.How to provide responsive user interface. 제 2 항에 있어서,The method of claim 2, 상기 제 1 메뉴이격거리정보는 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리가 동일하거나 서로 상이하도록 형성되는,The first menu separation distance information is formed such that the distance from which each of the at least one menu is spaced from the position corresponding to the contact coordinate information is the same or different from each other. 반응형 유저인터페이스 제공방법.How to provide responsive user interface. 제 2 항에 있어서,The method of claim 2, 상기 방법은,The method, 상기 터치인식부가 상기 적어도 하나의 메뉴 중 하나에 상기 객체가 접촉되는 시간에 대한 접촉시간정보를 산출하는 단계;Calculating, by the touch recognition unit, contact time information regarding a time when the object is in contact with one of the at least one menu; 상기 메뉴출력부가 상기 접촉시간정보를 이용하여 상기 적어도 하나의 메뉴의 위치를 변화시키기 위한 메뉴 편집모드를 선택적으로 활성화시키는 단계;Selectively activating a menu editing mode for changing the position of the at least one menu using the contact time information by the menu output unit; 상기 메뉴 편집모드가 활성화되면, 상기 터치인식부가 상기 객체에 의해 상기 적어도 하나의 메뉴 중 하나가 선택되어 이동된 위치에 대한 메뉴이동좌표정보를 산출하는 단계;Calculating, by the touch recognition unit, menu movement coordinate information regarding a position where one of the at least one menu is selected and moved by the object when the menu editing mode is activated; 상기 메뉴출력부가 상기 메뉴이동좌표정보와 상기 접촉좌표정보를 이용하여 이동된 메뉴가 상기 접촉좌표정보에 대응하는 위치로부터 이격된 거리에 대한 제 1 메뉴이격거리수정정보를 산출하는 단계; 및Calculating, by the menu output unit, first menu separation distance correction information for a distance from which a menu moved using the menu movement coordinate information and the contact coordinate information is separated from a position corresponding to the contact coordinate information; And 상기 메뉴출력부가 상기 메뉴이동좌표정보를 이용하여 이동된 메뉴의 위치와 다른 메뉴들의 위치 사이의 이격된 거리에 대한 제 2 메뉴이격거리수정정보를 산출하는 단계;를 더 포함하는,And calculating, by the menu output unit, second menu separation distance correction information on a spaced distance between the position of the moved menu and the positions of other menus using the menu movement coordinate information. 반응형 유저인터페이스 제공방법.How to provide responsive user interface. 제 7 항에 있어서,The method of claim 7, wherein 상기 메뉴출력부는 상기 제 1 메뉴이격거리수정정보를 상기 제 1 메뉴이격거리정보로 업데이트하고, 상기 제 2 메뉴이격거리수정정보를 상기 제 2 메뉴이격거리정보로 업데이트하여 상기 메모리유닛에 저장하는,The menu output unit may update the first menu separation distance correction information to the first menu separation distance information, update the second menu separation distance modification information to the second menu separation distance information, and store the stored information in the memory unit. 반응형 유저인터페이스 제공방법.How to provide responsive user interface. 제 1 항 내지 제 8 항 중 어느 하나의 항의 반응형 유저인터페이스 제공방법을 수행하기 위한 프로그램을 저장한 컴퓨터에서 판독 가능한 기록 매체.A computer-readable recording medium storing a program for performing the method of providing a reactive user interface as claimed in any one of claims 1 to 8. 사용자기기의 디스플레이유닛 상에 객체가 접촉되는 위치에 대한 접촉좌표정보를 산출하는 터치인식부와,A touch recognition unit for calculating contact coordinate information on a position where the object contacts the display unit of the user device; 상기 접촉좌표정보에 대응하는 위치를 중심으로 소정거리 내에 적어도 하나의 메뉴를 포함하는 유저인터페이스를 상기 디스플레이유닛 상에 표시되도록 하는 메뉴출력부를 포함하는,And a menu output unit configured to display a user interface including at least one menu within a predetermined distance with respect to the position corresponding to the contact coordinate information on the display unit. 반응형 유저인터페이스 제공장치.Responsive user interface providing device. 제 10 항에 있어서,The method of claim 10, 상기 사용자기기의 메모리유닛은 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리에 대한 제 1 메뉴이격거리정보 및 상기 적어도 하나의 메뉴 상호 간에 서로 이격될 거리에 대한 제 2 메뉴이격거리정보가 기 저장되는,The memory unit of the user device may include first menu separation distance information on a distance from which the at least one menu is to be spaced apart from a position corresponding to the contact coordinate information, and a second distance on a distance from each other between the at least one menu. Menu distance information is stored in advance, 반응형 유저인터페이스 제공장치.Responsive user interface providing device. 제 11 항에 있어서,The method of claim 11, 상기 메뉴출력부가 상기 접촉좌표정보, 상기 제 1 메뉴이격거리정보 및 상기 제 2 메뉴이격거리정보를 이용하여 상기 접촉좌표에 대응하는 위치로부터 적어도 하나의 메뉴 각각이 배치될 위치를 결정하고, 결정된 위치를 근거로 적어도 하나의 메뉴를 상기 디스플레이유닛 상에 표시하는,The menu output unit determines a position where each of the at least one menu is to be arranged from a position corresponding to the contact coordinate by using the contact coordinate information, the first menu separation distance information, and the second menu separation distance information, and the determined position. Displaying at least one menu on the display unit based on 반응형 유저인터페이스 제공장치.Responsive user interface providing device. 제 11 항에 있어서,The method of claim 11, 상기 제 1 메뉴이격거리정보는 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리가 동일하도록 형성되는,The first menu separation distance information is formed such that the distance from which each of the at least one menu is spaced from the position corresponding to the contact coordinate information is the same. 반응형 유저인터페이스 제공장치.Responsive user interface providing device. 제 11 항에 있어서,The method of claim 11, 상기 제 1 메뉴이격거리정보는 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리가 서로 상이하도록 형성되는,The first menu distance information is formed so that the distance from which each of the at least one menu is spaced apart from each other corresponding to the contact coordinate information is different from each other. 반응형 유저인터페이스 제공장치.Responsive user interface providing device. 제 11 항에 있어서,The method of claim 11, 상기 제 1 메뉴이격거리정보는 상기 접촉좌표정보에 대응하는 위치로부터 상기 적어도 하나의 메뉴 각각이 이격될 거리가 동일하거나 서로 상이하도록 형성되는,The first menu separation distance information is formed such that the distance from which each of the at least one menu is spaced from the position corresponding to the contact coordinate information is the same or different from each other. 반응형 유저인터페이스 제공장치.Responsive user interface providing device. 제 11 항에 있어서,The method of claim 11, 상기 터치인식부가 상기 적어도 하나의 메뉴 중 하나에 상기 객체가 접촉되는 시간에 대한 접촉시간정보를 산출하고,The touch recognition unit calculates contact time information on a time when the object is in contact with one of the at least one menu, 상기 메뉴출력부가 상기 접촉시간정보를 이용하여 상기 적어도 하나의 메뉴의 위치를 변화시키기 위한 메뉴 편집모드를 선택적으로 활성화시키며,The menu output unit selectively activates a menu editing mode for changing the position of the at least one menu using the contact time information. 상기 메뉴 편집모드가 활성화되면, 상기 터치인식부가 상기 객체에 의해 상기 적어도 하나의 메뉴 중 하나가 선택되어 이동된 위치에 대한 메뉴이동좌표정보를 산출하고,When the menu editing mode is activated, the touch recognition unit calculates menu movement coordinate information on a position where one of the at least one menu is selected and moved by the object, 상기 메뉴출력부가 상기 메뉴이동좌표정보와 상기 접촉좌표정보를 이용하여 이동된 메뉴가 상기 접촉좌표정보에 대응하는 위치로부터 이격된 거리에 대한 제 1 메뉴이격거리수정정보를 산출하며,The menu output unit calculates first menu separation distance correction information for a distance from the position corresponding to the contact coordinate information of the menu moved using the menu movement coordinate information and the contact coordinate information; 상기 메뉴출력부가 상기 메뉴이동좌표정보를 이용하여 이동된 메뉴의 위치와 다른 메뉴들의 위치 사이의 이격된 거리에 대한 제 2 메뉴이격거리수정정보를 산출하는,The menu output unit calculates second menu separation distance correction information for the distanced distance between the position of the moved menu and the position of other menus using the menu movement coordinate information, 반응형 유저인터페이스 제공장치.Responsive user interface providing device. 제 16 항에 있어서,The method of claim 16, 상기 메뉴출력부는 상기 제 1 메뉴이격거리수정정보를 상기 제 1 메뉴이격거리정보로 업데이트하고, 상기 제 2 메뉴이격거리수정정보를 상기 제 2 메뉴이격거리정보로 업데이트하여 상기 메모리유닛에 저장하는,The menu output unit may update the first menu separation distance correction information to the first menu separation distance information, update the second menu separation distance modification information to the second menu separation distance information, and store the stored information in the memory unit. 반응형 유저인터페이스 제공장치.Responsive user interface providing device.
PCT/KR2016/008360 2015-08-18 2016-07-29 Apparatus for providing responsive user interface and method for providing responsive user interface using same Ceased WO2017030301A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0116052 2015-08-18
KR20150116052 2015-08-18

Publications (1)

Publication Number Publication Date
WO2017030301A1 true WO2017030301A1 (en) 2017-02-23

Family

ID=58051036

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/008360 Ceased WO2017030301A1 (en) 2015-08-18 2016-07-29 Apparatus for providing responsive user interface and method for providing responsive user interface using same

Country Status (1)

Country Link
WO (1) WO2017030301A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100122462A (en) * 2009-05-12 2010-11-22 오의진 Direction- selecting-type graphic user interface and user terminal implementing the same
KR20110010096A (en) * 2008-05-23 2011-01-31 마이크로소프트 코포레이션 Pan content using drag gestures
KR20130131126A (en) * 2012-05-23 2013-12-03 크로키닷컴 주식회사 User interface for controlling state of menu
KR20150039511A (en) * 2013-10-02 2015-04-10 주식회사 인프라웨어 Method and apparatus for providing a menu interface

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110010096A (en) * 2008-05-23 2011-01-31 마이크로소프트 코포레이션 Pan content using drag gestures
KR20100122462A (en) * 2009-05-12 2010-11-22 오의진 Direction- selecting-type graphic user interface and user terminal implementing the same
KR20130131126A (en) * 2012-05-23 2013-12-03 크로키닷컴 주식회사 User interface for controlling state of menu
KR20150039511A (en) * 2013-10-02 2015-04-10 주식회사 인프라웨어 Method and apparatus for providing a menu interface

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NOH, HYE EUN ET AL.: "A Study on Interaction Style for Full LCD Mobile Phone Based Touchscreen''.", HCI KOREA , THE HCI SOCIETY OF KOREA, 28 February 2007 (2007-02-28), pages 1306 - 1312, XP055365117 *

Similar Documents

Publication Publication Date Title
AU2011339167B2 (en) Method and system for displaying screens on the touch screen of a mobile device
WO2011083962A2 (en) Method and apparatus for setting section of a multimedia file in mobile device
WO2013125901A1 (en) Method, medium and apparatus for scrolling a screen in a display apparatus
WO2012169730A2 (en) Method and apparatus for providing character input interface
WO2012023823A2 (en) Method of configuring menu screen, user device for performing the method and computer-readable storage medium having recorded thereon program for executing the method
WO2012161434A2 (en) Method and apparatus for editing screen of mobile device having touch screen
WO2011132892A2 (en) Method for providing graphical user interface and mobile device adapted thereto
WO2016104867A1 (en) Digital device and method of controlling therefor
WO2013168885A1 (en) Method for providing lock screen and terminal device for implementing same
EP3011423A1 (en) An electronic device and method executing object in the electronic device
WO2013118987A1 (en) Control method and apparatus of electronic device using control device
WO2012077986A2 (en) Method and apparatus for displaying screen of mobile terminal with touch screen
WO2011090302A2 (en) Method for operating a personal portable device having a touch panel
WO2013125789A1 (en) Electronic apparatus, method for controlling the same, and computer-readable storage medium
WO2018004140A1 (en) Electronic device and operating method therefor
CN111459349A (en) Application recommended method and electronic device
KR20220154825A (en) How to create notes and electronic devices
WO2012093779A2 (en) User terminal supporting multimodal interface using user touch and breath and method for controlling same
WO2017150947A1 (en) Device and method for providing reactive user interface
WO2012033337A2 (en) Multimedia apparatus and method for providing content
WO2016108544A1 (en) Chatting service providing method and chatting service providing device
WO2012118271A1 (en) Method and device for controlling contents using touch, recording medium therefor, and user terminal having same
WO2013115493A1 (en) Method and apparatus for managing an application in a mobile electronic device
WO2017030301A1 (en) Apparatus for providing responsive user interface and method for providing responsive user interface using same
WO2015008929A1 (en) Method for moving and switching screens on touch screen device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16837243

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 18.07.2018)

122 Ep: pct application non-entry in european phase

Ref document number: 16837243

Country of ref document: EP

Kind code of ref document: A1