KR20170037476A - Mobile terminal and controlling method the same - Google Patents
Mobile terminal and controlling method the same Download PDFInfo
- Publication number
- KR20170037476A KR20170037476A KR1020150157761A KR20150157761A KR20170037476A KR 20170037476 A KR20170037476 A KR 20170037476A KR 1020150157761 A KR1020150157761 A KR 1020150157761A KR 20150157761 A KR20150157761 A KR 20150157761A KR 20170037476 A KR20170037476 A KR 20170037476A
- Authority
- KR
- South Korea
- Prior art keywords
- drones
- terminal device
- input
- unit
- drone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0044—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- B64C2201/146—
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
Abstract
본 명세서에서는 본 발명에 따른 단말 장치 및 제어 방법이 개시된다. 여기서, 본 발명의 일 실시 예에 따른 단말 장치는, 드론과 데이터를 송수신하는 통신부와, 상기 드론 조정 명령을 입력받는 제1 입력부와, 제어부를 포함하는 본체, 및 디스플레이 기기가 거치되는 거치대를 포함하고, 상기 거치대는, 상기 디스플레이 기기가 고정되는 거치 고정부와 상기 본체의 일면으로부터 형성되어 상기 거치 고정부를 지지하는 거치 지지부를 포함하고, 상기 제1 입력부는, 상기 드론의 전후 및 좌우 전후 동작 제어 입력을 수신하는 조작부를 포함한다. 본 발명의 다른 실시 예에 따른 단말 장치는, 드론과 데이터를 송수신하는 통신부, 상기 드론 조정 명령을 입력받는 제1 입력부, 상기 제1 입력부를 지지하는 지지부, 및 제어부를 포함하고, 상기 제1 입력부는, 터치스크린을 통해 데이터를 출력하고 상기 드론 전후 및 좌우 동작 제어 입력을 수신하는 조작부를 포함한다.In this specification, a terminal apparatus and a control method according to the present invention are disclosed. Here, the terminal device according to an embodiment of the present invention includes a communication unit for transmitting and receiving data with the drone, a first input unit for receiving the dronon adjustment command, a main body including a control unit, and a cradle And the first input unit includes at least one of a front and rear and front and rear forward and backward movement of the drones, And an operation unit for receiving the control input. A terminal device according to another embodiment of the present invention includes a communication unit for transmitting and receiving data with a drone, a first input unit receiving the dronon adjustment command, a support unit supporting the first input unit, and a control unit, The apparatus includes an operation unit for outputting data through a touch screen and receiving the front, rear, and left and right operation control inputs of the drones.
Description
본 발명은 단말 장치 및 제어 방법에 관한 것이다.The present invention relates to a terminal apparatus and a control method.
최근에 개인 또는 회사에서 운용 가능한 드론(Drone)이 증가하는 추세에 있다. 드론이라 함은, 예를 들어 사람이 타지 않고 무선전파의 컨트롤 신호에 의해 비행하는 비행기나 헬리콥터 모양과 같은 비행체를 의미한다. 최근에는 드론에 내장된 카메라를 이용하여 비행하면서 촬영한 영상을 인터넷상에 공유하는 경우가 늘고 있다. 그러나 드론 조작 장치는 다른 장치의 조작부로부터 발전되어 직관적인 조작에 불편함이 있다. 또한, 사용자는 비행체인 드론을 일반적인 드론 조작 장치로 정밀하게 조작하기에는 많은 노력이 필요하고, 그로 인해 드론 조작 실수 등에 의해 사고 발생 위험이 있다.Recently, the number of drone that can be operated by an individual or a company is increasing. The drones mean, for example, airplanes such as airplanes or helicopter shapes flying by control signals of a radio wave without a person being driven. In recent years, there has been an increasing number of cases where images taken while flying using a drones built-in camera are shared on the Internet. However, the drone operating device is generated from the operating portion of the other device, which is inconvenient for intuitive operation. In addition, the user needs a great deal of effort to precisely manipulate the drone, which is a flight body, with a general drone operation device, and there is a risk of an accident due to a drone operation error or the like.
본 발명은 상술한 불편이나 위험 등을 해결하기 위한 것이다. The present invention is intended to solve the above-mentioned inconvenience, danger, and the like.
본 발명은 드론을 정밀하게 조작할 수 있는 단말 장치 및 제어 방법을 제공하는 것을 일 과제로 한다.The present invention provides a terminal device and a control method capable of precisely operating a drones.
본 발명은 드론을 직관적으로 조작할 수 있는 단말 장치 및 제어 방법을 제공하는 것을 다른 과제로 한다.A further object of the present invention is to provide a terminal device and a control method capable of intuitively operating a drones.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention, unless further departing from the spirit and scope of the invention as defined by the appended claims. It will be possible.
본 명세서에서는 본 발명에 따른 단말 장치 및 제어 방법이 개시된다.In this specification, a terminal apparatus and a control method according to the present invention are disclosed.
여기서, 본 발명의 일 실시 예에 따른 단말 장치는, 드론과 데이터를 송수신하는 통신부와, 상기 드론 조정 명령을 입력받는 제1 입력부와, 제어부를 포함하는 본체, 및 디스플레이 기기가 거치되는 거치대를 포함하고, 상기 거치대는, 상기 디스플레이 기기가 고정되는 거치 고정부와 상기 본체의 일면으로부터 형성되어 상기 거치 고정부를 지지하는 거치 지지부를 포함하고, 상기 제1 입력부는, 상기 드론의 전후 및 좌우 전후 동작 제어 입력을 수신하는 조작부를 포함한다. Here, the terminal device according to an embodiment of the present invention includes a communication unit for transmitting and receiving data with the drone, a first input unit for receiving the dronon adjustment command, a main body including a control unit, and a cradle And the first input unit includes at least one of a front and rear and front and rear forward and backward movement of the drones, And an operation unit for receiving the control input.
본 발명의 다른 실시 예에 따른 단말 장치는, 드론과 데이터를 송수신하는 통신부, 상기 드론 조정 명령을 입력받는 제1 입력부, 상기 입력부를 지지하는 지지부, 및 제어부를 포함하고, 상기 제1 입력부는, 터치스크린을 통해 데이터를 출력하고 상기 드론 전후 및 좌우 동작 제어 입력을 수신하는 조작부를 포함한다.The terminal device according to another embodiment of the present invention includes a communication unit for transmitting and receiving data with a drone, a first input unit receiving the dronon adjustment command, a support unit for supporting the input unit, and a control unit, And an operation unit for outputting data through the touch screen and receiving the front, rear, left and right operation control inputs of the drone.
본 발명에서 얻을 수 있는 기술적 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical solutions obtained by the present invention are not limited to the above-mentioned solutions, and other solutions not mentioned are clearly described to those skilled in the art from the following description. It can be understood.
본 발명에 따른 단말 장치 및 제어 방법의 효과에 대해 설명하면 다음과 같다.Effects of the terminal device and the control method according to the present invention will be described as follows.
본 발명의 실시 예들 중 적어도 하나에 의하면, 장애물이나 오브젝트를 인지하는 경우, 드론을 정밀하게 제어할 수 있는 효과가 있다.According to at least one of the embodiments of the present invention, when an obstacle or an object is recognized, the dron can be precisely controlled.
본 발명의 실시 예들 중 적어도 하나에 의하면, 드론을 육안으로 관찰하기 어렵거나 일정 반경 이상 멀어지는 등 상기 드론을 식별하기 어려운 경우에도 드론을 정밀하게 제어할 수 있는 효과가 있다.According to at least one of the embodiments of the present invention, the drone can be precisely controlled even when it is difficult to visually observe the dron, or if it is difficult to identify the dron such as moving away from the predetermined radius or more.
본 발명의 실시 예들 중 적어도 하나에 의하면, 하나의 핸들만으로 전, 후, 좌, 우, 상, 하 방향으로 드론의 움직임을 제어 및 상기 드론의 회전 움직임을 손쉽게 제어할 수 있는 효과가 있다.According to at least one embodiment of the present invention, it is possible to control the movement of the dron in the forward, backward, left, right, up and down directions with only one handle and easily control the rotational movement of the drones.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description will be.
도 1a는 본 발명과 관련된 단말 장치를 설명하는 도면이다.
도 1b 및 1c는 본 발명과 관련된 단말 장치의 일 예를 서로 다른 방향에서 바라본 개념도이다.
도 2는 본 발명의 일 실시 예에 따른 드론을 조작하기 위한 다양한 형태의 단말 장치를 설명하는 도면이다.
도 3은 본 발명의 일 실시 예에 의한 단말기가 제어하는 드론의 외관을 도시한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 단말 장치의 블록도이다.
도 5는 본 발명의 일 실시 예에 따른 단말 장치를 이용하여 드론의 움직임을 조작하는 방법을 설명하는 도면이다.
도 6은 본 발명의 일 실시 예에 따른 단말 장치를 이용하여 드론에 포함된 카메라를 조작하는 방법을 설명하는 도면이다.
도 7은 본 발명의 다른 실시 예에 따른 단말 장치를 이용하여 드론에 포함된 카메라를 조작하는 방법을 설명하는 도면이다.
도 8은 본 발명의 일 실시 예에 따른 드론 속도에 따라 드론을 제어하는 방법을 설명하는 도면이다.
도 9는 본 발명의 일 실시 예에 따른 장애물을 인지한 드론을 제어하는 방법을 설명하는 도면이다.
도 10은 본 발명의 일 실시 예에 따른 통신 반경에 따른 드론을 제어하는 방법을 설명하는 도면이다.
도 11은 본 발명의 일 실시 예에 따른 조도에 따른 드론을 제어하는 방법을 설명하는 도면이다.
도 12는 본 발명의 일 실시 예에 따른 오브젝트의 감지에 따른 드론을 제어하는 방법을 설명하는 도면이다.
도 13은 본 발명의 일 실시 예에 따른 드론의 회전 동작을 위해 설정된 단말 장치의 물리적 기능을 설명하는 도면이다.
도 14는 본 발명의 일 실시 예에 따른 단말 장치의 하나의 핸들을 이용하여 드론의 나선 운동을 제어하는 방법을 설명하는 도면이다.
도 15는 본 발명의 일 실시 예에 따른 기설정된 패턴으로 드론을 제어하는 방법을 설명하는 도면이다.
도 16은 본 발명의 일 실시 예에 따른 드론의 방향을 표시하는 방법을 설명하는 도면이다.
도 17은 본 발명의 일 실시 예에 따른 드론의 헤딩 방향을 감지하는 방법을 설명하는 도면이다.
도 18은 본 발명의 일 실시 예에 따른 드론의 헤딩 방향에 따라 드론을 제어하는 방법을 설명하는 도면이다.
도 19는 본 발명의 일 실시 예에 따른 광원을 이용하여 드론을 제어하는 방법을 설명하는 도면이다.
도 20은 본 발명의 일 실시 예에 따른 단말 장치 제어 방법의 흐름도이다.
도 21은 본 발명의 일 실시 예에 따라 전술한 도 2에 도시된 드론 조작 장치의 손잡이부(10)와 입력부(120)에 대한 상세 도면이다.
도 22는 본 발명의 일 실시 예에 따른 거치대를 포함한 단말 장치를 도시한 도면이다.
도 23은 본 발명의 일 실시 예에 따른 단말 장치상에서 디스플레이 기기의 제공 가능한 범위를 설명하기 위해 도시한 도면이다.
도 24는 본 발명의 다른 실시 예에 따른 단말 장치에서 디스플레이 기기의 제공 가능한 범위를 설명하기 위해 도시한 도면이다.
도 25는 본 발명의 다른 실시 예에 따른 거치대를 포함한 단말 장치를 도시한 도면이다.
도 26과 27은 본 발명의 일 실시 예에 따른 단말 장치를 통한 드론 움직임 조작 방법을 설명하기 위해 도시한 도면이다.
도 28은 본 발명에 따른 입력부의 베젤 회전을 통한 드론 회전 운동 제어 방법을 도시한 도면이다.
도 29는 본 발명에 따른 극 좌표계에 따라 드론의 속도 제어 방법을 설명하기 위해 도시한 도면이다.1A is a diagram for explaining a terminal device related to the present invention.
1B and 1C are conceptual diagrams showing an example of a terminal device related to the present invention from different directions.
2 is a view for explaining various types of terminal devices for operating a dron according to an embodiment of the present invention.
FIG. 3 is a view showing the appearance of a drones controlled by a terminal according to an embodiment of the present invention.
4 is a block diagram of a terminal device according to an embodiment of the present invention.
5 is a view for explaining a method of operating the drones using a terminal device according to an embodiment of the present invention.
6 is a view for explaining a method of operating a camera included in a drones using a terminal device according to an embodiment of the present invention.
7 is a view for explaining a method of operating a camera included in a drones using a terminal device according to another embodiment of the present invention.
8 is a view for explaining a method of controlling a drones according to a dron speed according to an embodiment of the present invention.
9 is a view for explaining a method of controlling a dron for recognizing an obstacle according to an embodiment of the present invention.
10 is a view for explaining a method of controlling a drone according to a communication radius according to an embodiment of the present invention.
11 is a view for explaining a method of controlling a drones according to an illuminance according to an embodiment of the present invention.
12 is a view for explaining a method of controlling a dron according to an object detection according to an embodiment of the present invention.
13 is a view for explaining a physical function of a terminal device set for a rotating operation of a drone according to an embodiment of the present invention.
14 is a view for explaining a method of controlling the helical motion of a dron using one handle of a terminal device according to an embodiment of the present invention.
15 is a diagram illustrating a method of controlling a drone in a predetermined pattern according to an embodiment of the present invention.
16 is a view for explaining a method of indicating a direction of a dron according to an embodiment of the present invention.
17 is a view for explaining a method of detecting a heading direction of a dron according to an embodiment of the present invention.
18 is a view for explaining a method of controlling a dron according to a heading direction of a dron according to an embodiment of the present invention.
19 is a view for explaining a method of controlling a drones using a light source according to an embodiment of the present invention.
20 is a flowchart of a terminal device control method according to an embodiment of the present invention.
FIG. 21 is a detailed view of the
22 is a diagram illustrating a terminal device including a cradle according to an embodiment of the present invention.
23 is a view for explaining a range in which a display device can be provided on a terminal device according to an embodiment of the present invention.
24 is a view for explaining a range in which a display device can be provided in a terminal device according to another embodiment of the present invention.
25 is a diagram illustrating a terminal device including a cradle according to another embodiment of the present invention.
26 and 27 are diagrams for explaining a method of operating a dron movement through a terminal device according to an embodiment of the present invention.
28 is a view illustrating a method for controlling the rotation of the drone by rotating the bezel of the input unit according to the present invention.
29 is a view for explaining a method of controlling the speed of the drone according to the polar coordinate system according to the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 본 명세서에서 기술되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함을 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 기술 사상 및 권리 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to the same or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for components described in the present specification are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. Variations, equivalents, and alternatives.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
본 명세서에서 기술되는 단말 장치에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말 장치, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말 장치 (smartwatch), 글래스형 단말 장치 (smart glass), HMD(head mounted display)) 등 이동 단말 장치가 포함될 수 있다. The terminal device described in this specification includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal device, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a slate PC A tablet PC, an ultrabook, a wearable device (e.g., a smartwatch, a glass-type smart glass, a head mounted display (HMD), etc.) A mobile terminal device may be included.
그러나 본 명세서에 기재된 실시 예에 따른 구성은 단말 장치에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지(digital signage) 등과 같은 고정 단말 장치에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.However, it should be understood by those skilled in the art that the configuration according to the embodiments described herein may be applied to a fixed terminal device such as a digital TV, a desktop computer, a digital signage, and the like, It will be easy to see.
도 1a는 본 발명과 관련된 단말 장치를 설명하기 위한 블록도이고, 도 1b 및 1c는 본 발명과 관련된 단말 장치의 일 예를 서로 다른 방향에서 바라본 개념도이다.FIG. 1A is a block diagram for explaining a terminal device related to the present invention, and FIGS. 1B and 1C are conceptual diagrams showing an example of a terminal device related to the present invention from different directions.
상기 단말 장치(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180), 전원 공급부(190) 등을 포함할 수 있다. 도 1a에 도시된 구성요소들은 단말 장치를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서상에서 설명되는 단말 장치는 위에서 열거된 구성요소들보다 많거나 적은 구성요소들로 구현될 수도 있다. The
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 단말 장치(100)와 무선 통신 시스템 사이, 단말 장치(100)와 다른 단말 장치(100) 사이, 또는 단말 장치(100)와 외부서버 사이의 무선 통신을 위한 하나 또는 그 이상의 모듈들을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 단말 장치(100)를 하나 또는 그 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.The
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 및 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The
입력부(120)는, 영상 신호 수신을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 수신을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수신한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The
센싱부(140)는 단말 장치 내 정보, 단말 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하는 하나 또는 그 이상의 센서들을 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 등 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 단말 장치는, 이러한 센서들 중 적어도 둘 이상의 센서들에서 센싱되는 정보들을 조합하여 활용할 수 있다.The
출력부(150)는 시각, 청각, 촉각 등과 관련된 출력을 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅틱 모듈(153), 및 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성되어 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 단말 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로 기능할 수 있으며 더불어, 단말 장치(100)와 사용자 사이의 출력 인터페이스도 제공할 수 있다.The
인터페이스부(160)는 단말 장치(100)와 다양한 종류의 외부 기기 사이의 인터페이싱 환경을 제공한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등 중 적어도 하나를 포함할 수 있다. 단말 장치(100)는, 상기 인터페이스부(160)를 통해 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The
메모리(170)는 단말 장치(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 단말 장치(100)에서 구동되는 다수의 애플리케이션 데이터(application data), 단말 장치(100)의 동작을 위한 데이터, 명령어들을 저장할 수 있다. 애플리케이션 데이터 또는 그 일부는, 외부 서버로부터 다운로드 될 수 있다. 또한, 애플리케이션 데이터 또는 그 일부는, 단말 장치(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 단말 장치(100)상에 존재할 수 있다. 이러한 애플리케이션을 기본 애플리케이션(basic or default application)이라 한다. 한편, 애플리케이션은, 메모리(170)에 저장되고, 단말 장치(100) 상에 설치되어, 제어부(180)에 의하여 상기 단말 장치의 동작(또는 기능)을 수행하도록 구동될 수 있다.The
제어부(180)는 상기 애플리케이션과 관련된 동작 외에도, 통상적인 단말 장치(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 애플리케이션을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to the operations related to the application, the
또한, 제어부(180)는 메모리(170)에 저장된 애플리케이션을 구동하기 위하여, 도 1a에 도시된 하나 또는 그 이상의 구성요소들을 제어할 수 있다.In addition, the
전원 공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가받아 단말 장치(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원 공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.The
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 단말 장치의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 단말 장치의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 애플리케이션 구동에 의하여 단말 장치상에서 구현될 수 있다.At least some of the components may operate in cooperation with each other to implement a method of operation, control, or control of a terminal device according to various embodiments described below. Also, the operation, control, or control method of the terminal device may be implemented on the terminal device by driving at least one application stored in the
이하에서는, 위에서 살펴본 단말 장치(100)를 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 구성요소들에 대하여 도 1a를 참조하여 보다 구체적으로 살펴본다.Hereinafter, the components listed above will be described in more detail with reference to FIG. 1A, before explaining various embodiments implemented through the
먼저, 무선 통신부(110)에 대하여 살펴보면, 무선 통신부(110)의 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널 등을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈들이 상기 단말 장치(100)에 제공될 수 있다. 상기에서 방송 관련 정보에는 시그널링 정보(signaling information), 서비스 정보(service information) 또는 시스템 정보(system information)라고 하며, PSI/PSIP(Program Specific information/Program and System Information Protocol), DVB-SI(Digital Video Broadcasting-Service Information), DTMB/CMMB(Digital Television Terrestrial Multimedia Broadcasting/Coding Mobile Multimedia Broadcasting) 등이 포함될 수 있다.First, referring to the
이동통신 모듈(112)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. The
상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈로, 단말 장치(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(113)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신한다.The
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA, HSUPA, LTE, LTE-A 등이 있으며, 상기 무선 인터넷 모듈(113)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.Wireless Internet technologies include, for example, WLAN (Wireless LAN), Wi-Fi, Wi-Fi Direct, DLNA, ), HSDPA, HSUPA, LTE, LTE-A, and the like. The
무선인터넷 접속이 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동통신 모듈(112)의 일종으로 이해될 수도 있다.The
근거리 통신 모듈(114)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi, Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(114)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 단말 장치(100)와 무선 통신 시스템 사이, 단말 장치(100)와 다른 단말 장치(100) 사이, 또는 단말 장치(100)와 다른 단말 장치(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.The short-
여기에서, 다른 단말 장치(100)는 본 발명에 따른 단말 장치(100)와 데이터 커뮤니케이션이 가능한 웨어러블 디바이스가 될 수 있다. 근거리 통신 모듈(114)은, 단말 장치(100) 주변에, 상기 단말 장치(100)와 데이터 커뮤니케이션이 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(180)는 상기 감지된 웨어러블 디바이스가 본 발명에 따른 단말 장치(100)에 의해 인증된 디바이스인 경우, 단말 장치(100)에서 처리되는 데이터의 적어도 일부를, 상기 근거리 통신 모듈(114)을 통해 웨어러블 디바이스로 전송할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 단말 장치(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다. 예를 들어, 사용자는, 단말 장치(100)에 전화 또는 메시지가 수신된 경우, 웨어러블 디바이스를 통해 통화 또는 메시지를 확인할 수 있다.Here, the other
위치정보 모듈(115)은 단말 장치(100)의 위치 정보를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 Wi-Fi 모듈이 있다. 예를 들어, 단말 장치(100)는 GPS 모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 단말 장치(100)의 위치 정보를 획득할 수 있다. 다른 예로서, 단말 장치(100)는 Wi-Fi 모듈을 활용하면, Wi-Fi 모듈과 무선 신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 단말 장치(100)의 위치 정보를 획득할 수 있다. 필요에 따라서, 위치정보 모듈(115)은 치환 또는 부가적으로 단말 장치(100)의 위치 정보를 획득하기 위해 무선 통신부(110)의 다른 모듈에서 획득한 정보를 이용할 수도 있다. 위치정보 모듈(115)은, 단말 장치(100)의 위치 정보를 직접 계산하거나 획득하는 모듈로 한정되지는 않는다.The
다음으로, 입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 수신한다. 단말 장치(100)는 하나 또는 그 이상의 카메라들(121)로부터 영상 정보를 획득할 수 있다. 카메라(121)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)를 통해 출력 또는/및 메모리(170)에 저장될 수 있다. 한편, 단말 장치(100)에 구비되는 복수의 카메라들(121)은 매트릭스 구조를 이루도록 배치될 수 있다. 매트릭스 구조를 이루는 카메라(121)를 통하여, 단말 장치(100)는 다양한 각도 또는 초점의 영상 정보를 획득할 수 있다. 또한, 복수의 카메라들(121)은 입체 영상을 구현하기 위한 좌 영상 데이터와 우 영상 데이터를 획득하도록, 스트레오 구조로 배치될 수 있다.Next, the
마이크로폰(122)은 외부 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 단말 장치(100)에서 수행 중인 기능(또는 실행 중인 애플리케이션)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(122)에는 외부 음향 신호를 수신하는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The
사용자 입력부(123)는 사용자로부터 정보를 입력받기 위한 구성이다. 사용자 입력부(123)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응하여 단말 장치(100)의 동작을 제어할 수 있다. 사용자 입력부(123)는 기계식(mechanical) 입력 수단(또는, 메커니컬 키, 예를 들어, 단말 장치(100)의 전면, 후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력 수단을 포함할 수 있다. 일 예로서, 터치식 입력 수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태로 터치스크린상에 표시될 수 있는데 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합에 의해 제공될 수 있다. The
한편, 센싱부(140)는 단말 장치 내 정보, 단말 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(180)는 이러한 센싱 신호에 기초하여, 단말 장치(100)의 구동 또는 동작을 제어하거나, 단말 장치(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행할 수 있다. 센싱부(140)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.Meanwhile, the
먼저, 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(141)는 위에서 살펴본 터치 스크린에 의해 감싸지는 단말 장치의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. First, the
근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치 스크린이 정전식인 경우에, 근접 센서(141)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치 스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다. Examples of the
한편, 설명의 편의를 위해, 터치 스크린상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치 스크린상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치 스크린상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치 스크린상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(180)는 위와 같이, 근접 센서(141)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치 스크린상에 출력시킬 수 있다. 나아가, 제어부(180)는, 터치 스크린상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 단말 장치(100)를 제어할 수 있다.On the other hand, for convenience of explanation, the act of recognizing that the object is located on the touch screen in proximity with no object touching the touch screen is referred to as "proximity touch & The act of actually touching an object on the screen is called a "contact touch. &Quot; The position at which the object is closely touched on the touch screen means a position where the object corresponds to the touch screen vertically when the object is touched. The
터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치 방식 중 적어도 하나를 이용하여 터치 스크린(또는 디스플레이부(151))에 가해지는 터치(또는 터치 입력)을 감지한다.The touch sensor uses a touch (or touch input) applied to the touch screen (or the display unit 151) by using at least one of various touch methods such as a resistance film type, a capacitive type, an infrared type, an ultrasonic type, Detection.
일 예로서, 터치 센서는, 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치 스크린상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다. For example, the touch sensor may be configured to convert a change in a pressure applied to a specific portion of the touch screen or a capacitance generated in a specific portion to an electrical input signal. The touch sensor may be configured to detect a position, an area, a pressure at the time of touch, a capacitance at the time of touch, and the like where a touch object touching the touch screen is touched on the touch sensor. Here, the touch object may be a finger, a touch pen, a stylus pen, a pointer, or the like as an object to which a touch is applied to the touch sensor.
이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(180)와 별도의 구성요소일 수 있고, 제어부(180) 자체일 수 있다. Thus, when there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the
한편, 제어부(180)는, 터치 스크린(또는 터치 스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할지는, 현재 단말 장치(100)의 동작 상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다. On the other hand, the
한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치 스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.On the other hand, the touch sensors and the proximity sensors discussed above can be used independently or in combination to provide a short touch (touch), a long touch, a multi touch, a drag touch ), Flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, and the like. Touch can be sensed.
초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편, 제어부(180)는 광 센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질 즉, 광이 광 센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.The ultrasonic sensor can recognize the position information of the object to be sensed by using ultrasonic waves. On the other hand, the
한편, 카메라(121)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다.Meanwhile, the
카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝할 수 있다. 보다 구체적으로, 포토 센서는 행/열에 포토 다이오드(Photo Diode)와 트랜지스터(TR: Transistor)를 실장하여 상기 포토 다이오드에 인가되는 광양에 따라 변환되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 광의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.The
디스플레이부(151)는 단말 장치(100)에서 처리되는 정보를 디스플레이한다. 예를 들어, 디스플레이부(151)는 단말 장치(100)에서 구동되는 애플리케이션의 실행화면, 또는 상기 애플리케이션 실행화면과 관련된 UI(User Interface), GUI(Graphic User Interface) 등을 디스플레이할 수 있다. The
또한, 상기 디스플레이부(151)는 입체영상을 디스플레이하도록 구현될 수도 있다. Also, the
이 경우, 상기 디스플레이부(151)은, 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식을 지원할 수 있다.In this case, the
음향 출력부(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부(152)는 단말 장치(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(152)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 햅틱 효과를 제공한다. 여기서, 상기 햅틱 효과는 주로 사용자의 촉각에 관한 것으로 진동을 예로 들 수 있다. 햅틱 모듈(153)을 통해 제공되는 진동의 세기, 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(153)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The
햅틱 모듈(153)은, 햅틱 효과로 상술한 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 햅틱 효과를 제공할 수 있다.The
햅틱 모듈(153)은 사용자가 손가락이나 팔 등의 근 감각을 통해 햅틱 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(153)은 구현 예에 따라 단말 장치(100)상에 2개 이상이 구비될 수도 있다.The
광출력부(154)는 단말 장치(100)의 광원을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 상기에서, 이벤트는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등 단말 장치(100)상에서 발생 가능한 모든 경우를 포함할 수 있다.The
광출력부(154)가 출력하는 신호는 단말 장치(100)가 전면이나 후면으로 한 가지 컬러의 광 또는 복수의 컬러들의 광을 발광함에 따라 구현된다. 상기 신호 출력은 단말 장치(100)가 사용자의 이벤트 확인을 감지함에 의하여 종료될 수 있다.The signal output by the
인터페이스부(160)는 단말 장치(100)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(160)는 외부 기기로부터 데이터를 수신, 전원을 공급받아 단말 장치(100) 내부의 각 구성요소에 전달, 또는 단말 장치(100)의 데이터를 외부 기기로 전송되도록 한다. 상기 인터페이스부(160)로 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트(port), 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 포함될 수 있다.The
한편, 식별 모듈은 단말 장치(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identity module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 상기 인터페이스부(160)를 통하여 단말 장치(100)와 연결될 수 있다.The identification module is a chip for storing various information for authenticating the usage right of the
또한, 상기 인터페이스부(160)는 단말 장치(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 단말 장치(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 단말 장치(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 단말 장치(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수 있다.The
메모리(170)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(170)는 상기 터치 스크린상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The
메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 단말 장치(100)는 인터넷(internet)상에서 상기 메모리(170)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.The
한편, 앞서 살펴본 것과 같이, 제어부(180)는 애플리케이션과 관련된 동작과, 단말 장치(100)의 전반적인 동작을 모두 제어한다. 예를 들어, 제어부(180)는 상기 단말 장치의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행하거나, 해제할 수 있다. Meanwhile, as described above, the
또한, 제어부(180)는 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행하거나, 터치 스크린상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 수행할 수 있다. 나아가 제어부(180)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 단말 장치(100) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 하나 또는 복수 개의 구성요소들을 조합하여 제어할 수 있다.In addition, the
전원 공급부(190)는 제어부(180)의 제어에 의해 외부 전원, 내부 전원을 인가받아 각 구성요소의 동작에 필요한 전원을 공급한다. 전원 공급부(190)는 충전 가능한 형태의 내장형 배터리를 포함하며, 충전 등을 위하여 단말 장치 바디에 착탈 가능하게 결합될 수 있다.The
또한, 전원 공급부(190)는 연결 포트를 구비할 수 있으며, 연결 포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스(160)의 일 예로서 구현될 수도 있다.In addition, the
다른 예로서, 전원 공급부(190)는 상기 연결 포트를 이용하지 않고 무선 방식으로 배터리를 충전하도록 구현될 수도 있다. 이 경우에, 전원 공급부(190)는 외부의 무선 전력 전송장치로부터 자기 유도 현상에 기초한 유도 결합(Inductive Coupling) 방식, 전자기적 공진 현상에 기초한 공진 결합(Magnetic Resonance Coupling) 방식 등을 이용하여 전원을 공급받을 수 있다.As another example, the
한편, 본 명세서에서 개시하는 다양한 실시 예들은, 소프트웨어, 하드웨어 또는 그 조합을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체상에서 구현될 수 있다.On the other hand, various embodiments disclosed herein may be implemented on a recording medium readable by a computer or similar device using software, hardware, or a combination thereof.
도 1b 및 1c를 참조하면, 단말 장치(100)의 바디는 바 타입으로 구현된 예를 도시한다. 다만, 본 발명은 여기에 한정되지 않고 와치 타입, 클립 타입, 글래스 타입 또는 2 이상의 바디들이 상대 이동 가능하게 결합되는 폴더 타입, 플립 타입, 슬라이드 타입, 스윙 타입, 스위블 타입 등 다양한 구조로 구현될 수 있다. 단말 장치의 특정 유형에 관련될 것이나, 단말 장치의 특정 유형에 관한 설명은 다른 타입의 단말 장치에 일반적으로 적용될 수 있다. Referring to FIGS. 1B and 1C, the body of the
여기에서, 단말 장치 바디는 단말 장치(100)를 적어도 하나의 집합체로 보아 이를 지칭하는 개념으로 이해될 수 있다.Here, the terminal device body can be understood as a concept of referring to the
단말 장치(100)는 외관을 이루는 케이스(예를 들면, 프레임, 하우징, 커버 등)를 포함한다. 도시된 바와 같이, 단말 장치(100)는 프론트 케이스(101)와 리어 케이스(102)를 포함할 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 결합에 의해 형성되는 내부 공간에는 각종 전자 부품들이 배치된다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 미들 케이스가 추가로 배치될 수 있다.The
단말 장치 바디의 전면 또는/및 후면에는 디스플레이부(151)가 배치되어 데이터를 출력할 수 있다. 도시된 바와 같이, 디스플레이부(151)의 윈도우(151a)는 프론트 케이스(101)에 장착되어 상기 프론트 케이스(101)와 함께 단말 장치 바디의 전면을 형성할 수 있다.A
경우에 따라서, 리어 케이스(102)에도 전자 부품이 장착될 수 있다. 리어 케이스(102)에 장착 가능한 전자 부품은 착탈 가능한 배터리, 식별 모듈, 메모리 카드 등이 있다. 이 경우, 리어 케이스(102)에는 장착된 전자 부품을 덮기 위한 후면 커버(103)가 착탈 가능하게 결합될 수 있다. 따라서, 후면 커버(103)가 리어 케이스(102)로부터 분리되면, 리어 케이스(102)에 장착된 전자 부품은 외부로 노출된다.In some cases, electronic components may also be mounted on the
도시된 바와 같이, 후면 커버(103)가 리어 케이스(102)에 결합되면, 리어 케이스(102)의 측면 일부가 노출될 수 있다. 경우에 따라서, 상기 결합시 리어 케이스(102)는 후면 커버(103)에 의해 완전히 가려질 수도 있다. 한편, 후면 커버(103)에는 카메라(121b)나 음향 출력부(152b)를 외부로 노출시키기 위한 개구부가 구비될 수 있다.As shown, when the
이러한 케이스들(101, 102, 103)은 합성수지를 사출하여 형성되거나 금속, 예를 들어 스테인레스 스틸(STS), 알루미늄(Al), 티타늄(Ti) 등으로 형성될 수도 있다.These
단말 장치(100)는, 복수의 케이스가 각종 전자 부품들을 수용하는 내부 공간을 마련하는 위의 예와 달리, 하나의 케이스가 상기 내부 공간을 마련하도록 구성될 수도 있다. 이 경우, 합성수지 또는 금속이 측면에서 후면으로 이어지는 유니 바디의 단말 장치(100)가 구현될 수 있다.The
한편, 단말 장치(100)는 단말 장치 바디 내부로 물이 스며들지 않도록 하는 방수부(미도시)를 구비할 수 있다. 예를 들어, 방수부는 윈도우(151a)와 프론트 케이스(101) 사이, 프론트 케이스(101)와 리어 케이스(102) 사이 또는 리어 케이스(102)와 후면 커버(103) 사이에 구비되어, 이들의 결합 시 내부 공간을 밀폐하는 방수부재를 포함할 수 있다.Meanwhile, the
단말 장치(100)에는 디스플레이부(151), 제1 및 제2 음향 출력부(152a, 152b), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 및 제2 카메라(121a, 121b), 제1 및 제2 조작유닛(123a, 123b), 마이크로폰(122), 인터페이스부(160) 등이 구비될 수 있다.The
이하에서는, 도 1b 및 1c에 도시된 바와 같이, 단말 장치 바디의 전면에 디스플레이부(151), 제1 음향 출력부(152a), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 카메라(121a) 및 제1 조작유닛(123a)이 배치되고, 단말 장치 바디의 측면에 제2 조작유닛(123b), 마이크로폰(122) 및 인터페이스부(160)가 배치되며, 단말 장치 바디의 후면에 제2 음향 출력부(152b) 및 제2 카메라(121b)가 배치된 단말 장치(100)를 일 예로 들어 설명한다.1B and 1C, a
다만, 이들 구성은 이러한 배치에 한정되는 것은 아니다. 이들 구성은 필요에 따라 제외 또는 대체되거나, 다른 면에 배치될 수 있다. 예를 들어, 단말 장치 바디의 전면에는 제1 조작유닛(123a)이 구비되지 않을 수 있으며, 제2 음향 출력부(152b)는 단말 장치 바디의 후면이 아닌 측면에 구비될 수 있다.However, these configurations are not limited to this arrangement. These configurations may be excluded or replaced as needed, or placed on different planes. For example, the
디스플레이부(151)는 단말 장치(100)에서 처리되는 데이터를 디스플레이한다. 예를 들어, 디스플레이부(151)는 단말 장치(100)에서 구동되는 애플리케이션의 실행 화면, 또는 이러한 실행 화면에 따른 UI(User Interface), GUI(Graphic User Interface) 데이터를 디스플레이할 수 있다.The
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The
또한, 디스플레이부(151)는 단말 장치(100)의 구현 형태에 따라 2개 이상 존재할 수 있다. 이 경우, 단말 장치(100)에는 복수 개의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치 또는 서로 다른 면에 각각 배치될 수도 있다.In addition, the
디스플레이부(151)는 터치 방식에 의하여 제어 명령을 입력받을 수 있도록, 디스플레이부(151)에 대한 터치를 감지하는 터치 센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(151)에 대하여 터치가 이루어지면, 터치 센서는 상기 터치를 감지하고, 제어부(180)는 이에 근거하여 상기 터치에 대응하는 제어 명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.The
한편, 터치 센서는, 터치 패턴을 구비하는 필름 형태로 구성되어 윈도우(151a)와 윈도우(151a)의 배면 상의 디스플레이(미도시) 사이에 배치 또는 윈도우(151a)의 배면에 직접 패터닝되는 메탈 와이어가 될 수도 있다. 또는, 터치 센서는 디스플레이와 일체로 형성될 수 있다. 예를 들어, 터치 센서는, 디스플레이의 기판상에 배치되거나, 디스플레이의 내부에 구비될 수 있다.On the other hand, the touch sensor is formed in the form of a film having a touch pattern, and is disposed between the
이처럼, 디스플레이부(151)는 터치 센서와 함께 터치 스크린을 형성할 수 있으며, 이 경우에 터치 스크린은 사용자 입력부(123, 도 1a 참조)로 기능할 수 있다. 경우에 따라, 터치 스크린은 제1 조작유닛(123a)의 적어도 일부 기능을 대체할 수 있다.In this way, the
제1 음향 출력부(152a)는 통화음을 사용자의 귀에 전달시키는 리시버(receiver)로 구현될 수 있으며, 제2 음향 출력부(152b)는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다.The first sound output unit 152a may be implemented as a receiver for transmitting a call sound to a user's ear and the second
윈도우(151a)상에는 제1 음향 출력부(152a)로부터 발생되는 사운드의 방출을 위한 음향 홀이 형성될 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니고, 상기 사운드는 구조물 간의 조립 틈(예를 들어, 윈도우(151a)와 프론트 케이스(101) 간의 틈)을 따라 방출되도록 구성될 수 있다. 이 경우, 외관상 음향 출력을 위하여 독립적으로 형성되는 홀이 보이지 않거나 숨겨져 단말 장치(100)의 외관이 보다 심플해질 수 있다.Acoustic holes may be formed on the
광 출력부(154)는 이벤트의 발생시 이를 알리기 위한 광을 출력한다. 상기 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등을 들 수 있다. 제어부(180)는 사용자의 이벤트 확인이 감지되면, 광의 출력이 종료되도록 광 출력부(154)를 제어할 수 있다.The
제1 카메라(121a)는 촬영 모드 또는 화상통화 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있으며, 메모리(170)에 저장될 수 있다.The
제1 및 제2 조작유닛(123a, 123b)은 단말 장치(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 사용자 입력부(123)의 일 예로서, 조작부(manipulating portion)로도 통칭될 수 있다. 제1 및 제2 조작유닛(123a, 123b)은 터치, 푸시, 스크롤 등 사용자가 촉각적인 느낌을 받으면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 또한, 제1 및 제2 조작유닛(123a, 123b)은 근접 터치(proximity touch), 호버링(hovering) 터치 등을 통해서 사용자의 촉각적인 느낌이 없이 조작하게 되는 방식으로도 채용될 수 있다.The first and
본 도면에서는 제1 조작유닛(123a)이 터치키(touch key)인 것으로 예시하나, 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 제1 조작유닛(123a)은 푸시키(mechanical key)가 되거나, 터치키와 푸시키의 조합으로 구성될 수 있다.In this figure, the
제1 및 제2 조작유닛(123a, 123b)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작유닛(123a)은 메뉴, 홈키, 취소, 검색 등의 명령을 입력받고, 제2 조작유닛(123b)은 제1 또는 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이부(151)의 터치 인식 모드로의 전환 등의 명령을 입력 받을 수 있다.The contents input by the first and
한편, 단말 장치 바디의 후면에는 사용자 입력부(123)의 다른 일 예로서, 후면 입력부(미도시)가 구비될 수 있다. 이러한 후면 입력부는 단말 장치(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 전원의 온/오프, 시작, 종료, 스크롤 등과 같은 명령, 제1 및 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이부(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력받을 수 있다. 후면 입력부는 터치입력, 푸시 입력 또는 이들의 조합에 의한 입력이 가능한 형태로 구현될 수 있다.On the other hand, a rear input unit (not shown) may be provided on the rear surface of the terminal device body as another example of the
후면 입력부는 단말 장치 바디의 두께 방향으로 전면의 디스플레이부(151)와 중첩되게 배치될 수 있다. 일 예로, 사용자가 단말 장치 바디를 한 손으로 쥐었을 때 검지를 이용하여 용이하게 조작 가능하도록, 후면 입력부는 단말 장치 바디의 후면 상단부에 배치될 수 있다. 다만, 본 발명은 반드시 이에 한정되는 것은 아니며, 후면 입력부의 위치는 변경될 수 있다.The rear input unit may be disposed so as to overlap the
이처럼 단말 장치 바디의 후면에 후면 입력부가 구비되는 경우, 이를 이용한 새로운 형태의 유저 인터페이스가 구현될 수 있다. 또한, 앞서 설명한 터치 스크린 또는 후면 입력부가 단말 장치 바디의 전면에 구비되는 제1 조작유닛(123a)의 적어도 일부 기능을 대체하여, 단말 장치 바디의 전면에 제1 조작유닛(123a)이 미배치되는 경우, 디스플레이부(151)가 보다 대화면으로 구성될 수 있다.When a rear input unit is provided on the rear surface of the terminal device body, a new type of user interface using the rear input unit can be realized. The
한편, 단말 장치(100)에는 사용자의 지문을 인식하는 지문인식센서가 구비될 수 있으며, 제어부(180)는 지문인식센서를 통하여 감지되는 지문정보를 인증수단으로 이용할 수 있다. 상기 지문인식센서는 디스플레이부(151) 또는 사용자 입력부(123)에 내장될 수 있다.Meanwhile, the
마이크로폰(122)은 사용자의 음성, 기타 소리 등을 입력받는다. 마이크로폰(122)은 복수 개가 구비되어 스테레오 음향을 입력받도록 구성될 수 있다.The
인터페이스부(160)는 단말 장치(100)를 외부 기기와 연결을 위한 인터페이싱 환경을 제공한다. 예를 들어, 인터페이스부(160)는 다른 장치(예를 들어, 이어폰, 외장 스피커, 외장 메모리 등)와의 연결을 위한 접속 단자, 근거리 통신을 위한 포트(예를 들어, 적외선 포트(IrDA Port), 블루투스 포트(Bluetooth Port), 무선 랜 포트(Wireless LAN Port) 등], 또는 단말 장치(100)에 전원을 공급하기 위한 전원공급 단자 중 적어도 하나일 수 있다. 이러한 인터페이스부(160)는 SIM(Subscriber Identification Module) 또는 UIM(User Identity Module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 소켓의 형태로 구현될 수도 있다.The
단말 장치 바디의 후면에는 제2 카메라(121b)가 배치될 수 있다. 이 경우, 제2 카메라(121b)는 제1 카메라(121a)와 반대되는 촬영 방향을 가지게 된다.And a
제2 카메라(121b)는 적어도 하나의 라인을 따라 배열되는 복수 개의 렌즈를 포함할 수 있다. 복수 개의 렌즈는 행렬(matrix) 형식으로 배열될 수도 있다. 이러한 카메라는, '어레이(array) 카메라'로 명명될 수 있다. 제2 카메라(121b)가 어레이 카메라로 구성되는 경우, 복수 개의 렌즈를 이용하여 다양한 방식으로 영상을 촬영할 수 있으며, 보다 나은 품질의 영상을 획득할 수 있다.The
플래시(124)는 제2 카메라(121b)에 인접하게 배치될 수 있다. 플래시(124)는 제2 카메라(121b)로 피사체를 촬영하는 경우에 피사체를 향하여 빛을 비추게 된다.The
단말 장치 바디에는 제2 음향 출력부(152b)가 추가로 배치될 수 있다. 제2 음향 출력부(152b)는 제1 음향 출력부(152a)와 함께 스테레오 기능을 구현할 수 있으며, 통화 시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.And a second
단말 장치 바디에는 무선 통신을 위한 적어도 하나의 안테나가 구비될 수 있다. 안테나는 단말 장치 바디에 내장되거나, 케이스에 형성될 수 있다. 예를 들어, 방송 수신 모듈(111, 도 1a 참조)의 일부를 이루는 안테나는 단말 장치 바디에서 인출 가능하게 구성될 수 있다. 또는, 안테나는 필름 타입으로 형성되어 후면 커버(103)의 내측면에 부착될 수도 있고, 도전성 재질을 포함하는 케이스가 안테나로서 기능하도록 구성될 수도 있다.At least one antenna for wireless communication may be provided in the terminal device body. The antenna may be embedded in the terminal device body or formed in the case. For example, an antenna constituting a part of the broadcast receiving module 111 (see FIG. 1A) may be configured to be fetchable from the terminal device body. Alternatively, the antenna may be formed in a film type and attached to the inner surface of the
단말 장치 바디에는 단말 장치(100)에 전원을 공급하기 위한 전원 공급부(190, 도 1a 참조)가 구비된다. 전원 공급부(190)는 단말 장치 바디에 내장되거나, 단말 장치 바디의 외부에서 착탈 가능하게 구성되는 배터리(191)를 포함할 수 있다.A power supply unit 190 (see FIG. 1A) for supplying power to the
배터리(191)는 인터페이스부(160)에 연결되는 전원 케이블을 통하여 전원을 공급받도록 구성될 수 있다. 또한, 배터리(191)는 무선 충전 기기를 통하여 무선충전 가능하도록 구성될 수도 있다. 상기 무선 충전은 자기 유도 방식 또는 공진 방식(자기 공명 방식)에 의하여 구현될 수 있다.The
한편, 본 도면에서는 후면 커버(103)가 배터리(191)를 덮도록 리어 케이스(102)에 결합되어 배터리(191)의 이탈을 제한하고, 배터리(191)를 외부 충격과 이물질로부터 보호하도록 구성된 것을 예시하고 있다. 배터리(191)가 단말 장치 바디에 착탈 가능하게 구성되는 경우, 후면 커버(103)는 리어 케이스(102)에 착탈 가능하게 결합될 수 있다.The
단말 장치(100)에는 외관을 보호하거나, 단말 장치(100)의 기능을 보조 또는 확장시키는 액세서리가 추가될 수 있다. 이러한 액세서리의 일 예로, 단말 장치(100)의 적어도 일면을 덮거나 수용하는 커버 또는 파우치를 들 수 있다. 커버 또는 파우치는 디스플레이부(151)와 연동되어 단말 장치(100)의 기능을 확장시키도록 구성될 수 있다. 액세서리의 다른 일 예로, 터치 스크린에 대한 터치 입력을 보조 또는 확장하기 위한 터치 펜을 들 수 있다.The
이하에서는 이와 같이 구성된 단말 장치에서 구현될 수 있는 제어 방법과 관련된 실시 예들에 대해 첨부된 도면을 참조하여 설명한다. Hereinafter, embodiments related to a control method that can be implemented in a terminal device configured as above will be described with reference to the accompanying drawings.
도 2는 본 발명의 일 실시 예에 따라 드론 조작을 위한 다양한 형태의 단말 장치를 설명하는 도면이다.FIG. 2 is a view for explaining various types of terminal devices for drone operation according to an embodiment of the present invention.
도 2a를 참조하면, 원형 형태의 단말 장치(100-1)가 도시되어 있다. 단말 장치(100-1)는 드론을 조작하기 위한 드론 조작 장치이다. Referring to FIG. 2A, a circular terminal device 100-1 is shown. The terminal device 100-1 is a drone operation device for operating the drones.
드론을 조작하기 위한 기존의 단말 장치는, 상하 방향을 조작하는 제1 핸들과 전후, 좌우 방향을 조작하는 제2 핸들이 별도로 포함되어 있고, 회전 또는 다른 기능을 수행하는 다양한 버튼을 포함한다. 따라서, 사용자가 드론을 조작하는데 있어서 직관적이지 못하고 조작 방법이 복잡하여 상기 조작에 많은 어려움이 있다.The conventional terminal device for operating the drone includes a first handle for operating the vertical direction and a second handle for operating the front and rear direction and the left and right direction separately and includes various buttons for performing rotation or other functions. Therefore, the user is not intuitive in operating the drones, and the operation method is complicated, so that the operation is difficult.
도 2a에 도시된 단말 장치(100-1)는, 손잡이부(10)와 입력부(120)를 포함할 수 있다. 상기 입력부(120)는 핸들, 조작용 핸들 등 다양한 이름으로 호칭될 수 있으나, 드론 동작 제어에 관한 입력이 그 주요 기능인바, 이하 입력부로 설명한다. 한편, 상기 입력부(120)의 기능은 상술한 내용에 한정되는 것은 아니며 예컨대, 상기 드론으로부터 수신한 데이터를 디스플레이하는 디스플레이 기능도 수행할 수 있다. 입력부(120)는 전후 및 좌우 방향의 4축 또는 전후, 좌우, 및 상하 방향의 6축으로 조작될 수 있다. 또한, 상기 입력부(120)는 회전도 가능하다. 따라서, 사용자는 하나의 입력부를 통해 드론의 전후, 좌우, 상하 및 회전 동작을 조작할 수 있다. 또한, 사용자가 입력부(120)를 전방으로 움직이면 드론도 전방으로 이동하고, 조작용 핸들(120)을 위쪽으로 들면 드론도 상승할 수 있다. 따라서, 사용자는 직관적이고 편리하게 단말 장치(100-1)를 이용하여 드론을 조작할 수 있다.The terminal device 100-1 shown in FIG. 2A may include a
한편, 단말 장치(100-1)는 디스플레이부를 포함할 수도 있다. 일 실시 예로서, 디스플레이부는 입력부(120)의 상부면 또는 후술할 거치대상에 배치될 수 있다. 디스플레이부는 드론의 카메라로 촬영된 영상 또는 상기 드론에 구비된 각종 센서로부터 센싱된 데이터를 디스플레이할 수 있다. 또한, 디스플레이부는 터치스크린으로 구현되어 터치 입력을 수신할 수 있다. 따라서, 사용자는 디스플레이부를 터치하여 드론의 동작 또는 카메라를 조작할 수 있다.Meanwhile, the terminal apparatus 100-1 may include a display unit. In one embodiment, the display portion may be disposed on the upper surface of the
도 2b를 참조하면, 다른 형태의 단말 장치(100-2)가 도시되어 있다. 도 2b에 도시된 단말 장치(100-2)도 손잡이부(10)와 입력부(120)를 포함한다. 도2b에 도시된 단말 장치(100-2)의 손잡이부(10)는, 도 2a와 달리 길게 돌출되어 있는데 이는 사용자가 단말 장치(100-2)를 잡기 편리하도록 하기 위함이다. 한편, 상기 손잡이부(10)에는 비록 도시되진 않았으나 단말 장치(100-2)를 통한 드론 동작 제어에 관련된 디스플레이 창이나 버튼 등이 포함될 수도 있다. 전술한 바와 같이, 단말 장치(100-2)는 스마트폰과 같은 외부 디스플레이 장치를 장착할 수 있는 거치대를 더 포함할 수 있다. 이때, 상기 거치대는 예컨대, 상기 단말 장치(100-2)로부터 탈착 가능하도록 구현될 수 있다. 외부 디스플레이 장치는 영상 데이터에 관련된 신호를 직접 드론과 송수신하고, 단말 장치(100-2)는 드론의 움직임 데이터 관련 신호를 상기 드론과 송수신할 수 있다. 또는, 상기 영상 데이터는 단말 장치(100-2)에서 수신하여 처리한 후 상기 외부 디스플레이 장치를 통해 출력될 수도 있다. 도 2b의 입력부(120)는 손잡이부(10) 상에 배치될 수 있고, 입력부(120)의 동작은 도 2a에서 설명한 것과 동일할 수 있다. 그 밖에, 상기 입력부(120) 상에 별도의 디스플레이부가 포함될 수도 있다. 한편, 상기 외부 디스플레이 장치를 거치하는 거치대는 상기 손잡이부(10)의 일면으로부터 소정 기울기로 형성될 수 있다. 이에 대한 상세한 설명은 후술한다.Referring to FIG. 2B, another type of terminal device 100-2 is shown. The terminal device 100-2 shown in FIG. 2B also includes a
도 2c를 참조하면, 또 다른 형태의 단말 장치(100-3)가 도시되어 있다. 도 2c에 도시된 단말 장치(100-3) 역시, 손잡이부(10)와 입력부(120)를 포함한다. 도 2c의 단말 장치(100-3)는 디스플레이부를 포함할 수 있다. 디스플레이부는 손잡이부(10) 영역 또는 입력부(120)의 상부면에 배치될 수도 있다. 도 2c의 입력부(120)의 동작은 상술한 바와 동일할 수 있다.Referring to FIG. 2C, another form of terminal device 100-3 is shown. The terminal device 100-3 shown in FIG. 2C also includes a
이하에서는 단말 장치 및 제어 방법의 다양한 실시 예를 설명한다. 다만, 당업자는 이전에 설명한 도면을 참조하여 이후에 설명하는 실시 예를 보충하거나 변형하는 것도 가능하다.Various embodiments of the terminal apparatus and the control method will be described below. However, those skilled in the art can supplement or modify the embodiments described later with reference to the previously described drawings.
도 3은 본 발명의 일 실시 예에 의한 단말기가 제어하는 드론의 외관의 일례를 도시한 도면이다.3 is a view illustrating an example of the appearance of a drones controlled by a terminal according to an embodiment of the present invention.
도 3을 참조하면, 드론(300)은 프로펠러 가드(310), 프로펠러(320), 본체(330) 및 카메라(340) 등을 포함할 수 있다. 다만, 도 3에 도시된 드론(300)의 모양으로 본 발명의 권리범위가 제한되는 것은 아니다. 즉, 3개의 프로펠러를 사용하는 트라이 콥터, 도 3에 도시된 바와 같이 4개의 프로펠러를 사용하는 쿼드 콥터 및 8개의 프로펠러를 사용하는 옥타 콥터 등 다양한 헬리콥터 형태 또는 비행기 형태의 드론에 본 발명이 적용 가능하다.Referring to FIG. 3, the
프로펠러 가드(310)는 프로펠러(320)의 동작으로 인하여 사람이나 동물이 다치는 경우를 방지하기 위한 구성이며, 생략 가능하다. 프로펠러(320) 및 카메라(340)는 본체(330)의 제어 신호에 반응하여 동작하고, 본체(330)에는 이동 단말기와 통신 가능한 무선 통신 모듈을 포함하고 있다. 실시 예에 따라, 카메라(340)는, 본체(330)의 제어 신호와는 다른 별도의 제어 신호를 이용하여 상세한 움직임(motion)이 제어될 수도 있다.The
도 4는 본 발명의 일 실시 예에 따른 단말 장치의 블록도이다.4 is a block diagram of a terminal device according to an embodiment of the present invention.
본 발명의 일 실시 예에 따른 단말 장치는, 드론과 데이터를 송수신하는 통신부와, 상기 드론 제어 명령을 입력받는 제1 입력부와, 제어부를 포함하는 본체 및 디스플레이 기기가 거치되는 거치대를 포함하고, 상기 거치대는, 상기 디스플레이 기기가 고정되는 거치 고정부와 상기 본체의 일면으로부터 형성되어 상기 거치 고정부를 지지하는 거치 지지부를 포함하고, 상기 제1 입력부는, 상기 드론의 좌우 및 전후 동작 제어 입력을 수신하는 조작부를 포함할 수 있다.A terminal device according to an embodiment of the present invention includes a communication unit for transmitting and receiving data with a drone, a first input unit for receiving the dron control command, a main body including a control unit, and a cradle on which a display device is mounted, The cradle includes a cradle fixing part for fixing the display device and a mounting support part for supporting the cradle fixing part, and the first input part receives the control input of the left and right and front and rear operation of the dron And a control unit for controlling the display unit.
여기서, 상기 제1 입력부는, 상기 드론의 회전 동작 제어 입력을 수신하는 베젤부를 더 포함할 수 있다. 그리고 상기 베젤부는, 상기 조작부의 일 구성일 수 있다. 상기 조작부는, 상기 드론의 회전 동작 제어 입력을 더 수신할 수 있다. 상기 조작부는, 상기 드론의 상하 동작 제어 입력을 더 수신할 수 있다. 상기 본체는, 상기 드론의 상하 동작 제어 입력을 수신하는 제2 입력부를 더 포함할 수 있다.Here, the first input unit may further include a bezel unit receiving the rotation operation control input of the drones. The bezel portion may be a configuration of the operating portion. The operation unit can further receive the rotation operation control input of the drones. The operation unit can further receive the up / down operation control input of the drones. The main body may further include a second input unit receiving the up / down operation control input of the drones.
또한, 상기 단말 장치는, 상기 드론의 회전 동작 제어 입력, 상기 드론에 구비된 카메라의 줌 배율에 대한 제어 입력 및 상기 드론의 구비된 카메라의 각도 제어 입력 중 적어도 하나를 수신하는 제2 입력부를 더 포함할 수 있다.The terminal further includes a second input unit for receiving at least one of a rotation operation control input of the drones, a control input for a zoom magnification of a camera provided in the drones, and an angle control input of the camera provided in the drones .
그리고 상기 디스플레이 기기는, 상기 베젤부 또는 조작부로부터 미리 정한 거리(d1)를 반지름으로 하는 원형 범위상에 또는 원형 범위 내에 거치될 수 있다. 상기 디스플레이 기기는, 상기 베젤부 또는 조작부로부터 미리 정한 높이(h1)에 따른 원기둥 범위상에 또는 상기 원기둥 범위 내에 거치될 수 있다. 상기에서, 미리 정한 거리(d1)와 미리 정한 높이(h1)은, 사용자의 손가락 길이를 기준으로 결정될 수 있다.The display device may be mounted on a circular range or a circular range with a predetermined distance d1 from the bezel or the operating portion as a radius. The display device may be mounted on the cylindrical range or within the cylindrical range according to the predetermined height h1 from the bezel or the operating part. In the above, the predetermined distance d1 and the predetermined height h1 may be determined based on the finger length of the user.
또한, 상기 제어부는, 상기 입력되는 드론 제어 명령에 따라 기본 모드와 인텔리전트 오리엔트 모드 중 어느 하나에 기초하여 상기 드론의 동작을 제어하되, 상기 인텔리전트 오리엔트 모드에는 제1 모드와 제2 모드가 포함될 수 있다. 상기 제어부는, 상기 입력되는 드론 제어 명령에 따라 드론의 헤딩 방향을 기준으로 하는 기본 모드에 따라 상기 드론의 동작을 제어할 수 있다. 상기 제어부는, 상기 입력되는 드론 제어 명령에 따라 기준 각도에 따른 인텔리전트 오리엔트 모드에 따라 상기 드론의 동작을 제어하되, 상기 기준 각도는, 상기 드론의 최초 이륙시 헤딩 방향을 의미할 수 있다. 상기 제어부는, 상기 입력되는 드론 제어 명령에 따라 상기 단말 장치와 드론 사이의 거리(r)와 각도(θ) 중 적어도 하나를 참조하는 인텔리전트 오리엔트 모드에 따라 상기 드론의 동작을 제어할 수 있다.Also, the controller may control the operation of the drones based on either the basic mode or the intelligent orient mode in accordance with the input dron control command, and the intelligent orient mode may include a first mode and a second mode . The control unit may control the operation of the drones according to a basic mode based on a heading direction of the drones according to the inputted dron control command. The control unit controls the operation of the drone according to an intelligent orientation mode according to a reference angle according to the input drone control command, and the reference angle may mean a heading direction at the time of the first take-off of the drone. The controller may control the operation of the drones according to an intelligent orientation mode that refers to at least one of a distance (r) and an angle (?) Between the terminal device and the drones in accordance with the inputted drones control command.
상기 제어부는, 상기 본체와 드론 사이의 방위각 또는 각도(θ)에 따라 상기 드론의 속도를 제어할 수 있다. 상기 제어부는, 상기 본체와 드론 사이의 방위각 또는 각도(θ)가 미리 정한 방위각 또는 각도(θ) 이상이면, 사용자의 입력과 관계없이 미리 정의된 속도로 동작되도록 제어할 수 있다.The controller may control the speed of the drones according to the azimuth angle or the angle between the main body and the drone. If the azimuth angle or angle between the body and the drone is equal to or greater than a predetermined azimuth angle or angle, the controller can control to operate at a predefined speed regardless of the user's input.
상기에서, 거치 고정부는, 상기 디스플레이 기기의 고정을 위해 적어도 하나의 구성을 포함하고, 상기 구성이 복수 개인 경우, 적어도 하나는 상하 또는 좌우 이동 가능할 수 있다. 상기 거치 지지부는, 상기 본체의 일면으로부터 미리 정한 각도로 형성될 수 있다. 상기 거치 고정부와 상기 거치 지지부는, 각각 힌지를 포함하여 상기 본체로부터 각도 변경이 가능할 수 있다.In the above, the mounting fixture includes at least one structure for fixing the display device, and when there are a plurality of structures, at least one of the mounting fixtures may be movable up and down or left and right. The mounting support may be formed at a predetermined angle from one surface of the main body. The stationary fixing part and the stationary supporting part may each include a hinge and change the angle from the main body.
본 발명의 다른 실시 예에 따른 단말 장치는, 드론과 데이터를 송수신하는 통신부, 상기 드론 제어 명령을 입력받는 제1 입력부, 상기 제1 입력부를 지지하는 지지부 및 제어부를 포함하고, 상기 제1 입력부는, 터치스크린을 통해 데이터를 출력하고 상기 드론 전후 및 좌우 동작 제어 입력을 수신하는 조작부를 포함할 수 있다.The terminal device according to another embodiment of the present invention includes a communication unit for transmitting and receiving data to and from a drone, a first input unit receiving the dron control command, a support unit supporting the first input unit, and a control unit, And an operation unit for outputting data through a touch screen and receiving the front, rear, and left and right operation control inputs of the drones.
여기서, 상기 제1 입력부는, 상기 드론의 회전 동작 제어 입력을 수신하는 베젤부를 더 포함할 수 있다. 상기 베젤부는, 상기 조작부의 일 구성일 수 있다. 상기 조작부는, 상기 드론의 회전 동작 제어 입력을 더 수신할 수 있다. 상기 조작부는, 상기 드론의 상하 동작 제어 입력을 더 수신할 수 있다.Here, the first input unit may further include a bezel unit receiving the rotation operation control input of the drones. The bezel portion may be a configuration of the operating portion. The operation unit can further receive the rotation operation control input of the drones. The operation unit can further receive the up / down operation control input of the drones.
상기에서, 드론의 상하 동작 제어 입력을 수신하는 제2 입력부를 더 포함할 수 있다. 상기 드론의 회전 동작 제어 입력을 수신하는 제2 입력부를 더 포함할 수 있다.The apparatus may further include a second input unit receiving the up / down operation control input of the drones. And a second input unit for receiving the rotation operation control input of the drones.
상기 제어부는, 상기 입력되는 드론 제어 명령에 따라 드론의 헤딩 방향을 기준으로 하는 기본 모드에 따라 상기 드론의 동작을 제어할 수 있다. 상기 제어부는, 상기 입력되는 드론 제어 명령에 따라 기준 각도에 따른 인텔리전트 오리엔트 모드에 따라 상기 드론의 동작을 제어하되, 상기 기준 각도는, 상기 드론의 최초 이륙시 헤딩 방향을 의미할 수 있다. 상기 제어부는, 상기 입력되는 드론 제어 명령에 따라 상기 단말 장치와 드론 사이의 거리(r)와 각도(θ) 중 적어도 하나를 참조하는 인텔리전트 오리엔트 모드에 따라 상기 드론의 동작을 제어할 수 있다.The control unit may control the operation of the drones according to a basic mode based on a heading direction of the drones according to the inputted dron control command. The control unit controls the operation of the drone according to an intelligent orientation mode according to a reference angle according to the input drone control command, and the reference angle may mean a heading direction at the time of the first take-off of the drone. The controller may control the operation of the drones according to an intelligent orientation mode that refers to at least one of a distance (r) and an angle (?) Between the terminal device and the drones in accordance with the inputted drones control command.
상기 제어부는, 상기 본체와 드론 사이의 방위각에 따라 상기 드론의 속도를 제어하되, 상기 본체와 드론 사이의 방위각 또는 각도(θ)가 미리 정한 방위각 또는 각도(θ) 이상이면, 사용자의 입력과 관계없이 미리 정의된 속도로 동작되도록 제어할 수 있다.The control unit controls the speed of the drone according to an azimuth angle between the main body and the drone, and when the azimuth angle or the angle between the main body and the drone is equal to or greater than a predetermined azimuth or angle, So that it can be operated at a predefined speed.
도 4를 참조하면, 단말 장치(100a)는 통신부(110), 입력부(120), 출력부(150) 및 제어부(180)를 포함할 수 있다. 상기 구성 요소들을 거치대와 구분하여 합쳐 본체라고 명명하여 설명할 수도 있다. 실시 예에 따라, 도시된 일부 구성 요소가 생략되거나 반대로 도시되지 않은 일부 구성 요소가 추가될 수도 있고, 도 4에 도시된 하나의 구성 요소가 둘 이상의 구성 요소로서 구현되거나, 도 4에 도시된 둘 이상의 구성 요소가 하나의 구성 요소로서 구현될 수도 있다.4, the
통신부(110)는 드론과 데이터를 송수신할 수 있다. 통신부(110)는 드론의 카메라로 촬영된 영상 데이터 또는 드론의 센싱부에서 감지된 센싱 데이터 중 적어도 하나의 데이터를 수신할 수 있다. 예를 들어, 통신부(110)는 드론의 위치 정보, 비행 정보 등과 같은 데이터를 수신할 수 있고, 이동 명령과 같은 동작 제어 데이터를 전송할 수 있다. 단말 장치(100a)는 디스플레이부를 더 포함하여 드론으로부터 수신한 영상 정보를 디스플레이할 수 있다.The
입력부(120)는 드론을 조정하는 명령을 입력받을 수 있다. 입력부(120)는 조작부와 베젤부가 독립형 또는 일체형으로 구현될 수 있다. 상기 독립형인 경우, 조작부는, 드론의 전후 및 좌우 동작 제어 입력을 수신할 수 있다. 이때, 상기 조작부는, 상기 드론의 상하 동작 제어 입력을 더 수신할 수 있다. 한편, 상기 일체형일 경우, 조작부는 상기 드론의 상하, 전후, 및 좌우 동작 제어 입력을 수신할 수 있다. 상기에서 단말 장치(100a) 상에 상기 입력부(제1 입력부)(120)에 대응되는 제2 입력부가 존재하는 경우에는, 상기 드론의 회전 동작은 상기 제2 입력부로부터 수신할 수 있다. 다만, 그렇지 않은 경우 즉, 제1 입력부(120)만 존재하는 경우에는, 상기 드론의 회전 동작 제어 입력은 독립형인 경우에는 베젤부에서 그리고 일체형인 경우에는 조작부에 의해 입력받을 수 있다. 그 밖에, 상기 단말 장치(100a)가 상기 디스플레이부의 기능을 하는 외부 디스플레이 장치를 거치 가능한 거치대를 포함하지 않는 경우에는, 상기 조작부상 또는 손잡이부(10) 상의 일면에 상기 디스플레이부가 배치될 수 있다. 전술한 바와 같이, 입력부(120)는 하나의 핸들로 구현되어 전, 후, 좌, 우의 4축 또는 상, 하까지 포함하여 6축 방향에 대한 입력과, 상기 4축 또는 6축 방향에 회전 방향에 대한 입력도 수신할 수도 있다. 입력부(120)에서 입력된 방향에 대응되는 명령은, 통신부(110)를 통해 드론으로 전송될 수 있다. 드론은 전송된 명령에 따라 동작할 수 있다. 예를 들어, 입력부(120)를 통해 후 방향 명령이 입력되면 드론은 후진 비행할 수 있다. 드론은 전, 후, 좌, 우 방향의 명령에 대응하여 평면 방향인 전, 후, 좌, 우 방향으로 비행할 수 있다. 그리고 드론은 상, 하 방향의 명령에 대응하여 수직 방향인 상, 하 방향으로 비행할 수 있다. 또한, 드론은 회전 방향의 명령에 대응하여 제자리에서 회전하는 비행을 할 수도 있다. 상기 회전 방향 명령에 따라 상기 드론의 헤딩 방향이 변경될 수 있다. 따라서, 상기 드론의 헤딩 방향은 상기 단말 장치(100a)로부터 상기 드론의 진행 방향과 일치하지 않을 수도 있다.The
한편, 입력부(120)는 복수 개의 방향에 대한 조작 명령을 동시에 입력받을 수 있다. 예를 들어, 입력부(120)는 전 방향 및 상 방향으로 조작될 수 있다. 드론은 입력된 명령에 대응하여 앞으로 이동하면서 상승할 수 있다.Meanwhile, the
제어부(180)는 드론으로부터 수신한 데이터를 기초로 장애물을 검출하고 드론과 장애물 간의 거리를 산출할 수 있다. 경우에 따라, 드론은 일정 거리 이내에 장애물을 발견할 수 있다. 드론은 장애물과의 거리가 기설정된 거리 이내인 경우 단말 장치(100a)로 신호를 전송할 수 있다. 또는, 드론으로부터 장애물과의 거리 정보를 수신하면, 단말 장치(100a)는 상기 수신한 드론과 장애물과의 거리 정보를 기초로 기설정된 거리 이내인지 판단할 수 있다. 또는, 드론은 감지한 정보를 단말 장치(100a)로 전송하고, 단말 장치(100a)가 수신한 정보를 기초로 장애물 여부 및 장애물과의 거리를 산출할 수도 있다.The
제어부(180)는 산출된 드론과 장애물 간의 거리가 기설정된 거리 이하인 경우, 기설정된 신호를 출력하도록 출력부(180)를 제어할 수 있다. 예를 들어, 기설정된 신호는 햅틱 효과를 출력하는 신호일 수 있다. 여기서, 상기 햅틱 효과는 예를 들어, 진동 등일 수 있다.The
출력부(150)는 기설정된 신호를 출력할 수 있다. 일 실시 예로서, 드론은 단말 장치(100a)로부터 입력된 방향에 대응하여 비행을 할 수 있다. 상술한 바와 같이, 단말 장치(100a)는 장애물을 검출하고, 드론과 장애물과의 거리를 산출할 수 있다. 장애물과의 거리가 기설정된 거리 이내라고 판단되는 경우, 출력부(150)는 제어부(180)의 제어에 따라 햅틱 효과를 출력하는 신호를 출력할 수 있다. 즉, 출력부(150)는 햅틱 효과를 출력할 수 있다. 따라서, 사용자는 드론이 장애물과 기설정된 거리 이내로 접근하는 경우 햅틱 효과를 느낄 수 있다.The
또는, 장애물과의 거리가 기설정된 거리 이내라고 판단되는 경우, 출력부(150)는 드론을 조정하기 위해 사용자가 힘을 가하는 방향에 대한 햅틱 효과를 출력하는 신호를 출력할 수 있다. 즉, 출력부(150)는 사용자의 조작 방향에 대한 햅틱 효과를 출력할 수 있다. 예를 들어, 입력부(120)는 기계적 또는 전기적 스프링 또는 소형 유압 장치 등을 포함할 수 있다. 단말 장치(100a)는 드론과 장애물과의 거리가 기설정된 거리 이내라고 판단되는 경우 사용자가 입력부(120)를 조작하는 반대 방향으로 힘이 가해지도록 스프링을 제어할 수 있다. 따라서, 사용자는 입력부(120)를 조작할 때, 마치 장애물이 실제 존재하는 것과 같은 느낌을 느낄 수 있다.Alternatively, when it is determined that the distance to the obstacle is within the predetermined distance, the
아래에서는 단말 장치 및 제어 방법의 다양한 실시 예를 설명한다.Various embodiments of the terminal apparatus and the control method will be described below.
도 5는 본 발명의 일 실시 예에 따른 단말 장치를 이용하여 드론의 움직임을 조작하는 방법을 설명하는 도면이다.5 is a view for explaining a method of operating the drones using a terminal device according to an embodiment of the present invention.
도 5a를 참조하면, 평면 방향으로 조작되는 입력부(120)가 도시되어 있다. 상술한 바와 같이, 단말 장치는 입력부(120)를 포함할 수 있다. 예를 들어, 입력부(120)는 6축 방향으로 움직일 수 있는 핸들 형태로 구현될 수 있다. 입력부(120)의 조작에 대응하여 드론은 움직일 수 있다. 예를 들어, 입력부(120)가 앞으로 조작되면, 통신부를 통해 조작 신호가 드론으로 전송될 수 있다. 드론은 수신한 조작 신호에 대응하여 앞으로 움직일 수 있다. 입력부(120)가 좌 방향으로 조작되면, 조작 신호가 드론으로 전송될 수 있다. 드론은 수신한 조작 신호에 대응하여 좌 방향으로 움직일 수 있다. 도 5a에서 도시된 바와 같이, 입력부(120)는 전, 후, 좌, 우 방향의 평면 방향으로 조작될 수 있고, 드론은 수신한 조작 신호에 대응되는 방향으로 움직일 수 있다.Referring to FIG. 5A, an
도 5b를 참조하면, 상하 방향 및 회전 방향으로 조작되는 입력부(120)가 도시되어 있다. 드론은 단말 장치로부터 수신한 조작 신호에 대응하여 움직일 수 있다. 예를 들어, 입력부(120)가 윗 방향으로 조작되면, 드론은 조작 신호를 수신하고 윗 방향으로 움직일 수 있다. 또는, 입력부(120)가 회전 방향으로 조작되면, 드론은 조작 신호를 수신하여 제자리에서 회전할 수 있다.Referring to FIG. 5B, an
한편, 단말 장치는 디스플레이부를 포함할 수 있다. 그리고 디스플레이부는 터치 입력을 수신할 수 있다. 상기 터치 입력은 드론의 카메라를 제어할 수 있다.Meanwhile, the terminal apparatus may include a display unit. The display unit can receive the touch input. The touch input may control the drones' camera.
도 6은 본 발명의 일 실시 예에 따른 단말 장치를 이용하여 드론에 포함된 카메라를 조작하는 방법을 설명하는 도면이다.6 is a view for explaining a method of operating a camera included in a drones using a terminal device according to an embodiment of the present invention.
도 6을 참조하면, 단말 장치의 디스플레이부(151)가 도시되어 있다. 드론의 카메라는 영상을 촬영할 수 있다. 드론은 촬영된 영상 데이터를 단말 장치로 전송할 수 있다. 단말 장치는 전송된 영상 데이터를 디스플레이부(151)에 디스플레이할 수 있다. 이때, 상기 영상 이외에 음성 등 소리도 포함될 수 있다.Referring to FIG. 6, a
디스플레이부(151)는 터치 입력을 수신할 수 있다. 예를 들어, 디스플레이부(151)는 윗 방향으로 움직이는 스와이프 입력을 수신할 수 있다. 스와이프 입력은 디스플레이부의 한 지점을 터치하고 터치를 유지하면서 한 방향으로 이동하는 입력을 의미할 수 있다. 예를 들어, 스와이프 입력은 드래그, 플리킹 등 입력도 포함할 수 있다. 일 실시 예로서, 디스플레이부(151)가 윗 방향으로 움직이는 스와이프 입력을 수신하면, 드론의 카메라는 아래 방향으로 움직일 수 있다. 드론의 카메라가 아래 방향으로 움직이면, 디스플레이된 화면으로부터 상대적으로 윗 방향으로 이동한 화면이 디스플레이부(151)에 디스플레이될 수 있다. 또는, 디스플레이부(151)가 우 방향으로 움직이는 스와이프 입력을 수신하면, 드론의 카메라는 좌 방향으로 움직일 수 있다. 드론의 카메라가 좌 방향으로 움직이면, 디스플레이된 화면으로부터 상대적으로 우 방향으로 이동한 화면이 디스플레이부(151)에 디스플레이될 수 있다.The
또는, 디스플레이부(151)는 화면을 확대하는 핀치-아웃 입력을 수신할 수 있다. 드론의 카메라는 입력받은 제스처에 대응하여 줌-인 동작을 실행할 수 있다. 유사하게, 디스플레이부(151)는 화면을 축소하는 핀치-인 입력을 수신할 수 있다. 드론의 카메라는 상기 핀치-인 입력에 대응하여 줌-아웃 동작을 실행할 수 있다. Alternatively, the
상술한 바와 같이, 단말 장치는 디스플레이부(151) 상에서 이루어지는 터치 입력에 기초하여 드론의 카메라를 제어할 수 있다. 다만, 디스플레이부(151)를 통한 터치 입력과 드론의 카메라 동작 제어는, 상술한 바에 한정되는 것은 아니며, 상술한 내용과 반대 또는 전혀 다른 동작을 수행할 수도 있다.As described above, the terminal device can control the camera of the drones based on the touch input on the
도 7은 본 발명의 다른 실시 예에 따른 단말 장치를 이용하여 드론에 포함된 카메라를 조작하는 방법을 설명하는 도면이다.7 is a view for explaining a method of operating a camera included in a drones using a terminal device according to another embodiment of the present invention.
도 7a를 참조하면, 수신한 영상 데이터를 디스플레이하는 단말 장치의 디스플레이부(151)가 도시되어 있다. 상술한 바와 같이, 드론의 카메라는 영상을 촬영할 수 있다. 드론은 촬영된 영상 데이터를 단말 장치로 전송할 수 있다. 단말 장치의 디스플레이부(151)는 수신한 영상 데이터를 디스플레이할 수 있다. 사용자는 디스플레이부(151)의 임의의 영역을 터치할 수 있다.Referring to FIG. 7A, a
도 7b를 참조하면, 표시된 화면 영역이 변경된 디스플레이부(151)가 도시되어 있다. 디스플레이부(151)는 터치 입력을 수신할 수 있다. 단말 장치는 터치된 영역에 대한 정보를 드론에게 전송할 수 있다. 일 실시 예로서, 단말 장치는 디스플레이된 화면의 상대적인 좌표 정보를 저장할 수 있다. 그리고 단말 장치는 터치된 영역에 대한 좌표 정보를 획득할 수 있다. 단말 장치는 획득한 좌표 정보를 중앙의 좌표 정보로 보정하는 정보를 전송할 수 있다. 드론은 단말 장치로부터 수신한 정보를 기초로 단말 장치가 획득한 좌표 지점이 카메라로 촬영되는 영상의 중앙 지점이 되도록 카메라를 제어할 수 있다. 따라서, 디스플레이부(151)는 터치된 지점이 중앙 지점으로 이동하는 화면을 디스플레이할 수 있다. 즉, 단말 장치는 화면상의 터치 지점이 화면의 중앙 지점이 되도록 카메라를 제어하여 영상 데이터를 이동시킬 수 있다.Referring to FIG. 7B, the
그 밖에, 도 6 또는 7에 도시된 터치 입력에 따라 드론의 카메라 동작 제어가 아니라 드론의 위치를 이동시킬 수도 있다. 다시 말해, 상기 디스플레이부(151) 상에 터치된 지점 상에 드론이 위치하도록 하거나 상기 스와이프나 핀치-인 또는 핀치-아웃 동작에 따라 드론의 움직임을 제어할 수도 있다.In addition, it is also possible to move the position of the drone, not the camera operation control of the dron according to the touch input shown in Fig. 6 or Fig. In other words, the drones may be positioned on the touched point on the
도 8은 본 발명의 일 실시 예에 따른 드론 속도에 따라 드론을 제어하는 방법을 설명하는 도면이다.8 is a view for explaining a method of controlling a drones according to a dron speed according to an embodiment of the present invention.
도 8a에는 드론(300)이 저속으로 이동하는 경우, 드론(300)을 제어하는 단말 장치(100)가 도시되어 있다. 드론(300)이 저속으로 이동하는 경우, 단말 장치(100)를 이용하여 드론을 제어하는 것이 상대적으로 용이할 수 있다. 상술한 바와 같이, 단말 장치(100)의 입력부는 하나의 핸들로 구현될 수 있다. 그리고 하나의 핸들은 기설정된 조건에 따라, 기설정된 신호를 출력할 수 있는 출력부와 연결될 수 있다. 예를 들어, 기설정된 조건이 만족하면, 출력부는 입력되는 방향에 반대되는 방향의 햅틱 효과를 출력할 수 있다. 출력부는 기계적 또는 전기적 스프링으로 구현될 수도 있다. 입력부는 스프링을 포함하여 입력되는 힘이 사라지는 경우 원위치로 돌아올 수 있다. 도 8a에서 도시된 단말 장치(100) 및 드론(300)은 일반적인 상태를 의미할 수 있다.8A shows a
도 8b에는 드론(300)이 고속으로 이동하는 경우, 드론(300)을 제어하는 단말 장치(100)가 도시되어 있다. 드론(300)이 고속으로 이동하는 경우 드론(300)은 급격한 방향 변경을 용이하지 않을 수 있다. 또는, 드론(300)이 고속으로 이동하는 경우, 드론(300)의 제어에 제약이 따를 수 있다. 그러나 단말 장치(100)를 조작하는 사용자는 드론(300)의 속도나 제어의 어려움을 인지하지 못할 수 있다. 따라서, 단말 장치(100)는 출력부를 통해 입력부를 조작하는 방향의 반대 방향의 햅틱 효과를 출력할 수 있다. 드론(300)이 고속으로 이동하는 경우, 단말 장치(100)는 상기 햅틱 효과를 통해 사용자에게 드론(300)이 고속으로 이동하고 있음을 인지시킬 수 있고, 드론의 급격한 제어를 방지할 수 있다.8B shows a
저속 또는 고속의 구분은, 제작자 또는 사용자에 의해 설정될 수 있다. 예를 들어, 고속은 드론의 속도가 50km/h보다 큰 경우 설정되고, 저속은 50km/h보다 작은 경우 설정될 수 있다. 경우에 따라, 단말 장치(100)는 드론(300)의 속도에 비례하여 햅틱 효과의 세기를 강하게 할 수 있다.The classification of low speed or high speed can be set by the manufacturer or the user. For example, the high speed is set when the speed of the drone is greater than 50 km / h, and the low speed is set when it is less than 50 km / h. In some cases, the
도 9는 본 발명의 일 실시 예에 따른 장애물을 인지한 드론을 제어하는 방법을 설명하는 도면이다.9 is a view for explaining a method of controlling a dron for recognizing an obstacle according to an embodiment of the present invention.
사용자는 단말 장치(100)를 통해 드론(300)을 제어할 수 있다. 이때, 사용자는 드론(300)의 주변 상황에 대해 충분히 인지하지 못하는 경우가 발생할 수 있다. 예를 들어, 드론(300)의 전방에 장애물(11)이 존재하나, 사용자가 장애물(11)을 인지하여 적절히 제어하지 못하면 드론(300)은 장애물(11)과 충돌할 수 있다. 따라서, 단말 장치(100)는 드론(300)의 주변에 장애물(11)이 존재하는 경우, 사용자에게 기설정된 신호를 출력할 수 있다.The user can control the
예를 들어, 드론(300)은 카메라를 이용하여 장애물(11)을 촬영할 수 있다. 드론(300)은 촬영 데이터를 단말 장치(100)로 전송할 수 있다. 단말 장치(100)는 드론으로부터 수신한 데이터를 기초로 장애물(11) 및 장애물(11)과 드론(300) 간의 거리를 산출할 수 있다. 또는, 드론(300)은 장애물(11)을 검출하여 검출된 정보를 단말 장치(100)로 전송하거나 장애물(11) 간의 거리를 산출하여 단말 장치(100)로 전송할 수도 있다. 또는, 드론(300)은 센싱부를 이용하여 장애물(11)을 감지할 수 있다. 센싱부는 적외선 센서, 초음파 센서 등을 포함할 수 있다. 드론(300)은 단말 장치(100)로 센싱된 정보를 전송하거나, 장애물(11) 존재 여부를 판단하여 판단된 정보를 전송하거나, 드론(300)과 장애물(11) 간의 거리를 산출하여 산출된 정보를 전송할 수도 있다.For example, the
단말 장치(100)는 드론(300)과 장애물(11) 간의 거리에 기초하여 기설정된 신호를 출력할 수 있다. 예를 들어, 단말 장치(100)는 햅틱 모듈(예를 들어, 진동 모터)를 포함하여 상기 드론(300)과 장애물(11) 간의 거리가 기설정된 거리 이내인 경우 햅틱 효과(예를 들어, 진동 신호)를 출력할 수 있다. 또는, 단말 장치(100)는 드론(300)과 장애물(11) 간의 거리가 줄어들수록 즉, 상기 드론(300)이 상기 장애물(11)에 근접할수록 진동 신호의 세기를 다르게 제어(예를 들어, 진동 세기를 더 크게)할 수 있다. 즉, 단말 장치(100)는 장애물(11)의 존부 또는 상기 장애물(11)과 드론(300) 간의 거리에 따라 햅틱 효과를 출력할 수 있다.The
그리고 단말 장치(100)는 출력부를 통해 입력부를 조작하는 방향의 반대 방향의 햅틱 효과를 출력할 수 있다. 드론(300)이 장애물(11)에 근접하는 경우, 단말 장치(100)는 햅틱 효과를 출력하여 사용자에게 드론(300)이 장애물(11)로 근접하고 있다는 것을 인지시킬 수 있다. 상기에서, 장애물(11)에 근접한다고 함은 예를 들어, 상기 드론(300)이 장애물(11)과의 거리가 기설정된 거리 이내이고, 상기 드론(300)이 상기 장애물(11) 방향으로 진행하는 경우를 의미할 수 있다.The
또한, 단말 장치(100)는 입력부의 입력에 따른 드론(300)의 속도 비율을 조절할 수도 있다. 예를 들어, 일반적인 상황에서 단말 장치(100)는 입력부로부터 입력되는 변위에 대응하여 드론(300)의 속도를 조절할 수 있다. 일 실시 예로서, 입력부의 변위가 1cm 이동하는 경우, 단말 장치(100)는 드론(300)의 속도를 1m/s로 설정할 수 있다. 입력부의 변위가 3cm 이동하는 경우, 단말 장치(100)는 드론(300)의 속도를 3m/s로 설정할 수 있다. 그러나 단말 장치(100)는 장애물(11)이 존재하는 경우, 드론(300)의 속도 비율을 조절할 수 있다. 예를 들어, 상기 장애물(11)이 존재하더라도, 상기 단말 장치(100)는 상기 드론(300)과 장애물(11) 간의 거리가 기설정된 거리 이내인 경우와 그렇지 않은 경우에 상기 드론(300)의 속도를 다르게 제어할 수 있다. 일 실시 예로서, 드론(300)과 장애물(11) 간의 거리가 기설정된 거리 이내이면, 단말 장치(100)는 입력부의 변위가 1cm 이동하더라도 드론(300)의 속도를 0.1m/s로 설정하고, 입력부의 변위가 3cm 이동하더라도 드론(300)의 속도를 0.3m/s로 설정할 수 있다. 또는, 드론(300)과 장애물(11) 간의 거리가 5m, 4m, 3m로 가까워질수록 입력부의 변위가 1cm 이동할 때, 단말 장치(100)는 드론(300)의 속도를 각각 0.5m/s, 0.4m/s, 0.3m/s로 조절할 수도 있다.Also, the
따라서, 단말 장치(100)를 통해 드론(300)을 제어함에 있어, 조작의 어려움이나 실수에 따른 장애물(11)과의 충돌 가능성을 줄이고, 사용자의 조작 용이성을 높일 수 있다.Therefore, in controlling the
한편, 상술한 내용은, 장애물이 한 개가 아니라 복수 개인 경우에도 마찬가지이다.On the other hand, the above description also applies to the case where there are a plurality of obstacles rather than one.
도 10은 본 발명의 일 실시 예에 따른 통신 반경에 따른 드론을 제어하는 방법을 설명하는 도면이다.10 is a view for explaining a method of controlling a drone according to a communication radius according to an embodiment of the present invention.
도 10a를 참조하면, 단말 장치(100)로부터 기설정된 범위 내에서 이동하는 드론(300)이 도시되어 있다. 단말 장치(100)는 드론(300)으로부터 위치 데이터를 수신할 수 있다. 단말 장치(100)는 수신한 드론(300)의 위치 데이터를 기초로 단말 장치(100)와 드론(300) 간의 거리를 산출할 수 있다. 예를 들어, 위치 데이터는 드론(300)의 GPS 데이터일 수 있다. 또는, 단말 장치(100)는 드론(300)과 통신을 수행하고 신호의 송수신 시간을 기초로 드론(300)과의 거리를 산출할 수도 있다.Referring to FIG. 10A, a
한편, 단말 장치(100)는 드론(300)의 제어 범위를 기설정된 거리로 설정하여 둘 수 있다. 일 실시 예로서, 드론(300)의 제어 범위는 드론(300)과의 통신 방식에 기초하여 설정될 수 있다. 구체적으로, 단말 장치(100)가 드론(300)과 와이-파이 방식으로 통신하고, 상기 와이-파이 방식에 따를 경우 유효한 통신 가능 범위가 50m라면 상기 기설정된 거리를 50m라고 설정할 수 있다. 또는, 통신 범위의 마진을 고려하여 단말 장치(100)는 기설정된 거리를 45m 또는 55m라고 설정할 수도 있다.On the other hand, the
드론(300)이 기설정된 범위 이내에 위치하는 경우, 단말 장치(100)는 일반적인 방식으로 드론(300)을 제어할 수 있다.When the
도 10b를 참조하면, 상기 기설정된 범위의 경계 부근에서 이동하는 드론(300)이 도시되어 있다. 단말 장치(100)는 드론(300)과의 거리를 산출할 수 있다. 드론(300)이 기설정된 범위의 경계 부근에 위치한다고 판단되면, 단말 장치(100)는 기설정된 신호를 출력할 수 있다. 또는, 드론(300)이 상기 기설정된 범위 내에 존재하지 않고 상기 범위 밖에 존재하는 것으로 판단되면, 단말 장치(100)는 기설정된 신호를 출력할 수 있다. 이때, 상기 기설정된 신호는 상기 드론(300)이 상기 기설정된 범위 내에 존재한다고 판단된 경우와 다를 수 있다.Referring to FIG. 10B, there is shown a
예를 들어, 단말 장치(100)는 햅틱 모듈을 이용하여 햅틱 신호를 출력할 수 있다. 즉, 단말 장치(100)는 사용자에게 경계 범위와 관련하여 햅틱 효과를 출력할 수 있다. 그리고 단말 장치(100)는 단말 장치(100)는 출력부를 통해 입력부를 조작하는 방향의 반대 방향의 햅틱 효과를 출력할 수 있다. 또한, 단말 장치(100)는 입력부의 입력에 따른 드론(300)의 속도 비율을 조절할 수도 있다. 출력 신호의 구체적인 예는 상술하였으므로 설명을 생략한다.For example, the
따라서, 드론(300)이 경계 부근에 위치하는 경우, 범위 내에 위치했을 때와 동일한 속도로 드론(300)을 이동시키기 위해서는 입력부의 변위가 더 커져야 한다.Therefore, when the
도 11은 본 발명의 일 실시 예에 따른 조도에 따른 드론을 제어하는 방법을 설명하는 도면이다.11 is a view for explaining a method of controlling a drones according to an illuminance according to an embodiment of the present invention.
도 11a를 참조하면, 단말 장치(100)가 도시되어 있다. 상술한 바와 같이, 단말 장치(100)의 조작에 따라 드론(300)은 이동될 수 있다. 한편, 드론(300)은 주변의 조도를 감지할 수 있다. 드론(300)은 감지한 조도 정보를 단말 장치(100)로 전송할 수 있다. 또는, 드론(300)은 여러 가지 센싱 정보를 단말 장치(100)로 전송할 수 있다. 단말 장치(100)는 수신한 센싱 정보로부터 조도 정보를 검출할 수 있다. 단말 장치(100)는 검출된 조도 정보에 따라 입력부의 입력에 따른 드론(300)의 속도 비율을 조절할 수 있다.Referring to FIG. 11A, a
도 11b를 참조하면, 낮에 이동하는 드론(300)이 도시되었는데, 이 경우 드론(300) 또는 단말 장치(100)는 충분한 조도 즉, 기설정된 조도 값 이상을 검출할 수 있다. 따라서, 단말 장치(100)는 입력부의 이동 변위에 대해 일반적인 드론(300)의 속도를 설정할 수 있다. 예를 들어, 단말 장치(100)는 입력부의 변위가 1cm 이동하는 경우, 드론(300)의 속도를 10m/s로 설정할 수 있다.Referring to FIG. 11B, a
반면, 도 11c를 참조하면, 밤에 이동하는 드론(300)이 도시되었는데, 이 경우 드론(300) 또는 단말 장치(100)는 상기 도 11b의 낮과 달리 검출된 조도의 양은 상기 기설정된 조도 값 이상이 되지 않을 수 있다. 기설정된 조도보다 낮은 조도가 검출되면, 단말 장치(100)는 입력부의 이동 변위에 대해 드론(300)의 속도 비율을 줄일 수 있다. 예를 들어, 단말 장치(100)는 입력부의 변위가 1cm 이동하는 경우, 드론(300)의 속도를 5m/s로 설정할 수 있다. 따라서, 입력부의 동일한 이동 변위에 대해, 검출된 조도에 따라 드론은 속도는 다르게 제어될 수 있다.On the other hand, referring to FIG. 11C, the
도 11c와 같이, 검출된 조도가 기설정된 조도 값보다 작은 경우, 드론(300)을 육안으로 식별하기 어렵기 때문에 사고의 위험성이 높다. 따라서, 기설정된 조도 값보다 작은 조도가 검출되면, 드론(300)의 이동 속도를 줄여 사고의 위험성을 낮추는 것이 바람직할 수 있다. 조도와 관련하여, 상술한 입력부의 이동 변위에 대한 드론(300)의 이동 속도의 조절은 전술한 장애물과 같은 오브젝트를 인식한 경우와 마찬가지이다.As shown in FIG. 11C, when the detected illuminance is smaller than a predetermined illuminance value, it is difficult to identify the
상술한 조도 감지 등은 상기 드론(300) 이외에 단말 장치(100)에서도 개별적으로 감지할 수 있다. 이렇게 감지된 조도 정보는 직접 드론(300)에 이용하거나 상기 드론(300)으로부터 수신된 데이터에 비교하여 상기 드론(300)의 동작 제어에 이용할 수 있다.The above-described illumination detection and the like can be individually detected by the
한편, 상기에서, 조도 정보와 관련하여, 낮, 밤을 예로 하였으나, 이에 한정되는 것은 아니다. 예컨대, 낮, 밤에 한정되지 않고 흐린 날, 비오는 날, 맑은 날 또는 실내와 실외뿐만 아니라 시간과 장소에 구분없이 검출되는 조도만을 기준으로 할 수도 있다. 예컨대, 실내에서 드론(300)을 제어하는 경우에는, 주변 형광등, LED 등의 개수 등에 따라 조도 정보는 달라질 수 있다.On the other hand, in the above description, the day and night are exemplified with reference to the illuminance information, but the present invention is not limited thereto. For example, it may be based not only on daytime, nighttime, cloudy day, rainy day, sunny day, or indoors and outdoors, but also illumination that is detected regardless of time and place. For example, when the
도 12는 본 발명의 일 실시 예에 따른 오브젝트의 감지에 따른 드론을 제어하는 방법을 설명하는 도면이다.12 is a view for explaining a method of controlling a dron according to an object detection according to an embodiment of the present invention.
도 12a를 참조하면, 드론(300)은 단말 장치(100)의 조작에 따라 이동한다. 한편, 드론(300)은 카메라를 이용하여 촬영할 수 있다. 드론(300)은 촬영 데이터를 단말 장치(100)로 전송할 수 있다. 단말 장치(100)는 촬영 데이터에 오브젝트가 없는 경우 일반적인 속도로 드론(300)을 이동시킬 수 있다.Referring to FIG. 12A, the
반면, 도 12b는, 드론(300)에 의해 촬영된 데이터에 오브젝트가 포함된 경우이다. 드론(300)은 카메라를 이용하여 오브젝트를 촬영할 수 있다. 단말 장치(100)는 드론(300)으로부터 수신한 촬영 데이터로부터 오브젝트를 감지할 수 있다. 단말 장치(100)가 오브젝트를 감지하는 경우, 단말 장치(100)는 입력부의 이동 변위에 대해 드론(300)의 속도 비율을 줄일 수 있다. 드론(300)은 비행 물체이므로 빠른 속도로 이동할 수 있다. 드론(300)이 빠른 속도로 이동하기 때문에 드론(300)을 이용하여 오브젝트를 촬영하는 것이 쉽지 않다. 따라서, 촬영 데이터에 오브젝트가 존재하는 경우 단말 장치(100)가 드론(300)의 속도를 줄임으로써 사용자는 오브젝트를 용이하게 촬영할 수 있다. 이때, 단말 장치(100)의 디스플레이에 상기 오브젝트가 디스플레이되고, 상기 디스플레이되는 오브젝트를 선택하면, 상기 선택된 오브젝트의 속도, 방향에 따라 상기 드론의 속도, 방향이 대응되도록 오토 모드로 제어할 수도 있다.On the other hand, FIG. 12B shows a case where an object is included in the data photographed by the
한편, 드론(300)은 단말 장치(100)를 이용하여 용이하게 패턴 비행을 할 수 있다.On the other hand, the
도 13은 본 발명의 일 실시 예에 따른 드론의 회전 운동을 위해 설정된 단말 장치의 물리적 기능을 설명하는 도면이다.13 is a view for explaining a physical function of a terminal device set for rotational movement of a dron according to an embodiment of the present invention.
도 13a를 참조하면, 단말 장치(100)는 예를 들어, 드론(300)을 단말 장치(100)나 특정 물체와 같은 기준점으로부터 원형의 패턴 비행을 하도록 제어할 수 있다. 이때, 상기 드론(300)의 카메라 방향은 고정될 수 있다. 상기 드론(300)의 카메라 방향 고정이라 함은, 패턴 비행 이전에 방향을 그래도 계속하여 유지 또는 패턴 비행 중에 계속하여 상기 기준점을 촬영하도록 카메라가 움직이는 경우를 포함할 수 있다. 그러나 드론(300)의 원형 패턴 비행이 쉽지 않다. 따라서, 단말 장치(100)는 원형 패턴 비행을 설정하여 입력부의 물리적 기능을 이용하여 사용자에게 설정된 원형 패턴 비행 값을 인식시켜 줄 수 있다.Referring to FIG. 13A, the
원형 패턴 비행 값은 복수 세트로 설정될 수 있다. 일 실시 예로서, 드론(300)은 10 deg/s 속도로 회전하면서 0.87 m/s로 좌우측으로 이동하는 경우 반경 5m의 원형 패턴 비행을 할 수 있다고 가정한다. 단말 장치(100)는 회전 각속도가 10 deg/s가 되는 입력부의 회전 변위에 대해 딸깍하고 한 번 걸리는 느낌의 물리적 기능을 포함할 수 있다. 그리고 단말 장치(100)는 이동 속도가 0.87m/s가 되는 입력부의 평면 변위에 대해 딸깍하고 걸리는 느낌의 물리적 기능을 포함할 수 있다. 사용자는 회전 변위 및 평면 변위 각각에 대해 걸리는 느낌으로 설정된 부분에 입력부를 세팅하는 경우 드론(300)은 5m의 원형 패턴 비행을 할 수 있다. 단말 장치는 동일한 방법으로 두 번째 원형 패턴 비행 값에 해당하는 입력부의 변위 위치에 딸깍하고 걸리는 느낌의 물리적 기능을 포함할 수 있다. 물리적 기능이란 물리적 효과를 출력할 수 있는 부품, 도구, 장치 등을 의미할 수 있다. 예를 들어, 단말 장치(100)는 입력부의 핸들 축 상에 돌출부를 포함하고, 핸들이 회전할 때 돌출부가 이동하는 평면상에 돌출부와 대응되는 홈을 포함할 수 있다. 핸들이 회전하면서 돌출부는 평면상에서 이동하다가 홈 영역을 만나면 딸깍하는 소리와 함께 홈 영역으로 들어갈 수 있다.The circular pattern flight values can be set to multiple sets. As an example, it is assumed that the
즉, 단말 장치(100)는 제1 단계의 원형 패턴 비행 값으로 제1 회전 변위(21a) 및 제1 평면 변위(21b) 위치에 물리적 기능을 포함할 수 있고, 제2 단계의 원형 패턴 비행 값으로 제2 회전 변위(22a) 및 제2 평면 변위(22b) 위치에 물리적 기능을 포함할 수 있고, 제3 단계의 원형 패턴 비행 값으로 제3 회전 변위(21c) 및 제3 평면 변위(23b) 위치에 물리적 기능을 포함할 수 있다.That is, the
도 13b를 참조하면 원형 패턴이 도시되어 있다. 상술한 방식에 따라, 드론(300)은 설정된 입력부의 회전 변위 및 평면 변위에 따라 제1 단계, 제2 단계 또는 제3 단계의 원형 패턴 비행을 할 수 있다.Referring to FIG. 13B, a circular pattern is shown. According to the above-described method, the
도 14는 본 발명의 일 실시 예에 따른 단말 장치의 하나의 핸들을 이용하여 드론의 나선 운동을 제어하는 방법을 설명하는 도면이다.14 is a view for explaining a method of controlling the helical motion of a dron using one handle of a terminal device according to an embodiment of the present invention.
도 14a를 참조하면, 단말 장치(100)가 도시되어 있다. 상술한 바와 같이, 단말 장치(100)는 설정된 원형 패턴 값에 따라 드론(300)을 원형 패턴 비행을 시킬 수 있다. 그리고 단말 장치(100)의 입력부는 드론(300)을 상승 또는 하강 운동을 시킬 수 있다. 또한, 단말 장치(100)의 입력부는 복수의 방향에 대한 명령을 동시에 입력받을 수 있다.Referring to FIG. 14A, a
도 14b를 참조하면, 나선 운동하는 드론(300)이 도시되어 있다. 상술한 바와 같이, 드론(300)은 설정된 원형 패턴 값에 따라 원형 패턴 비행을 할 수 있다. 사용자는 설정된 원형 패턴 입력에 추가하여 상승 또는 하강 명령을 동시에 입력할 수 있다. 사용자가 설정된 원형 패턴 입력에 추가하여 상승 명령을 입력하는 경우, 드론(300)은 원형 패턴 비행에 더하여 상승 비행을 할 수 있다. 따라서, 드론(300)은 상승 나선 비행을 할 수 있다. 또는, 사용자가 설정된 원형 패턴 입력에 추가하여 하강 명령을 입력할 수 있다. 사용자가 설정된 원형 패턴 입력에 추가하여 하강 명령을 입력하는 경우, 드론(300)은 원형 패턴 비행에 더하여 하강 비행을 할 수 있다. 따라서, 드론(300)은 하강 나선 비행을 할 수 있다.Referring to Figure 14B, a spiral drones 300 are shown. As described above, the
즉, 단말 장치(100)는 입력부를 통해 드론(300)의 원운동을 위한 기설정된 각속도에 대응되는 회전 방향의 회전 및 평면 방향의 변위를 입력받을 수 있다. 단말 장치(100)는 동시에 수직 방향으로 명령을 입력받는 경우, 결과적으로 나선 운동을 하는 신호를 드론(300)에게 전송할 수 있다.That is, the
도 15는 본 발명의 일 실시 예에 따른 기설정된 패턴으로 드론을 제어하는 방법을 설명하는 도면이다.15 is a diagram illustrating a method of controlling a drone in a predetermined pattern according to an embodiment of the present invention.
도 15a를 참조하면 사각 패턴 비행을 하는 드론(300)이 도시되어 있다. 단말 장치(100)는 패턴 비행 버튼을 포함할 수 있다. 패턴 비행 버튼이 눌린 상태에서 단말 장치(100)는 입력되는 형태에 기초한 패턴 비행을 할 수 있다. 예를 들어, 패턴 비행 버튼이 선택되지 않고 단말 장치(100)의 입력부가 전후, 좌우 방향으로 각각 입력되는 경우, 드론(300)은 전후, 좌우 방향으로 이동하기는 하지만 사각 패턴의 형태로 비행하기는 어려울 수 있다. 그러나 패턴 비행 버튼이 선택되고 단말 장치(100)의 입력부가 전후, 좌우 방향으로 각각 입력되는 경우, 드론(300)은 일정한 형태의 사각 패턴 비행을 할 수 있다.Referring to FIG. 15A, a
도 15b를 참조하면 줌-인/줌-아웃 비행을 하는 드론(300)이 도시되어 있다. 상술한 방법과 유사하게, 패턴 비행 버튼이 선택되고 단말 장치(100)의 입력부가 반원 형태의 상승 및 반원 형태의 하강 방향으로 입력되는 경우, 드론(300)은 줌-인/줌-아웃 패턴 비행을 할 수 있다.Referring to FIG. 15B, a
드론(300)은 패턴 비행 버튼의 선택 및 사용자의 설정에 따라 다양한 패턴 비행을 할 수 있다.The
한편, 드론은 운동 방향과 카메라의 방향이 일치하지 않을 수 있다. 드론의 운동 방향과 카메라의 방향이 일치하지 않은 경우, 드론(300)을 제어하는 방법을 설명한다.On the other hand, the direction of movement of the drones may not coincide with the direction of the camera. A method of controlling the
도 16은 본 발명의 일 실시 예에 따른 드론의 방향을 표시하는 방법을 설명하는 도면이다.16 is a view for explaining a method of indicating a direction of a dron according to an embodiment of the present invention.
도 16a를 참조하면, 단말 장치(100)와 드론(300)이 도시되어 있다. 단말 장치(100)는 디스플레이부를 포함할 수 있다. 드론(300)의 정면 방향, 즉 카메라가 위치한 방향을 드론(300)의 헤드 또는 헤딩 방향이라고 칭할 수 있다. 드론(300)은 센싱부를 포함하여 위치 정보를 감지할 수 있다. 드론(300)은 감지한 위치 정보를 단말 장치(100)로 전송할 수 있다. 단말 장치(100)는 감지한 위치 정보를 기초로 드론(300)의 헤드 방향을 검출할 수 있다. 단말 장치(100)는 검출된 드론(300)의 헤드 방향을 디스플레이부에 표시할 수 있다. 즉, 사용자는 디스플레이부에 표시된 드론(300)의 헤드 방향을 이용하여 드론(300)의 방향을 판단할 수 있다.16A, a
도 16b를 참조하면, 헤드 방향이 변경된 드론(300) 및 단말 장치(100)가 도시되어 있다. 드론(300)은 단말 장치(100)의 조작에 따라 방향 및 위치가 변경될 수 있다. 도 16b를 참조하면, 드론(300)은 도 16a에 비해 왼쪽으로 90도 회전하였다. 단말 장치(100)는 드론(300)으로부터 수신한 위치 정보를 기초로 회전한 드론(300)의 헤드 방향을 디스플레이부에 표시할 수 있다.Referring to Fig. 16B, a
사용자는 디스플레이부에 표시된 드론(300)의 헤드 방향을 확인하고 드론(300)을 제어할 수 있다.The user can check the head direction of the
다만, 상술한 바와 달리, 상기 드론(300)의 헤드 방향과 드론(300)의 단말 장치(100)로부터의 진행 방향은 일치하지 않을 수도 있다.However, unlike the above, the head direction of the
도 17은 본 발명의 일 실시 예에 따른 드론의 헤딩 방향을 감지하는 방법을 설명하는 도면이다.17 is a view for explaining a method of detecting a heading direction of a dron according to an embodiment of the present invention.
단말 장치(100)는 드론 방향에 대한 모드 및 드론(300)의 헤드 방향을 표시할 수 있다. 단말 장치(100)는 기설정된 존(zone)에 따른 드론(300)의 헤드 방향 및 기설정된 존을 표시할 수 있다. 또한, 단말 장치(100)는 드론(300)의 헤드 방향을 초기화하는 버튼을 포함할 수 있다. 단말 장치(100)는 드론(300)의 방향을 검출하는 복수 개의 모드를 포함할 수 있다.The
단말 장치(100)는 드론(300)으로부터 위치 정보를 수신하고, 드론(300)의 헤드 방향을 검출할 수 있다. 단말 장치(100)는 드론(300)의 방향을 기초로 드론(300)의 헤드 방향을 표시할 수 있다. 한편, 드론(300)의 방향이 다른 존으로 변경되면 단말 장치(100)는 알람을 출력할 수 있다. 일 실시 예로서, 드론(300)의 헤드 방향이 제1 존(zone)에서 제2 존으로 변경되는 경우, 단말 장치(100)는 두 번의 진동을 출력하고, 제2 존을 점멸시키는 방식으로 표시할 수 있다. 드론(300)의 헤드 방향이 제2 존에서 제3 존으로 변경되는 경우, 단말 장치(100)는 세 번의 진동을 출력하고, 제3 존을 점멸시키는 방식으로 표시할 수 있다.The
도 18은 본 발명의 일 실시 예에 따른 드론의 헤딩 방향에 따라 드론을 제어하는 방법을 설명하는 도면이다.18 is a view for explaining a method of controlling a dron according to a heading direction of a dron according to an embodiment of the present invention.
도 18a를 참조하면, 드론(300), 사용자 및 단말 장치(100)의 화면이 도시되어 있다. 도 18a에는 드론(300), 사용자가 초기 상태가 도시되어 있다. 즉, 드론(300)의 방향 및 사용자/단말 장치(100)의 방향이 일치하며, 드론(300)의 헤드 방향은 제1 존(zone)의 방향에 위치하고 있다.Referring to FIG. 18A, screens of the
도 18b를 참조하면, 방향이 변경된 드론(300)이 도시되어 있다. 사용자는 도 18a와 동일한 방향을 향하고 있다. 그러나 사용자의 조작에 따라 드론(300)의 방향이 제2 존의 방향으로 변경되었다.Referring to Fig. 18B, a
단말 장치(100)는 드론(300)의 방향 정보 및 단말 장치(100)의 방향 정보를 비교하여 상대적인 방향을 검출할 수 있다. 단말 장치(100)는 드론(300)의 방향 정보와 단말 장치(100)의 방향 정보의 차이를 보정하여 드론(300)을 조작할 수 있다. 예를 들어, 사용자는 0° 방향을 향하고 있고, 드론(300)은 -90° 방향을 향하고 있다면, 단말 장치(100)는 사용자를 기준으로 드론(300)이 -90° 회전하여 있다고 판단할 수 있다. 만일, 사용자가 전 방향(즉, 0° 방향)으로 이동 명령을 입력하면, 사용자의 의도는 0° 방향으로 드론(300)을 이동시키고자 하는 것일 수 있다. 그러나 드론(300)은 현재 상태에서 전 방향(즉, -90° 방향)으로 이동할 수 있다. 따라서, 단말 장치(100)는 방향 값을 보정하여 드론(300)에게 이동 명령을 전송할 수 있다. 즉, 사용자가 전 방향(즉, 0° 방향)으로 이동 명령을 입력하면, 단말 장치(100)는 방향 값을 +90° 보정하여 드론(300)에게 0° 방향으로 이동하라는 명령을 전송할 수 있다. 즉, 단말 장치(100)는 수신된 센싱 데이터를 기초로 드론(300)의 헤드 방향을 검출하고 단말 장치(100)의 헤드 방향을 검출할 수 있다. 단말 장치(100)는 드론(300)의 헤드 방향과 단말 장치(100)의 헤드 방향의 차이를 산출하여 입력부를 통해 입력되는 방향에 대해 산출된 차이를 보정하여 명령을 전송할 수 있다.The
한편, 드론(300)은 헤드 방향 초기화 명령에 대응하여 드론(300)의 방향을 단말 장치(100)의 방향(즉, 사용자의 방향)과 일치시킬 수 있다. 이는 실시간으로 이루어질 수 있다.On the other hand, the
도 19는 본 발명의 일 실시 예에 따른 광원을 이용하여 드론을 제어하는 방법을 설명하는 도면이다.19 is a view for explaining a method of controlling a drones using a light source according to an embodiment of the present invention.
단말 장치(100)의 출력부는 빛을 출력할 수 있다. 예를 들어, 단말 장치(100)는 레이저 또는 기설정된 파장의 빛을 출력할 수 있다. 한편, 드론(300)은 단말 장치(100)에서 출력된 빛을 감지할 수 있다. 드론(300)은 단말 장치(100)에서 출력된 빛을 감지하면 감지된 빛을 따라 이동할 수 있다. 따라서, 사용자는 편리하게 드론(300)을 제어할 수 있다.The output unit of the
지금까지 단말 장치의 다양한 실시 예를 설명하였다. 아래에서는 단말 장치 제어 방법의 흐름도를 설명한다.Various embodiments of the terminal apparatus have been described so far. A flow chart of the terminal device control method will be described below.
도 20은 본 발명의 일 실시 예에 따른 단말 장치 제어 방법의 흐름도이다.20 is a flowchart of a terminal device control method according to an embodiment of the present invention.
도 20을 참조하면, 단말 장치는 드론으로부터 데이터를 수신할 수 있다(S2010). 예를 들어, 단말 장치는 드론이 촬영한 촬영 데이터, 드론이 감지한 센싱 데이터 등을 수신할 수 있다. 단말 장치는 디스플레이부를 포함하여 수신한 촬영 데이터를 표시할 수 있다.Referring to FIG. 20, the terminal device can receive data from the drones (S2010). For example, the terminal device can receive photographic data photographed by a drone, sensing data sensed by a drone, and the like. The terminal device can display the received photographing data including the display unit.
단말 장치는 수신된 데이터를 기초로 장애물을 검출하고 드론과 장애물 간의 거리를 산출할 수 있다(S2020). 단말 장치는 수신한 촬영 데이터로부터 장애물을 검출하고 장애물과 드론 간의 거리를 산출할 수 있다. 또는, 수신한 센싱 데이터로부터 장애물을 검출하고 거리를 산출할 수 있다. 또는, 드론이 장애물을 검출하고 거리를 산출한 뒤 산출 데이터를 단말 장치로 전송할 수도 있다.The terminal device can detect the obstacle based on the received data and calculate the distance between the drones and the obstacle (S2020). The terminal device can detect obstacles from the received photographic data and calculate the distance between the obstacle and the drones. Alternatively, an obstacle can be detected from the received sensing data and the distance can be calculated. Alternatively, the drone may detect the obstacle, calculate the distance, and transmit the calculated data to the terminal device.
단말 장치는 산출된 드론과 장애물 간의 거리가 기설정된 거리 이하인 경우 기설정된 신호를 출력할 수 있다(S2030). 기설정된 신호는 진동을 출력하는 신호 또는 드론을 조정하기 위해 사용자가 힘을 가하는 방향에 대한 햅틱 효과를 출력하는 신호 중 적어도 하나를 포함할 수 있다.The terminal may output a predetermined signal when the distance between the calculated drones and the obstacle is less than a predetermined distance (S2030). The predetermined signal may include at least one of a signal for outputting vibration or a signal for outputting a haptic effect on a direction in which the user applies force to adjust the drones.
단말 장치는 드론과 장애물 간의 거리가 줄어들수록 입력부의 조작 변위에 대응하는 드론의 속도를 줄일 수 있다. 단말 장치는 상술한 다양한 실시 예를 통해 사용자에게 직관적으로 드론을 조정할 수 있도록 하고, 드론의 움직임에 안정성을 높일 수 있다.As the distance between the drones and the obstacle decreases, the terminal apparatus can reduce the speed of the drones corresponding to the operational displacement of the input unit. The terminal device can intuitively adjust the drones to the user through various embodiments and improve the stability of the movement of the drones.
도 21은 본 발명의 일 실시 예에 따라 전술한 도 2에 도시된 드론 조작 장치의 손잡이부(10)와 입력부(120)에 대한 상세 도면이다. 특히, 도 21a는 좌측면도이고, 도 21b는 상부면도이다. 상기 손잡이부(10)와 입력부(120)를 포함하여 본체라고 명명할 수도 있다.FIG. 21 is a detailed view of the
도 21a의 좌측면도를 참조하면, 손잡이부(10)는 사용자가 한 손으로 드론 조작 장치를 지지하기 편하도록 소정 길이와 소정 두께(또는 높이)로 구현되며, 제1 기능 키(2110)와 배터리 결합부(2120)를 포함할 수 있다. 여기서, 상기 제1 기능 키(2110)는, 드론 조작을 위한 기능 키일 수 있다. 예컨대, 상기 제1 기능 키(2110)는 드론에 구비된 적어도 하나의 카메라 렌즈의 배율 제어와 관련된 줌-인 또는 줌-아웃 기능 키일 수 있다. 또한, 상기 제1 기능 키(2110)는 버튼 형태, 회전 가능한 형태로 구현되어 상기 배율을 더욱 세밀하게 제어할 수도 있다. Referring to a left side view of FIG. 21A, the
한편, 상기 배터리 결합부(2120)는 드론 조작 장치의 탈착 가능한 배터리가 결합되는 부분으로 구현 예에 따라서는 상기 손잡이부(10)의 일 구성이 아닐 수도 있다. 예를 들어, 배터리가 전기 충전 방식이거나 태양광이나 별도의 전기 충전 방식에 의할 경우에는 상기 배터리 결합부(2120)가 상기 손잡이부(10)에 포함되지 않을 수도 있다.The
그리고 입력부(120)는 상기 손잡이부(10)의 소정 위치에 형성되며, 상기 손잡이부(10)의 최상단면으로부터 소정 두께(또는 높이)로 구현될 수 있다. 여기서, 상기 입력부(120)의 두께는 상기 손잡이부(10)의 두께와 같거나 다를 수 있다. 후자의 경우, 상기 손잡이부(10)의 두께가 상기 입력부(120)의 두께보다 더 두꺼운 것이 드론 조작을 하는 사용자에게 안정감을 줄 수 있다. 다만, 이에 한정되는 것은 아니다. The
한편, 상기 입력부(120)의 두께는 사용자의 손가락 등을 이용한 드론 조작 제어 편의를 위해 적어도 일반적인 사람의 손가락 1마디 정도의 높이와 같거나 그보다 두꺼운 것이 바람직하다. 다만, 본 발명은 이에 한정되는 것은 아니다. 다시 말해, 입력부(120)를 이용한 사용자의 드론 제어를 위해 적어도 상기 입력부(120)를 회전시키기에 불편함이 없는 정도의 두께는 가지는 것이 바람직하다.The thickness of the
한편, 상기 입력부(120)는 도 21b의 상부면도를 참조하면, 원형으로 구현되며, 상기 원형 내부에 조작부(2132)와 최외각(2136)과 상기 조작부(2132) 사이만큼의 두께의 베젤을 포함하여 구성된다. 이때, 상기 베젤과 조작부(2132)는 맞닿아 있지 않고 소정 간격을 가지는 것이 바람직하다. 왜냐하면, 후술하는 바와 같이, 상기 베젤은 회전 동작을 하기 때문이다. 21B, the
상기 조작부(2132)는 터치 가능한 터치 스크린으로 구현될 수 있다. 또한, 상기 조작부(2132)는 디스플레이 기능을 수행 즉, 드론을 제어하기 위한 데이터 또는 상기 드론으로부터 수신된 데이터를 디스플레이할 수 있다. 이러한 조작부(2132)는 도 21a와 같이 베젤보다 소정 높이만큼 더 높게 형성될 수 있으며 사용자의 터치 압력에 의하여 상기 베젤보다 낮은 높이가 될 수도 있고, 반대로 도 21a보다 더 높은 높이가 될 수도 있다. 이러한 사용자의 조작부(2132)에 대한 터치 압력에 따라 드론의 동작 제어를 위한 소정 제어가 수행될 수 있다. The
한편, 상기 입력부(120)는 전술한 바와 달리 조작부(2132)와 베젤부가 소정 간격을 가지지 않고 일체형으로 구현될 수도 있다. 또한, 상기 입력부(120)는, 대부분 손잡이부(10)와 적어도 한 면이 접촉되어 상기 드론의 조작 제어를 수행하나 특정한 경우에는 상기 손잡이부(10)와 접촉되지 않을 수도 있다. 다만, 이 경우, 상기 입력부(120)가 상기 손잡이부(10)로부터 완전히 분리된 것은 아닐 수도 있다.Meanwhile, the
도 22는 본 발명의 일 실시 예에 따른 거치대를 포함한 단말 장치를 도시한 도면이다.22 is a diagram illustrating a terminal device including a cradle according to an embodiment of the present invention.
여기서, 도 22a는 전술한 도 2b와 측면도이고, 도 22b와 22c는 각각 도 2b 및 22a와는 다른 형태의 단말 장치의 측면도와 상부면도이다.Here, FIG. 22A is a side view of FIG. 2B and FIG. 22B is a side view, and FIGS. 22B and 22C are a side view and a top view of a terminal device different from FIGS.
먼저, 도 2b 및 22a를 참조하면, 드론 제어를 위한 단말 장치는 디스플레이 기기를 거치 가능한 거치대를 포함한다. 여기서, 상기 거치대는 디스플레이 지지대 또는 디스플레이 지지부라고도 하나 편의상 이하에서는 거치대라 한다. 한편, 상기 거치대는, 거치 지지부와 거치 고정부(또는 디스플레이 거치부)로 구성될 수 있다. 여기서, 상기 거치대는 전술한 도 21a의 손잡이부(10)의 일면으로부터 형성된다. Referring to FIGS. 2B and 22A, a terminal device for controlling a drones includes a mount capable of mounting a display device. Hereinafter, the display stand is referred to as a display stand or a display stand. On the other hand, the cradle may be composed of a cradling support portion and a stationary fixing portion (or a display mounting portion). Here, the cradle is formed from one side of the
또한, 상기 거치대는 사용자의 디스플레이 기기를 통해 출력되는 데이터의 인식 편의를 위하여 상기 손잡이부(10)의 일면으로부터 소정 각도로 형성될 수 있다. 상기 손잡이부(10)의 일면은 예를 들어, 도 21a에서 손잡이부(10) 상에 형성된 입력부(120)와 상기 거치대 사이의 거리가 상대적으로 더 짧은 면일 수 있다. 또한, 상기 거치대의 소정 각도는 사용자의 선택에 따라 다양하게 설정될 수 있으며, 상기 거치대는 그에 따라 다양한 각도로 제어 가능하도록 구현된다. 한편, 상기 거치대는 상기 손잡이부(10)의 일면으로부터 탈착 가능한 형태일 수 있다. 따라서, 디스플레이 기기가 필요없거나 사용자가 원하지 않는 경우에는, 상기 거치대를 상기 손잡이부(10)로부터 분리할 수 있다. 한편, 상기 거치 지지부는 상기 거치 고정부를 지지한다. 상기 거치 고정부는, 디스플레이 기기를 수납하고 고정한다. 상기 거치 고정부는 상기 디스플레이 기기의 수납과 고정을 위하여, 적어도 하나의 고정부를 포함할 수 있다. 여기서, 도 22a는 고정부가 2개이며, 제1 고정부는 손잡이부(10)와 가까운 위치에 형성되고, 제2 고정부는 상기 손잡이부(10)로부터 먼 위치에 형성될 수 있다. 한편, 상기에서 제2 고정부는 예컨대, 거치할 디스플레이 기기의 사이즈에 따라 적절히 상하 이동 가능하다. 일 예로, 도 22a에 도시된 바와 같이, 입력부의 가상의 수직선을 기준으로 제1 고정부는 x1 거리에 위치하고, 제2 고정부는 x2 거리에 위치할 수 있다. 따라서, 디스플레이 기기는 x1과 x2 사이에 거치될 수 있다. 한편, 상기 x1과 x2는 단말 장치 내 설정 또는 사용자의 설정에 따라 임의 변경 가능하다. 한편, 이러한 x1과 x2는 예컨대, 거치대의 각도에도 영향을 줄 수 있다. 그 밖에, 상기 x1 거리와 x2 거리에 대한 보다 상세한 설명은 후술할 도 23과 24를 참조하고 여기서는 생략한다. 한편, 도시되진 않았으나, 상기 거치 고정부는 상기 디스플레이 기기의 안정적인 거치를 위하여 적절한 폭 내지 너비로 구현할 수 있다. 그 밖에, 상기 거치 지지부는 단말 장치를 이동 중에도 상기 디스플레이 기기가 수납되는 거치 고정부의 안정적인 지지를 위하여 손잡이부(10)의 높이 내지 두께, 촉 등이 유사하도록 구현한다.In addition, the cradle may be formed at a predetermined angle from one side of the
도 22b와 22c는 전술한 도 22a와 같이 거치대를 포함한 단말 장치로서 손잡이부, 입력부 및 거치대를 포함한 구조이나, 상기에서 손잡이부와 거치대의 구조가 전술한 도 22a와는 상이하다. 예컨대, 도 22a의 손잡이부는 수평 방향으로 꺾임이 없는 일자 구조이나, 도 22b의 단말 장치의 손잡이부는 입력부의 일면으로부터 꺾임이 있는 구조이다. 상기 도 22b와 같은 구조의 단말 장치는 예컨대, 단말 장치의 휴대 편의를 위한 구조로 볼 수 있다. 도 22b를 참조하면, 입력부가 위치하지 않은 손잡이부의 일 파트 상에는 각종 버튼, 키 등이 구비되어 드론 조작 제어 편의를 기할 수 있다. 이러한 각종 버튼, 키 등은 상기 입력부와 함께 조합되어 드론의 다양한 동작 제어에 이용될 수 있다.Figs. 22B and 22C show a structure including a handle, an input unit and a cradle as terminal apparatuses including the cradle as shown in Fig. 22A described above, but the structure of the handle and cradle is different from Fig. 22A described above. For example, the handle portion of Fig. 22A has a straight structure without bending in the horizontal direction, and the handle portion of the terminal device of Fig. 22B is bent from one surface of the input portion. The terminal device having the structure as shown in FIG. 22B can be regarded as a structure for portable convenience of the terminal device, for example. Referring to FIG. 22B, various buttons, keys, and the like are provided on one part of the handle portion where the input unit is not positioned, so that the drone operation control member can be provided. These various buttons, keys, and the like may be combined with the input unit and used for various operation control of the drone.
도 22b를 참조하면, 거치대의 구조 역시, 전술한 도 22a가 거치 지지부와 거치 고정부가 비록 편의상 구분하였으나 일체형이라고 하면, 도 22b를 참조하면, 상기 거치 지지부와 거치 고정부는 일체형이 아니며 힌지를 통하여 상기 거치 고정부가 상기 거치 지지부와는 다른 각도를 가질 수 있도록 구현될 수 있다. 한편, 상기 거치 고정부는 전술한 도 22a와 같이, 제1 고정부와 제2 고정부를 포함하고, 상기에서 적어도 하나의 고정부는 상하 방향으로 이동 가능하여 다양한 사이즈의 디스플레이 기기를 수납하고 고정할 수 있다. 한편, 도 22b를 참조하면, 거치 지지부 역시 후술하는 바와 같이, 스위블 형태로 제공될 수 있다. 따라서, 도 22b의 거치대는 도 22a의 거치대에 비하여 더욱 다양한 형태로 구현될 수 있다. 예를 들어, 도 22b 또는 22c의 단말 장치를 이용하면, 거치 지지부와 거치 고정부의 각도를 적절히 제어하여 도 25a 내지 25c와 같은 형태로 구현될 수 있다. 이에 대한 더욱 상세한 설명은 후술한다.Referring to FIG. 22B, referring to FIG. 22B, it is assumed that the mounting support portion and the mounting fixture portion are integrally formed although the mounting support portion and the mounting fixture portion are separated for convenience. However, And the mounting fixture may have an angle different from that of the mounting support. 22A, the first fixing part and the second fixing part can be vertically moved. At least one fixing part can be moved up and down to accommodate and fix various types of display devices. have. Meanwhile, referring to FIG. 22B, the mounting support may also be provided in a swivel shape, as described later. Therefore, the cradle of Fig. 22B can be realized in a more various form than the cradle of Fig. 22A. For example, by using the terminal device of FIG. 22B or 22C, it can be realized in the form as shown in FIGS. 25A to 25C by appropriately controlling the angles of the stationary support portion and the stationary stationary portion. A more detailed description thereof will be described later.
도 23은 본 발명의 일 실시 예에 따른 단말 장치상에서 디스플레이 기기의 제공 가능한 범위를 설명하기 위해 도시한 도면이고, 도 24는 본 발명의 다른 실시 예에 따른 단말 장치에서 디스플레이 기기의 제공 가능한 범위를 설명하기 위해 도시한 도면이다.FIG. 23 is a view for explaining a range in which a display device can be provided on a terminal device according to an embodiment of the present invention, and FIG. 24 is a view for explaining a range in which a display device can be provided in a terminal device according to another embodiment of the present invention And is a view shown for explaining.
도 23과 24를 참조하면, 본 발명에 따른 단말 장치상에서 디스플레이 기기의 제공 가능 범위라 함은, 베젤 또는 조작부를 터치한 상태에서 디스플레이 기기를 상하좌우 방향에서 터치 가능한 상기 디스플레이 기기의 위치 내지 범위를 의미한다. 한편, 거치대의 구조 역시, 상기 범위 내에 위치한 디스플레이 기기를 거치하기 위한 모든 형태가 본 발명의 기술 사상에 포함될 수 있다.23 and 24, the range in which the display device can be provided on the terminal device according to the present invention is a range in which the display device can be touched in the vertical and horizontal directions with the bezel or the operation portion being touched, it means. On the other hand, in the structure of the cradle, any form for mounting a display device within the above range can be included in the technical idea of the present invention.
먼저, 도 23a를 참조하면, 단말 장치상에서 디스플레이 기기의 제공 가능 범위는, 베젤의 일점을 중심 즉, 원점으로 하여 미리 정한 반지름(d1)을 기준으로 한 원형 범위 내를 의미할 수 있다. 즉, 상기 반지름(d1)에 따라 형성된 원형 점선 및 그 이내에 디스플레이가 위치 즉, 거치되는 경우가 일 예이다. 상기에서, 베젤의 일점이라 함은, 전술한 도 22를 참조할 때, 거치대가 부착되는 면에 가장 가까운 점(dot)을 의미할 수 있다.First, referring to FIG. 23A, the displayable range of the display device on the terminal device may be within a circular range based on a predetermined radius d1 as a center of a bezel, that is, an origin. That is, the circular dotted line formed according to the radius d1 and the case where the display is positioned, that is, within the circular dotted line are examples. Referring to FIG. 22, the one point of the bezel may mean a dot closest to the surface to which the mount is attached.
도 23a가 단말 장치의 상부면도라면, 도 23b는 상기 단말 장치의 좌측면도를 도시한 것이다. 또한, 도 23b는 도 23a의 디스플레이 기기의 제공 가능 범위의 측면을 설명한다. 도 23b에서 수평 원의 반지름(d1)은 전술한 바와 같다. 다만, 도 23b를 참조하면, 상기 디스플레이 기기 제공 가능 범위는 단지 수평 기준뿐만 아니라 수직 기준도 포함할 수 있다. 예컨대, 도 23b를 보면, 상기 디스플레이 기기 제공 가능 범위는 미리 정한 높이(h1)도 참고한다. 따라서, 상기 디스플레이 기기 제공 가능 범위는 도 23a와 23b를 참조하면, 밑면과 윗면은 반지름이 d1인 원이고 높이는 h1인 원기둥 형태가 될 수 있다. 23A is a top view of the terminal device, and FIG. 23B shows a left side view of the terminal device. Fig. 23B illustrates a side view of the range in which the display device of Fig. 23A can be provided. In Fig. 23B, the radius d1 of the horizontal circle is as described above. However, referring to FIG. 23B, the display device-providable range may include not only a horizontal reference but also a vertical reference. For example, referring to FIG. 23B, the display device providing feasible range also refers to a predetermined height h1. 23A and 23B, the bottom surface and the top surface of the display device can have a circular shape with a radius d1 and a height h1.
한편, 상기 디스플레이 기기 제공 가능 범위를 설명함에 있어서 밑면과 윗면의 원의 기준이 되는 원점 즉, 기준점은 반드시 도 23a에 도시된 바와 같이, 베젤 상의 일점이 아니라 도 23c와 같이, 조작부 내의 일점(예컨대, 조작부의 중앙 지점)일 수도 있다. 이 경우, 비록 도시하진 않았으나, 상기 원을 밑면과 윗면으로 하여 도 23b와 같은 형태의 원기둥을 상기 디스플레이 기기 제공 가능 범위로 고려하여야 한다.23A, the reference point is not necessarily a point on the bezel, but a point (for example, a point on the display screen) , The center point of the operating portion). In this case, although it is not shown, the circle having the shape as shown in FIG. 23B should be considered as the range of the display device capable of providing the bottom and the top.
편의상 도 23과 24에서는 디스플레이 기기 제공 가능 범위를 설명함에 있어서, 상기 범위가 원과 원기둥 형태로 설명하였으나, 본 발명의 기술 사상은 도시되고 설명된 예에만 한정되는 것은 아니다. 예컨대, 도 23a에서 d1과 d2는 서로 다를 수 있다. 즉, 도 23a에서 d1과 d2를 서로 다르게 함으로써 원이 아닌 타원 형태로 디스플레이 기기 제공 가능 범위가 정의될 수 있다. 다만, 상기 d1과 d2는 미리 정한 범위 내의 차이를 가지는 것이 바람직하다. 한편, 도 23b에서 원기둥 형태로 디스플레이 가능 범위를 예시하였으나, 이에 한정되지 않고, 원뿔 형태 등 다양한 구조도 가능하다. 한편, 도 23b에서 디스플레이 기기 제공 가능 범위의 한 팩터인 높이(h1)은, 손잡이부의 높이(h2)와 입력부의 높이(h3) 중 적어도 하나에 의하여 결정될 수도 있다. 상기에서, d1과 d2는 같은 수치를 가질 수 있다.For the sake of convenience, in the description of the range in which the display device can be provided in FIGS. 23 and 24, although the range has been described as a circle and a cylinder, the technical idea of the present invention is not limited to the illustrated and illustrated example. For example, in Fig. 23A, d1 and d2 may be different from each other. In other words, by making d1 and d2 different from each other in FIG. 23A, the display device provisionable range can be defined in an elliptical shape instead of a circle. However, it is preferable that d1 and d2 have a difference within a predetermined range. 23B illustrates a displayable range in a cylindrical shape, but the present invention is not limited thereto, and various structures such as a conical shape are also possible. On the other hand, the height h1, which is a factor of the range of the display device capable of being provided in FIG. 23B, may be determined by at least one of the height h2 of the handle and the height h3 of the input unit. In the above, d1 and d2 may have the same numerical value.
일 예로, 상기 디스플레이 기기 제공 가능 범위의 팩터 중 하나로 d1은 예컨대, 30대 성인 남성의 검지손가락 길이(예를 들어, 71.16mm)일 수 있다. 또한, h1은 30대 성인 남성의 중지손가락 길이(예를 들어, 79.48mm)일 수 있다. 다만, 상기 d1, h1 등은 상기한 예시에 한정되는 것은 아니다. 따라서, 다른 연령대, 다른 성별 등에 따라 상기 d1, h1 등은 달라질 수도 있다. For example, one of the factors of the display device-feasible range, d1 may be, for example, the index finger length (for example, 71.16 mm) of an adult male in thirties. Also, h1 may be the stop finger length of an adult male in thirties (e.g., 79.48 mm). However, the above d1, h1, and the like are not limited to the above examples. Therefore, d1, h1, etc. may be different depending on other age groups, different genders, and the like.
다음으로, 도 24a와 24b는 전술한 도 23a와 23b와 유사하나, 기준점(원점)이 상이하다. 예컨대, 도 23a의 기준점이 베젤의 점들 중 거치대가 부착되는 면에서 가장 가까운 위치의 일점이었으나, 도 24a에서는 반대로 상기 거치대가 부착되는 면에서 가장 먼 위치의 일점을 기준점으로 한 것이다. 또한, 도 24a가 이를 기준으로 한 상부면도라면, 도 24b는 좌측면도로 도 23b와 유사하게 높이(h1)를 가지고 있다. 이와 유사한 형태로, 상기 기준점은 베젤 또는 터치면 내 일점을 기준으로 다양하게 정의할 수 있다. 이 역시, 사용자의 선택, 설정 등에 의해 임의 변경 가능하다. 예를 들어, 사용자가 드론 조작을 위한 단말 장치를 최초 이용하거나 세팅하는 경우 또는 거치대를 최초 부착한 경우에, 상기 부착된 거치대의 이용 편의를 위하여 설정하고 추후 임의 변경할 수 있다. 또한, 사용자의 지문, 로그-인 정보 등 다양한 데이터에 기반하여 개인화하여 저장 및 이용할 수도 있다.Next, Figs. 24A and 24B are similar to Figs. 23A and 23B described above, but have different reference points (origin points). For example, the reference point in FIG. 23A is a point nearest to the surface to which the mounting table is attached. In FIG. 24A, on the other hand, the reference point is a point farthest from the surface to which the mounting table is attached. 24A is a top view based on this, and FIG. 24B is a left side view and has a height h1 similar to FIG. 23B. In a similar manner, the reference point can be variously defined based on a point on the bezel or the touch surface. This can also be arbitrarily changed by user selection, setting, and the like. For example, when the user first uses or sets the terminal device for the drone operation, or when the cradle is first attached, the attached cradle can be set for convenience of use and arbitrarily changed later. In addition, it can be personalized and stored and used based on various data such as fingerprint and log-in information of the user.
한편, 도 24c와 24d는 전술한 도 23과 24a 내지 24b와 달리, 별도의 거치대가 존재하거나 존재하지 않더라도 이와 별개로 거치 홀을 구비할 수 있다. 상기 거치 홀은 디스플레이 장치를 단말 장치상에 결합하기 위한 것으로 이는 손잡이부의 상부면, 측면 중 어느 하나의 면상에 구비될 수 있다. 도 24c의 경우에는 손잡이부의 상부면에 거치 홀이 구비된 경우를 도시한 것으로, 사용자는 상기 거치 홀에 디스플레이 기기를 삽입하여 이용할 수 있으며, 상기 거치 홀은 예를 들어, 전술한 도 23 또는 24a 내지 24b에서의 기준점으로부터 d1 범위 내일 수 있다. 반면, 도 24d의 경우에는, 상기 거치 홀이 측면 상에 형성된 예시이다. 이 경우, 상기 거치 홀은 전술한 바와 같이 전술한 도 23 또는 24a 내지 24b에서의 기준점으로부터 높이(h1) 범위 내에 형성되는 것이 바람직하다. 또한, 도 24b에서는 편의상 거치 홀이 입력부와 수직으로 하단 위치의 측면 상에 형성되는 것으로 도시되었으나, 이에 한정되지는 않는다. 한편, 도 24c와 24d에서는 손잡이부를 기준으로 가로 형태로 거치 홀이 구비된 예시를 도시하였으나 세로 형태의 거치 홀도 형성 가능하며, 그 밖에 사각형 형태가 아니라 상기 손잡이부와 디스플레이 기기 사이의 연결을 위한 커넥터 등의 삽입을 위하여 다양한 형태로 구현될 수도 있다. 한편, 도시되진 않았으나, 도 24c와 24d의 조합 형태 즉, 거치 홀이 손잡이부 상의 상부 면에 1개 그리고 측면부에 1개 복수 개가 형성될 수도 있다. 그리고 상기 도 24c와 24d와 달리, 다른 위치에 하나 또는 그 이상의 거치 홀이 구비될 수도 있다. 전술한 바와 같이, 이러한 하나 또는 그 이상의 거치 홀은 거치대와 함께 존재하여, 적어도 하나의 디스플레이 기기를 동시에 이용할 수도 있다. 또한, 상기 거치 홀은 손잡이부 상에서 일 영역에 형성되되 상하 좌우로 이동 가능한 형태로 제공될 수도 있다. 이 경우, 사용자는 거치 홀에 디스플레이 기기를 결합 후에 최적화된 위치와 각도 등을 결정하여 소정 위치와 소정 각도로 고정하여 이용할 수 있다.On the other hand, Figs. 24C and 24D are different from Figs. 23 and 24A to 24B described above, and may include a mounting hole separately from or without a separate mounting table. The mounting hole is for coupling the display device onto the terminal device, and it may be provided on any one of the upper surface and the side surface of the handle. 24C shows a case in which a mounting hole is provided on the upper surface of the handle. The user can insert the display device into the mounting hole, and the mounting hole can be used, for example, Lt; RTI ID = 0.0 > d1 < / RTI > On the other hand, in the case of Fig. 24D, the mounting hole is formed on the side surface. In this case, it is preferable that the embedding hole is formed within the height h1 from the reference point in the above-described Fig. 23 or 24a to 24b as described above. Also, in FIG. 24B, the holder hole is shown as being formed on the side of the lower end position perpendicularly to the input portion, but the invention is not limited thereto. 24C and 24D illustrate an example in which a mounting hole is provided in a transverse shape with respect to the handle portion, but a vertical mounting hole can also be formed. In addition, a rectangular mounting hole can be formed. And may be implemented in various forms for insertion of connectors and the like. Although not shown, a combination of Figs. 24C and 24D, that is, one mounting hole may be formed on the upper surface of the handle portion and a plurality of mounting holes may be formed on the side surface portion. 24C and 24D, one or more mounting holes may be provided at different positions. As described above, such one or more mounting holes may be present with the mount so that at least one display device may be used at the same time. Also, the fixing hole may be formed in one area on the handle, and may be provided in a form movable up and down and left and right. In this case, the user can determine the optimized position and angle after coupling the display device to the stationary hole, and fix the display device at a predetermined angle with the predetermined position.
도 25는 본 발명의 다른 실시 예에 따른 거치대를 포함한 단말 장치를 도시한 도면이다.25 is a diagram illustrating a terminal device including a cradle according to another embodiment of the present invention.
특히, 도 25a 내지 25c는 전술한 도 22b 또는 22c의 거치대의 제어에 따른 단말 장치의 구조를 도시한 것이다. 한편, 도 25d 내지 25e는, 도 21과 같은 손잡이부와 입력부에 거치대를 결합하는 구조가 아니라 디스플레이 기기와 결합 가능한 거치 밴드를 이용하여 세트로 드론을 조작하는 단말 장치를 도시한 것이다.Particularly, Figs. 25A to 25C show the structure of the terminal device according to the control of the cradle of Fig. 22B or 22C described above. 25D to 25E illustrate a terminal device for operating a set drones using a mounting band that can be coupled to a display device, rather than a structure for coupling the cradle to the handle and the input unit as shown in Fig.
먼저, 도 25a 내지 25c는, 전술한 바와 같이, 거치대를 구성하는 거치 지지부가 손잡이부와 힌지로 연결되고 스위블한 구조를 가지는바, 상기 스위블 구조를 통해 디스플레이를 이용하는 경우에는 도 25a와 같은 구조가 되고, 이 상태에서 사용자의 선택에 따라 도 25b와 같이 다양한 각도로 회전하여 고정되어 디스플레이 기기를 이용할 수도 있다. 한편, 디스플레이 기기를 이용하지 않는 경우에는, 도 25c와 같이 손잡이부의 하단에 위치하도록 하여 휴대 편의와 이용 편의를 기할 수 있다.25A to 25C are views illustrating a structure in which a display is used through the swivel structure, as shown in FIG. 25A. In this state, the display device may be used by being rotated and fixed at various angles as shown in FIG. 25B according to the user's selection. On the other hand, when the display device is not used, it is positioned at the lower end of the handle as shown in Fig.
반면, 도 25d와 25e의 경우에는, 거치대가 아닌 거치 밴드를 이용하는 경우로서, 상기 거치 밴드 상기 거치대와 달리 반드시 손잡이부 또는 입력부 상에 형성되지 않을 수 있다. 예를 들어, 도 25d 또는 25e를 참조하면, 상기 거치 밴드는 단말 장치를 통해 드론을 조작하는 사용자의 손등, 팔목, 손가락 등에 착용되고, 상기 착용된 거치 밴드상에 디스플레이 기기를 부착할 수 있다. On the other hand, in the case of FIGS. 25D and 25E, a mounting band is used instead of a mounting base, and the mounting band is not necessarily formed on the handle or the input unit unlike the mounting base. For example, referring to FIG. 25D or 25E, the mounting band may be worn on a user's hand, a cuff, a finger or the like of a user operating the drones through a terminal device, and the display device may be mounted on the mounted mounting band.
한편, 본 명세서에서 기술하는 거치 밴드나 거치대는 예를 들어, 스마트 워치, 스마트 글래스, 렌즈 형태의 디스플레이 기기 등에 의해 대체될 수도 있다.On the other hand, the mounting band or stand described in this specification may be replaced by, for example, a smart watch, a smart glass, a lens type display device, or the like.
도 26과 27은 본 발명의 일 실시 예에 따른 단말 장치를 통한 드론 움직임 조작 방법을 설명하기 위해 도시한 도면이다.26 and 27 are diagrams for explaining a method of operating a dron movement through a terminal device according to an embodiment of the present invention.
이하, 도 26과 27을 참조하여, 단말 장치에서 전후, 좌우, 상하 및 회전 입력에 따른 드론의 동작 제어 방법에 대해 설명한다. Hereinafter, with reference to Figs. 26 and 27, a description will be given of a method of controlling the operation of the dron according to forward, backward, left and right, up and down, and rotation input in the terminal apparatus.
상기 단말 장치를 통한 드론 동작 제어 입력에 따른 드론의 움직임 제어는 크게 3가지로 나눌 수 있다. 하나는 기본 모드이고, 나머지는 인텔리전트 오리엔트 모드이다. 도 26을 참조하면, 인텔리전트 오리엔트 모드는 다시 제1 모드와 제2 모드로 구분할 수 있다. 한편, 상기 제1 모드는, 도 26 및 27a에 도시된 바와 같이, 직교 좌표계(Coordinates system)에 기초하고, 상기 제2 모드는, 도 26 및 27b에 도시된 바와 같이, 극 좌표계(Polar Coordinates System)에 기초할 수 있다. 또한, 특히 제2 모드는 단말 장치와 드론 사이의 거리(r)와 각도(θ) 값에 기초하여 이루어진다. The dron's motion control according to the dron operation control input through the terminal device can be roughly classified into three types. One is the basic mode and the other is the intelligent orient mode. Referring to FIG. 26, the intelligent orient mode can be divided into a first mode and a second mode. 26 and 27A, the first mode is based on a coordinate system, and the second mode is based on a polar coordinate system (Polar Coordinates System) as shown in FIGS. 26 and 27B, ). ≪ / RTI > Particularly, the second mode is based on the distance r and the angle? Between the terminal device and the drone.
도 27을 참조하면, 상기 기본 모드는 예를 들어, 드론의 헤딩 방향을 기준으로 상기 드론 동작 제어 입력에 따른 드론의 진행 방향이 결정된다. 예컨대, 드론의 헤딩 방향이 3시 방향이라고 가정하면, 사용자가 드론의 전진 명령을 전송하면, 상기 드론은 헤딩 방향으로 계속하여 전진하게 된다. Referring to FIG. 27, in the basic mode, for example, the traveling direction of the dron according to the drones operation control input is determined based on the heading direction of the drones. For example, assuming that the heading direction of the drones is the 3 o'clock direction, when the user transmits a forward instruction of the drones, the drones continue to advance in the heading direction.
도 26 및 도 27a를 참조하면, 인텔리전트 오리엔트의 제1 모드는, 상기 드론 동작 제어 입력에 따라 상기 드론을 기준 각도에 기초하여 제어한다. 상기 기준 각도는 상기 드론이 최초 이륙시 헤딩 방향을 의미할 수 있다. 예를 들어, 드론의 기준 각도를 12시(0°) 방향이라고 하고, 현재 드론의 헤딩 방향이 3시 방향(-90°)인 상태에서 단말 장치로부터 드론의 전진 명령이 전송되면, 상기 드론은 상기 기준 각도를 기준으로 전진 즉, 12시 방향으로 움직인다. 여기서, 상기 드론의 헤딩은 계속하여 유지된다. 이때, 드론은 현재 헤딩 방향(-90°)으로부터 상기 기준 각도(0°)가 되도록 방향 또는 각도를 보정한다. 상기 보정은 드론 또는 단말에서 수행될 수 있다.Referring to FIGS. 26 and 27A, the first mode of the intelligent orient controls the drones based on the reference angle in accordance with the dron operation control input. The reference angle may refer to the heading direction of the first take-off. For example, if the reference angle of the drones is 12 o'clock (0 DEG) and the direction of the current drones is the 3 o'clock direction (-90 DEG), when the forward instruction of the drones is transmitted from the terminal device, Moves forward at 12 o'clock, based on the reference angle. Here, the heading of the drones is maintained. At this time, the drone corrects the direction or angle so as to become the reference angle (0 DEG) from the current heading direction (-90 DEG). The correction may be performed at the drone or at the terminal.
도 26 및 27b를 참조하면, 인텔리전트 오리엔트의 제2 모드는, 상기 드론 동작 제어 입력에 따라 상기 거리(r)와 각도(θ) 값 중 적어도 하나를 변경하여 상기 드론의 동작을 제어한다. 예를 들어, 단말 장치로부터 거리(r1)에 헤딩 방향이 3시(θ1)인 드론의 동작 제어를 위해, 전진 명령이 수신되면, 상기 각도(θ1)는 유지된 상태로 상기 거리(r1) 값이 변경된다. 상기 전진 명령의 경우, 상기 거리(r1) 값은 거리(r2)로 변경이 되는데, 이때 상기 r1은 r2보다 작다. 후진 명령이면, 상술한 내용에서 r2가 r1보다 작아지고 상기 각도(θ1)는 계속하여 유지된다. 이와 달리, 상기에서 좌 방향 명령이 수신되면, 상기 거리(r1)는 계속하여 유지되되 상기 각도(θ1)가 계속하여 변경된다. 예를 들어, 상기에서 드론의 헤딩이 3시 방향인 경우, 상기 좌 방향 명령에 따라 거리(r1)는 유지한 채 반시계방향으로 상기 각도(θ1) 값이 변하면서 원의 궤도를 그리면서 드론이 움직인다. 마찬가지로, 우 방향 명령의 경우, 역시 거리(r1)는 유지된 채 각도(θ1) 값이 시계 방향으로 원의 궤도를 그리면서 드론이 움직인다.Referring to FIGS. 26 and 27B, the second mode of the intelligent orientation controls the operation of the drones by changing at least one of the distance r and the angle? According to the droning operation control input. For example, when a forward command is received for controlling the operation of a drone whose heading direction is 3 o'clock (? 1) at a distance r1 from the terminal device, the angle? 1 is maintained at the distance r1 Is changed. In the case of the forward command, the value of the distance r1 is changed to a distance r2, wherein r1 is smaller than r2. In the case of the backward command, in the above description, r2 becomes smaller than r1, and the angle [theta] 1 continues to be maintained. Alternatively, when a leftward command is received in the above, the distance r1 is maintained and the angle? 1 is continuously changed. For example, if the heading of the drone is at the 3 o'clock position, the angle? 1 is changed counterclockwise while keeping the distance r1 according to the leftward command, It moves. Likewise, in the case of the rightward command, the dron moves while keeping the distance r1 while drawing the original orbit of the angle? 1 in the clockwise direction.
상술한 내용은 예를 들어, 단말 장치는 드론이 최초 이륙한 시점으로부터 고정된 상태를 가정한 것이다. For example, the above description assumes that the terminal device is in a fixed state from the point of time when the drone first took off.
여기서, 상기 단말 장치가 예컨대, 상기 고정 상태에서 해제 즉, 움직인 경우에는 특히, 상술한 인텔리전트 오리엔트 모드의 제1 모드의 경우 상기 단말 장치 움직임에 따른 추가 보정이 필요하다. Here, in the case of the above-described first mode of the intelligent orientation mode, for example, in the case where the terminal device is released from the fixed state, that is, moved, additional correction according to the movement of the terminal device is necessary.
상기 제1 모드에서 단말 장치 움직임 보정과 관련하여 예를 들어, 전술한 가정에서, 단말 장치가 드론이 최초 이륙시점에서 9시 방향으로 움직였다면, 상기 고정 시와 달리 9시 방향으로 드론이 움직이게 된다. For example, in the above-described assumption with respect to the terminal device motion compensation in the first mode, if the terminal device moves at 9 o'clock from the first take-off time, the drones move at 9 o'clock .
드론은 이륙 후 단말 장치의 제어에 따라 전, 후, 상, 하, 좌, 우 방향 및 회전할 수 있다. 이때, 상기 드론은 상기 단말 장치의 입력 또는 제어에 대응하여 도 27a 또는 27b와 같이 동작할 수 있다. 상기 드론의 동작과 관련하여, 드론의 헤딩 방향, 단말 장치와 드론 사이의 거리(r)와 각도(θ) 중 적어도 하나가 참조된다.After the take-off, the drones can be rotated forward, backward, up, down, left, right and rotate according to the control of the terminal device. At this time, the drones may operate as shown in FIG. 27A or 27B corresponding to the input or control of the terminal device. With respect to the operation of the drones, at least one of the heading direction of the drones, the distance r between the terminal device and the drone and the angle [theta] is referred to.
한편, 도 28은 본 발명에 따른 입력부의 베젤 회전을 통한 드론 회전 운동 제어 방법을 도시한 도면이다.Meanwhile, FIG. 28 is a view illustrating a method for controlling the rotation of the drone by rotating the bezel of the input unit according to the present invention.
이하, 도 28을 참조하여, 입력부(120)를 구성하는 베젤의 회전에 대해 더욱 상세하게 설명하면, 다음과 같다. 베젤은 전술한 바와 같이, 그 회전 운동을 통해 드론의 동작을 제어한다. 이때, 상기 드론은 단말 장치와의 거리(r) 값은 고정된 상태에서 상기 베젤의 회전 운동에 따라 각도(θ) 값만 변경되면서 동작이 제어된다. Hereinafter, the rotation of the bezel constituting the
베젤의 회전에 따른 드론의 동작 제어 방법은, 도 28a의 절대 각도 제어 방법과 도 28b의 상대 각도 제어 방법이 있을 수 있다. The dron operation control method according to the rotation of the bezel may be the absolute angle control method of FIG. 28A and the relative angle control method of FIG. 28B.
이하, 도 28을 참조하여 상기 절대 각도 제어와 상대 각도 제어 방법에 대해 설명한다. Hereinafter, the absolute angle control and the relative angle control method will be described with reference to FIG.
도 28a에서, 사용자가 베젤을 예컨대, A 지점(12시 방향)에서 B 지점(3시 방향)으로 -90° 회전시키면, 드론 좌표는 (r1,θ1)에서 (r1,θ2)(여기서, θ2 = -90°)로 변경된다. 이를 절대 각도 제어 방법이라고 한다. 반면, 도 28b의 경우에는, 드론의 좌표(r1,θ1)는 좌표(r1,θ2)(여기서, θ2 = θ1 - 90°)로 변경된다. 이를 상대 각도 제어 방법이라고 한다. 이러한 회전 각도 제어 방법에 관한 모드는 선택 또는 설정에 따라 변경 가능하다. In Fig. 28A, when the user rotates the bezel, for example, from -A point (12 o'clock direction) to B point (3 o'clock direction) by -90 degrees, the drone coordinate is (r1, = -90 DEG). This is called an absolute angle control method. On the other hand, in the case of FIG. 28B, the coordinates (r1,? 1) of the drones are changed to the coordinates (r1,? 2) where? This is called relative angle control method. The mode relating to the rotation angle control method can be changed according to selection or setting.
한편, 베젤의 회전한 각도(θ)는, 입력부 내 조작부(2132) 상에 실시간으로 디스플레이될 수 있다. 따라서, 본 발명에 따라 베젤을 통해 드론의 회전 운동 또는 동작을 제어하는 것은 종래 드론 조작 장치의 레버 회전에 비하여 그 조작이 훨씬 편리하고 간단하다. 예를 들어, 레버 회전을 통해 드론을 각도(θ1)만큼 회전시키고 싶으면, 사용자는 드론이 각도(θ1)만큼 움직일 때까지 계속하여 레버를 회전시키고 그 상태를 유지시켜야 하나, 본 발명에 따라 베젤을 이용하면 원하는 각도로 상기 베젤을 회전시키면 족하다.On the other hand, the rotated angle [theta] of the bezel can be displayed in real time on the
이와 같이, 베젤 회전을 통한 드론의 회전 운동 제어는, 상기 드론에 구비된 카메라를 통한 사진 찍기와 같은 간단한 조작 시 유용할 수 있다.As described above, the rotational movement control of the drone by rotating the bezel can be useful in a simple operation such as photographing through a camera provided in the drone.
도 29는 본 발명에 따른 극 좌표계에 따라 드론의 속도 제어 방법을 설명하기 위해 도시한 도면이다.29 is a view for explaining a method of controlling the speed of the drone according to the polar coordinate system according to the present invention.
사용자는 드론과 단말 장치 사이의 방위차 또는 각도(θ)에 따른 드론의 속도 제어 설정을 할 수 있다. 예를 들어, 상기 드론과 단말 장치의 방위차 또는 각도(θ)가 미리 설정한 방위차 또는 각도(θ) 이내인 경우에는, 정상 속도로 드론이 이동하도록 제어하고, 반대로 상기 방위차 또는 각도(θ)가 미리 설정한 방위차 또는 각도(θ) 이상인 경우에는 드론의 이동 속도를 미리 설정한 속도로 제어할 수 있다. 상기 방위차 또는 각도(θ)는 단말 장치의 설정이나 사용자의 선택에 따라 임의 변경 가능하며, 플러스/마이너스 30°를 예로 할 수 있다.The user can set the speed control of the drones according to the azimuth difference or the angle [theta] between the drones and the terminal device. For example, when the azimuth or angle between the drones and the terminal apparatus is within a preset azimuth or angle, the controller controls the drones to move at a normal speed and conversely controls the azimuth or angle theta] is equal to or greater than a predetermined azimuth difference or angle [theta], the moving speed of the drones can be controlled at a preset speed. The azimuth difference or angle? May be arbitrarily changed depending on the setting of the terminal device or the user's choice, and may be plus / minus 30 degrees.
도 29a와 같이, 단말 장치를 기준으로 드론이 미리 정한 방위차 또는 각도(θ) 이내에 위치하거나 이동 중인 경우에는, 정상 속도로 드론이 움직일 수 있도록 한다. 여기서, 상기 정상 속도라 함은 예컨대, 드론의 이동 속도를 제한하지 않고 사용자가 요청한 이동 속도를 의미한다.As shown in FIG. 29A, when the drones are located within a predetermined azimuth or angle (?) With respect to the terminal device, or are moving, the drones can be moved at a normal speed. Here, the normal speed means a moving speed requested by the user without limiting the moving speed of the drones, for example.
반면, 도 29b와 같이, 단말 장치를 기준으로 드론이 미리 정한 방위차 또는 각도(θ) 이상인 위치에 존재하거나 해당 위치에서 계속하여 이동 중인 경우에는, 사용자가 요청한 드론의 이동 속도에도 불구하고 이 경우에 미리 정의된 속도로 제한한다. 이 경우, 단말 장치는 드론의 이동 속도를 제한함에 있어서, 즉시 상기 미리 정의된 속도로 제한할 수도 있고, 현재 드론의 이동 속도로부터 단계적으로 상기 미리 정의된 속도까지 감속하는 방식으로 제한할 수도 있다.On the other hand, if the drones are present at a position or angle that is greater than the predetermined azimuth or angle (?) On the basis of the terminal device, or are continuously moving at the position as shown in FIG. 29B, in spite of the moving speed of the dron requested by the user To a predefined rate. In this case, the terminal device may limit the movement speed of the drones to the predetermined speed immediately, or may be limited to the method of decelerating the current drones from the movement speed of the drone stepwise to the predefined speed.
한편, 단말 장치는 드론과의 주기/비주기로 데이터 커뮤니케이션을 통해 상기 단말 장치를 기준으로 극 좌표계에 기반하여 드론의 위치를 계속하여 탐지한다. 단말 장치는 드론의 위치 탐지 결과 미리 정의된 방위차 또는 각도(θ)로부터 소정 범위 내에 드론이 위치하거나 이동 중 상태이고, 그 속도나 진행 방향 등에 기초하여 상기 드론의 이동 속도를 비록 정상 방위차 또는 각도(θ)라고 하더라도 단계적으로 조정 제어할 수도 있다. 한편, 상기 소정 범위 내에 드론이 위치하거나 그 범위 내에서 이동 중인 경우에는, 단말 장치는 사용자에게 상기 드론의 위치나 움직임, 미리 정한 방위차 또는 각도(θ)를 벗어나게 된다는 사실 등에 대해 진동, 소리, 디스플레이 장치상의 메시지 형태 등으로 노티를 할 수 있다.On the other hand, the terminal device continuously detects the position of the drones based on the polar coordinate system on the basis of the terminal device through periodic / non-periodic data communication with the drones. The terminal device may be configured such that the drones are positioned or moving within a predetermined range from the predefined azimuth or angle (?) As a result of the position detection of the drones, and the moving speed of the drones, Even if the angle is?, It is also possible to carry out the adjustment control step by step. On the other hand, when the drones are located within the predetermined range or are moving within the predetermined range, the terminal device may notify the user of the position, movement, predetermined azimuth difference or angle (?) Of the drones, A message type or the like on the display device.
그 밖에, 도시되진 않았으나, 단말 장치를 통한 사용자의 제스처 인식 과정 역시 극 좌표계를 기준으로 할 수 있다. 예컨대, 단말 장치나 디스플레이 기기상에 구비된 센서(들)을 통해 제스처에 대해 센싱된 데이터로부터 이동 단말기의 롤(roll), 피치(pitch), 요(yaw) 값을 획득하고, 획득된 값들을 드론 제어 입력으로 이용하면, 제스처와 극 좌표계 기반으로 단말 장치를 통한 드론 제어가 가능하다.In addition, although not shown, the gesture recognition process of the user through the terminal device may also be based on a polar coordinate system. For example, a roll, pitch, yaw value of the mobile terminal is obtained from the data sensed for the gesture through the sensor (s) provided on the terminal device or the display device, and the obtained values When used as a dron control input, it is possible to control the drones through a terminal device based on the gesture and the polar coordinate system.
한편, 본 발명에 따른 단말 장치는, 입력부는 조작부와 베젤부로 구성되거나 조작부와 베젤부가 일체형으로 구현될 수도 있다. 상기 입력부는 상기와 같이 구현되어 드론의 상하, 좌우, 전후 및 회전 즉, 드론의 모든 동작을 직관적으로 제어할 수 있다. 특히, 드론의 상하 동작을 상기 입력부를 이용하여 제어하는 경우에는, 사용자의 근육의 움직임에 기초하여 이루어질 수 있다. 또한, 상기에서, 전자의 조작부와 베젤부가 분리된 형태로 입력부가 구현되는 경우에는, 상기 베젤부는 회전 운동이 가능하다. 이러한 상기 베젤부의 회전 운동은 드론의 회전 동작 또는 상하 동작 제어에 이용될 수 있다. 한편, 상기 드론의 상하 동작 또는 회전 동작과 관련하여, 상기 입력부가 아니라 단말 장치의 손잡부의 일면에 구비된 휠키를 이용할 수도 있다.Meanwhile, in the terminal device according to the present invention, the input unit may be constituted by an operation unit and a bezel, or the operation unit and the bezel may be integrated. The input unit may be implemented as described above to intuitively control all operations of the drone, such as up, down, left, right, front and rear, and rotation of the drone. In particular, when the up and down movement of the drones is controlled by using the input unit, it can be performed based on the movement of the user's muscles. In addition, in the above, when the input unit is implemented in a form in which the electronic operation unit and the bezel are separated, the bezel unit can be rotated. The rotational motion of the bezel portion may be used for rotating the drones or controlling the up and down movement of the drones. Meanwhile, with respect to the up-down operation or the rotating operation of the drones, a wheel wheel provided on one surface of the handholding portion of the terminal device may be used instead of the inputting portion.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말 장치의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be embodied as computer-readable codes on a medium on which a program is recorded. The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, , And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet). Also, the computer may include a
10: 손잡이부
100: 단말 장치
120: 조작용 핸들
300: 드론10: Handle 100: Terminal device
120: Operation handle 300: Drones
Claims (30)
상기 드론 제어 명령을 입력받는 제1 입력부와,
제어부를 포함하는 본체; 및
디스플레이 기기가 거치되는 거치대를 포함하고,
상기 거치대는,
상기 디스플레이 기기가 고정되는 거치 고정부와 상기 본체의 일면으로부터 형성되어 상기 거치 고정부를 지지하는 거치 지지부를 포함하고,
상기 제1 입력부는,
상기 드론의 좌우 및 전후 동작 제어 입력을 수신하는 조작부를 포함하는 단말 장치.A communication unit for transmitting and receiving data to and from the drone,
A first input unit receiving the drone control command,
A body including a control unit; And
The display device includes a mount on which the display device is mounted,
The cradle,
And a mounting support portion formed from one surface of the main body and supporting the mounting fixing portion,
Wherein the first input unit comprises:
And an operating unit for receiving the left and right and front and back operation control inputs of the drones.
상기 제1 입력부는,
상기 드론의 회전 동작 제어 입력을 수신하는 베젤부를 더 포함하는 것을 특징으로 하는 단말 장치.The method according to claim 1,
Wherein the first input unit comprises:
And a bezel unit for receiving a rotation operation control input of the drones.
상기 베젤부는,
상기 조작부의 일 구성인 것을 특징으로 하는 단말 장치.3. The method of claim 2,
The bezel portion
And the terminal device is a configuration of the operation section.
상기 조작부는,
상기 드론의 회전 동작 제어 입력을 더 수신하는 것을 특징으로 하는 단말 장치.The method according to claim 1,
Wherein,
And further receives the rotation operation control input of the drones.
상기 조작부는,
상기 드론의 상하 동작 제어 입력을 더 수신하는 것을 특징으로 하는 단말 장치.The method according to claim 1,
Wherein,
And further receives the up / down operation control input of the drones.
상기 본체는,
상기 드론의 상하 동작 제어 입력을 수신하는 제2 입력부(휠키)를 더 포함하는 것을 특징으로 하는 단말 장치.The method according to claim 1,
The main body includes:
And a second input unit (wheel key) for receiving the up / down operation control input of the drones.
상기 드론의 회전 동작 제어 입력, 상기 드론에 구비된 카메라의 줌 배율에 대한 제어 입력 및 상기 드론의 구비된 카메라의 각도 제어 입력 중 적어도 하나를 수신하는 제2 입력부(휠키)를 더 포함하는 것을 특징으로 하는 단말 장치.The method according to claim 1,
And a second input unit (wheel key) for receiving at least one of a rotation operation control input of the drone, a control input of a zoom magnification of the camera provided to the drone, and an angle control input of the camera equipped with the drone .
상기 디스플레이 기기는,
상기 베젤부 또는 조작부로부터 미리 정한 거리(d1)를 반지름으로 하는 원형 범위상에 또는 원형 범위 내에 거치되는 것을 특징으로 하는 단말 장치.3. The method of claim 2,
The display device includes:
Wherein the bezel part or the operating part is mounted within a circular range or a circular range with a predetermined distance (d1) as a radius.
상기 디스플레이 기기는,
상기 베젤부 또는 조작부로부터 미리 정한 높이(h1)에 따른 원기둥 범위상에 또는 상기 원기둥 범위 내에 거치되는 것을 특징으로 하는 단말 장치.9. The method of claim 8,
The display device includes:
Is mounted on a cylinder range along the predetermined height (h1) from the bezel or the operating unit, or within the cylinder range.
상기 미리 정한 거리(d1)와 미리 정한 높이(h1)은,
사용자의 손가락 길이를 기준으로 결정되는 것을 특징으로 하는 단말 장치.10. The method of claim 9,
The predetermined distance d1 and the predetermined height h1 are set so that,
And the finger length of the user is determined based on the finger length of the user.
상기 제어부는,
상기 입력되는 드론 제어 명령에 따라 기본 모드와 인텔리전트 오리엔트 모드 중 어느 하나에 기초하여 상기 드론의 동작을 제어하되, 상기 인텔리전트 오리엔트 모드에는 제1 모드와 제2 모드가 포함되는 것을 특징으로 하는 단말 장치.The method according to any one of claims 1 to 2 and 4 to 7,
Wherein,
Wherein the controller controls the operation of the drones based on any one of a basic mode and an intelligent orientation mode according to the input dron control command, wherein the intelligent orientation mode includes a first mode and a second mode.
상기 제어부는,
상기 입력되는 드론 제어 명령에 따라 드론의 헤딩 방향을 기준으로 하는 기본 모드에 따라 상기 드론의 동작을 제어하는 것을 특징으로 하는 단말 장치.The method according to any one of claims 1 to 2 and 4 to 7,
Wherein,
Wherein the controller controls the operation of the drones according to a basic mode based on a heading direction of the dron according to the input dron control command.
상기 제어부는,
상기 입력되는 드론 제어 명령에 따라 기준 각도에 따른 인텔리전트 오리엔트 모드에 따라 상기 드론의 동작을 제어하되,
상기 기준 각도는, 상기 드론의 최초 이륙시 헤딩 방향을 의미하는 것을 특징으로 하는 단말 장치.The method according to any one of claims 1 to 2 and 4 to 7,
Wherein,
And controlling the operation of the drones according to an intelligent orientation mode according to a reference angle according to the input dron control command,
Wherein the reference angle means a heading direction at the time of the first take-off of the drones.
상기 제어부는,
상기 입력되는 드론 제어 명령에 따라 상기 단말 장치와 드론 사이의 거리(r)와 각도(θ) 중 적어도 하나를 참조하는 인텔리전트 오리엔트 모드에 따라 상기 드론의 동작을 제어하는 것을 특징으로 하는 단말 장치.The method according to any one of claims 1 to 2 and 4 to 7,
Wherein,
Wherein the controller controls the operation of the drone according to an intelligent orientation mode that refers to at least one of a distance (r) and an angle (?) Between the terminal device and the drone in accordance with the inputted dron control command.
상기 제어부는,
상기 본체와 드론 사이의 방위각 또는 각도(θ)에 따라 상기 드론의 속도를 제어하는 것을 특징으로 하는 단말 장치.The method according to claim 1,
Wherein,
And controls the speed of the dron according to an azimuth or an angle (?) Between the main body and the drone.
상기 제어부는,
상기 본체와 드론 사이의 방위각 또는 각도(θ)가 미리 정한 방위각 또는 각도(θ) 이상이면, 사용자의 입력과 관계없이 미리 정의된 속도로 동작되도록 제어하는 것을 특징으로 하는 단말 장치.16. The method of claim 15,
Wherein,
Wherein the controller controls to operate at a predefined speed regardless of the user's input if the azimuth or angle between the main body and the drone is equal to or greater than a predetermined azimuth or angle.
상기 거치 고정부는,
상기 디스플레이 기기의 고정을 위해 적어도 하나의 구성을 포함하고,
상기 구성이 복수 개인 경우, 적어도 하나는 상하 또는 좌우 이동 가능한 것을 특징으로 하는 단말 장치.The method according to claim 1,
The mounting fixture includes:
At least one configuration for securing the display device,
Wherein at least one of the plurality of terminals is vertically or horizontally movable.
상기 거치 지지부는,
상기 본체의 일면으로부터 미리 정한 각도로 형성되는 것을 특징으로 하는 단말 장치.The method according to claim 1,
The mounting support portion
Wherein the terminal is formed at a predetermined angle from one surface of the main body.
상기 거치 고정부와 상기 거치 지지부는,
각각 힌지를 포함하여 상기 본체로부터 각도 변경이 가능한 것을 특징으로 하는 단말 장치.The method according to claim 1,
Wherein the stationary fixing unit and the stationary support unit,
Wherein the angle of the terminal is changeable from the main body including the hinge.
상기 드론 제어 명령을 입력받는 제1 입력부;
상기 제1 입력부를 지지하는 지지부; 및
제어부를 포함하고,
상기 제1 입력부는,
터치스크린을 통해 데이터를 출력하고 상기 드론 전후 및 좌우 동작 제어 입력을 수신하는 조작부를 포함하는 단말 장치.A communication unit for transmitting and receiving data to and from the drone;
A first input unit receiving the drone control command;
A support for supporting the first input unit; And
And a control unit,
Wherein the first input unit comprises:
And an operation unit for outputting data through a touch screen and receiving the front, rear, left and right operation control inputs of the drone.
상기 제1 입력부는,
상기 드론의 회전 동작 제어 입력을 수신하는 베젤부를 더 포함하는 것을 특징으로 하는 단말 장치.21. The method of claim 20,
Wherein the first input unit comprises:
And a bezel unit for receiving a rotation operation control input of the drones.
상기 베젤부는,
상기 조작부의 일 구성인 것을 특징으로 하는 단말 장치.22. The method of claim 21,
The bezel portion
And the terminal device is a configuration of the operation section.
상기 조작부는,
상기 드론의 회전 동작 제어 입력을 더 수신하는 것을 특징으로 하는 단말 장치.21. The method of claim 20,
Wherein,
And further receives the rotation operation control input of the drones.
상기 조작부는,
상기 드론의 상하 동작 제어 입력을 더 수신하는 것을 특징으로 하는 단말 장치.21. The method of claim 20,
Wherein,
And further receives the up / down operation control input of the drones.
상기 드론의 상하 동작 제어 입력을 수신하는 제2 입력부(휠키)를 더 포함하는 것을 특징으로 하는 단말 장치.21. The method of claim 20,
And a second input unit (wheel key) for receiving the up / down operation control input of the drones.
상기 드론의 회전 동작 제어 입력을 수신하는 제2 입력부(휠키)를 더 포함하는 것을 특징으로 하는 단말 장치.21. The method of claim 20,
And a second input unit (wheel key) for receiving the rotation operation control input of the drones.
상기 제어부는,
상기 입력되는 드론 제어 명령에 따라 드론의 헤딩 방향을 기준으로 하는 기본 모드에 따라 상기 드론의 동작을 제어하는 것을 특징으로 하는 단말 장치.20 to 21 and 23 to 26,
Wherein,
Wherein the controller controls the operation of the drones according to a basic mode based on a heading direction of the dron according to the input dron control command.
상기 제어부는,
상기 입력되는 드론 제어 명령에 따라 기준 각도에 따른 인텔리전트 오리엔트 모드에 따라 상기 드론의 동작을 제어하되,
상기 기준 각도는, 상기 드론의 최초 이륙시 헤딩 방향을 의미하는 것을 특징으로 하는 단말 장치.20 to 21 and 23 to 26,
Wherein,
And controlling the operation of the drones according to an intelligent orientation mode according to a reference angle according to the input dron control command,
Wherein the reference angle means a heading direction at the time of the first take-off of the drones.
상기 제어부는,
상기 입력되는 드론 제어 명령에 따라 상기 단말 장치와 드론 사이의 거리(r)와 각도(θ) 중 적어도 하나를 참조하는 인텔리전트 오리엔트 모드에 따라 상기 드론의 동작을 제어하는 것을 특징으로 하는 단말 장치.20 to 21 and 23 to 26,
Wherein,
Wherein the controller controls the operation of the drone according to an intelligent orientation mode that refers to at least one of a distance (r) and an angle (?) Between the terminal device and the drone in accordance with the inputted dron control command.
상기 제어부는,
상기 본체와 드론 사이의 방위각 또는 각도(θ)에 따라 상기 드론의 속도를 제어하되,
상기 본체와 드론 사이의 방위각 또는 각도(θ)가 미리 정한 방위각 또는 각도(θ) 이상이면, 사용자의 입력과 관계없이 미리 정의된 속도로 동작되도록 제어하는 것을 특징으로 하는 단말 장치.21. The method of claim 20,
Wherein,
And controlling the speed of the dron according to an azimuth angle or angle (?) Between the main body and the drone,
Wherein the controller controls to operate at a predefined speed regardless of the user's input if the azimuth or angle between the main body and the drone is equal to or greater than a predetermined azimuth or angle.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KRPCT/KR2015/010201 | 2015-09-25 | ||
| PCT/KR2015/010201 WO2017051961A1 (en) | 2015-09-25 | 2015-09-25 | Terminal apparatus and control method therefor |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20170037476A true KR20170037476A (en) | 2017-04-04 |
Family
ID=58386321
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020150157761A Withdrawn KR20170037476A (en) | 2015-09-25 | 2015-11-10 | Mobile terminal and controlling method the same |
Country Status (2)
| Country | Link |
|---|---|
| KR (1) | KR20170037476A (en) |
| WO (1) | WO2017051961A1 (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101884125B1 (en) * | 2017-06-13 | 2018-07-31 | 이승호 | System for Self-Camera and Method using the same |
| US20230086306A1 (en) * | 2021-09-17 | 2023-03-23 | Anduril Industries Inc. | Defining an operation using a set of assets |
| US12208892B2 (en) | 2021-09-17 | 2025-01-28 | Anduril Industries Inc. | Generating an environment for an operation using a set of assets |
| US12242986B2 (en) | 2021-09-17 | 2025-03-04 | Anduril Industries, Inc. | Planning an operation for a set of assets |
| US12293670B2 (en) | 2021-09-17 | 2025-05-06 | Anduril Industries, Inc. | Generating a flight plan of a semi-autonomous drone |
| US12366854B2 (en) | 2021-09-17 | 2025-07-22 | Anduril Industries, Inc. | Grouping a set of assets to perform an operation |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102455266B1 (en) * | 2017-10-17 | 2022-10-18 | 삼성전자주식회사 | Electronic device for controlling data communication of external electronic device and communication system thereof |
| CN112461362B (en) * | 2020-11-11 | 2023-09-26 | 上海第二工业大学 | System and method for monitoring space illuminance by using unmanned aerial vehicle |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7307579B2 (en) * | 2004-11-03 | 2007-12-11 | Flight Safety Technologies, Inc. | Collision alerting and avoidance system |
| KR101304068B1 (en) * | 2011-11-25 | 2013-09-04 | 건국대학교 산학협력단 | Collision avoidance apparatus and method of aircraft |
| JP5859300B2 (en) * | 2011-12-19 | 2016-02-10 | 三菱重工業株式会社 | Control apparatus, method and program |
| KR20130037697A (en) * | 2013-03-12 | 2013-04-16 | 노인철 | The conflict prevention system and methods of unmanned aerial vehicle |
| KR101483057B1 (en) * | 2014-01-21 | 2015-01-15 | 엘아이지넥스원 주식회사 | Ground control method for UAV anticollision |
-
2015
- 2015-09-25 WO PCT/KR2015/010201 patent/WO2017051961A1/en not_active Ceased
- 2015-11-10 KR KR1020150157761A patent/KR20170037476A/en not_active Withdrawn
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101884125B1 (en) * | 2017-06-13 | 2018-07-31 | 이승호 | System for Self-Camera and Method using the same |
| US20230086306A1 (en) * | 2021-09-17 | 2023-03-23 | Anduril Industries Inc. | Defining an operation using a set of assets |
| US12208892B2 (en) | 2021-09-17 | 2025-01-28 | Anduril Industries Inc. | Generating an environment for an operation using a set of assets |
| US12242986B2 (en) | 2021-09-17 | 2025-03-04 | Anduril Industries, Inc. | Planning an operation for a set of assets |
| US12293670B2 (en) | 2021-09-17 | 2025-05-06 | Anduril Industries, Inc. | Generating a flight plan of a semi-autonomous drone |
| US12366854B2 (en) | 2021-09-17 | 2025-07-22 | Anduril Industries, Inc. | Grouping a set of assets to perform an operation |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2017051961A1 (en) | 2017-03-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN106257909B (en) | Mobile terminal and control method thereof | |
| US10496087B2 (en) | Mobile terminal and method of controlling the same | |
| KR20170037476A (en) | Mobile terminal and controlling method the same | |
| KR101595957B1 (en) | Mobile terminal and controlling system | |
| KR20170123907A (en) | Mobile terminal and method for controlling the same | |
| KR20160131720A (en) | Mobile terminal and method for controlling the same | |
| KR20170014609A (en) | Mobile terminal and method of controlling the same | |
| KR20160008372A (en) | Mobile terminal and control method for the mobile terminal | |
| KR20170130952A (en) | Mobile terminal and method for controlling the same | |
| KR20170057058A (en) | Mobile terminal and method for controlling the same | |
| KR20160095409A (en) | Mobile terminal and method for controlling the same | |
| KR20180025864A (en) | Camera module and mobile terminal having the same | |
| KR20160134334A (en) | Mobile terminal and method of controlling the same | |
| KR20170060324A (en) | Drone, mobile terminal and method for controlling the same | |
| KR20170042164A (en) | Mobile terminal and method for controlling the same | |
| KR20160016181A (en) | Mobile terminal and method for controlling the same | |
| KR101607379B1 (en) | Mobile terminal and method for controlling the same | |
| KR101576461B1 (en) | Watch type terminal and control method thereof | |
| KR20170030243A (en) | Mobile terminal and method for controlling the same | |
| KR20160078083A (en) | Mobile terminal and method for controlling the same | |
| KR20160040896A (en) | Mobile terminal and control method for the mobile terminal | |
| KR20170024308A (en) | Mobile terminal and method for controlling the same | |
| KR101612863B1 (en) | Mobile terminal and controlling system | |
| KR101669210B1 (en) | Mobile terminal | |
| KR102407434B1 (en) | Mobile terminal, the control method thereof, and the control system for controlling the mobile terminal |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
| PC1203 | Withdrawal of no request for examination |
St.27 status event code: N-1-6-B10-B12-nap-PC1203 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |