KR20230070990A - A wearable device that communicates with at least one counterpart device according to a trigger event and a control method thereof - Google Patents
A wearable device that communicates with at least one counterpart device according to a trigger event and a control method thereof Download PDFInfo
- Publication number
- KR20230070990A KR20230070990A KR1020210175632A KR20210175632A KR20230070990A KR 20230070990 A KR20230070990 A KR 20230070990A KR 1020210175632 A KR1020210175632 A KR 1020210175632A KR 20210175632 A KR20210175632 A KR 20210175632A KR 20230070990 A KR20230070990 A KR 20230070990A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- wearable device
- area
- present document
- body part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0176—Head mounted characterised by mechanical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
트리거 이벤트에 따라 적어도 하나의 상대방 디바이스와 통신을 수행하는 웨어러블 디바이스 및 그 제어 방법이 개시된다. 본 문서의 일 실시예에 따른 웨어러블 디바이스는, 디스플레이 모듈, 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 적어도 하나의 그래픽 오브젝트(object)가 디스플레이 영역에서 보여지도록 상기 디스플레이 모듈을 제어하고, 사용자의 신체 일부가 제1 영역에 위치하는지 여부를 식별하고, 상기 사용자의 신체 일부가 상기 제1 영역에 위치함에 기반하여, 상기 제1 영역에 대응하는 그룹을 식별하고, 상기 사용자의 신체 일부가 상기 제1 영역에 위치하는 동안에, 상기 사용자에 의한 트리거 이벤트가 검출되는지 여부를 식별하고, 상기 트리거 이벤트가 검출됨에 기반하여, 상기 식별된 그룹에 포함되는 적어도 하나의 상대방 디바이스(counterpart device)에 대해 상기 트리거 이벤트에 대응하는 기능을 수행하도록 설정될 수 있다. A wearable device that performs communication with at least one counterpart device according to a trigger event and a control method thereof are disclosed. A wearable device according to an embodiment of the present document includes a display module and at least one processor, and the at least one processor controls the display module to display at least one graphic object in a display area. identify whether the user's body part is located in the first region, identify a group corresponding to the first region based on the user's body part being located in the first region, and identify the user's body part Identifying whether a trigger event by the user is detected while a part is located in the first area, and based on the detection of the trigger event, at least one counterpart device included in the identified group It can be set to perform a function corresponding to the trigger event for.
Description
본 문서는 트리거 이벤트에 따라 적어도 하나의 상대방 디바이스와 통신을 수행하는 웨어러블 디바이스 및 그 제어 방법에 관한 것이다.This document relates to a wearable device that communicates with at least one counterpart device according to a trigger event and a control method thereof.
전자 장치, 예를 들어, 스마트폰과 같은 휴대용 전자 장치를 통해 제공되는 다양한 서비스 및 부가 기능들이 점차 증가하고 있다. 이러한 전자 장치의 효용 가치를 높이고, 다양한 사용자들의 욕구를 만족시키기 위해서 통신 서비스 제공자 또는 전자 장치 제조사들은 다양한 기능들을 제공하고 다른 업체와의 차별화를 위해 전자 장치를 경쟁적으로 개발하고 있다. 이에 따라, 전자 장치를 통해서 제공되는 다양한 기능들도 점점 고도화 되고 있다.Various services and additional functions provided through electronic devices, for example, portable electronic devices such as smart phones, are gradually increasing. In order to increase the utility value of these electronic devices and satisfy the needs of various users, communication service providers or electronic device manufacturers are competitively developing electronic devices to provide various functions and to differentiate themselves from other companies. Accordingly, various functions provided through electronic devices are becoming increasingly sophisticated.
최근, 글래스 타입 웨어러블 디바이스가 다양한 목적들로 이용되고 있다. 예를 들어, 글래스 타입 웨어러블 디바이스를 이용하여 회의를 진행하거나 강의를 진행하는 사례들이 급속도로 증가하고 있다. 그러나, 글래스 타입 웨어러블 디바이스를 이용하여 특정한 태스크를 수행(예: 회의 진행)하는 경우에 있어서, 기존의 글래스 타입 웨어러블 디바이스는 단지 특정한 태스크에 관련된 가상 객체(예: 회의에 참석한 상대방의 화면)만을 제공하는 기능을 제공하였을 뿐, 사용자의 신체 일부(예: 손)에 의한 트리거 이벤트(예: "하트 제스처"를 검출)에 따라 특정한 기능을 수행(예: 상대방 디바이스에 "하트 제스처"와 관련된 감정 표현을 전송)하는 기능 또는 동작은 전혀 제공하지 못하였다. 또한, 기존의 글래스 타입 웨어러블 디바이스는, 글래스 타입 웨어러블 디바이스를 구비하지 않고 제1 사용자(예: 웨어러블 디바이스를 통해 특정한 태스크를 수행하는 사용자)와 특정한 태스크를 수행하는 사용자(예: 제2 사용자)에 대해서는 글래스 타입 웨어러블 디바이스를 통해 제공되는 가상 객체와 관련된 정보를 제2 사용자에게 제공하는 기능 또는 동작은 전혀 제공하지 못하였다. Recently, glass-type wearable devices are being used for various purposes. For example, cases of holding a meeting or holding a lecture using a glass-type wearable device are rapidly increasing. However, in the case of performing a specific task (eg, conducting a meeting) using a glasses-type wearable device, the existing glasses-type wearable device only displays a virtual object related to the specific task (eg, the screen of the other party attending the meeting). Performs a specific function according to a trigger event (eg, detecting a "heart gesture") by a part of the user's body (eg, hand) It does not provide any function or operation to send a representation). In addition, the existing glasses-type wearable device does not have a glasses-type wearable device and provides a first user (eg, a user performing a specific task through the wearable device) and a user (eg, a second user) performing a specific task. As for the glass-type wearable device, a function or operation of providing information related to a virtual object provided through the wearable device to the second user is not provided at all.
본 문서의 일 실시예에 따르면, 사용자의 신체 일부(예: 손)에 의한 트리거 이벤트(예: "하트 제스처"를 검출)에 따라 특정한 기능(예: 상대방 디바이스에 "하트 제스처"와 관련된 감정 표현을 전송)을 수행하여 웨어러블 디바이스의 사용 편의성(usability)을 향상시킬 수 있는 웨어러블 디바이스가 제공될 수 있다. According to an embodiment of the present document, a specific function (eg, expression of emotion related to a “heart gesture” to the other party's device) according to a trigger event (eg, “heart gesture” detection) by a user's body part (eg, hand) A wearable device capable of improving usability of the wearable device by performing transmission) may be provided.
본 문서의 일 실시예에 따르면, 웨어러블 디바이스를 구비하지 않고 제1 사용자와 특정한 태스크를 수행하는 사용자에 대해서도 웨어러블 디바이스를 통해 제공되는 가상 객체와 관련된 정보 및/또는 제1 사용자에 의한 트리거 이벤트에 따른 기능을 제공할 수 있는 웨어러블 디바이스가 제공될 수 있다.According to an embodiment of the present document, information related to a virtual object provided through a wearable device and/or a trigger event by the first user even for a user who does not have a wearable device and performs a specific task with the first user A wearable device capable of providing functions may be provided.
본 문서의 일 실시예에 따른 웨어러블 디바이스는, 디스플레이 모듈 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 적어도 하나의 그래픽 오브젝트(object)가 디스플레이 영역에서 보여지도록 상기 디스플레이 모듈을 제어하고, 사용자의 신체 일부가 제1 영역에 위치하는지 여부를 식별하고, 상기 사용자의 신체 일부가 상기 제1 영역에 위치함에 기반하여, 상기 제1 영역에 대응하는 그룹을 식별하고, 상기 사용자의 신체 일부가 상기 제1 영역에 위치하는 동안에, 상기 사용자에 의한 트리거 이벤트가 검출되는지 여부를 식별하고, 상기 트리거 이벤트가 검출됨에 기반하여, 상기 식별된 그룹에 포함되는 적어도 하나의 상대방 디바이스(counterpart device)에 대해 상기 트리거 이벤트에 대응하는 기능을 수행하도록 설정되고, 상기 기능은, 상기 적어도 하나의 상대방 디바이스에 대해 공통적으로 수행되는 기능일 수 있다. A wearable device according to an embodiment of the present document includes a display module and at least one processor, and the at least one processor controls the display module so that at least one graphic object is displayed in a display area. , Identifying whether the user's body part is located in the first region, identifying a group corresponding to the first region based on the user's body part being located in the first region, and identifying the user's body part While is located in the first area, it identifies whether a trigger event by the user is detected, and based on the detection of the trigger event, at least one counterpart device included in the identified group is configured to perform a function corresponding to the trigger event for each device, and the function may be a function commonly performed for the at least one counterpart device.
본 문서의 일 실시예에 따른 웨어러블 디바이스를 제어하는 방법은, 적어도 하나의 그래픽 오브젝트(object)가 디스플레이 영역에서 보여지도록 상기 웨어러블 디바이스의 디스플레이 모듈을 제어하는 동작과, 사용자의 신체 일부가 제1 영역에 위치하는지 여부를 식별하는 동작과, 상기 사용자의 신체 일부가 상기 제1 영역에 위치함에 기반하여, 상기 제1 영역에 대응하는 그룹을 식별하는 동작과, 상기 사용자의 신체 일부가 상기 제1 영역에 위치하는 동안에, 상기 사용자에 의한 트리거 이벤트가 검출되는지 여부를 식별하는 동작과, 상기 트리거 이벤트가 검출됨에 기반하여, 상기 식별된 그룹에 포함되는 적어도 하나의 상대방 디바이스(counterpart device)에 대해 상기 트리거 이벤트에 대응하는 기능을 수행하는 동작을 포함하고, 상기 기능은, 상기 적어도 하나의 상대방 디바이스에 대해 공통적으로 수행되는 기능일 수 있다. A method for controlling a wearable device according to an embodiment of the present document includes an operation of controlling a display module of the wearable device so that at least one graphic object is displayed in a display area, and a part of a user's body in a first area identifying whether the user's body part is located in the first region, and based on the user's body part being located in the first region, identifying a group corresponding to the first region; and the user's body part is located in the first region. an operation of identifying whether a trigger event by the user is detected while located at ; and, based on the detection of the trigger event, the trigger for at least one counterpart device included in the identified group. An operation of performing a function corresponding to an event may be included, and the function may be a function commonly performed for the at least one counterpart device.
본 문서의 일 실시예에 따르면, 사용자의 신체 일부(예: 손)에 의한 트리거 이벤트(예: "하트 제스처"를 검출)에 따라 특정한 기능(예: 상대방 디바이스에 "하트 제스처"와 관련된 감정 표현을 전송)을 수행하여 웨어러블 디바이스의 사용 편의성을 향상시킬 수 있는 웨어러블 디바이스가 제공될 수 있다. According to an embodiment of the present document, a specific function (eg, expression of emotion related to a “heart gesture” to the other party's device) according to a trigger event (eg, “heart gesture” detection) by a user's body part (eg, hand) A wearable device capable of improving the usability of the wearable device by performing transmission) may be provided.
본 문서의 일 실시예에 따르면, 웨어러블 디바이스를 구비하지 않고 제1 사용자와 특정한 태스크를 수행하는 사용자에 대해서도 웨어러블 디바이스를 통해 제공되는 가상 객체와 관련된 정보 및/또는 제1 사용자에 의한 트리거 이벤트에 따른 기능을 제공할 수 있는 웨어러블 디바이스가 제공될 수 있다.According to an embodiment of the present document, information related to a virtual object provided through a wearable device and/or a trigger event by the first user even for a user who does not have a wearable device and performs a specific task with the first user A wearable device capable of providing functions may be provided.
다양한 실시예들에 따른 효과는 상기 기술된 효과로 제한되지 아니하며, 다양한 효과가 본 개시 상에 내재되어 있음은 통상의 기술자에게 자명하다.Effects according to various embodiments are not limited to the effects described above, and it is obvious to those skilled in the art that various effects are inherent in the present disclosure.
도 1은, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스를 설명하기 위한 예시 도면이다.
도 2a는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스의 구조를 설명하기 위한 예시 도면이다.
도 2b 및 도 2c는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스의 연결 관계를 설명하기 위한 예시 도면들이다.
도 3은, 본 문서의 일 실시예에 따른 트리거 이벤트에 따라 글래스 타입 웨어러블 디바이스가 특정한 기능을 수행하는 기능 또는 동작을 설명하기 위한 예시 도면이다.
도 4는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스에 의해 보여지는 적어도 하나의 그래픽 오브젝트를 설명하기 위한 예시 도면이다.
도 5a는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스를 기준으로 설정된 적어도 하나의 반경(radius)을 설명하기 위한 예시 도면이다.
도 5b는, 본 문서의 일 실시예에 따른 사용자의 신체 일부가 적어도 하나의 반경 내에 위치하는지 여부를 판단하기 위한 방법으로서, 디스플레이 영역 내에 설정된 적어도 하나의 영역을 설명하기 위한 예시 도면이다.
도 5c는, 본 문서의 일 실시예에 따른 제1 영역에 사용자의 신체 일부가 위치함이 검출된 경우, 글래스 타입 웨어러블 디바이스에 의해 사용자의 신체 일부가 제1 반경에 위치하였다고 판단되는 기능 또는 동작을 설명하기 위한 예시 도면이다.
도 5d 및 도 5e는, 본 문서의 일 실시예에 따른 제1 영역을 기준으로 설정된 공간 내에 사용자의 신체 일부가 위치하였음이 검출된 경우, 글래스 타입 웨어러블 디바이스에 의해 사용자의 신체 일부가 제1 반경에 위치하였다고 판단되는 기능 또는 동작을 설명하기 위한 예시 도면들이다.
도 5f는, 본 문서의 다른 실시예에 따라 적어도 하나의 반경이 설정된 경우를 설명하기 위한 예시 도면이다.
도 5g 및 도 5h는, 본 문서의 다른 실시예에 따라 적어도 하나의 반경이 설정된 경우, 글래스 타입 웨어러블 디바이스에 의해 적어도 하나의 반경 내에 사용자의 신체 일부가 위치하였음이 검출되는 기능 또는 동작을 설명하기 위한 예시 도면들이다.
도 5i는, 본 문서의 또 다른 실시예에 따라 적어도 하나의 반경이 설정된 경우를 설명하기 위한 예시 도면이다.
도 6a 및 도 6b는, 본 문서의 일 실시예에 따른 적어도 하나의 반경에 대응하도록 미리 설정된 그룹을 설명하기 위한 예시 도면들이다.
도 7a 및 도 7b는, 본 문서의 일 실시예에 따른 트리거 제스처를 설명하기 위한 예시 도면들이다.
도 8은, 본 문서의 일 실시예에 따른 트리거 이벤트(예: 트리거 제스처를 검출)에 따라 글래스 타입 웨어러블 디바이스에 의해 특정한 기능이 수행되는 기능 또는 동작을 설명하기 위한 예시 도면이다.
도 9는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스에 의해, 글래스 타입 웨어러블 디바이스와 동작 가능하도록 연결된 외부 전자 장치로부터의 통신 신호의 수신에 따라 적어도 하나의 상대방 디바이스와 통신을 수행(예: 문자 메시지의 전송)하는 기능 또는 동작을 설명하기 위한 예시 도면이다.
도 10a, 도 10b 및 도 10c는, 도 9에서 설명된 기능 또는 동작을 그래픽 사용자 인터페이스 관점에서 설명하기 위한 예시 도면들이다.
도 11은, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스가 공유 제스처를 검출한 경우, 적어도 하나의 컨텐트를 적어도 하나의 상대방 디바이스와 공유하는 기능 또는 동작을 설명하기 위한 예시 도면이다.
도 12a, 도 12b 및 도 12c는, 도 11에서 설명된 기능 또는 동작을 그래픽 사용자 인터페이스 관점에서 설명하기 위한 예시 도면들이다.
도 13은, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스가 그룹 생성 제스처를 검출한 경우, 적어도 하나의 상대방 디바이스를 특정한 반경에 대응하는 하나의 그룹으로 생성하는 기능 또는 동작을 설명하기 위한 예시 도면이다.
도 14a, 도 14b, 도 14c 및 도 14d는, 도 13에서 설명된 기능 또는 동작을 그래픽 사용자 인터페이스 관점에서 설명하기 위한 예시 도면들이다.1 is an exemplary diagram for describing a glass-type wearable device according to an embodiment of the present document.
2A is an exemplary diagram for explaining the structure of a glass-type wearable device according to an embodiment of the present document.
2b and 2c are exemplary diagrams for explaining a connection relationship of a glass-type wearable device according to an embodiment of the present document.
3 is an exemplary diagram for explaining a function or operation in which a glasses-type wearable device performs a specific function according to a trigger event according to an embodiment of the present document.
4 is an exemplary diagram for explaining at least one graphic object displayed by a glasses-type wearable device according to an embodiment of the present document.
5A is an exemplary diagram for explaining at least one radius set based on a glass-type wearable device according to an embodiment of the present document.
5B is a method for determining whether a part of a user's body is located within at least one radius according to an embodiment of the present document, and is an exemplary view for explaining at least one area set within a display area.
5C is a function or operation for determining that the user's body part is located in the first radius by the glasses-type wearable device when it is detected that the user's body part is located in the first area according to an embodiment of the present document. It is an exemplary drawing for explaining.
5D and 5E show that, when it is detected that the user's body part is located within a space set based on the first area according to an embodiment of the present document, the user's body part moves within a first radius by the glass-type wearable device. These are exemplary drawings for explaining functions or operations determined to be located in .
5F is an exemplary diagram for explaining a case in which at least one radius is set according to another embodiment of the present document.
5G and 5H illustrate a function or operation of detecting that a part of a user's body is located within at least one radius by a glasses-type wearable device when at least one radius is set according to another embodiment of the present document. These are exemplary drawings for
5I is an exemplary diagram for explaining a case in which at least one radius is set according to another embodiment of the present document.
6A and 6B are exemplary diagrams for explaining a preset group to correspond to at least one radius according to an embodiment of the present document.
7A and 7B are exemplary diagrams for describing a trigger gesture according to an embodiment of the present document.
8 is an exemplary diagram for explaining a function or operation in which a specific function is performed by a glasses-type wearable device according to a trigger event (eg, detection of a trigger gesture) according to an embodiment of the present document.
9 illustrates communication with at least one counterpart device according to reception of a communication signal from an external electronic device operatively connected to the glasses-type wearable device by the glasses-type wearable device according to an embodiment of the present document (example : It is an exemplary diagram for explaining a function or operation of transmitting a text message).
10A, 10B, and 10C are exemplary diagrams for explaining the function or operation described in FIG. 9 from the viewpoint of a graphic user interface.
11 is an exemplary diagram for explaining a function or operation of sharing at least one content with at least one counterpart device when a glasses-type wearable device detects a sharing gesture according to an embodiment of the present document.
12A, 12B, and 12C are exemplary diagrams for describing the function or operation described in FIG. 11 from the viewpoint of a graphic user interface.
13 is an example for explaining a function or operation of generating at least one counterpart device into a group corresponding to a specific radius when a glasses-type wearable device detects a group creation gesture according to an embodiment of the present document; it is a drawing
14a, 14b, 14c, and 14d are exemplary diagrams for explaining the function or operation described in FIG. 13 from the viewpoint of a graphic user interface.
도 1은, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)를 설명하기 위한 예시 도면이다. 본 문서에서는 글래스 타입 웨어러블 디바이스(100)를 예를 들어 설명하나 이에 한정되는 것은 아니다. 예컨대, 본 문서에서 설명되는 다양한 실시예들은 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head mounted device; HMD) 또는 머리 착용형 디스플레이 장치(head mounted display; HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나에 적용될 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 제1 카메라(111), 제2 카메라(112), 제3 카메라(113), 프로세서(120), PMIC(130), 배터리(135), 메모리(140), 디스플레이 모듈(150), 오디오 모듈(161), 음성 입력 장치(162), 음성 출력 장치(163), 통신 회로(170), 및 센서(180) 중 적어도 하나를 포함할 수 있다. 1 is an exemplary diagram for explaining a glass-type
본 문서의 일 실시예에 따르면, 제1 카메라(111)를 통하여 획득된 이미지는 사용자에 의한 손 제스처 검출, 사용자의 머리 추적, 및/또는 공간 인식에 이용될 수 있다. 본 문서의 일 실시예에 따르면, 제1 카메라(111)는 GS(global shutter) 카메라를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 제1 카메라(111)는 깊이 촬영을 통한 SLAM(simultaneous localization and mapping) 연산을 수행할 수 있다. 본 문서의 일 실시예에 따르면, 제1 카메라(111)는 6DoF를 위한 공간 인식을 수행할 수 있다. 본 문서의 일 실시예에 따른 제1 카메라(111)는, 제1 사용자에게 착용된 경우, 제1 사용자의 시선에 대응하는 실제 세계(real world)를 촬영하도록 설정될 수 있다. According to an embodiment of the present document, an image acquired through the
본 문서의 일 실시예에 따르면, 제2 카메라(112)를 통하여 획득된 이미지는 사용자의 눈동자에 대한 검출 및 추적에 이용될 수 있다. 본 문서의 일 실시예에 따르면, 제2 카메라(112)는 GS 카메라를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 제2 카메라(112)는 각각 좌안 및 우안에 대응될 수 있고, 제2 카메라(112)들의 성능은 서로 동일 또는 유사할 수 있다. 본 문서의 일 실시예에 따른 제2 카메라(112)는, 사용자의 표정에 대한 이미지를 획득하도록 설정될 수 있다. 본 문서의 일 실시예에 따른 적어도 하나의 프로세서(120)는, 제2 카메라(112)에 의하여 획득된 사용자의 표정에 대한 이미지를 기반으로 사용자의 표정 변화를 검출하도록 설정될 수 있다. According to an embodiment of the present document, an image obtained through the
본 문서의 일 실시예에 따르면, 제3 카메라(113)는 제1 카메라(111) 및 제2 카메라(112) 보다 고해상도의 카메라를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 제3 카메라(113)는 자동 포커싱(auto-focusing, AF) 기능과 떨림 보정 기능을 수행할 수 있다. 본 문서의 일 실시예에 따르면, 제3 카메라(113)는 GS 카메라를 포함하거나, RS(rolling shutter) 카메라를 포함할 수 있다. 본 문서의 일 실시예에 따른 제1 카메라(111)는, 제1 사용자에게 착용된 경우, 제1 사용자의 시선에 대응하는 실제 세계를 촬영하도록 설정될 수 있다.According to one embodiment of the present document, the
본 문서의 일 실시예에 따른 프로세서(120)는, 글래스 타입 웨어러블 디바이스(100)의 구성요소들, 예를 들어, 제1 카메라(111), 제2 카메라(112), 제3 카메라(113), PMIC(130), 메모리(140), 디스플레이 모듈(150), 오디오 모듈(161), 통신 회로(170), 및 센서(180)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 본 문서의 일 실시예에 따른 프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램)를 실행하여 프로세서(120)에 연결된 글래스 타입 웨어러블 디바이스(100)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 본 문서의 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리에 저장하고, 휘발성 메모리에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다. 본 문서의 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 글래스 타입 웨어러블 디바이스(100)가 메인 프로세서 및 보조 프로세서를 포함하는 경우, 보조 프로세서는 메인 프로세서보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서는 메인 프로세서와 별개로, 또는 그 일부로서 구현될 수 있다.The
본 문서의 일 실시예에 따른 PMIC(130)는 배터리(135)에 저장된 전력을 글래스 타입 웨어러블 디바이스(100)의 다른 구성요소들이 요구하는 전류 또는 전압을 갖도록 변환하여 글래스 타입 웨어러블 디바이스(100)의 다른 구성요소들에 공급할 수 있다.The
본 문서의 일 실시예에 따른 메모리(140)는, 글래스 타입 웨어러블 디바이스(100)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(180))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 본 문서의 일 실시예에 따른 메모리(140)는, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.The
본 문서의 일 실시예에 따른 디스플레이 모듈(150)은 사용자에게 제공할 화면을 표시할 수 있다. 본 문서의 일 실시예에 따른 디스플레이 모듈(150)은, 가상 객체(예: 증강현실 가이드)를 표현하기 위한 데이터(예: RGB 데이터)를 출력할 수 있다. 본 문서의 일 실시예에 따른 디스플레이 모듈(150)은 제1 디스플레이(251), 제2 디스플레이(252), 하나 이상의 입력 광학 부재(253-1, 253-2), 하나 이상의 투명 부재(290-1, 290-2), 및 하나 이상의 화면 표시 부분(254-1, 254-2)을 포함할 수 있다.The
본 문서의 일 실시예에 따른 오디오 모듈(161)은 음성 입력 장치(162) 및 음성 출력 장치(163)에 연결되어, 음성 입력 장치(162)를 통하여 입력된 데이터를 변환하고, 음성 출력 장치(163)에 출력할 데이터를 변환할 수 있다. 본 문서의 일 실시예에 따른 음성 입력 장치(162)는 적어도 하나의 마이크를 포함할 수 있으며, 음성 출력 장치(163)는 적어도 하나의 스피커 및 증폭기를 포함할 수 있다. 본 문서의 일 실시예에 따른 통신 회로(170)는 글래스 타입 웨어러블 디바이스(100)와 연결된 외부 전자 장치와의 무선 통신 채널의 수립 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 본 문서의 일 실시예에 따른 센서(180)는 6축 센서(181), 자기 센서(182), 근접 센서(183), 및/또는 광 센서(184)를 포함할 수 있다.The
도 2는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)의 구조를 설명하기 위한 예시 도면이다. 2 is an exemplary diagram for explaining the structure of a glass-type
도 2를 참조하면, 글래스 타입 웨어러블 디바이스(100)는 하나 이상의 발광 소자(214-1, 214-2)를 포함할 수 있다. 본 문서의 일 실시예에 따른 발광 소자(214-1, 214-2)는 디스플레이의 화면 출력 영역으로 빛을 조사하는, 후술할 광원과는 상이할 수 있다. 본 문서의 일 실시예에 따르면, 발광 소자(214-1, 214-2)는 하나 이상의 제2 카메라(212-1, 212-2)를 통하여 사용자의 눈동자를 검출하고 추적하는 경우에 있어서, 눈동자 검출을 용이하게 하기 위한 빛을 조사할 수 있다. 본 문서의 일 실시예에 따르면, 발광 소자(214-1, 214-2)는 각각 LED를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 발광 소자(214-1, 214-2)는 적외선 영역의 빛을 조사할 수 있다. 본 문서의 일 실시예에 따르면, 발광 소자(214-1, 214-2)는 글래스 타입 웨어러블 디바이스(100)의 프레임 주변에 부착될 수 있다. 본 문서의 일 실시예에 따르면, 발광 소자(214-1, 214-2)는 하나 이상의 제1 카메라(211-1, 211-2) 주변에 위치하고, 글래스 타입 웨어러블 디바이스(100)가 어두운 환경에서 사용될 때 하나 이상의 제1 카메라(211-1, 211-2)에 의한 제스처 검출, 머리 추적, 및 공간 인식을 보조할 수 있다. 본 문서의 일 실시예에 따르면, 발광 소자(214-1, 214-2)는 하나 이상의 제3 카메라(213) 주변에 위치하고, 글래스 타입 웨어러블 디바이스(100)가 어두운 환경에서 사용될 때 하나 이상의 제3 카메라(213)에 의한 이미지 획득을 보조할 수 있다.Referring to FIG. 2 , the glass-type
본 문서의 일 실시예에 따르면, 글래스 타입 웨어러블 디바이스(100)는 배터리(235-1, 235-2)를 포함할 수 있다. 배터리(235-1, 235-2)는 글래스 타입 웨어러블 디바이스(100)의 나머지 구성요소들을 동작시키기 위한 전력을 저장할 수 있다.According to one embodiment of this document, the glass-type
본 문서의 일 실시예에 따르면, 글래스 타입 웨어러블 디바이스(100)는 제1 디스플레이(251), 제2 디스플레이(252), 하나 이상의 입력 광학 부재(253-1, 253-2), 하나 이상의 투명 부재(290-1, 290-2), 및 하나 이상의 화면 표시 부분(254-1, 254-2)을 포함할 수 있다. 본 문서의 일 실시예에 따르면, 제1 디스플레이(251) 및 제2 디스플레이(252)는 예를 들면, 액정 표시 장치(liquid crystal display; LCD), 디지털 미러 표시 장치(digital mirror device; DMD), 실리콘 액정 표시 장치(liquid crystal on silicon; LCoS), 유기 발광 다이오드(organic light emitting diode; OLED) 또는 마이크로 엘이디(micro light emitting diode; micro LED)를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 제1 디스플레이(251) 및 제2 디스플레이(252)가 액정 표시 장치, 디지털 미러 표시 장치 또는 실리콘 액정 표시 장치 중 하나로 이루어지는 경우, 글래스 타입 웨어러블 디바이스(100)는 디스플레이의 화면 출력 영역으로 빛을 조사하는 광원을 포함할 수 있다. 본 문서의 일 실시예에 따르면, 제1 디스플레이(251) 및 제2 디스플레이(252)가 자체적으로 빛을 발생시킬 수 있는 경우(예컨대, 유기 발광 다이오드 또는 마이크로 엘이디 중 하나로 이루어지는 경우), 글래스 타입 웨어러블 디바이스(100)는 별도의 광원을 포함하지 않더라도 사용자에게 상대적으로 양호한 품질의 가상 영상을 제공할 수 있다.According to one embodiment of this document, the glass-type
본 문서의 일 실시예에 따르면, 하나 이상의 투명 부재(290-1, 290-2)는 사용자가 글래스 타입 웨어러블 디바이스(100)를 착용하였을 때 사용자의 눈에 대면하게 배치될 수 있다. 본 문서의 일 실시예에 따르면, 하나 이상의 투명 부재(290-1, 290-2)는 글래스 플레이트, 플라스틱 플레이트 또는 폴리머 중 적어도 하나를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 사용자는 글래스 타입 웨어러블 디바이스(100)를 착용하였을 때 하나 이상의 투명 부재(290-1, 290-2)를 통하여 외부 세계를 볼 수 있다. 본 문서의 일 실시예에 따르면, 하나 이상의 입력 광학 부재(253-1, 253-2)는 제1 디스플레이(251) 및 제2 디스플레이(252)에서 생성한 빛을 사용자의 눈으로 유도할 수 있다. 본 문서의 일 실시예에 따르면, 하나 이상의 투명 부재(290-1, 290-2) 위의 하나 이상의 화면 표시 부분(254-1, 254-2) 위에 제1 디스플레이(251) 및 제2 디스플레이(252)에서 생성한 빛에 기초한 상이 맺히고, 사용자는 하나 이상의 화면 표시 부분(254-1, 254-2) 위에 맺힌 상을 볼 수 있다.According to an embodiment of the present document, one or more transparent members 290-1 and 290-2 may be disposed to face the user's eyes when the user wears the glass-type
본 문서의 일 실시예에 따르면, 글래스 타입 웨어러블 디바이스(100)는 하나 이상의 광 도파로(미도시)를 포함할 수 있다. 본 문서의 일 실시예에 따른 광 도파로는 제1 디스플레이(251) 및 제2 디스플레이(252)에서 생성한 빛을 사용자의 눈으로 전달할 수 있다. 글래스 타입 웨어러블 디바이스(100)는 좌안 및 우안에 대응하여 각각 하나씩의 광 도파로를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 광 도파로는 글래스, 플라스틱 또는 폴리머 중 적어도 하나를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 광 도파로는 내부 또는 외부의 일표면에 형성된 나노 패턴, 예를 들어, 다각형 또는 곡면 형상의 격자 구조(grating structure)를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 광 도파로는 free-form형 프리즘을 포함할 수 있고, 이 경우, 광 도파로는 입사된 광을 반사 미러를 통해 사용자에게 제공할 수 있다. 본 문서의 일 실시예에 따르면, 광 도파로는 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함하고, 광 도파로에 포함된 적어도 하나의 회절 요소 또는 반사 요소를 이용하여 광원으로부터 방출된 디스플레이 광을 사용자의 눈으로 유도할 수 있다. 본 문서의 일 실시예에 따르면, 회절 요소는 입력/출력 광학 부재를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 반사 요소는 전반사를 일으키는 부재를 포함할 수 있다.According to one embodiment of this document, the glass-type
본 문서의 일 실시예에 따르면, 글래스 타입 웨어러블 디바이스(100)는 하나 이상의 음성 입력 장치(262-1, 262-2, 262-3) 및 하나 이상의 음성 출력 장치(263-1, 263-2)를 포함할 수 있다.According to one embodiment of this document, the glass-type
본 문서의 일 실시예에 따르면, 글래스 타입 웨어러블 디바이스(100)는 제1 PCB(270-1) 및 제2 PCB(270-2)를 포함할 수 있다. 제1 PCB(270-1) 및 제2 PCB(270-2)는 제1 카메라(111), 제2 카메라(112), 제3 카메라(113), 디스플레이 모듈(150), 오디오 모듈(161), 및 센서(180)와 같은, 글래스 타입 웨어러블 디바이스(100)에 포함되는 구성 요소에 전기 신호를 전달하도록 설정될 수 있다. 본 문서의 일 실시예에 따르면, 제1 PCB(270-1) 및 제2 PCB(270-2)는 FPCB(flexible printed circuit board)를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 제1 PCB(270-1) 및 제2 PCB(270-2)는 각각 제1 기판, 제2 기판, 및 제1 기판과 상기 제2 기판 사이에 배치된 인터포저를 포함할 수 있다.According to one embodiment of this document, the glass-type
도 2b 및 도 2c는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)의 연결 관계를 설명하기 위한 예시 도면들이다.2B and 2C are exemplary diagrams for explaining a connection relationship of the glass-type
도 2b를 참조하면, 본 문서의 일 실시예에 따른 제1 사용자의 글래스 타입 웨어러블 디바이스(100)는 외부 전자 장치(예: 상대방 디바이스(280))와 네트워크를 통해 직접 연결될 수 있다. 본 문서의 일 실시예에 따른 네트워크는, 제1 네트워크(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 포함할 수 있다. 또는, 도 2c에 도시된 바와 같이, 본 문서의 일 실시예에 따른 제1 사용자의 글래스 타입 웨어러블 디바이스(100)는 상대방 디바이스(280)와 서버를 통해 연결될 수도 있다. 본 문서의 일 실시예에 따른 서버는, 기계 학습 및/또는 신경망을 이용한 지능형 서버를 포함할 수 있다. 도 2b 및 도 2c에서는 상대방 디바이스(280)의 예시로서 스마트 글래스가 도시되었으나, 상대방 디바이스(280)에 대한 실시예가 이에 의하여 제한되는 것은 아니다. 본 문서에서는, 외부 전자 장치의 예시로서 "상대방 디바이스(280)"라는 용어가 사용되나, 이것이 반드시 글래스 타입 웨어러블 디바이스(100)의 소유자와는 상이한 사용자에 의하여 소유된 디바이스만을 의미하는 것은 아니다. 본 문서의 다양한 실시예들에 따르면, "상대방 디바이스(280)"는 글래스 타입 웨어러블 디바이스(100)의 소유자에 의하여 소유되는 다양한 타입의 디바이스들을 포함할 수도 있다. Referring to FIG. 2B , the first user's glasses-type
도 3은, 본 문서의 일 실시예에 따른 트리거 이벤트에 따라 글래스 타입 웨어러블 디바이스(100)가 특정한 기능을 수행하는 기능 또는 동작을 설명하기 위한 예시 도면이다.FIG. 3 is an exemplary diagram for explaining a function or operation in which the glasses-type
도 3을 참조하면, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 310에서, 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b), 제3 그래픽 오브젝트(410c) 및 제4 그래픽 오브젝트(420))가 디스플레이 영역(400)에서 보여지도록 디스플레이 모듈(150)을 제어할 수 있다. 도 4는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스에 의해 보여지는 적어도 하나의 그래픽 오브젝트를 설명하기 위한 예시 도면이다. 도 4를 참조하면, 본 문서의 일 실시예에 따른 디스플레이 영역(400)은 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b), 제3 그래픽 오브젝트(410c) 및 제4 그래픽 오브젝트(420))가 가상 객체로서 디스플레이 되도록 설정된 영역을 의미할 수 있다. 본 문서의 일 실시예에 따르면, "글래스 타입 웨어러블 디바이스(100)의 시야각(field of view)" 및/또는 "디스플레이 모듈의 시야각"이라는 용어는, 디스플레이 영역(400) 자체의 크기(예: 디스플레이 영역(400)의 가로 및 세로의 길이, 또는 가로 및 세로의 각도 범위(예: 가로 50도, 세로 30도)) 또는 디스플레이 영역(400) 자체의 면적을 의미하는 용어로서 사용될 수 있다. 본 문서의 일 실시예에 따른 디스플레이 영역(400)에는, 글래스 타입 웨어러블 디바이스(100)와 동작이 가능하도록 연결된 적어도 하나의 상대방 디바이스(counterpart device)(280)와 대응하는 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b) 및 제3 그래픽 오브젝트(410c))가 디스플레이 될 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 제1 네트워크, 제2 네트워크 및/또는 서버를 통해 상대방 디바이스(280)의 정보를 수신하도록 설정될 수 있다. 본 문서의 일 실시예에 따른 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b) 및 제3 그래픽 오브젝트(410c))는, 예를 들면, 제1 사용자(예: 글래스 타입 웨어러블 디바이스(100)를 사용하는 사용자) 또는 제2 사용자(예: 상대방 디바이스(280)의 사용자)에 의하여 설정된 3차원 아바타(예: AR(augmented reality) 이모지), 영상 통화의 실행 화면, 콜 어플리케이션에 의하여 미리 설정된 음성 통화의 실행 화면 및/또는 메시지 어플리케이션 또는 특정한 어플리케이션(예: 컨퍼런스(conference)를 위한 어플리케이션)에 의하여 제공되는 형식에 따른, 텍스트 메시지를 포함하는 화면을 포함할 수 있다. 도 4에서는, 특정한 어플리케이션(예: 컨퍼런스(conference)를 위한 어플리케이션)을 통하여 특정한 세션(예: 컨퍼런스)이 진행 중인 상태가 예시적으로 도시된다. 도 4에서는, 제1 그래픽 오브젝트(410a)는 영상 통화의 실행 화면으로, 제2 그래픽 오브젝트(410b)는, 상대방 디바이스(280)에 의해 설정된 3차원 아바타로, 제3 그래픽 오브젝트(410c)는 특정한 어플리케이션에 의하여 제공되는 형식에 따른, 텍스트 메시지를 포함하는 화면으로 디스플레이 되는 실시예가 예시적으로 도시된다. 본 문서의 일 실시예에 따른, 적어도 하나의 상대방 디바이스(280)와 대응하는 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b) 및 제3 그래픽 오브젝트(410c))는 제2 사용자가 사용하는 디바이스에 의해 제공되는 디스플레이 형식에 따라 변형되어 디스플레이 될 수 있다. 예를 들어, 제1 그래픽 오브젝트(410a)에 대응하는 상대방 디바이스(280)가 2차원 평면 타입의 디스플레이를 구비한 스마트 폰인 경우, 적어도 하나의 그래픽 오브젝트(예: 제2 그래픽 오브젝트(410b) 및 제3 그래픽 오브젝트(410c))는 분할 화면(예: 멀티 윈도우 화면)을 통하여 2차원으로 상대방 디바이스(280)에 디스플레이 될 수 있다. 또한, 제1 그래픽 오브젝트(410a)에 대응하는 상대방 디바이스(280)가 웨어러블 디바이스(예: 글래스 타입 웨어러블 디바이스(100))인 경우, 적어도 하나의 그래픽 오브젝트(예: 제2 그래픽 오브젝트(410b) 및 제3 그래픽 오브젝트(410c))는 도 4에 도시된 바와 같이 3차원 공간에서 가상 객체로서 디스플레이 될 수 있다. 또한, 본 문서의 일 실시예에 따르면, 상대방 디바이스(280)가 2차원 평면 타입의 디스플레이를 구비한 스마트 폰인 경우에도 적어도 하나의 그래픽 오브젝트(예: 제2 그래픽 오브젝트(410b) 및 제3 그래픽 오브젝트(410c))는 3차원 객체로 디스플레이 될 수 있다. 또한, 본 문서의 일 실시예에 따르면, 상대방 디바이스(280)가 웨어러블 디바이스(예: 글래스 타입 웨어러블 디바이스(100))인 경우에도 적어도 하나의 그래픽 오브젝트(예: 제2 그래픽 오브젝트(410b) 및 제3 그래픽 오브젝트(410c))는 2차원 객체로 디스플레이 될 수 있다. 본 문서의 일 실시예에 따른 적어도 하나의 그래픽 오브젝트(예: 제4 그래픽 오브젝트(420))는, 특정한 어플리케이션(예: 동영상 제공 어플리케이션)의 실행 화면을 포함할 수 있다. 도 4에서는 제4 그래픽 오브젝트(420)로서 하나의 동영상 제공 어플리케이션의 실행 화면이 예시적으로 도시되었으나, 복수 개의 동영상 제공 어플리케이션들의 실행 화면이 제4 그래픽 오브젝트(420)로서 디스플레이 될 수 있으며, 서로 상이한 타입의 어플리케이션들(예: 갤러리 어플리케이션과 동영상 제공 어플리케이션)의 실행 화면이 제4 그래픽 오브젝트(420)로서 디스플레이 영역(420)에 디스플레이 될 수 있다. 본 문서의 일 실시예에 따르면, 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b), 제3 그래픽 오브젝트(410c) 및 제4 그래픽 오브젝트(420))가 디스플레이 영역(420)에서 디스플레이 되는 위치 및/또는 순서는 미리 지정되어 있을 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 제4 그래픽 오브젝트(420)가 디스플레이 영역의 실질적인 중심에 디스플레이 되고, 글래스 타입 웨어러블 디바이스(100)와 연결된 순서대로 디스플레이 영역(400)의 좌측 상단부터 반시계 방향으로 디스플레이 될 수 있다. Referring to FIG. 3 , the glasses-type
본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 320에서, 사용자(예: 제1 사용자)의 제1 신체 일부가 제1 영역(예: 제1 영역(510a) 또는 제1 반경(510))에 위치하는지 여부를 식별할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 미리 저장된 탬플릿과 글래스 타입 웨어러블 디바이스(100)에 의해 획득된 이미지를 비교하여 사용자의 신체 일부를 식별할 수 있다. 또는, 본 문서의 다른 실시예에 따르면, 인공지능 모델에 따라 학습된 결과를 기반으로 사용자의 신체 일부를 식별할 수 있다. 본 문서의 일 실시예에 따른 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 본 문서의 일 실시예에 따른 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 도 5a는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)를 기준으로 동일한 중심을 가지도록 설정된 적어도 하나의 반경 영역(radius region)(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))을 설명하기 위한 예시 도면이다. 도 5b는, 본 문서의 일 실시예에 따른 사용자의 제1 신체 일부가 적어도 하나의 반경 영역 내에 위치하는지 여부를 판단하기 위한 방법으로서, 디스플레이 영역 내에 설정된 적어도 하나의 영역을 설명하기 위한 예시 도면이다. 본 문서의 일 실시예에 따른 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))은 예를 들면, 도 5a에 도시된 바와 같이, 사용자의 제1 신체 일부(예: 사용자의 오른손)을 기준으로 특정한 각도를 가지도록 설정된 2차원 영역 또는 3차원 영역을 의미할 수 있다. 또한, 본 문서의 다른 실시예에 따르면, 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))은 디스플레이 모듈(160)의 시야각을 기준으로 복수 개의 영역으로 분할된 2차원 영역 또는 3차원 영역을 의미할 수 있다. 도시되지는 않았으나, 적어도 하나의 반경 영역(예: 제1 반경 영역(510) 및 제2 반경 영역(520))은, 서로 상이한 중심(예: 오른손 및 왼손)을 가지도록 각각 설정될 수도 있다. 다른 말로, 사용자의 제1 신체 일부가 오른손인지 또는 왼손인지 여부에 따라 적어도 하나의 반경 영역(예: 제1 반경 영역(510) 및 제2 반경 영역(520))의 중심이 변경될 수도 있다. 본 문서의 일 실시예에 따르면, 글래스 타입 웨어러블 디바이스(100)가 사용자의 제1 신체 일부(예: 오른손)가 제1 영역(예: 제1 영역(510a) 또는 제1 반경 영역(510))에 위치하였는지 여부를 식별하기 위하여, 도 5b에 도시된 바와 같이, 디스플레이 영역(400)에 대해 적어도 하나의 영역(예: 제1 영역(510a), 제2 영역(520a), 제3 영역(530a))이 미리 설정되어 있을 수 있다. 본 문서의 일 실시예에 따르면, 적어도 하나의 영역(예: 제1 영역(510a), 제2 영역(520a), 제3 영역(530a))은 사용자의 설정에 의해서 그 크기, 면적 또는 개수가 변경될 수도 있다. 본 문서의 일 실시예에 따르면, 적어도 하나의 영역(예: 제1 영역(510a), 제2 영역(520a), 제3 영역(530a))은 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b), 제3 그래픽 오브젝트(410c) 및 제4 그래픽 오브젝트(420))가 보여지는 위치 및/또는 개수에 기반하여 결정될 수도 있다. 예를 들어, 사용자의 위치를 기준으로, 왼쪽보다 오른쪽에 더 많은 그래픽 오브젝트가 보여지고 있는 경우, 본 문서의 일 실시예에 따른 적어도 하나의 영역(예: 제1 영역(510a), 제2 영역(520a), 제3 영역(530a))의 면적은 사용자를 기준으로 오른쪽에 설정된 반경 영역(예: 제3 반경 영역(530))이 다른 반경 영역보다 더 넓은 면적을 커버하도록 설정될 수도 있다. In
본 문서의 일 실시예에 따른 적어도 하나의 영역(예: 제1 영역(510a), 제2 영역(520a), 제3 영역(530a))은 디스플레이 영역(400)의 좌표값을 기반으로 설정될 수 있다. 예를 들어, 디스플레이 영역(400)의 가로 좌표 값이 0에서 1000값을 가지도록 설정되어 있는 경우, 0 이상 200 이하까지는 제1 영역(510a)으로서, 200 초과부터 800이하까지는 제2 영역(510b)으로서, 800 초과부터 1000이하까지는 제3 영역(510c)으로서 지정될 수 있다. 이와 같이 지정된 적어도 하나의 영역(예: 제1 영역(510a), 제2 영역(520a), 제3 영역(530a))은 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))에 대응될 수 있다. 도 5c는, 본 문서의 일 실시예에 따른 제1 영역에 사용자의 제1 신체 일부가 위치함이 검출된 경우, 글래스 타입 웨어러블 디바이스에 의해 사용자의 제1 신체 일부가 제1 반경 영역(510)에 위치하였다고 판단되는 기능 또는 동작을 설명하기 위한 예시 도면이다. 도 5c에 도시된 바와 같이, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 제1 신체 일부(예: 오른손)가 제1 영역(510a)에 위치함이 검출된 경우, 사용자의 제1 신체 일부가 제1 반경 영역(510)에 위치하였다고 식별할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 신체 일부가 미리 설정된 임계 면적 이상으로 특정한 영역(예: 제1 영역(510a))에 위치함을 검출한 경우, 사용자의 신체 일부가 특정한 영역(예: 제1 영역(510a))위치하였음을 검출할 수 있다. 예를 들어, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 신체 일부(예: 오른손)가 제2 영역(520a) 및 제3 영역(530a))에 걸쳐있는 경우, 사용자의 신체 일부의 더 많은 면적을 포함하는 영역에 사용자의 신체 일부가 위치하였다고 검출(예: 판단)할 수 있다. 본 문서의 일 실시예에 따른 웨어러블 디바이스(100)는 적어도 하나의 카메라(예: 제1 카메라(111))를 이용하여 사용자의 제1 신체 일부를 식별할 수 있다. 도 5d 및 도 5e는, 본 문서의 일 실시예에 따른 제1 영역(510a)을 기준으로 설정된 공간(예: 제1 공간(512)) 내에 사용자의 제1 신체 일부가 위치하였음이 검출된 경우, 글래스 타입 웨어러블 디바이스(100)에 의해 사용자의 제1 신체 일부가 제1 반경 영역(510)에 위치하였다고 판단되는 기능 또는 동작을 설명하기 위한 예시 도면들이다. 본 문서의 다른 실시예에 따르면, 제1 영역(510a)을 기준으로 미리 또는 사용자의 설정에 따라 설정된 공간(예: 제1 공간(512))에 사용자의 제1 신체 일부가 위치함이 검출된 경우, 본 문서의 일 실시예에 따른 웨어러블 디바이스(100)는 사용자의 제1 신체 일부가 적어도 하나의 반경 영역(예: 제1 반경 영역(510))에 위치하였다고 식별할 수 있다. 이 경우, 도 5e에 도시된 바와 같이, 사용자의 제1 신체 일부가 디스플레이 영역(400)상에 포함되지 않더라도 제1 반경 영역(510)에 위치하였다고 글래스 타입 웨어러블 디바이스(100)에 의해 식별될 수 있다. 도 5f는, 본 문서의 다른 실시예에 따라 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))이 설정된 경우를 설명하기 위한 예시 도면이다. 도 5g 및 도 5h는, 본 문서의 다른 실시예에 따라 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))이 설정된 경우, 글래스 타입 웨어러블 디바이스(100)에 의해 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))내에 사용자의 제1 신체 일부가 위치하였음이 검출되는 기능 또는 동작을 설명하기 위한 예시 도면들이다. 도 5f를 참조하면, 본 문서의 일 실시예에 따른 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))은, 도 5f에 도시된 바와 같이 사용자로부터 점점 멀어지는 형태로(예: 사용자의 위치를 기준으로 가로 방향으로) 설정될 수도 있다. 이 경우, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 제2 신체 일부(예: 팔꿈치 또는 팔꿈치와 반대 방향으로서 팔이 접히는 부분)가 글래스 타입 웨어러블 디바이스(100)로부터 이격된 거리를 기반으로, 사용자의 제1 신체 일부(예: 오른손)가 특정한 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 또는 제3 반경 영역(530))에 위치하는지 여부를 판단할 수 있다. 다른 말로, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 팔을 뻗는 정도(예: 팔의 길이)에 따라 서로 상이한 반경 영역을 선택할 수 있다. 예를 들어, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 제2 신체 일부(예: 팔꿈치)가 보이지 않는 범위 내에서는 사용자의 제1 신체 일부(예: 오른손)가 제1 반경 영역(510)에 포함되었다고 판단할 수 있다. 이에 따르면, 도 5g에 도시된 실시예에서는, 사용자의 신체 일부(예: 오른손)가 제1 반경 영역(510)에 포함되었다고 글래스 타입 웨어러블 디바이스(100)에 의해 식별될 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 제2 신체 일부(예: 팔꿈치)가 검출되기 시작한 위치로부터 미리 지정된 거리만큼 팔꿈치가 이동된 거리 내에서 사용자의 신체 일부(예: 오른손)가 검출된 경우에는, 사용자의 신체 일부(예: 오른손)가 제2 반경 영역(520)에 포함되었다고 판단할 수 있다. 이에 따르면, 도 5h에 도시된 실시예에서는, 사용자의 제1 신체 일부(예: 오른손)가 제2 반경 영역(520)에 포함되었다고 글래스 타입 웨어러블 디바이스(100)에 의해 식별될 수 있다. 본 문서의 일 실시예에 따른 사용자의 제1 신체 일부(예: 사용자의 신체 일부가 반경 영역에 포함되었다고 식별되는 기준이 되는 신체 일부)와 사용자의 제2 신체 일부(예: 어느 반경 영역에 포함되었는지를 판단하기 위한 기준이 되는 신체 일부)는 미리 지정되어 있을 수 있다. 도 5i를 참조하면, 본 문서의 일 실시예에 따른 반경 영역(예: 제1 반경 영역(510) 및 제2 반경 영역(520))은, 도 5i에 도시된 바와 같이 서로 상이한 중심을 기준으로 설정될 수도 있다. 이 경우에도 본 문서의 일 실시예에 따른 반경 영역(예: 제1 반경 영역(510) 및 제2 반경 영역(520))에 대응하는 디스플레이 영역(400)의 특정한 영역(예: 제1 영역(510a) 및 제2 영역(520a))이 미리 설정되어 있을 수 있다. 또한, 도 5g 및 도 5h에 도시된, 특정한 영역이 선택되었음을 나타내기 위한 음영 효과는 사용자에게 보여지지 않을 수도 있다. At least one area (eg, the
본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 330에서, 사용자의 신체 일부(예: 오른손)가 제1 영역(예: 제1 영역(510a))에 위치함에 기반하여, 제1 영역(예: 제1 영역(510a))에 대응하는 그룹을 식별할 수 있다. 도 6a 및 도 6b는, 본 문서의 일 실시예에 따른 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및/또는 제3 반경 영역(530))에 대응하도록 미리 설정된 그룹을 설명하기 위한 예시 도면들이다. 도 6a를 참조하면, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 제1 그래픽 오브젝트(410a)에 대응하는 상대방 디바이스(280)와 제2 그래픽 오브젝트(410b)에 대응하는 상대방 디바이스(280)가 서로 동일한 그룹임을 식별할 수 있다. 본 문서의 일 실시예에 따른 그룹은, 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및/또는 제3 반경 영역(530))에 대응하도록 설정되어 있을 수 있다. 도 6a에서는, 제1 그래픽 오브젝트(410a)에 대응하는 상대방 디바이스(280)와 제2 그래픽 오브젝트(410b)에 대응하는 상대방 디바이스가 서로 동일한 그룹에 속하도록 사용자에 의하여 미리(예: 컨퍼런스 어플리케이션이 실행되기 전에) 설정되어 있는 실시예가 예시적으로 도시된다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 제1 신체 일부(예: 오른손)가 제1 반경 영역(510)내에 위치하였음을 검출한 경우, 제1 반경 영역(510)에 대응하여 설정된 제1 그룹에 속하는 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a) 및 제2 그래픽 오브젝트(410b))주변에 시각적 효과(예: 테두리)를 디스플레이 할 수 있다. 다만, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 시각적 효과 이외에도/시각적 효과와 함께 청각적 효과(예: 미리 지정된 사운드) 및/또는 촉각적 효과(예: 미리 지정된 세기의 진동)를 글래스 타입 웨어러블 디바이스(100)를 통해 제공할 수 있다. 도 6a에서는, 본 문서의 일 실시예에 따른 제1 그래픽 오브젝트(410a) 및 제2 그래픽 오브젝트(410b)가 제1 반경 영역(510)에 대응하는 하나의 그룹으로 설정되어 있는 경우가 예시적으로 도시되며, 도 6b에서는, 본 문서의 일 실시예에 따른 제1 그래픽 오브젝트(410a)가 제1 반경 영역(510)에 대응하는 하나의 그룹으로 설정되어 있는 경우가 예시적으로 도시된다. In
본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 340에서, 사용자의 제1 신체 일부가 제1 영역(예: 제1 반경 영역(510))에 위치하는 동안에, 트리거 이벤트가 검출되는지 여부를 식별할 수 있다. 본 문서의 일 실시예에 따른 트리거 이벤트는, 사용자의 제1 신체 일부(예: 오른손)에 의한, 미리 지정된 제스처(예: 트리거 제스처)의 검출 또는 사용자의 음성 명령의 검출을 포함할 수 있다. 본 문서의 일 실시예에 따르면, 트리거 이벤트가 음성 명령의 검출을 포함하는 경우, 사용자의 제1 신체 일부의 위치는 제1 영역에 위치하고 있는 상태일 수 있다. 다만, 본 문서의 다른 실시예에 따르면, 사용자의 제1 신체 일부의 위치는 제1 영역에 위치하고 있지 않은 상태일 수도 있다. 도 7a 및 도 7b는, 본 문서의 일 실시예에 따른 트리거 제스처를 설명하기 위한 예시 도면들이다. 도 7a에서는, 하트 제스처가 트리거 제스처의 예시로서 도시된다. 도 7b에서는, 엄지손가락을 치켜 세운 채로 상하로 손을 움직이는 제스처가 트리거 제스처의 예시로서 도시된다. 본 문서의 다른 실시예에 따르면, 트리거 이벤트는 사용자의 표정 변화 및/또는 눈동자의 움직임을 검출하는 이벤트를 포함할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 적어도 하나의 카메라(예: 제2 카메라(112))를 통하여 획득된 사용자의 얼굴 이미지를 이용하여 사용자의 표정 변화 및/또는 눈동자의 움직임을 검출할 수 있다. In
본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 350에서, 트리거 이벤트가 검출됨에 기반하여, 식별된 그룹에 포함되는 상대방 디바이스(280)에 대해, 트리거 이벤트에 대응하는 기능을 수행할 수 있다. 도 8은, 본 문서의 일 실시예에 따른 트리거 이벤트(예: 트리거 제스처를 검출)에 따라 글래스 타입 웨어러블 디바이스(100)에 의해 특정한 기능이 수행되는 기능 또는 동작을 설명하기 위한 예시 도면이다. 도 8에서는, 트리거 제스처(예: 하트 제스처)가 검출된 경우, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)에 의해, 특정한 그룹에 속하는 상대방 디바이스(280)로 검출된 트리거 제스처(예: 하트 제스처)에 대응하는 기능(예: 하트를 포함하는 메시지 전송)이 수행되는 실시예가 예시적으로 도시된다. 본 문서의 일 실시예에 따른 트리거 제스처에 대응하는 메시지는, 상대방 디바이스가 스마트 폰을 이용한 영상 통화를 통하여 해당 세션(예: 회의)에 참석하고 있는 경우, 영상 통화의 실행 화면에 디스플레이(예: 2차원으로 디스플레이) 될 수 있다. 또는, 본 문서의 일 실시예에 따른 트리거 제스처에 대응하는 메시지는, 도 8에 도시된 바와 같이 특정한 어플리케이션에서 제공되는 채팅 윈도우에서 이모티콘(810)의 형식으로 디스플레이(예: 3차원으로 디스플레이) 될 수도 있다. 또는, 본 문서의 일 실시예에 따른 트리거 제스처에 대응하는 메시지는, 상대방 디바이스(280)에 대해서 SMS 메시지로 전송될 수도 있다. 도 8을 참조하여 설명하면, 본 문서의 일 실시예에 따른 트리거 제스처에 대응하는 메시지는, 제1 반경 영역(510)에 대응하는 그룹에 포함되는 상대방 디바이스(280)(예: 제1 그래픽 오브젝트(410a)에 대응하는 상대방 디바이스 및 제2 그래픽 오브젝트(410b)에 대응하는 상대방 디바이스) 모두에 대해 전송될 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 트리거 제스처에 대응하는 메시지를 상대방 디바이스(280)에 전송하기 위하여, 특정한 그룹에 속하는 상대방 디바이스(280)를 식별하는 기능 또는 동작을 수행할 수 있다. 본 문서의 일 실시예에 따르면, 시각적 효과(610)가 표시된 이후에는, 사용자가 제1 신체 일부를 제1 영역(예: 제1 반경 영역(510))으로부터 벗어나도록 위치하여도 시각적 효과(610)의 디스플레이 상태는 유지될 수 있으며, 트리거 이벤트의 검출에 따른 특정한 기능이 제1 영역(예: 제1 반경 영역(510))에 대응하는 그룹에 포함되는 상대방 디바이스(280)(예: 제1 그래픽 오브젝트(410a)에 대응하는 상대방 디바이스 및 제2 그래픽 오브젝트(410b)에 대응하는 상대방 디바이스) 모두에 대해 수행될 수 있다. 또는, 시각적 효과(610)가 표시된 이후, 사용자가 제1 신체 일부를 제1 영역(예: 제1 반경 영역(510))으로부터 벗어나도록 위치한 경우에는, 시각적 효과(610)는 더 이상 디스플레이 되지 않을 수 있으며, 트리거 이벤트가 검출(예: 하트 제스처의 검출)되더라도 글래스 타입 웨어러블 디바이스(100)에 의해 특정한 기능이 수행되지 않도록 제어될 수 있다. 본 문서의 다른 실시예에 따르면, 사용자의 눈동자의 움직임이 미리 지정된 거리 이상으로 움직이거나, 사용자의 표정 변화가 제1 상태에서 제2 상태로 변경됨이 검출된 경우, 글래스 타입 웨어러블 디바이스(100)는, 특정한 기능을 수행할 수 있다. 본 문서의 일 실시예에 따르면, 글래스 타입 웨어러블 디바이스(100)가 사용자의 표정 변화를 검출하기 위하여 메모리(140)에 저장된, 표정에 대한 탬플릿을 이용할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는 탬플릿과 획득된 이미지에서의 사용자의 표정을 비교하여 매칭 비율이 미리 지정된 비율 이상인 경우, 사용자의 표정이 특정한 상태(예: 웃는 상태)에 있다고 판단할 수 있다. 또는, 사용자의 표정을 판단히는 기능 또는 동작은 인공지능 모델에 의하여 학습될 수도 있다. The glasses-type
도 9는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스에 의해, 글래스 타입 웨어러블 디바이스와 동작 가능하도록 연결된 외부 전자 장치로부터의 통신 신호의 수신에 따라 적어도 하나의 상대방 디바이스와 통신을 수행(예: 문자 메시지의 전송)하는 기능 또는 동작을 설명하기 위한 예시 도면이다.9 illustrates communication with at least one counterpart device according to reception of a communication signal from an external electronic device operatively connected to the glasses-type wearable device by the glasses-type wearable device according to an embodiment of the present document (example : It is an exemplary diagram for explaining a function or operation of transmitting a text message).
도 9를 참조하면, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 910에서, 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b), 제3 그래픽 오브젝트(410c) 및 제4 그래픽 오브젝트(420))가 디스플레이 영역(400)에서 보여지도록 디스플레이 모듈(150)을 제어할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 920에서, 사용자(예: 제1 사용자)의 제1 신체 일부가 제1 영역(예: 제1 영역(510a) 또는 제1 반경(510))에 위치하는지 여부를 식별할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 930에서, 사용자의 신체 일부(예: 오른손)가 제1 영역(예: 제1 영역(510a))에 위치함에 기반하여, 제1 영역(예: 제1 영역(510a))에 대응하는 그룹을 식별할 수 있다. 본 문서의 일 실시예에 따른 동작 910 내지 930에 대해서는, 상술한 동작 310 내지 330에 대한 설명이 동일하게 적용될 수 있으므로, 상세한 설명을 생략하기로 한다.Referring to FIG. 9 , the glasses-type
본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 940에서, 외부 전자 장치(예: 스마트 폰)(1000)로부터, 식별된 그룹(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))에 속하는 상대방 디바이스(280)와 통신을 수행(예: 스마트 폰에 입력된 문자 메시지의 전송)하기 위한 요청을 수신할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 950에서, 수신된 요청에 기반하여, 상대방 디바이스와 통신을 수행할 수 있다. 도 10a, 도 10b 및 도 10c는, 도 9에서 설명된 기능 또는 동작을 그래픽 사용자 인터페이스 관점에서 설명하기 위한 예시 도면들이다. 본 문서의 일 실시예에 따른 외부 전자 장치(예: 스마트 폰)는, 유선 통신 또는 무선 통신을 통하여 글래스 타입 웨어러블 디바이스(100)와 동작 가능하도록 연결되어 있을 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 외부 전자 장치(예: 스마트 폰)로부터 도 10b에 도시된 바와 같이 외부 전자 장치의 "전송(send)" 버튼(1020)이 선택되었음을 나타내는 신호를 수신한 경우, 외부 전자 장치로부터 입력된 텍스트에 관한 정보를 전송 받아 식별된 그룹(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))에 속하는 상대방 디바이스(280)로 문자 메시지를 전송할 수 있다. 본 문서의 일 실시예에 따르면, 문자 메시지가 전송된 후, 도 10c에 도시된 바와 같이, 전송된 텍스트(1030)를 어플리케이션(예: 문자 메시지 어플리케이션)의 실행 화면(1010) 상에 디스플레이 할 수 있다. 본 문서의 다른 실시예에 따르면, 외부 전자 장치(예: 스마트 폰)로부터 도 10b에 도시된 바와 같이 외부 전자 장치(1000)의 "전송(send)" 버튼(1020)이 선택되었음을 나타내는 신호를 수신한 경우, 외부 전자 장치(1000)를 제어하여 입력된 텍스트(예: Hello)를 포함하는 문자 메시지가 식별된 상대방 디바이스(280)로 전송되도록 외부 전자 장치(1000)를 제어할 수도 있다. 본 문서의 일 실시예에 따르면, 동작 940 및 동작 950이 수행되는 동안에, 사용자의 제1 신체 일부(예: 오른손)의 위치는 제1 영역(예: 제1 반경 영역(510))에서 유지되지 않을 수 있다. 도 10b 및 도 10c에서는, 도 10a에 도시된 바와 같은 사용자의 제1 신체 일부(예: 오른손)의 검출에 따라 특정한 그룹이 식별된 후, 사용자의 제1 신체 일부(예: 오른손)의 위치가 제1 영역(예: 제1 반경 영역(510))에서 유지되지 않는 실시예가 예시적으로 도시된다. 그러나, 본 문서의 다른 실시예에 따르면, 동작 940 및 동작 950은, 동작 930이 수행되는 시점으로부터 사용자의 제1 신체 일부(예: 오른손)의 위치가 제1 영역(예: 제1 반경 영역(510))에서 유지되어야 수행될 수도 있다. In
도 11은, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)가 공유 제스처(예: 드래그 앤 드롭)를 검출한 경우, 적어도 하나의 컨텐트(예: 제5 컨텐트(1225))를 적어도 하나의 상대방 디바이스(280)와 공유하는 기능 또는 동작을 설명하기 위한 예시 도면이다. 도 12a, 도 12b 및 도 12c는, 도 11에서 설명된 기능 또는 동작을 그래픽 사용자 인터페이스 관점에서 설명하기 위한 예시 도면들이다.FIG. 11 shows at least one content (eg, fifth content 1225) when the glasses-type
도 11을 참조하면, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1110에서, 적어도 하나의 컨텐트(예: 제5 컨텐트(1225))를 공유하기 위한 요청을 수신할 수 있다. 본 문서의 일 실시예에 따른, 적어도 하나의 컨텐트(예: 제5 컨텐트(1225))를 공유하기 위한 요청은 예를 들어, 디스플레이 영역(400)에 디스플레이 된 복수의 아이템들(예: 제1 아이템(1212), 제2 아이템(1214), 제3 아이템(1216)) 중 어느 하나의 아이템(예: 제2 아이템(1214))에 대한 가상 터치 입력을 포함할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 적어도 하나의 카메라(예: 제1 카메라(111))를 이용하여 획득된 사용자의 신체 일부(예: 오른손)에 대한 이미지가 복수의 아이템들(예: 제1 아이템(1212), 제2 아이템(1214), 제3 아이템(1216)) 중 어느 하나의 아이템(예: 제2 아이템(1214))과 오버랩 되었다고 판단된 경우, 또는, 오버랩 된 상태에서 어느 하나의 아이템(예: 제2 아이템(1214))을 선택하는 손가락의 움직임이 검출된 경우, 어느 하나의 아이템(예: 제2 아이템(1214))에 대한 가상 터치 입력이 수신되었다고 판단할 수 있다. 본 문서의 다른 실시예에 따르면, 가상 터치를 판단하기 위한 별도의 장치(예: 사용자의 손에 구비된 센서)를 통해 가상 터치가 입력되었는지 여부를 판단할 수 있다. 본 문서의 또 다른 실시예에 따르면, 복수 개의 카메라들을 이용하여 사용자의 손 끝이 위치하는 공간 상의 좌표를 인식하고, 인식된 공간 상의 좌표가 어느 하나의 아이템(예: 제2 아이템(1214))이 디스플레이 된 공간 상의 좌표와 매칭되는지 여부에 따라 가상 터치가 입력되었는지 여부를 판단할 수 있다. 이 밖에도, 가상 터치가 수행되었음을 판단하는 다양한 알고리즘들(예: 인공지능 모델 알고리즘)이 적용될 수 있다.Referring to FIG. 11 , in
본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1120에서, 적어도 하나의 컨텐트(예: 제5 컨텐트(1225))에 대한 선택 입력(예: 가상 터치 입력)을 수신할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1110에 따라 적어도 하나의 컨텐트(예: 제5 컨텐트(1225))를 공유하기 위한 요청을 수신한 경우, 공유 대상이 되는 복수 개의 컨텐츠를 디스플레이 영역(400)에 디스플레이 할 수 있다. 도 12b에서는, 적어도 하나의 컨텐트(예: 제5 컨텐트(1225))를 공유하기 위한 요청에 따라 복수 개의 이미지들(예: 제1 컨텐트(1221), 제2 컨텐트(1222) 제3 컨텐트(1223), 제4 컨텐트(1224), 제5 컨텐트(1225), 제6 컨텐트(1226))를 포함하는 갤러리 어플리케이션의 실행 화면(1220)이 디스플레이 되는 실시예가 예시적으로 도시된다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 복수 개의 이미지들(예: 제1 컨텐트(1221), 제2 컨텐트(1222) 제3 컨텐트(1223), 제4 컨텐트(1224), 제5 컨텐트(1225), 제6 컨텐트(1226)) 중 어느 하나의 이미지(예: 제5 컨텐트(1225))에 대한 가상 터치 입력을 수신(예: 식별)할 수 있다. 다만, 본 문서의 일 실시예에 따른 가상 터치 입력은, 선택 입력에 대한 일 실시예로서, 다양한 디바이스들(예: 글래스 타입 웨어러블 디바이스(100)에 구비된 터치 패널 또는 센서)을 통해 동작 1120이 수행될 수도 있다. In
본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1130에서, 사용자의 신체 일부가 위치한 영역(예: 제1 반경 영역(510))에 대해 설정된 그룹에 대응하는 그래픽 오브젝트를 식별할 수 있다. 도 12c에 도시된 바와 같이, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 선택된 컨텐트(예: 제5 컨텐트(1225))를 특정한 영역(예: 제1 반경 영역(510))으로 이동하는 제스처(예: 가상의 드래그 제스처)를 검출할 수 있다. 이 경우, 선택된 컨텐트(예: 제5 컨텐트(1225))는 사용자의 제스처가 종료될 때까지 도 12c에 도시된 바와 같이 썸네일 이미지로서 디스플레이 영역(400)에서 디스플레이 될 수 있다. 도 12c에서는, 제1 그래픽 오브젝트(410a)와 제2 그래픽 오브젝트(410b)가 제1 영역(예: 제1 반경 영역(510))에 대응하는 그래픽 오브젝트로서 결정되어 있는 실시예가 예시적으로 도시된다. 본 문서의 일 실시예에 따른 사용자의 신체 일부가 제1 영역(예: 제1 반경 영역(510))으로 진입하였음이 검출되면, 글래스 타입 웨어러블 디바이스(100)는, 시각적 효과(610)를 제1 그래픽 오브젝트(410a)와 제2 그래픽 오브젝트(410b) 주변에 디스플레이 할 수 있다. In
본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1140에서, 공유 제스처를 검출할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1150에서, 공유 제스처의 검출에 따라, 식별된 그래픽 오브젝트에 대응하는 상대방 디바이스(280)로 적어도 하나의 컨텐트(예: 제5 컨텐트(1225))를 전송할 수 있다. 본 문서의 일 실시예에 따른 공유 제스처는 디스플레이 된 썸네일 이미지를 드롭하는 가상의 드롭 제스처를 포함할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 썸네일 이미지를 드롭하는 제스처를 판단하기 위하여, 상술한 가상의 터치 입력을 판단하는 기능 또는 동작 중 적어도 일부, 또는 글래스 타입 웨어러블 디바이스(100)에 미리 저장된 탬플릿(예: 드롭 제스처와 대응하는 탬플릿)을 이용하여 사용자의 제스처가 썸네일 이미지를 드롭하는 제스처인지 여부를 판단할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 공유 제스처가 검출되면, 글래스 타입 웨어러블 디바이스(100)에 저장된 적어도 하나의 컨텐트(예: 제5 컨텐트)에 관한 데이터를 상대방 디바이스(280)(예: 제1 그래픽 오브젝트(410a)에 대응하는 상대방 디바이스(280) 및 제2 그래픽 오브젝트(410b)에 대응하는 상대방 디바이스(280))로 전송할 수 있다.In
도 13은, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)가 그룹 생성 제스처를 검출한 경우, 적어도 하나의 상대방 디바이스(280)를 특정한 반경에 대응하는 하나의 그룹으로 생성하는 기능 또는 동작을 설명하기 위한 예시 도면이다. 도 14a, 도 14b, 도 14c 및 도 14d는, 도 13에서 설명된 기능 또는 동작을 그래픽 사용자 인터페이스 관점에서 설명하기 위한 예시 도면들이다.13 illustrates a function of generating at least one counterpart device 280 into a group corresponding to a specific radius when the glasses-type
도 13을 참조하면, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1310에서, 그룹을 생성하기 위한 요청을 수신할 수 있다. 본 문서의 일 실시예에 따른 그룹을 생성하기 위한 요청은, 도 14a에 예시적으로 도시된 바와 같이, 디스플레이 영역(400)에 디스플레이 된 복수의 아이템들(예: 제1 아이템(1212), 제2 아이템(1214), 제3 아이템(1216)) 중 어느 하나의 아이템(예: 제1 아이템(1212))에 대한 가상 터치 입력을 포함할 수 있다.Referring to FIG. 13 , the glasses-type
본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1320에서, 동일한 그룹에 속하게 될 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))에 대한 선택 입력을 수신할 수 있다. 본 문서의 일 실시예에 따르면, 동작 1320에 따른 선택 입력은, 도 14b에 예시적으로 도시된 바와 같이 특정한 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))에 대한 가상의 터치 입력을 포함할 수 있다. 다만, 본 문서의 일 실시예에 따른 가상 터치 입력은, 선택 입력에 대한 일 실시예로서, 다양한 디바이스들(예: 글래스 타입 웨어러블 디바이스(100)에 구비된 터치 패널 또는 센서)을 통해 동작 1320이 수행될 수도 있다.The glass-type
본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1330에서, 그룹 생성 제스처(예: 드래그 앤 드롭)를 검출할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1340에서, 그룹 생성 제스처에 따라, 선택된 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))를 동일한 그룹으로 결정할 수 있다. 도 14c 및 도 14d를 참조하면, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 선택된 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))에 대한 썸네일 이미지를 제1 영역(예: 제1 반경 영역(510)) 또는 제2 영역(예: 제2 반경 영역(520))으로 이동하는 제스처를 검출할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 적어도 하나의 카메라(예: 제1 카메라(111))에 의하여 획득된 이미지를 이용하여, 사용자의 신체 일부(예: 사용자의 손가락 끝 부분)가 제1 영역(예: 제1 반경 영역(510)) 또는 제2 영역(예: 제2 반경 영역(520))에 위치하는지 여부를 식별할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 선택된 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))에 대응하는 썸네일 이미지를 특정한 영역(예: 제1 영역(예: 제1 반경 영역(510)) 또는 제2 영역(예: 제2 반경 영역(520))에 드롭하는 가상의 드롭 제스처를 검출하면, 선택된 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))를 특정한 영역(예: 제1 영역(예: 제1 반경 영역(510)) 또는 제2 영역(예: 제2 반경 영역(520))에 대응하는 하나의 그룹으로서 생성할 수 있다. In
본 문서의 일 실시예에 따른 웨어러블 디바이스(예: 글래스 타입 웨어러블 디바이스(100))는, 디스플레이 모듈(예: 도 1의 디스플레이 모듈(150)), 및 적어도 하나의 프로세서(예: 도 1의 프로세서(120))를 포함하고, 적어도 하나의 프로세서는, 적어도 하나의 그래픽 오브젝트(예: 도 4의 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b), 제3 그래픽 오브젝트(410c))가 디스플레이 영역(예: 도 4의 디스플레이 영역(400))에서 보여지도록 디스플레이 모듈을 제어하고, 사용자의 신체 일부가 제1 영역(예: 제1 반경 영역(510) 및/또는 제1 영역(510a))에 위치하는지 여부를 식별하고, 사용자의 신체 일부가 제1 영역에 위치함에 기반하여, 제1 영역에 대응하는 그룹을 식별하고, 사용자의 신체 일부가 상기 제1 영역에 위치하는 동안에, 사용자에 의한 트리거 이벤트가 검출되는지 여부를 식별하고, 트리거 이벤트가 검출됨에 기반하여, 식별된 그룹에 포함되는 적어도 하나의 상대방 디바이스에 대해 트리거 이벤트에 대응하는 기능을 수행하도록 설정될 수 있다. A wearable device (eg, the glass-type wearable device 100) according to an embodiment of the present document includes a display module (eg, the
본 문서의 일 실시예에 따른 웨어러블 디바이스(예: 글래스 타입 웨어러블 디바이스(100))를 제어하는 방법은, 적어도 하나의 그래픽 오브젝트(예: 도 4의 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b), 제3 그래픽 오브젝트(410c))가 디스플레이 영역에서 보여지도록 상기 웨어러블 디바이스의 디스플레이 모듈을 제어하는 동작과, 사용자의 신체 일부가 제1 영역에 위치하는지 여부를 식별하는 동작과, 상기 사용자의 신체 일부가 상기 제1 영역에 위치함에 기반하여, 상기 제1 영역에 대응하는 그룹을 식별하는 동작과, 상기 사용자의 신체 일부가 상기 제1 영역에 위치하는 동안에, 상기 사용자에 의한 트리거 이벤트가 검출되는지 여부를 식별하는 동작과, 상기 트리거 이벤트가 검출됨에 기반하여, 상기 식별된 그룹에 포함되는 적어도 하나의 상대방 디바이스(counterpart device)에 대해 상기 트리거 이벤트에 대응하는 기능을 수행하는 동작을 포함할 수 있다.A method for controlling a wearable device (eg, the glass-type wearable device 100) according to an embodiment of the present document includes at least one graphic object (eg, the first
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. Electronic devices according to various embodiments disclosed in this document may be devices of various types. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. An electronic device according to an embodiment of the present document is not limited to the aforementioned devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.Various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, like reference numbers may be used for like or related elements. The singular form of a noun corresponding to an item may include one item or a plurality of items, unless the relevant context clearly dictates otherwise. In this document, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A Each of the phrases such as "at least one of , B, or C" may include any one of the items listed together in that phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "secondary" may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited. A (e.g., first) component is said to be "coupled" or "connected" to another (e.g., second) component, with or without the terms "functionally" or "communicatively." When mentioned, it means that the certain component may be connected to the other component directly (eg by wire), wirelessly, or through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logical blocks, parts, or circuits. can be used as A module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, "비일시적"은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of this document provide one or more instructions stored in a storage medium (eg, internal memory 136 or external memory 138) readable by a machine (eg, electronic device 101). It may be implemented as software (eg, the program 140) including them. For example, a processor (eg, the processor 120 ) of a device (eg, the electronic device 101 ) may call at least one command among one or more instructions stored from a storage medium and execute it. This enables the device to be operated to perform at least one function according to the at least one command invoked. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, "non-temporary" only means that the storage medium is a tangible device and does not contain a signal (e.g., electromagnetic waves), and this term refers to the case where data is stored semi-permanently in the storage medium. It does not discriminate when it is temporarily stored.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smart phones. In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
본 문서의 일 실시예에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 본 문서의 일 실시예에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 본 문서의 일 실시예에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다. According to one embodiment of this document, each component (eg, module or program) of the components described above may include a single object or a plurality of entities, and some of the plurality of entities are separated from other components. It could be. According to an embodiment of the present document, one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. . According to one embodiment of this document, operations performed by modules, programs, or other components are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations are executed in a different order, or , may be omitted, or one or more other operations may be added.
Claims (20)
디스플레이 모듈, 및
적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
적어도 하나의 그래픽 오브젝트(object)가 디스플레이 영역에서 보여지도록 상기 디스플레이 모듈을 제어하고,
사용자의 신체 일부가 제1 영역에 위치하는지 여부를 식별하고,
상기 사용자의 신체 일부가 상기 제1 영역에 위치함에 기반하여, 상기 제1 영역에 대응하는 그룹을 식별하고,
상기 사용자의 신체 일부가 상기 제1 영역에 위치하는 동안에, 상기 사용자에 의한 트리거 이벤트가 검출되는지 여부를 식별하고,
상기 트리거 이벤트가 검출됨에 기반하여, 상기 식별된 그룹에 포함되는 적어도 하나의 상대방 디바이스(counterpart device)에 대해 상기 트리거 이벤트에 대응하는 기능을 수행하도록 설정되고,
상기 기능은, 상기 적어도 하나의 상대방 디바이스에 대해 공통적으로 수행되는 기능인 것을 특징으로 하는, 웨어러블 디바이스.In the wearable device,
a display module; and
including at least one processor, wherein the at least one processor comprises:
Control the display module so that at least one graphic object is displayed in a display area;
identify whether the user's body part is located in the first region;
Identifying a group corresponding to the first region based on the location of the user's body part in the first region;
Identifying whether a trigger event by the user is detected while the user's body part is located in the first region;
Based on the detection of the trigger event, at least one counterpart device included in the identified group is configured to perform a function corresponding to the trigger event;
The wearable device, characterized in that the function is a function commonly performed for the at least one counterpart device.
상기 그룹은, 상기 제1 영역에 대응하도록 미리 지정된 그룹인 것을 포함하는 것을 특징으로 하는, 웨어러블 디바이스.According to claim 1,
The wearable device of claim 1 , wherein the group includes a group previously designated to correspond to the first region.
상기 적어도 하나의 프로세서는, 상기 사용자의 신체 일부가 상기 제1 영역에 위치함이 검출된 경우, 동일한 그룹에 속하는 상기 적어도 하나의 그래픽 오브젝트의 주변에 미리 지정된 시각적 효과를 제공하도록 더 설정된 것을 특징으로 하는, 웨어러블 디바이스.According to claim 1,
The at least one processor is further configured to provide a predetermined visual effect around the at least one graphic object belonging to the same group when it is detected that the user's body part is located in the first region. A wearable device that does.
상기 제1 영역은, 상기 디스플레이 영역에서 미리 지정된 디스플레이 영역이고,
상기 적어도 하나의 프로세서는, 상기 사용자의 신체 일부가 상기 미리 지정된 디스플레이 영역 내에 위치하는지 여부를 식별함으로써 상기 사용자의 신체 일부가 상기 제1 영역에 위치하는지 여부를 식별하도록 더 설정된 것을 특징으로 하는, 웨어러블 디바이스.According to claim 1,
The first area is a display area designated in advance in the display area,
The at least one processor is further set to identify whether the user's body part is located in the first area by identifying whether the user's body part is located in the pre-designated display area. device.
상기 트리거 이벤트는, 상기 사용자의 신체 일부에 의한 제스처 또는 상기 사용자의 표정 변화를 포함하는 것을 특징으로 하는, 웨어러블 디바이스.According to claim 1,
The trigger event includes a gesture by a part of the user's body or a change in facial expression of the user, the wearable device.
상기 웨어러블 디바이스는, 외부 전자 장치와 연결되도록 설정된 통신 회로를 더 포함하고,
상기 트리거 이벤트는, 상기 통신 모듈을 통해 상기 외부 전자 장치로부터 수신된 메시지 전송 신호 또는 콜 발신 신호를 포함하는 것을 특징으로 하는, 웨어러블 디바이스.According to claim 1,
The wearable device further includes a communication circuit configured to be connected to an external electronic device,
The trigger event may include a message transmission signal or a call origination signal received from the external electronic device through the communication module.
상기 기능은, 동일한 그룹에 속하는 상기 적어도 하나의 상대방 디바이스에 대한 메시지 전송 기능 또는 콜 발신 기능을 포함하는 것을 특징으로 하는, 웨어러블 디바이스.According to claim 6,
The wearable device, characterized in that the function includes a message transmission function or a call origination function for the at least one counterpart device belonging to the same group.
상기 웨어러블 디바이스는, 적어도 하나의 메모리를 더 포함하고,
상기 적어도 하나의 프로세서는, 상기 적어도 하나의 메모리에 저장된 컨텐트를 동일한 그룹에 속하는 상기 적어도 하나의 상대방 디바이스와 공유하기 위한 요청을 수신하도록 더 설정된 것을 특징으로 하는, 웨어러블 디바이스.According to claim 1,
The wearable device further includes at least one memory,
The wearable device, characterized in that the at least one processor is further configured to receive a request for sharing the content stored in the at least one memory with the at least one counterpart device belonging to the same group.
상기 적어도 하나의 프로세서는, 상기 사용자로부터의 공유 제스처의 수신에 따라 상기 적어도 하나의 컨텐츠를 상기 동일한 그룹에 속하는 상기 적어도 하나의 상대방 디바이스로 전송하도록 더 설정된 것을 특징으로 하는, 웨어러블 디바이스.According to claim 8,
The wearable device of claim 1 , wherein the at least one processor is further configured to transmit the at least one content to the at least one counterpart device belonging to the same group upon reception of a sharing gesture from the user.
상기 적어도 하나의 프로세서는, 상기 사용자로부터의 그룹 생성 제스처에 따라 상기 적어도 하나의 그래픽 오브젝트를 상기 제1 영역에 대응하는 그룹으로 결정하도록 더 설정된 것을 특징으로 하는, 웨어러블 디바이스.According to claim 1,
The wearable device of claim 1 , wherein the at least one processor is further configured to determine the at least one graphic object as a group corresponding to the first area according to a group creation gesture from the user.
적어도 하나의 그래픽 오브젝트(object)가 디스플레이 영역에서 보여지도록 상기 웨어러블 디바이스의 디스플레이 모듈을 제어하는 동작과,
사용자의 신체 일부가 제1 영역에 위치하는지 여부를 식별하는 동작과,
상기 사용자의 신체 일부가 상기 제1 영역에 위치함에 기반하여, 상기 제1 영역에 대응하는 그룹을 식별하는 동작과,
상기 사용자의 신체 일부가 상기 제1 영역에 위치하는 동안에, 상기 사용자에 의한 트리거 이벤트가 검출되는지 여부를 식별하는 동작과,
상기 트리거 이벤트가 검출됨에 기반하여, 상기 식별된 그룹에 포함되는 적어도 하나의 상대방 디바이스(counterpart device)에 대해 상기 트리거 이벤트에 대응하는 기능을 수행하는 동작을 포함하고,
상기 기능은, 상기 적어도 하나의 상대방 디바이스에 대해 공통적으로 수행되는 기능인 것을 특징으로 하는, 웨어러블 디바이스의 제어 방법.A method for controlling a wearable device,
controlling a display module of the wearable device to display at least one graphic object in a display area;
identifying whether a user's body part is located in a first region;
identifying a group corresponding to the first region based on the location of the user's body part in the first region;
identifying whether or not a trigger event by the user is detected while the user's body part is located in the first region;
Based on the detection of the trigger event, performing a function corresponding to the trigger event for at least one counterpart device included in the identified group;
The method of controlling a wearable device, characterized in that the function is a function commonly performed for the at least one counterpart device.
상기 그룹은, 상기 제1 영역에 대응하도록 미리 지정된 그룹인 것을 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.According to claim 11,
The method of controlling a wearable device of claim 1 , wherein the group includes a group previously designated to correspond to the first region.
상기 웨어러블 디바이스를 제어하는 방법은, 상기 사용자의 신체 일부가 상기 제1 영역에 위치함이 검출된 경우, 동일한 그룹에 속하는 상기 적어도 하나의 그래픽 오브젝트의 주변에 미리 지정된 시각적 효과를 제공하는 동작을 더 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.According to claim 11,
The method of controlling the wearable device may further include providing a predetermined visual effect around the at least one graphic object belonging to the same group when it is detected that the user's body part is located in the first region. A method of controlling a wearable device comprising:
상기 제1 영역은, 상기 디스플레이 영역에서 미리 지정된 디스플레이 영역이고,
상기 웨어러블 디바이스를 제어하는 방법은, 상기 사용자의 신체 일부가 상기 미리 지정된 디스플레이 영역 내에 위치하는지 여부를 식별함으로써 상기 사용자의 신체 일부가 상기 제1 영역에 위치하는지 여부를 식별하는 동작을 더 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.According to claim 1,
The first area is a display area designated in advance in the display area,
The method of controlling the wearable device further includes an operation of identifying whether the user's body part is located in the first region by identifying whether the user's body part is located within the predetermined display area. Characterized in, a method for controlling a wearable device.
상기 트리거 이벤트는, 상기 사용자의 신체 일부에 의한 제스처 또는 상기 사용자의 표정 변화를 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.According to claim 11,
The trigger event may include a gesture by a part of the user's body or a change in facial expression of the user.
상기 웨어러블 디바이스는, 외부 전자 장치와 연결되도록 설정된 통신 회로를 더 포함하고,
상기 트리거 이벤트는, 상기 통신 모듈을 통해 상기 외부 전자 장치로부터 수신된 메시지 전송 신호 또는 콜 발신 신호를 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.According to claim 11,
The wearable device further includes a communication circuit configured to be connected to an external electronic device,
The trigger event may include a message transmission signal or a call origination signal received from the external electronic device through the communication module.
상기 기능은, 동일한 그룹에 속하는 상기 적어도 하나의 상대방 디바이스에 대한 메시지 전송 기능 또는 콜 발신 기능을 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.According to claim 16,
The method of controlling a wearable device, characterized in that the function includes a message transmission function or a call origination function for the at least one counterpart device belonging to the same group.
상기 웨어러블 디바이스는, 적어도 하나의 메모리를 더 포함하고,
상기 웨어러블 디바이스를 제어하는 방법은, 상기 적어도 하나의 메모리에 저장된 컨텐트를 동일한 그룹에 속하는 상기 적어도 하나의 상대방 디바이스와 공유하기 위한 요청을 수신하는 동작을 더 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.According to claim 11,
The wearable device further includes at least one memory,
The method of controlling the wearable device may further include receiving a request for sharing the content stored in the at least one memory with the at least one counterpart device belonging to the same group, characterized in that the control of the wearable device further comprises: How to.
상기 웨어러블 디바이스를 제어하는 방법은, 상기 사용자로부터의 공유 제스처의 수신에 따라 상기 적어도 하나의 컨텐츠를 상기 동일한 그룹에 속하는 상기 적어도 하나의 상대방 디바이스로 전송하는 동작을 더 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.According to claim 18,
The method of controlling the wearable device further comprises an operation of transmitting the at least one content to the at least one counterpart device belonging to the same group in response to receiving a sharing gesture from the user. How to control your device.
상기 웨어러블 디바이스를 제어하는 방법은, 상기 사용자로부터의 그룹 생성 제스처에 따라 상기 적어도 하나의 그래픽 오브젝트를 상기 제1 영역에 대응하는 그룹으로 결정하는 동작을 더 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.According to claim 11,
The method of controlling the wearable device may further include determining the at least one graphic object as a group corresponding to the first region according to a group creation gesture from the user. How to.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/KR2022/017746 WO2023085847A1 (en) | 2021-11-15 | 2022-11-11 | Wearable device communicating with at least one counterpart device in response to trigger event, and control method therefor |
| US17/987,365 US12141364B2 (en) | 2021-11-15 | 2022-11-15 | Wearable device for communicating with at least one counterpart device according to trigger event and control method therefor |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020210156598 | 2021-11-15 | ||
| KR20210156598 | 2021-11-15 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20230070990A true KR20230070990A (en) | 2023-05-23 |
Family
ID=86544183
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020210175632A Pending KR20230070990A (en) | 2021-11-15 | 2021-12-09 | A wearable device that communicates with at least one counterpart device according to a trigger event and a control method thereof |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20230070990A (en) |
-
2021
- 2021-12-09 KR KR1020210175632A patent/KR20230070990A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20230274511A1 (en) | Displaying virtual content in augmented reality using a map of the world | |
| CN115735178A (en) | Augmented reality eyewear with speech bubble and translation | |
| US20150379770A1 (en) | Digital action in response to object interaction | |
| WO2015161307A1 (en) | Systems and methods for augmented and virtual reality | |
| US20230384860A1 (en) | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user | |
| US12450854B2 (en) | User interfaces for capturing media and manipulating virtual objects | |
| US20240345719A1 (en) | Eyewear device user interface | |
| CN120641864A (en) | Electronic device for displaying icons, operating method thereof, and non-transitory computer-readable storage medium | |
| KR20220115886A (en) | Measurement based on point selection | |
| KR20230070990A (en) | A wearable device that communicates with at least one counterpart device according to a trigger event and a control method thereof | |
| US20240143267A1 (en) | Electronic device for using external device in metaverse and method thereof | |
| KR20220162956A (en) | Electronic device for supporting various communication during video call and operating method thereof | |
| US20250348152A1 (en) | Methods of providing feedback based on user-to-user interaction | |
| US20250356608A1 (en) | User interfaces for capturing media and manipulating virtual objects | |
| US20250029350A1 (en) | Devices, methods, and graphical user interfaces for interacting with virtual objects | |
| US20250355535A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with System User Interfaces within Three-Dimensional Environments | |
| KR20240062980A (en) | Electronic device for using external device in metaverse and control method thereof | |
| KR20250159549A (en) | Electronic device and method for providing a shortcut gesture in electronic device | |
| KR20230013532A (en) | A Glass type wearable device providing augmented reality guide and control method thereof | |
| KR20240036433A (en) | Method and apparatus for determining persona of an avatar object disoposed in a virtual space | |
| KR20240025380A (en) | Electronic device for applying an effect to an image and method for controlling thereof | |
| KR20240072880A (en) | Electronic device and method for presenting virtual object on virtual reality space | |
| CN119816871A (en) | Interaction recording tool for creating interactive AR stories | |
| KR20240062849A (en) | Wearable electronic device comprising wheel | |
| KR20240097659A (en) | Wearable device for displaying visual object and method thereof |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20211209 |
|
| PG1501 | Laying open of application | ||
| A201 | Request for examination | ||
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20241209 Comment text: Request for Examination of Application |