[go: up one dir, main page]

KR20230070990A - A wearable device that communicates with at least one counterpart device according to a trigger event and a control method thereof - Google Patents

A wearable device that communicates with at least one counterpart device according to a trigger event and a control method thereof Download PDF

Info

Publication number
KR20230070990A
KR20230070990A KR1020210175632A KR20210175632A KR20230070990A KR 20230070990 A KR20230070990 A KR 20230070990A KR 1020210175632 A KR1020210175632 A KR 1020210175632A KR 20210175632 A KR20210175632 A KR 20210175632A KR 20230070990 A KR20230070990 A KR 20230070990A
Authority
KR
South Korea
Prior art keywords
user
wearable device
area
present document
body part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
KR1020210175632A
Other languages
Korean (ko)
Inventor
김여진
박미지
박은영
유상아
유영웅
홍민화
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2022/017746 priority Critical patent/WO2023085847A1/en
Priority to US17/987,365 priority patent/US12141364B2/en
Publication of KR20230070990A publication Critical patent/KR20230070990A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

트리거 이벤트에 따라 적어도 하나의 상대방 디바이스와 통신을 수행하는 웨어러블 디바이스 및 그 제어 방법이 개시된다. 본 문서의 일 실시예에 따른 웨어러블 디바이스는, 디스플레이 모듈, 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 적어도 하나의 그래픽 오브젝트(object)가 디스플레이 영역에서 보여지도록 상기 디스플레이 모듈을 제어하고, 사용자의 신체 일부가 제1 영역에 위치하는지 여부를 식별하고, 상기 사용자의 신체 일부가 상기 제1 영역에 위치함에 기반하여, 상기 제1 영역에 대응하는 그룹을 식별하고, 상기 사용자의 신체 일부가 상기 제1 영역에 위치하는 동안에, 상기 사용자에 의한 트리거 이벤트가 검출되는지 여부를 식별하고, 상기 트리거 이벤트가 검출됨에 기반하여, 상기 식별된 그룹에 포함되는 적어도 하나의 상대방 디바이스(counterpart device)에 대해 상기 트리거 이벤트에 대응하는 기능을 수행하도록 설정될 수 있다. A wearable device that performs communication with at least one counterpart device according to a trigger event and a control method thereof are disclosed. A wearable device according to an embodiment of the present document includes a display module and at least one processor, and the at least one processor controls the display module to display at least one graphic object in a display area. identify whether the user's body part is located in the first region, identify a group corresponding to the first region based on the user's body part being located in the first region, and identify the user's body part Identifying whether a trigger event by the user is detected while a part is located in the first area, and based on the detection of the trigger event, at least one counterpart device included in the identified group It can be set to perform a function corresponding to the trigger event for.

Description

트리거 이벤트에 따라 적어도 하나의 상대방 디바이스와 통신을 수행하는 웨어러블 디바이스 및 그 제어 방법{A WEARABLE DEVICE THAT COMMUNICATES WITH AT LEAST ONE COUNTERPART DEVICE ACCORDING TO A TRIGGER EVENT AND A CONTROL METHOD THEREOF}A wearable device that communicates with at least one counterpart device according to a trigger event and a control method thereof

본 문서는 트리거 이벤트에 따라 적어도 하나의 상대방 디바이스와 통신을 수행하는 웨어러블 디바이스 및 그 제어 방법에 관한 것이다.This document relates to a wearable device that communicates with at least one counterpart device according to a trigger event and a control method thereof.

전자 장치, 예를 들어, 스마트폰과 같은 휴대용 전자 장치를 통해 제공되는 다양한 서비스 및 부가 기능들이 점차 증가하고 있다. 이러한 전자 장치의 효용 가치를 높이고, 다양한 사용자들의 욕구를 만족시키기 위해서 통신 서비스 제공자 또는 전자 장치 제조사들은 다양한 기능들을 제공하고 다른 업체와의 차별화를 위해 전자 장치를 경쟁적으로 개발하고 있다. 이에 따라, 전자 장치를 통해서 제공되는 다양한 기능들도 점점 고도화 되고 있다.Various services and additional functions provided through electronic devices, for example, portable electronic devices such as smart phones, are gradually increasing. In order to increase the utility value of these electronic devices and satisfy the needs of various users, communication service providers or electronic device manufacturers are competitively developing electronic devices to provide various functions and to differentiate themselves from other companies. Accordingly, various functions provided through electronic devices are becoming increasingly sophisticated.

최근, 글래스 타입 웨어러블 디바이스가 다양한 목적들로 이용되고 있다. 예를 들어, 글래스 타입 웨어러블 디바이스를 이용하여 회의를 진행하거나 강의를 진행하는 사례들이 급속도로 증가하고 있다. 그러나, 글래스 타입 웨어러블 디바이스를 이용하여 특정한 태스크를 수행(예: 회의 진행)하는 경우에 있어서, 기존의 글래스 타입 웨어러블 디바이스는 단지 특정한 태스크에 관련된 가상 객체(예: 회의에 참석한 상대방의 화면)만을 제공하는 기능을 제공하였을 뿐, 사용자의 신체 일부(예: 손)에 의한 트리거 이벤트(예: "하트 제스처"를 검출)에 따라 특정한 기능을 수행(예: 상대방 디바이스에 "하트 제스처"와 관련된 감정 표현을 전송)하는 기능 또는 동작은 전혀 제공하지 못하였다. 또한, 기존의 글래스 타입 웨어러블 디바이스는, 글래스 타입 웨어러블 디바이스를 구비하지 않고 제1 사용자(예: 웨어러블 디바이스를 통해 특정한 태스크를 수행하는 사용자)와 특정한 태스크를 수행하는 사용자(예: 제2 사용자)에 대해서는 글래스 타입 웨어러블 디바이스를 통해 제공되는 가상 객체와 관련된 정보를 제2 사용자에게 제공하는 기능 또는 동작은 전혀 제공하지 못하였다. Recently, glass-type wearable devices are being used for various purposes. For example, cases of holding a meeting or holding a lecture using a glass-type wearable device are rapidly increasing. However, in the case of performing a specific task (eg, conducting a meeting) using a glasses-type wearable device, the existing glasses-type wearable device only displays a virtual object related to the specific task (eg, the screen of the other party attending the meeting). Performs a specific function according to a trigger event (eg, detecting a "heart gesture") by a part of the user's body (eg, hand) It does not provide any function or operation to send a representation). In addition, the existing glasses-type wearable device does not have a glasses-type wearable device and provides a first user (eg, a user performing a specific task through the wearable device) and a user (eg, a second user) performing a specific task. As for the glass-type wearable device, a function or operation of providing information related to a virtual object provided through the wearable device to the second user is not provided at all.

본 문서의 일 실시예에 따르면, 사용자의 신체 일부(예: 손)에 의한 트리거 이벤트(예: "하트 제스처"를 검출)에 따라 특정한 기능(예: 상대방 디바이스에 "하트 제스처"와 관련된 감정 표현을 전송)을 수행하여 웨어러블 디바이스의 사용 편의성(usability)을 향상시킬 수 있는 웨어러블 디바이스가 제공될 수 있다. According to an embodiment of the present document, a specific function (eg, expression of emotion related to a “heart gesture” to the other party's device) according to a trigger event (eg, “heart gesture” detection) by a user's body part (eg, hand) A wearable device capable of improving usability of the wearable device by performing transmission) may be provided.

본 문서의 일 실시예에 따르면, 웨어러블 디바이스를 구비하지 않고 제1 사용자와 특정한 태스크를 수행하는 사용자에 대해서도 웨어러블 디바이스를 통해 제공되는 가상 객체와 관련된 정보 및/또는 제1 사용자에 의한 트리거 이벤트에 따른 기능을 제공할 수 있는 웨어러블 디바이스가 제공될 수 있다.According to an embodiment of the present document, information related to a virtual object provided through a wearable device and/or a trigger event by the first user even for a user who does not have a wearable device and performs a specific task with the first user A wearable device capable of providing functions may be provided.

본 문서의 일 실시예에 따른 웨어러블 디바이스는, 디스플레이 모듈 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 적어도 하나의 그래픽 오브젝트(object)가 디스플레이 영역에서 보여지도록 상기 디스플레이 모듈을 제어하고, 사용자의 신체 일부가 제1 영역에 위치하는지 여부를 식별하고, 상기 사용자의 신체 일부가 상기 제1 영역에 위치함에 기반하여, 상기 제1 영역에 대응하는 그룹을 식별하고, 상기 사용자의 신체 일부가 상기 제1 영역에 위치하는 동안에, 상기 사용자에 의한 트리거 이벤트가 검출되는지 여부를 식별하고, 상기 트리거 이벤트가 검출됨에 기반하여, 상기 식별된 그룹에 포함되는 적어도 하나의 상대방 디바이스(counterpart device)에 대해 상기 트리거 이벤트에 대응하는 기능을 수행하도록 설정되고, 상기 기능은, 상기 적어도 하나의 상대방 디바이스에 대해 공통적으로 수행되는 기능일 수 있다. A wearable device according to an embodiment of the present document includes a display module and at least one processor, and the at least one processor controls the display module so that at least one graphic object is displayed in a display area. , Identifying whether the user's body part is located in the first region, identifying a group corresponding to the first region based on the user's body part being located in the first region, and identifying the user's body part While is located in the first area, it identifies whether a trigger event by the user is detected, and based on the detection of the trigger event, at least one counterpart device included in the identified group is configured to perform a function corresponding to the trigger event for each device, and the function may be a function commonly performed for the at least one counterpart device.

본 문서의 일 실시예에 따른 웨어러블 디바이스를 제어하는 방법은, 적어도 하나의 그래픽 오브젝트(object)가 디스플레이 영역에서 보여지도록 상기 웨어러블 디바이스의 디스플레이 모듈을 제어하는 동작과, 사용자의 신체 일부가 제1 영역에 위치하는지 여부를 식별하는 동작과, 상기 사용자의 신체 일부가 상기 제1 영역에 위치함에 기반하여, 상기 제1 영역에 대응하는 그룹을 식별하는 동작과, 상기 사용자의 신체 일부가 상기 제1 영역에 위치하는 동안에, 상기 사용자에 의한 트리거 이벤트가 검출되는지 여부를 식별하는 동작과, 상기 트리거 이벤트가 검출됨에 기반하여, 상기 식별된 그룹에 포함되는 적어도 하나의 상대방 디바이스(counterpart device)에 대해 상기 트리거 이벤트에 대응하는 기능을 수행하는 동작을 포함하고, 상기 기능은, 상기 적어도 하나의 상대방 디바이스에 대해 공통적으로 수행되는 기능일 수 있다. A method for controlling a wearable device according to an embodiment of the present document includes an operation of controlling a display module of the wearable device so that at least one graphic object is displayed in a display area, and a part of a user's body in a first area identifying whether the user's body part is located in the first region, and based on the user's body part being located in the first region, identifying a group corresponding to the first region; and the user's body part is located in the first region. an operation of identifying whether a trigger event by the user is detected while located at ; and, based on the detection of the trigger event, the trigger for at least one counterpart device included in the identified group. An operation of performing a function corresponding to an event may be included, and the function may be a function commonly performed for the at least one counterpart device.

본 문서의 일 실시예에 따르면, 사용자의 신체 일부(예: 손)에 의한 트리거 이벤트(예: "하트 제스처"를 검출)에 따라 특정한 기능(예: 상대방 디바이스에 "하트 제스처"와 관련된 감정 표현을 전송)을 수행하여 웨어러블 디바이스의 사용 편의성을 향상시킬 수 있는 웨어러블 디바이스가 제공될 수 있다. According to an embodiment of the present document, a specific function (eg, expression of emotion related to a “heart gesture” to the other party's device) according to a trigger event (eg, “heart gesture” detection) by a user's body part (eg, hand) A wearable device capable of improving the usability of the wearable device by performing transmission) may be provided.

본 문서의 일 실시예에 따르면, 웨어러블 디바이스를 구비하지 않고 제1 사용자와 특정한 태스크를 수행하는 사용자에 대해서도 웨어러블 디바이스를 통해 제공되는 가상 객체와 관련된 정보 및/또는 제1 사용자에 의한 트리거 이벤트에 따른 기능을 제공할 수 있는 웨어러블 디바이스가 제공될 수 있다.According to an embodiment of the present document, information related to a virtual object provided through a wearable device and/or a trigger event by the first user even for a user who does not have a wearable device and performs a specific task with the first user A wearable device capable of providing functions may be provided.

다양한 실시예들에 따른 효과는 상기 기술된 효과로 제한되지 아니하며, 다양한 효과가 본 개시 상에 내재되어 있음은 통상의 기술자에게 자명하다.Effects according to various embodiments are not limited to the effects described above, and it is obvious to those skilled in the art that various effects are inherent in the present disclosure.

도 1은, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스를 설명하기 위한 예시 도면이다.
도 2a는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스의 구조를 설명하기 위한 예시 도면이다.
도 2b 및 도 2c는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스의 연결 관계를 설명하기 위한 예시 도면들이다.
도 3은, 본 문서의 일 실시예에 따른 트리거 이벤트에 따라 글래스 타입 웨어러블 디바이스가 특정한 기능을 수행하는 기능 또는 동작을 설명하기 위한 예시 도면이다.
도 4는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스에 의해 보여지는 적어도 하나의 그래픽 오브젝트를 설명하기 위한 예시 도면이다.
도 5a는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스를 기준으로 설정된 적어도 하나의 반경(radius)을 설명하기 위한 예시 도면이다.
도 5b는, 본 문서의 일 실시예에 따른 사용자의 신체 일부가 적어도 하나의 반경 내에 위치하는지 여부를 판단하기 위한 방법으로서, 디스플레이 영역 내에 설정된 적어도 하나의 영역을 설명하기 위한 예시 도면이다.
도 5c는, 본 문서의 일 실시예에 따른 제1 영역에 사용자의 신체 일부가 위치함이 검출된 경우, 글래스 타입 웨어러블 디바이스에 의해 사용자의 신체 일부가 제1 반경에 위치하였다고 판단되는 기능 또는 동작을 설명하기 위한 예시 도면이다.
도 5d 및 도 5e는, 본 문서의 일 실시예에 따른 제1 영역을 기준으로 설정된 공간 내에 사용자의 신체 일부가 위치하였음이 검출된 경우, 글래스 타입 웨어러블 디바이스에 의해 사용자의 신체 일부가 제1 반경에 위치하였다고 판단되는 기능 또는 동작을 설명하기 위한 예시 도면들이다.
도 5f는, 본 문서의 다른 실시예에 따라 적어도 하나의 반경이 설정된 경우를 설명하기 위한 예시 도면이다.
도 5g 및 도 5h는, 본 문서의 다른 실시예에 따라 적어도 하나의 반경이 설정된 경우, 글래스 타입 웨어러블 디바이스에 의해 적어도 하나의 반경 내에 사용자의 신체 일부가 위치하였음이 검출되는 기능 또는 동작을 설명하기 위한 예시 도면들이다.
도 5i는, 본 문서의 또 다른 실시예에 따라 적어도 하나의 반경이 설정된 경우를 설명하기 위한 예시 도면이다.
도 6a 및 도 6b는, 본 문서의 일 실시예에 따른 적어도 하나의 반경에 대응하도록 미리 설정된 그룹을 설명하기 위한 예시 도면들이다.
도 7a 및 도 7b는, 본 문서의 일 실시예에 따른 트리거 제스처를 설명하기 위한 예시 도면들이다.
도 8은, 본 문서의 일 실시예에 따른 트리거 이벤트(예: 트리거 제스처를 검출)에 따라 글래스 타입 웨어러블 디바이스에 의해 특정한 기능이 수행되는 기능 또는 동작을 설명하기 위한 예시 도면이다.
도 9는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스에 의해, 글래스 타입 웨어러블 디바이스와 동작 가능하도록 연결된 외부 전자 장치로부터의 통신 신호의 수신에 따라 적어도 하나의 상대방 디바이스와 통신을 수행(예: 문자 메시지의 전송)하는 기능 또는 동작을 설명하기 위한 예시 도면이다.
도 10a, 도 10b 및 도 10c는, 도 9에서 설명된 기능 또는 동작을 그래픽 사용자 인터페이스 관점에서 설명하기 위한 예시 도면들이다.
도 11은, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스가 공유 제스처를 검출한 경우, 적어도 하나의 컨텐트를 적어도 하나의 상대방 디바이스와 공유하는 기능 또는 동작을 설명하기 위한 예시 도면이다.
도 12a, 도 12b 및 도 12c는, 도 11에서 설명된 기능 또는 동작을 그래픽 사용자 인터페이스 관점에서 설명하기 위한 예시 도면들이다.
도 13은, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스가 그룹 생성 제스처를 검출한 경우, 적어도 하나의 상대방 디바이스를 특정한 반경에 대응하는 하나의 그룹으로 생성하는 기능 또는 동작을 설명하기 위한 예시 도면이다.
도 14a, 도 14b, 도 14c 및 도 14d는, 도 13에서 설명된 기능 또는 동작을 그래픽 사용자 인터페이스 관점에서 설명하기 위한 예시 도면들이다.
1 is an exemplary diagram for describing a glass-type wearable device according to an embodiment of the present document.
2A is an exemplary diagram for explaining the structure of a glass-type wearable device according to an embodiment of the present document.
2b and 2c are exemplary diagrams for explaining a connection relationship of a glass-type wearable device according to an embodiment of the present document.
3 is an exemplary diagram for explaining a function or operation in which a glasses-type wearable device performs a specific function according to a trigger event according to an embodiment of the present document.
4 is an exemplary diagram for explaining at least one graphic object displayed by a glasses-type wearable device according to an embodiment of the present document.
5A is an exemplary diagram for explaining at least one radius set based on a glass-type wearable device according to an embodiment of the present document.
5B is a method for determining whether a part of a user's body is located within at least one radius according to an embodiment of the present document, and is an exemplary view for explaining at least one area set within a display area.
5C is a function or operation for determining that the user's body part is located in the first radius by the glasses-type wearable device when it is detected that the user's body part is located in the first area according to an embodiment of the present document. It is an exemplary drawing for explaining.
5D and 5E show that, when it is detected that the user's body part is located within a space set based on the first area according to an embodiment of the present document, the user's body part moves within a first radius by the glass-type wearable device. These are exemplary drawings for explaining functions or operations determined to be located in .
5F is an exemplary diagram for explaining a case in which at least one radius is set according to another embodiment of the present document.
5G and 5H illustrate a function or operation of detecting that a part of a user's body is located within at least one radius by a glasses-type wearable device when at least one radius is set according to another embodiment of the present document. These are exemplary drawings for
5I is an exemplary diagram for explaining a case in which at least one radius is set according to another embodiment of the present document.
6A and 6B are exemplary diagrams for explaining a preset group to correspond to at least one radius according to an embodiment of the present document.
7A and 7B are exemplary diagrams for describing a trigger gesture according to an embodiment of the present document.
8 is an exemplary diagram for explaining a function or operation in which a specific function is performed by a glasses-type wearable device according to a trigger event (eg, detection of a trigger gesture) according to an embodiment of the present document.
9 illustrates communication with at least one counterpart device according to reception of a communication signal from an external electronic device operatively connected to the glasses-type wearable device by the glasses-type wearable device according to an embodiment of the present document (example : It is an exemplary diagram for explaining a function or operation of transmitting a text message).
10A, 10B, and 10C are exemplary diagrams for explaining the function or operation described in FIG. 9 from the viewpoint of a graphic user interface.
11 is an exemplary diagram for explaining a function or operation of sharing at least one content with at least one counterpart device when a glasses-type wearable device detects a sharing gesture according to an embodiment of the present document.
12A, 12B, and 12C are exemplary diagrams for describing the function or operation described in FIG. 11 from the viewpoint of a graphic user interface.
13 is an example for explaining a function or operation of generating at least one counterpart device into a group corresponding to a specific radius when a glasses-type wearable device detects a group creation gesture according to an embodiment of the present document; it is a drawing
14a, 14b, 14c, and 14d are exemplary diagrams for explaining the function or operation described in FIG. 13 from the viewpoint of a graphic user interface.

도 1은, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)를 설명하기 위한 예시 도면이다. 본 문서에서는 글래스 타입 웨어러블 디바이스(100)를 예를 들어 설명하나 이에 한정되는 것은 아니다. 예컨대, 본 문서에서 설명되는 다양한 실시예들은 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head mounted device; HMD) 또는 머리 착용형 디스플레이 장치(head mounted display; HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나에 적용될 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 제1 카메라(111), 제2 카메라(112), 제3 카메라(113), 프로세서(120), PMIC(130), 배터리(135), 메모리(140), 디스플레이 모듈(150), 오디오 모듈(161), 음성 입력 장치(162), 음성 출력 장치(163), 통신 회로(170), 및 센서(180) 중 적어도 하나를 포함할 수 있다. 1 is an exemplary diagram for explaining a glass-type wearable device 100 according to an embodiment of the present document. In this document, the glass-type wearable device 100 is described as an example, but is not limited thereto. For example, the various embodiments described in this document may be an accessory type (eg, a watch, ring, bracelet, anklet, necklace, glasses, contact lens, or a head mounted device (HMD) or a head mounted display device ( head mounted display (HMD)), fabric or clothing integral type (eg, electronic clothing), body attachment type (eg, skin pad or tattoo), or bio-implantable circuitry. The glass-type wearable device 100 according to an embodiment of the present document includes a first camera 111, a second camera 112, a third camera 113, a processor 120, a PMIC 130, a battery ( 135), a memory 140, a display module 150, an audio module 161, an audio input device 162, an audio output device 163, a communication circuit 170, and a sensor 180. can do.

본 문서의 일 실시예에 따르면, 제1 카메라(111)를 통하여 획득된 이미지는 사용자에 의한 손 제스처 검출, 사용자의 머리 추적, 및/또는 공간 인식에 이용될 수 있다. 본 문서의 일 실시예에 따르면, 제1 카메라(111)는 GS(global shutter) 카메라를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 제1 카메라(111)는 깊이 촬영을 통한 SLAM(simultaneous localization and mapping) 연산을 수행할 수 있다. 본 문서의 일 실시예에 따르면, 제1 카메라(111)는 6DoF를 위한 공간 인식을 수행할 수 있다. 본 문서의 일 실시예에 따른 제1 카메라(111)는, 제1 사용자에게 착용된 경우, 제1 사용자의 시선에 대응하는 실제 세계(real world)를 촬영하도록 설정될 수 있다. According to an embodiment of the present document, an image acquired through the first camera 111 may be used for hand gesture detection by a user, head tracking of the user, and/or spatial recognition. According to an embodiment of the present document, the first camera 111 may include a global shutter (GS) camera. According to an embodiment of the present document, the first camera 111 may perform a simultaneous localization and mapping (SLAM) operation through depth imaging. According to an embodiment of the present document, the first camera 111 may perform spatial recognition for 6DoF. When the first camera 111 according to an embodiment of the present document is worn by the first user, it may be set to capture the real world corresponding to the gaze of the first user.

본 문서의 일 실시예에 따르면, 제2 카메라(112)를 통하여 획득된 이미지는 사용자의 눈동자에 대한 검출 및 추적에 이용될 수 있다. 본 문서의 일 실시예에 따르면, 제2 카메라(112)는 GS 카메라를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 제2 카메라(112)는 각각 좌안 및 우안에 대응될 수 있고, 제2 카메라(112)들의 성능은 서로 동일 또는 유사할 수 있다. 본 문서의 일 실시예에 따른 제2 카메라(112)는, 사용자의 표정에 대한 이미지를 획득하도록 설정될 수 있다. 본 문서의 일 실시예에 따른 적어도 하나의 프로세서(120)는, 제2 카메라(112)에 의하여 획득된 사용자의 표정에 대한 이미지를 기반으로 사용자의 표정 변화를 검출하도록 설정될 수 있다. According to an embodiment of the present document, an image obtained through the second camera 112 may be used for detection and tracking of the user's pupil. According to one embodiment of this document, the second camera 112 may include a GS camera. According to an embodiment of the present document, the second cameras 112 may correspond to the left eye and the right eye, respectively, and the performance of the second cameras 112 may be the same or similar to each other. The second camera 112 according to an embodiment of the present document may be set to acquire an image of a user's facial expression. At least one processor 120 according to an embodiment of the present document may be configured to detect a change in the user's facial expression based on the image of the user's facial expression acquired by the second camera 112 .

본 문서의 일 실시예에 따르면, 제3 카메라(113)는 제1 카메라(111) 및 제2 카메라(112) 보다 고해상도의 카메라를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 제3 카메라(113)는 자동 포커싱(auto-focusing, AF) 기능과 떨림 보정 기능을 수행할 수 있다. 본 문서의 일 실시예에 따르면, 제3 카메라(113)는 GS 카메라를 포함하거나, RS(rolling shutter) 카메라를 포함할 수 있다. 본 문서의 일 실시예에 따른 제1 카메라(111)는, 제1 사용자에게 착용된 경우, 제1 사용자의 시선에 대응하는 실제 세계를 촬영하도록 설정될 수 있다.According to one embodiment of the present document, the third camera 113 may include a higher resolution camera than the first camera 111 and the second camera 112 . According to an embodiment of the present document, the third camera 113 may perform an auto-focusing (AF) function and a shake correction function. According to an embodiment of the present document, the third camera 113 may include a GS camera or a rolling shutter (RS) camera. When the first camera 111 according to an embodiment of the present document is worn by the first user, it may be set to capture the real world corresponding to the gaze of the first user.

본 문서의 일 실시예에 따른 프로세서(120)는, 글래스 타입 웨어러블 디바이스(100)의 구성요소들, 예를 들어, 제1 카메라(111), 제2 카메라(112), 제3 카메라(113), PMIC(130), 메모리(140), 디스플레이 모듈(150), 오디오 모듈(161), 통신 회로(170), 및 센서(180)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 본 문서의 일 실시예에 따른 프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램)를 실행하여 프로세서(120)에 연결된 글래스 타입 웨어러블 디바이스(100)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 본 문서의 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리에 저장하고, 휘발성 메모리에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다. 본 문서의 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 글래스 타입 웨어러블 디바이스(100)가 메인 프로세서 및 보조 프로세서를 포함하는 경우, 보조 프로세서는 메인 프로세서보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서는 메인 프로세서와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 120 according to an embodiment of the present document may include components of the glass-type wearable device 100, for example, the first camera 111, the second camera 112, and the third camera 113 , PMIC 130, memory 140, display module 150, audio module 161, communication circuit 170, and sensor 180 can be controlled, and various data processing or calculations can be performed. . The processor 120 according to an embodiment of the present document, for example, executes software (eg, a program) to at least one other component (eg, a program) of the glass-type wearable device 100 connected to the processor 120. hardware or software components), and can perform various data processing or calculations. According to one embodiment of the present document, as at least part of data processing or operation, processor 120 transfers instructions or data received from other components (eg, sensor module 176 or communication module 190) to volatile memory. , process commands or data stored in volatile memory, and store resultant data in non-volatile memory. According to an embodiment of the present document, the processor 120 may include a main processor (eg, a central processing unit or an application processor) or a secondary processor (eg, a graphic processing unit, a neural network processing unit (NPU) that may operate independently of or together with the main processor) processing unit), image signal processor, sensor hub processor, or communication processor). For example, when the glasses-type wearable device 100 includes a main processor and an auxiliary processor, the auxiliary processor may use less power than the main processor or may be set to be specialized for a designated function. A secondary processor may be implemented separately from, or as part of, the main processor.

본 문서의 일 실시예에 따른 PMIC(130)는 배터리(135)에 저장된 전력을 글래스 타입 웨어러블 디바이스(100)의 다른 구성요소들이 요구하는 전류 또는 전압을 갖도록 변환하여 글래스 타입 웨어러블 디바이스(100)의 다른 구성요소들에 공급할 수 있다.The PMIC 130 according to an embodiment of the present document converts the power stored in the battery 135 to have a current or voltage required by other components of the glass-type wearable device 100, so that the glass-type wearable device 100 Other components may be supplied.

본 문서의 일 실시예에 따른 메모리(140)는, 글래스 타입 웨어러블 디바이스(100)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(180))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 본 문서의 일 실시예에 따른 메모리(140)는, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.The memory 140 according to an embodiment of the present document may store various data used by at least one component (eg, the processor 120 or the sensor module 180) of the glass-type wearable device 100. there is. The memory 140 according to an embodiment of the present document may include a volatile memory or a non-volatile memory.

본 문서의 일 실시예에 따른 디스플레이 모듈(150)은 사용자에게 제공할 화면을 표시할 수 있다. 본 문서의 일 실시예에 따른 디스플레이 모듈(150)은, 가상 객체(예: 증강현실 가이드)를 표현하기 위한 데이터(예: RGB 데이터)를 출력할 수 있다. 본 문서의 일 실시예에 따른 디스플레이 모듈(150)은 제1 디스플레이(251), 제2 디스플레이(252), 하나 이상의 입력 광학 부재(253-1, 253-2), 하나 이상의 투명 부재(290-1, 290-2), 및 하나 이상의 화면 표시 부분(254-1, 254-2)을 포함할 수 있다.The display module 150 according to an embodiment of the present document may display a screen to be provided to the user. The display module 150 according to an embodiment of the present document may output data (eg, RGB data) for expressing a virtual object (eg, an augmented reality guide). The display module 150 according to an embodiment of the present document includes a first display 251, a second display 252, one or more input optical members 253-1 and 253-2, and one or more transparent members 290-250. 1 and 290-2), and one or more screen display parts 254-1 and 254-2.

본 문서의 일 실시예에 따른 오디오 모듈(161)은 음성 입력 장치(162) 및 음성 출력 장치(163)에 연결되어, 음성 입력 장치(162)를 통하여 입력된 데이터를 변환하고, 음성 출력 장치(163)에 출력할 데이터를 변환할 수 있다. 본 문서의 일 실시예에 따른 음성 입력 장치(162)는 적어도 하나의 마이크를 포함할 수 있으며, 음성 출력 장치(163)는 적어도 하나의 스피커 및 증폭기를 포함할 수 있다. 본 문서의 일 실시예에 따른 통신 회로(170)는 글래스 타입 웨어러블 디바이스(100)와 연결된 외부 전자 장치와의 무선 통신 채널의 수립 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 본 문서의 일 실시예에 따른 센서(180)는 6축 센서(181), 자기 센서(182), 근접 센서(183), 및/또는 광 센서(184)를 포함할 수 있다.The audio module 161 according to an embodiment of this document is connected to the audio input device 162 and the audio output device 163, converts data input through the audio input device 162, and converts data input to the audio output device ( 163) can convert the data to be output. The audio input device 162 according to an embodiment of the present document may include at least one microphone, and the audio output device 163 may include at least one speaker and amplifier. The communication circuit 170 according to an embodiment of the present document may support establishment of a wireless communication channel with an external electronic device connected to the glasses-type wearable device 100 and communication through the established communication channel. The sensor 180 according to an embodiment of the present document may include a 6-axis sensor 181 , a magnetic sensor 182 , a proximity sensor 183 , and/or an optical sensor 184 .

도 2는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)의 구조를 설명하기 위한 예시 도면이다. 2 is an exemplary diagram for explaining the structure of a glass-type wearable device 100 according to an embodiment of the present document.

도 2를 참조하면, 글래스 타입 웨어러블 디바이스(100)는 하나 이상의 발광 소자(214-1, 214-2)를 포함할 수 있다. 본 문서의 일 실시예에 따른 발광 소자(214-1, 214-2)는 디스플레이의 화면 출력 영역으로 빛을 조사하는, 후술할 광원과는 상이할 수 있다. 본 문서의 일 실시예에 따르면, 발광 소자(214-1, 214-2)는 하나 이상의 제2 카메라(212-1, 212-2)를 통하여 사용자의 눈동자를 검출하고 추적하는 경우에 있어서, 눈동자 검출을 용이하게 하기 위한 빛을 조사할 수 있다. 본 문서의 일 실시예에 따르면, 발광 소자(214-1, 214-2)는 각각 LED를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 발광 소자(214-1, 214-2)는 적외선 영역의 빛을 조사할 수 있다. 본 문서의 일 실시예에 따르면, 발광 소자(214-1, 214-2)는 글래스 타입 웨어러블 디바이스(100)의 프레임 주변에 부착될 수 있다. 본 문서의 일 실시예에 따르면, 발광 소자(214-1, 214-2)는 하나 이상의 제1 카메라(211-1, 211-2) 주변에 위치하고, 글래스 타입 웨어러블 디바이스(100)가 어두운 환경에서 사용될 때 하나 이상의 제1 카메라(211-1, 211-2)에 의한 제스처 검출, 머리 추적, 및 공간 인식을 보조할 수 있다. 본 문서의 일 실시예에 따르면, 발광 소자(214-1, 214-2)는 하나 이상의 제3 카메라(213) 주변에 위치하고, 글래스 타입 웨어러블 디바이스(100)가 어두운 환경에서 사용될 때 하나 이상의 제3 카메라(213)에 의한 이미지 획득을 보조할 수 있다.Referring to FIG. 2 , the glass-type wearable device 100 may include one or more light emitting elements 214-1 and 214-2. The light emitting devices 214-1 and 214-2 according to an embodiment of the present document may be different from light sources to be described later, which radiate light to a screen output area of a display. According to an embodiment of the present document, the light emitting devices 214-1 and 214-2 detect and track the user's pupils through one or more second cameras 212-1 and 212-2. Light may be irradiated to facilitate detection. According to one embodiment of this document, each of the light emitting elements 214-1 and 214-2 may include an LED. According to one embodiment of this document, the light emitting devices 214-1 and 214-2 may emit light in the infrared region. According to an embodiment of the present document, the light emitting devices 214-1 and 214-2 may be attached to the periphery of the frame of the glass-type wearable device 100. According to one embodiment of this document, the light emitting elements 214-1 and 214-2 are located around one or more first cameras 211-1 and 211-2, and the glass-type wearable device 100 is used in a dark environment. When used, it may assist with gesture detection, head tracking, and spatial recognition by one or more of the first cameras 211-1, 211-2. According to an embodiment of the present document, the light emitting elements 214-1 and 214-2 are located around one or more third cameras 213, and when the glass-type wearable device 100 is used in a dark environment, one or more third Image acquisition by the camera 213 may be assisted.

본 문서의 일 실시예에 따르면, 글래스 타입 웨어러블 디바이스(100)는 배터리(235-1, 235-2)를 포함할 수 있다. 배터리(235-1, 235-2)는 글래스 타입 웨어러블 디바이스(100)의 나머지 구성요소들을 동작시키기 위한 전력을 저장할 수 있다.According to one embodiment of this document, the glass-type wearable device 100 may include batteries 235-1 and 235-2. The batteries 235 - 1 and 235 - 2 may store power for operating the remaining components of the glass-type wearable device 100 .

본 문서의 일 실시예에 따르면, 글래스 타입 웨어러블 디바이스(100)는 제1 디스플레이(251), 제2 디스플레이(252), 하나 이상의 입력 광학 부재(253-1, 253-2), 하나 이상의 투명 부재(290-1, 290-2), 및 하나 이상의 화면 표시 부분(254-1, 254-2)을 포함할 수 있다. 본 문서의 일 실시예에 따르면, 제1 디스플레이(251) 및 제2 디스플레이(252)는 예를 들면, 액정 표시 장치(liquid crystal display; LCD), 디지털 미러 표시 장치(digital mirror device; DMD), 실리콘 액정 표시 장치(liquid crystal on silicon; LCoS), 유기 발광 다이오드(organic light emitting diode; OLED) 또는 마이크로 엘이디(micro light emitting diode; micro LED)를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 제1 디스플레이(251) 및 제2 디스플레이(252)가 액정 표시 장치, 디지털 미러 표시 장치 또는 실리콘 액정 표시 장치 중 하나로 이루어지는 경우, 글래스 타입 웨어러블 디바이스(100)는 디스플레이의 화면 출력 영역으로 빛을 조사하는 광원을 포함할 수 있다. 본 문서의 일 실시예에 따르면, 제1 디스플레이(251) 및 제2 디스플레이(252)가 자체적으로 빛을 발생시킬 수 있는 경우(예컨대, 유기 발광 다이오드 또는 마이크로 엘이디 중 하나로 이루어지는 경우), 글래스 타입 웨어러블 디바이스(100)는 별도의 광원을 포함하지 않더라도 사용자에게 상대적으로 양호한 품질의 가상 영상을 제공할 수 있다.According to one embodiment of this document, the glass-type wearable device 100 includes a first display 251, a second display 252, one or more input optical members 253-1 and 253-2, and one or more transparent members. 290-1 and 290-2, and one or more screen display parts 254-1 and 254-2. According to an embodiment of the present document, the first display 251 and the second display 252 may include, for example, a liquid crystal display (LCD), a digital mirror device (DMD), It may include a liquid crystal on silicon (LCoS), an organic light emitting diode (OLED), or a micro light emitting diode (micro LED). According to one embodiment of the present document, when the first display 251 and the second display 252 are formed of one of a liquid crystal display, a digital mirror display, and a silicon liquid crystal display, the glass-type wearable device 100 is a display A light source for radiating light to the screen output area may be included. According to an embodiment of the present document, when the first display 251 and the second display 252 can generate light by themselves (eg, made of either an organic light emitting diode or a micro LED), a glass type wearable The device 100 may provide a relatively high-quality virtual image to a user even without a separate light source.

본 문서의 일 실시예에 따르면, 하나 이상의 투명 부재(290-1, 290-2)는 사용자가 글래스 타입 웨어러블 디바이스(100)를 착용하였을 때 사용자의 눈에 대면하게 배치될 수 있다. 본 문서의 일 실시예에 따르면, 하나 이상의 투명 부재(290-1, 290-2)는 글래스 플레이트, 플라스틱 플레이트 또는 폴리머 중 적어도 하나를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 사용자는 글래스 타입 웨어러블 디바이스(100)를 착용하였을 때 하나 이상의 투명 부재(290-1, 290-2)를 통하여 외부 세계를 볼 수 있다. 본 문서의 일 실시예에 따르면, 하나 이상의 입력 광학 부재(253-1, 253-2)는 제1 디스플레이(251) 및 제2 디스플레이(252)에서 생성한 빛을 사용자의 눈으로 유도할 수 있다. 본 문서의 일 실시예에 따르면, 하나 이상의 투명 부재(290-1, 290-2) 위의 하나 이상의 화면 표시 부분(254-1, 254-2) 위에 제1 디스플레이(251) 및 제2 디스플레이(252)에서 생성한 빛에 기초한 상이 맺히고, 사용자는 하나 이상의 화면 표시 부분(254-1, 254-2) 위에 맺힌 상을 볼 수 있다.According to an embodiment of the present document, one or more transparent members 290-1 and 290-2 may be disposed to face the user's eyes when the user wears the glass-type wearable device 100. According to one embodiment of the present document, the one or more transparent members 290-1 and 290-2 may include at least one of a glass plate, a plastic plate, or a polymer. According to one embodiment of this document, a user may see the outside world through one or more transparent members 290-1 and 290-2 when wearing the glass-type wearable device 100. According to one embodiment of the present document, one or more input optical members 253-1 and 253-2 may guide light generated by the first display 251 and the second display 252 to the user's eyes. . According to one embodiment of this document, a first display 251 and a second display ( An image based on the light generated in step 252 is formed, and the user can see the image formed on one or more screen display parts 254-1 and 254-2.

본 문서의 일 실시예에 따르면, 글래스 타입 웨어러블 디바이스(100)는 하나 이상의 광 도파로(미도시)를 포함할 수 있다. 본 문서의 일 실시예에 따른 광 도파로는 제1 디스플레이(251) 및 제2 디스플레이(252)에서 생성한 빛을 사용자의 눈으로 전달할 수 있다. 글래스 타입 웨어러블 디바이스(100)는 좌안 및 우안에 대응하여 각각 하나씩의 광 도파로를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 광 도파로는 글래스, 플라스틱 또는 폴리머 중 적어도 하나를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 광 도파로는 내부 또는 외부의 일표면에 형성된 나노 패턴, 예를 들어, 다각형 또는 곡면 형상의 격자 구조(grating structure)를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 광 도파로는 free-form형 프리즘을 포함할 수 있고, 이 경우, 광 도파로는 입사된 광을 반사 미러를 통해 사용자에게 제공할 수 있다. 본 문서의 일 실시예에 따르면, 광 도파로는 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함하고, 광 도파로에 포함된 적어도 하나의 회절 요소 또는 반사 요소를 이용하여 광원으로부터 방출된 디스플레이 광을 사용자의 눈으로 유도할 수 있다. 본 문서의 일 실시예에 따르면, 회절 요소는 입력/출력 광학 부재를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 반사 요소는 전반사를 일으키는 부재를 포함할 수 있다.According to one embodiment of this document, the glass-type wearable device 100 may include one or more optical waveguides (not shown). The optical waveguide according to an embodiment of the present document may transmit light generated by the first display 251 and the second display 252 to the user's eyes. The glass-type wearable device 100 may include one optical waveguide corresponding to each of the left and right eyes. According to one embodiment of the present document, the optical waveguide may include at least one of glass, plastic, or polymer. According to an embodiment of the present document, the optical waveguide may include a nanopattern formed on an inner or outer surface, for example, a polygonal or curved grating structure. According to an embodiment of the present document, the optical waveguide may include a free-form prism, and in this case, the optical waveguide may provide incident light to a user through a reflective mirror. According to an embodiment of the present document, the optical waveguide includes at least one of at least one diffractive element (eg, a diffractive optical element (DOE), a holographic optical element (HOE)) or a reflective element (eg, a reflective mirror), Display light emitted from a light source may be guided to the eyes of a user by using at least one diffractive element or reflective element included in the optical waveguide. According to one embodiment of this document, the diffractive element may include input/output optical elements. According to one embodiment of the present document, the reflective element may include a member that causes total internal reflection.

본 문서의 일 실시예에 따르면, 글래스 타입 웨어러블 디바이스(100)는 하나 이상의 음성 입력 장치(262-1, 262-2, 262-3) 및 하나 이상의 음성 출력 장치(263-1, 263-2)를 포함할 수 있다.According to one embodiment of this document, the glass-type wearable device 100 includes one or more audio input devices 262-1, 262-2, and 262-3 and one or more audio output devices 263-1, 263-2. can include

본 문서의 일 실시예에 따르면, 글래스 타입 웨어러블 디바이스(100)는 제1 PCB(270-1) 및 제2 PCB(270-2)를 포함할 수 있다. 제1 PCB(270-1) 및 제2 PCB(270-2)는 제1 카메라(111), 제2 카메라(112), 제3 카메라(113), 디스플레이 모듈(150), 오디오 모듈(161), 및 센서(180)와 같은, 글래스 타입 웨어러블 디바이스(100)에 포함되는 구성 요소에 전기 신호를 전달하도록 설정될 수 있다. 본 문서의 일 실시예에 따르면, 제1 PCB(270-1) 및 제2 PCB(270-2)는 FPCB(flexible printed circuit board)를 포함할 수 있다. 본 문서의 일 실시예에 따르면, 제1 PCB(270-1) 및 제2 PCB(270-2)는 각각 제1 기판, 제2 기판, 및 제1 기판과 상기 제2 기판 사이에 배치된 인터포저를 포함할 수 있다.According to one embodiment of this document, the glass-type wearable device 100 may include a first PCB 270-1 and a second PCB 270-2. The first PCB 270-1 and the second PCB 270-2 include a first camera 111, a second camera 112, a third camera 113, a display module 150, and an audio module 161. It may be set to transmit an electrical signal to components included in the glass-type wearable device 100, such as , and the sensor 180. According to one embodiment of this document, the first PCB 270-1 and the second PCB 270-2 may include a flexible printed circuit board (FPCB). According to one embodiment of the present document, the first PCB 270-1 and the second PCB 270-2 each include a first substrate, a second substrate, and an interface disposed between the first substrate and the second substrate. Posers may be included.

도 2b 및 도 2c는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)의 연결 관계를 설명하기 위한 예시 도면들이다.2B and 2C are exemplary diagrams for explaining a connection relationship of the glass-type wearable device 100 according to an embodiment of the present document.

도 2b를 참조하면, 본 문서의 일 실시예에 따른 제1 사용자의 글래스 타입 웨어러블 디바이스(100)는 외부 전자 장치(예: 상대방 디바이스(280))와 네트워크를 통해 직접 연결될 수 있다. 본 문서의 일 실시예에 따른 네트워크는, 제1 네트워크(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 포함할 수 있다. 또는, 도 2c에 도시된 바와 같이, 본 문서의 일 실시예에 따른 제1 사용자의 글래스 타입 웨어러블 디바이스(100)는 상대방 디바이스(280)와 서버를 통해 연결될 수도 있다. 본 문서의 일 실시예에 따른 서버는, 기계 학습 및/또는 신경망을 이용한 지능형 서버를 포함할 수 있다. 도 2b 및 도 2c에서는 상대방 디바이스(280)의 예시로서 스마트 글래스가 도시되었으나, 상대방 디바이스(280)에 대한 실시예가 이에 의하여 제한되는 것은 아니다. 본 문서에서는, 외부 전자 장치의 예시로서 "상대방 디바이스(280)"라는 용어가 사용되나, 이것이 반드시 글래스 타입 웨어러블 디바이스(100)의 소유자와는 상이한 사용자에 의하여 소유된 디바이스만을 의미하는 것은 아니다. 본 문서의 다양한 실시예들에 따르면, "상대방 디바이스(280)"는 글래스 타입 웨어러블 디바이스(100)의 소유자에 의하여 소유되는 다양한 타입의 디바이스들을 포함할 수도 있다. Referring to FIG. 2B , the first user's glasses-type wearable device 100 according to an embodiment of the present document may be directly connected to an external electronic device (eg, the counterpart device 280) through a network. A network according to an embodiment of the present document is a first network (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network (eg, a legacy cellular network, 5G network, a next-generation communications network, the Internet, or a telecommunications network such as a computer network (eg, a LAN or WAN). Alternatively, as shown in FIG. 2C , the glasses-type wearable device 100 of the first user according to an embodiment of the present document may be connected to the counterpart device 280 through a server. A server according to an embodiment of the present document may include an intelligent server using machine learning and/or neural networks. Although smart glasses are shown as an example of the counterpart device 280 in FIGS. 2B and 2C , the embodiment of the counterpart device 280 is not limited thereto. In this document, the term “counterpart device 280” is used as an example of an external electronic device, but it does not necessarily mean only a device owned by a user different from the owner of the glasses-type wearable device 100. According to various embodiments of this document, the “counter device 280” may include various types of devices owned by the owner of the glasses-type wearable device 100.

도 3은, 본 문서의 일 실시예에 따른 트리거 이벤트에 따라 글래스 타입 웨어러블 디바이스(100)가 특정한 기능을 수행하는 기능 또는 동작을 설명하기 위한 예시 도면이다.FIG. 3 is an exemplary diagram for explaining a function or operation in which the glasses-type wearable device 100 performs a specific function according to a trigger event according to an embodiment of the present document.

도 3을 참조하면, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 310에서, 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b), 제3 그래픽 오브젝트(410c) 및 제4 그래픽 오브젝트(420))가 디스플레이 영역(400)에서 보여지도록 디스플레이 모듈(150)을 제어할 수 있다. 도 4는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스에 의해 보여지는 적어도 하나의 그래픽 오브젝트를 설명하기 위한 예시 도면이다. 도 4를 참조하면, 본 문서의 일 실시예에 따른 디스플레이 영역(400)은 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b), 제3 그래픽 오브젝트(410c) 및 제4 그래픽 오브젝트(420))가 가상 객체로서 디스플레이 되도록 설정된 영역을 의미할 수 있다. 본 문서의 일 실시예에 따르면, "글래스 타입 웨어러블 디바이스(100)의 시야각(field of view)" 및/또는 "디스플레이 모듈의 시야각"이라는 용어는, 디스플레이 영역(400) 자체의 크기(예: 디스플레이 영역(400)의 가로 및 세로의 길이, 또는 가로 및 세로의 각도 범위(예: 가로 50도, 세로 30도)) 또는 디스플레이 영역(400) 자체의 면적을 의미하는 용어로서 사용될 수 있다. 본 문서의 일 실시예에 따른 디스플레이 영역(400)에는, 글래스 타입 웨어러블 디바이스(100)와 동작이 가능하도록 연결된 적어도 하나의 상대방 디바이스(counterpart device)(280)와 대응하는 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b) 및 제3 그래픽 오브젝트(410c))가 디스플레이 될 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 제1 네트워크, 제2 네트워크 및/또는 서버를 통해 상대방 디바이스(280)의 정보를 수신하도록 설정될 수 있다. 본 문서의 일 실시예에 따른 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b) 및 제3 그래픽 오브젝트(410c))는, 예를 들면, 제1 사용자(예: 글래스 타입 웨어러블 디바이스(100)를 사용하는 사용자) 또는 제2 사용자(예: 상대방 디바이스(280)의 사용자)에 의하여 설정된 3차원 아바타(예: AR(augmented reality) 이모지), 영상 통화의 실행 화면, 콜 어플리케이션에 의하여 미리 설정된 음성 통화의 실행 화면 및/또는 메시지 어플리케이션 또는 특정한 어플리케이션(예: 컨퍼런스(conference)를 위한 어플리케이션)에 의하여 제공되는 형식에 따른, 텍스트 메시지를 포함하는 화면을 포함할 수 있다. 도 4에서는, 특정한 어플리케이션(예: 컨퍼런스(conference)를 위한 어플리케이션)을 통하여 특정한 세션(예: 컨퍼런스)이 진행 중인 상태가 예시적으로 도시된다. 도 4에서는, 제1 그래픽 오브젝트(410a)는 영상 통화의 실행 화면으로, 제2 그래픽 오브젝트(410b)는, 상대방 디바이스(280)에 의해 설정된 3차원 아바타로, 제3 그래픽 오브젝트(410c)는 특정한 어플리케이션에 의하여 제공되는 형식에 따른, 텍스트 메시지를 포함하는 화면으로 디스플레이 되는 실시예가 예시적으로 도시된다. 본 문서의 일 실시예에 따른, 적어도 하나의 상대방 디바이스(280)와 대응하는 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b) 및 제3 그래픽 오브젝트(410c))는 제2 사용자가 사용하는 디바이스에 의해 제공되는 디스플레이 형식에 따라 변형되어 디스플레이 될 수 있다. 예를 들어, 제1 그래픽 오브젝트(410a)에 대응하는 상대방 디바이스(280)가 2차원 평면 타입의 디스플레이를 구비한 스마트 폰인 경우, 적어도 하나의 그래픽 오브젝트(예: 제2 그래픽 오브젝트(410b) 및 제3 그래픽 오브젝트(410c))는 분할 화면(예: 멀티 윈도우 화면)을 통하여 2차원으로 상대방 디바이스(280)에 디스플레이 될 수 있다. 또한, 제1 그래픽 오브젝트(410a)에 대응하는 상대방 디바이스(280)가 웨어러블 디바이스(예: 글래스 타입 웨어러블 디바이스(100))인 경우, 적어도 하나의 그래픽 오브젝트(예: 제2 그래픽 오브젝트(410b) 및 제3 그래픽 오브젝트(410c))는 도 4에 도시된 바와 같이 3차원 공간에서 가상 객체로서 디스플레이 될 수 있다. 또한, 본 문서의 일 실시예에 따르면, 상대방 디바이스(280)가 2차원 평면 타입의 디스플레이를 구비한 스마트 폰인 경우에도 적어도 하나의 그래픽 오브젝트(예: 제2 그래픽 오브젝트(410b) 및 제3 그래픽 오브젝트(410c))는 3차원 객체로 디스플레이 될 수 있다. 또한, 본 문서의 일 실시예에 따르면, 상대방 디바이스(280)가 웨어러블 디바이스(예: 글래스 타입 웨어러블 디바이스(100))인 경우에도 적어도 하나의 그래픽 오브젝트(예: 제2 그래픽 오브젝트(410b) 및 제3 그래픽 오브젝트(410c))는 2차원 객체로 디스플레이 될 수 있다. 본 문서의 일 실시예에 따른 적어도 하나의 그래픽 오브젝트(예: 제4 그래픽 오브젝트(420))는, 특정한 어플리케이션(예: 동영상 제공 어플리케이션)의 실행 화면을 포함할 수 있다. 도 4에서는 제4 그래픽 오브젝트(420)로서 하나의 동영상 제공 어플리케이션의 실행 화면이 예시적으로 도시되었으나, 복수 개의 동영상 제공 어플리케이션들의 실행 화면이 제4 그래픽 오브젝트(420)로서 디스플레이 될 수 있으며, 서로 상이한 타입의 어플리케이션들(예: 갤러리 어플리케이션과 동영상 제공 어플리케이션)의 실행 화면이 제4 그래픽 오브젝트(420)로서 디스플레이 영역(420)에 디스플레이 될 수 있다. 본 문서의 일 실시예에 따르면, 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b), 제3 그래픽 오브젝트(410c) 및 제4 그래픽 오브젝트(420))가 디스플레이 영역(420)에서 디스플레이 되는 위치 및/또는 순서는 미리 지정되어 있을 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 제4 그래픽 오브젝트(420)가 디스플레이 영역의 실질적인 중심에 디스플레이 되고, 글래스 타입 웨어러블 디바이스(100)와 연결된 순서대로 디스플레이 영역(400)의 좌측 상단부터 반시계 방향으로 디스플레이 될 수 있다. Referring to FIG. 3 , the glasses-type wearable device 100 according to an embodiment of the present document, in operation 310, generates at least one graphic object (eg, a first graphic object 410a and a second graphic object 410b). , the display module 150 may be controlled so that the third graphic object 410c and the fourth graphic object 420 are displayed in the display area 400 . 4 is an exemplary diagram for explaining at least one graphic object displayed by a glasses-type wearable device according to an embodiment of the present document. Referring to FIG. 4 , a display area 400 according to an embodiment of the present document includes at least one graphic object (eg, a first graphic object 410a, a second graphic object 410b, and a third graphic object 410c). ) and a region where the fourth graphic object 420) is set to be displayed as a virtual object. According to one embodiment of this document, the terms “field of view of the glass-type wearable device 100” and/or “field of view of the display module” refer to the size of the display area 400 itself (eg, the display It may be used as a term meaning the horizontal and vertical lengths of the area 400, the horizontal and vertical angular ranges (eg, 50 degrees horizontally and 30 degrees vertically), or the area of the display area 400 itself. In the display area 400 according to an embodiment of the present document, at least one graphic object (e.g., : The first graphic object 410a, the second graphic object 410b, and the third graphic object 410c) may be displayed. The glasses-type wearable device 100 according to an embodiment of this document may be configured to receive information of the counterpart device 280 through the first network, the second network, and/or the server. At least one graphic object (eg, the first graphic object 410a, the second graphic object 410b, and the third graphic object 410c) according to an embodiment of the present document is, for example, a first user ( Example: A user using the glasses-type wearable device 100) or a 3D avatar (eg, an augmented reality (AR) emoji) set by a second user (eg, a user of the other device 280), a video call It may include an execution screen, an execution screen of a voice call preset by a call application and/or a screen including a text message according to a format provided by a message application or a specific application (eg, an application for a conference). can In FIG. 4 , a state in which a specific session (eg, a conference) is in progress through a specific application (eg, an application for a conference) is illustratively illustrated. In FIG. 4 , the first graphic object 410a is a video call execution screen, the second graphic object 410b is a 3D avatar set by the other party's device 280, and the third graphic object 410c is a specific An embodiment displayed on a screen including a text message according to a format provided by an application is shown as an example. According to an embodiment of the present document, at least one graphic object (eg, a first graphic object 410a, a second graphic object 410b, and a third graphic object 410c) corresponding to at least one counterpart device 280 )) may be displayed after being modified according to a display format provided by a device used by the second user. For example, when the counterpart device 280 corresponding to the first graphic object 410a is a smart phone having a 2D flat display, at least one graphic object (eg, the second graphic object 410b and the second graphic object 410b). 3 graphic objects 410c) may be displayed on the other device 280 in two dimensions through a split screen (eg, a multi-window screen). In addition, when the counterpart device 280 corresponding to the first graphic object 410a is a wearable device (eg, the glasses-type wearable device 100), at least one graphic object (eg, the second graphic object 410b and As shown in FIG. 4 , the third graphic object 410c may be displayed as a virtual object in a 3D space. In addition, according to an embodiment of the present document, even when the counterpart device 280 is a smart phone having a 2D flat display, at least one graphic object (eg, the second graphic object 410b and the third graphic object 410b) is provided. (410c)) may be displayed as a 3D object. Also, according to an embodiment of the present document, even when the counterpart device 280 is a wearable device (eg, the glasses-type wearable device 100), at least one graphic object (eg, the second graphic object 410b and the second graphic object 410b) The 3 graphic object 410c) may be displayed as a 2D object. At least one graphic object (eg, the fourth graphic object 420) according to an embodiment of the present document may include an execution screen of a specific application (eg, a video providing application). In FIG. 4 , the execution screen of one video providing application is illustratively shown as the fourth graphic object 420, but the execution screens of a plurality of video providing applications may be displayed as the fourth graphic object 420, and different Execution screens of types of applications (eg, a gallery application and a video providing application) may be displayed on the display area 420 as the fourth graphic object 420 . According to an embodiment of the present document, at least one graphic object (eg, a first graphic object 410a, a second graphic object 410b, a third graphic object 410c, and a fourth graphic object 420) A position and/or order displayed in the display area 420 may be pre-specified. For example, as shown in FIG. 4 , the fourth graphic object 420 is displayed at the substantial center of the display area, and the fourth graphic object 420 is displayed in half from the top left of the display area 400 in the order of being connected to the glass-type wearable device 100. It can be displayed clockwise.

본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 320에서, 사용자(예: 제1 사용자)의 제1 신체 일부가 제1 영역(예: 제1 영역(510a) 또는 제1 반경(510))에 위치하는지 여부를 식별할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 미리 저장된 탬플릿과 글래스 타입 웨어러블 디바이스(100)에 의해 획득된 이미지를 비교하여 사용자의 신체 일부를 식별할 수 있다. 또는, 본 문서의 다른 실시예에 따르면, 인공지능 모델에 따라 학습된 결과를 기반으로 사용자의 신체 일부를 식별할 수 있다. 본 문서의 일 실시예에 따른 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 본 문서의 일 실시예에 따른 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 도 5a는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)를 기준으로 동일한 중심을 가지도록 설정된 적어도 하나의 반경 영역(radius region)(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))을 설명하기 위한 예시 도면이다. 도 5b는, 본 문서의 일 실시예에 따른 사용자의 제1 신체 일부가 적어도 하나의 반경 영역 내에 위치하는지 여부를 판단하기 위한 방법으로서, 디스플레이 영역 내에 설정된 적어도 하나의 영역을 설명하기 위한 예시 도면이다. 본 문서의 일 실시예에 따른 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))은 예를 들면, 도 5a에 도시된 바와 같이, 사용자의 제1 신체 일부(예: 사용자의 오른손)을 기준으로 특정한 각도를 가지도록 설정된 2차원 영역 또는 3차원 영역을 의미할 수 있다. 또한, 본 문서의 다른 실시예에 따르면, 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))은 디스플레이 모듈(160)의 시야각을 기준으로 복수 개의 영역으로 분할된 2차원 영역 또는 3차원 영역을 의미할 수 있다. 도시되지는 않았으나, 적어도 하나의 반경 영역(예: 제1 반경 영역(510) 및 제2 반경 영역(520))은, 서로 상이한 중심(예: 오른손 및 왼손)을 가지도록 각각 설정될 수도 있다. 다른 말로, 사용자의 제1 신체 일부가 오른손인지 또는 왼손인지 여부에 따라 적어도 하나의 반경 영역(예: 제1 반경 영역(510) 및 제2 반경 영역(520))의 중심이 변경될 수도 있다. 본 문서의 일 실시예에 따르면, 글래스 타입 웨어러블 디바이스(100)가 사용자의 제1 신체 일부(예: 오른손)가 제1 영역(예: 제1 영역(510a) 또는 제1 반경 영역(510))에 위치하였는지 여부를 식별하기 위하여, 도 5b에 도시된 바와 같이, 디스플레이 영역(400)에 대해 적어도 하나의 영역(예: 제1 영역(510a), 제2 영역(520a), 제3 영역(530a))이 미리 설정되어 있을 수 있다. 본 문서의 일 실시예에 따르면, 적어도 하나의 영역(예: 제1 영역(510a), 제2 영역(520a), 제3 영역(530a))은 사용자의 설정에 의해서 그 크기, 면적 또는 개수가 변경될 수도 있다. 본 문서의 일 실시예에 따르면, 적어도 하나의 영역(예: 제1 영역(510a), 제2 영역(520a), 제3 영역(530a))은 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b), 제3 그래픽 오브젝트(410c) 및 제4 그래픽 오브젝트(420))가 보여지는 위치 및/또는 개수에 기반하여 결정될 수도 있다. 예를 들어, 사용자의 위치를 기준으로, 왼쪽보다 오른쪽에 더 많은 그래픽 오브젝트가 보여지고 있는 경우, 본 문서의 일 실시예에 따른 적어도 하나의 영역(예: 제1 영역(510a), 제2 영역(520a), 제3 영역(530a))의 면적은 사용자를 기준으로 오른쪽에 설정된 반경 영역(예: 제3 반경 영역(530))이 다른 반경 영역보다 더 넓은 면적을 커버하도록 설정될 수도 있다. In operation 320, the glass-type wearable device 100 according to an embodiment of the present document moves a first body part of a user (eg, the first user) to a first area (eg, the first area 510a or the first area 510a). It is possible to identify whether or not it is located within the radius 510 . The glasses-type wearable device 100 according to an embodiment of the present document may compare a pre-stored template with an image obtained by the glasses-type wearable device 100 to identify a part of the user's body. Alternatively, according to another embodiment of the present document, a part of the user's body may be identified based on a result learned according to an artificial intelligence model. An artificial intelligence model according to an embodiment of the present document may include a plurality of artificial neural network layers. Artificial neural networks according to an embodiment of this document include a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a restricted boltzmann machine (RBM), a deep belief network (DBN), and a BRDNN. (bidirectional recurrent deep neural network), deep Q-networks, or a combination of two or more of the above, but is not limited to the above examples. FIG. 5A shows at least one radius region (eg, a first radius region 510, a second radius region 510) set to have the same center with respect to the glass-type wearable device 100 according to an embodiment of the present document. It is an exemplary diagram for explaining the radius area 520 and the third radius area 530 . FIG. 5B is a method for determining whether a first body part of a user is located within at least one radial area according to an embodiment of the present document, and is an exemplary view for explaining at least one area set within a display area. . At least one radius area (eg, a first radius area 510, a second radius area 520, and a third radius area 530) according to an embodiment of the present document are shown in FIG. 5A, for example. As such, it may refer to a 2D area or a 3D area set to have a specific angle with respect to the user's first body part (eg, the user's right hand). Also, according to another embodiment of the present document, at least one radius area (eg, the first radius area 510 , the second radius area 520 , and the third radius area 530 ) of the display module 160 It may refer to a 2-dimensional area or a 3-dimensional area divided into a plurality of areas based on a viewing angle. Although not shown, at least one radius area (eg, the first radius area 510 and the second radius area 520) may be set to have different centers (eg, right hand and left hand). In other words, the center of at least one radius area (eg, the first radius area 510 and the second radius area 520) may be changed according to whether the user's first body part is the right hand or the left hand. According to an embodiment of the present document, the glass-type wearable device 100 provides a user's first body part (eg, right hand) to a first region (eg, the first region 510a or the first radius region 510). 5b, at least one area (eg, a first area 510a, a second area 520a, and a third area 530a) with respect to the display area 400, as shown in FIG. )) may be set in advance. According to an embodiment of the present document, the size, area, or number of at least one region (eg, the first region 510a, the second region 520a, and the third region 530a) may be changed by a user setting. It may be changed. According to an embodiment of the present document, at least one area (eg, the first area 510a, the second area 520a, and the third area 530a) includes at least one graphic object (eg, the first graphic object). 410a, the second graphic object 410b, the third graphic object 410c, and the fourth graphic object 420 may be determined based on the displayed position and/or number. For example, when more graphic objects are displayed on the right side than the left side based on the user's position, at least one area (eg, the first area 510a, the second area) according to an embodiment of the present document 520a, the third area 530a) may be set so that the radius area set to the right of the user (eg, the third radius area 530) covers a larger area than other radius areas.

본 문서의 일 실시예에 따른 적어도 하나의 영역(예: 제1 영역(510a), 제2 영역(520a), 제3 영역(530a))은 디스플레이 영역(400)의 좌표값을 기반으로 설정될 수 있다. 예를 들어, 디스플레이 영역(400)의 가로 좌표 값이 0에서 1000값을 가지도록 설정되어 있는 경우, 0 이상 200 이하까지는 제1 영역(510a)으로서, 200 초과부터 800이하까지는 제2 영역(510b)으로서, 800 초과부터 1000이하까지는 제3 영역(510c)으로서 지정될 수 있다. 이와 같이 지정된 적어도 하나의 영역(예: 제1 영역(510a), 제2 영역(520a), 제3 영역(530a))은 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))에 대응될 수 있다. 도 5c는, 본 문서의 일 실시예에 따른 제1 영역에 사용자의 제1 신체 일부가 위치함이 검출된 경우, 글래스 타입 웨어러블 디바이스에 의해 사용자의 제1 신체 일부가 제1 반경 영역(510)에 위치하였다고 판단되는 기능 또는 동작을 설명하기 위한 예시 도면이다. 도 5c에 도시된 바와 같이, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 제1 신체 일부(예: 오른손)가 제1 영역(510a)에 위치함이 검출된 경우, 사용자의 제1 신체 일부가 제1 반경 영역(510)에 위치하였다고 식별할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 신체 일부가 미리 설정된 임계 면적 이상으로 특정한 영역(예: 제1 영역(510a))에 위치함을 검출한 경우, 사용자의 신체 일부가 특정한 영역(예: 제1 영역(510a))위치하였음을 검출할 수 있다. 예를 들어, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 신체 일부(예: 오른손)가 제2 영역(520a) 및 제3 영역(530a))에 걸쳐있는 경우, 사용자의 신체 일부의 더 많은 면적을 포함하는 영역에 사용자의 신체 일부가 위치하였다고 검출(예: 판단)할 수 있다. 본 문서의 일 실시예에 따른 웨어러블 디바이스(100)는 적어도 하나의 카메라(예: 제1 카메라(111))를 이용하여 사용자의 제1 신체 일부를 식별할 수 있다. 도 5d 및 도 5e는, 본 문서의 일 실시예에 따른 제1 영역(510a)을 기준으로 설정된 공간(예: 제1 공간(512)) 내에 사용자의 제1 신체 일부가 위치하였음이 검출된 경우, 글래스 타입 웨어러블 디바이스(100)에 의해 사용자의 제1 신체 일부가 제1 반경 영역(510)에 위치하였다고 판단되는 기능 또는 동작을 설명하기 위한 예시 도면들이다. 본 문서의 다른 실시예에 따르면, 제1 영역(510a)을 기준으로 미리 또는 사용자의 설정에 따라 설정된 공간(예: 제1 공간(512))에 사용자의 제1 신체 일부가 위치함이 검출된 경우, 본 문서의 일 실시예에 따른 웨어러블 디바이스(100)는 사용자의 제1 신체 일부가 적어도 하나의 반경 영역(예: 제1 반경 영역(510))에 위치하였다고 식별할 수 있다. 이 경우, 도 5e에 도시된 바와 같이, 사용자의 제1 신체 일부가 디스플레이 영역(400)상에 포함되지 않더라도 제1 반경 영역(510)에 위치하였다고 글래스 타입 웨어러블 디바이스(100)에 의해 식별될 수 있다. 도 5f는, 본 문서의 다른 실시예에 따라 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))이 설정된 경우를 설명하기 위한 예시 도면이다. 도 5g 및 도 5h는, 본 문서의 다른 실시예에 따라 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))이 설정된 경우, 글래스 타입 웨어러블 디바이스(100)에 의해 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))내에 사용자의 제1 신체 일부가 위치하였음이 검출되는 기능 또는 동작을 설명하기 위한 예시 도면들이다. 도 5f를 참조하면, 본 문서의 일 실시예에 따른 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및 제3 반경 영역(530))은, 도 5f에 도시된 바와 같이 사용자로부터 점점 멀어지는 형태로(예: 사용자의 위치를 기준으로 가로 방향으로) 설정될 수도 있다. 이 경우, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 제2 신체 일부(예: 팔꿈치 또는 팔꿈치와 반대 방향으로서 팔이 접히는 부분)가 글래스 타입 웨어러블 디바이스(100)로부터 이격된 거리를 기반으로, 사용자의 제1 신체 일부(예: 오른손)가 특정한 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 또는 제3 반경 영역(530))에 위치하는지 여부를 판단할 수 있다. 다른 말로, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 팔을 뻗는 정도(예: 팔의 길이)에 따라 서로 상이한 반경 영역을 선택할 수 있다. 예를 들어, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 제2 신체 일부(예: 팔꿈치)가 보이지 않는 범위 내에서는 사용자의 제1 신체 일부(예: 오른손)가 제1 반경 영역(510)에 포함되었다고 판단할 수 있다. 이에 따르면, 도 5g에 도시된 실시예에서는, 사용자의 신체 일부(예: 오른손)가 제1 반경 영역(510)에 포함되었다고 글래스 타입 웨어러블 디바이스(100)에 의해 식별될 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 제2 신체 일부(예: 팔꿈치)가 검출되기 시작한 위치로부터 미리 지정된 거리만큼 팔꿈치가 이동된 거리 내에서 사용자의 신체 일부(예: 오른손)가 검출된 경우에는, 사용자의 신체 일부(예: 오른손)가 제2 반경 영역(520)에 포함되었다고 판단할 수 있다. 이에 따르면, 도 5h에 도시된 실시예에서는, 사용자의 제1 신체 일부(예: 오른손)가 제2 반경 영역(520)에 포함되었다고 글래스 타입 웨어러블 디바이스(100)에 의해 식별될 수 있다. 본 문서의 일 실시예에 따른 사용자의 제1 신체 일부(예: 사용자의 신체 일부가 반경 영역에 포함되었다고 식별되는 기준이 되는 신체 일부)와 사용자의 제2 신체 일부(예: 어느 반경 영역에 포함되었는지를 판단하기 위한 기준이 되는 신체 일부)는 미리 지정되어 있을 수 있다. 도 5i를 참조하면, 본 문서의 일 실시예에 따른 반경 영역(예: 제1 반경 영역(510) 및 제2 반경 영역(520))은, 도 5i에 도시된 바와 같이 서로 상이한 중심을 기준으로 설정될 수도 있다. 이 경우에도 본 문서의 일 실시예에 따른 반경 영역(예: 제1 반경 영역(510) 및 제2 반경 영역(520))에 대응하는 디스플레이 영역(400)의 특정한 영역(예: 제1 영역(510a) 및 제2 영역(520a))이 미리 설정되어 있을 수 있다. 또한, 도 5g 및 도 5h에 도시된, 특정한 영역이 선택되었음을 나타내기 위한 음영 효과는 사용자에게 보여지지 않을 수도 있다. At least one area (eg, the first area 510a, the second area 520a, and the third area 530a) according to an embodiment of the present document may be set based on the coordinate values of the display area 400. can For example, when the horizontal coordinate value of the display area 400 is set to have a value from 0 to 1000, the first area 510a is formed from 0 to 200, and the second area 510b is from more than 200 to 800 or less. ), from more than 800 to less than 1000 may be designated as the third area 510c. At least one area (eg, the first area 510a, the second area 520a, and the third area 530a) designated as described above may include at least one radius area (eg, the first radius area 510, the second area 510, the second area 510a, the second area 510a, the second area 510a) It may correspond to the radius area 520 and the third radius area 530 . 5C , when it is detected that the user's first body part is located in the first area according to an embodiment of the present document, the user's first body part is located in the first radius area 510 by the glass-type wearable device. It is an exemplary diagram for explaining a function or operation determined to be located in . As shown in FIG. 5C , when the glass-type wearable device 100 according to an embodiment of the present document detects that the user's first body part (eg, right hand) is located in the first region 510a, , it may be identified that the user's first body part is located in the first radius area 510 . When the glasses-type wearable device 100 according to an embodiment of the present document detects that a part of the user's body is located in a specific area (eg, the first area 510a) greater than or equal to a preset critical area, the user's It may be detected that the body part is located in a specific region (eg, the first region 510a). For example, in the glass-type wearable device 100 according to an embodiment of the present document, when a part of the user's body (eg, the right hand) spans the second region 520a and the third region 530a, It may be detected (eg, determined) that the user's body part is located in an area including a larger area of the user's body part. The wearable device 100 according to an embodiment of the present document may identify a first body part of the user by using at least one camera (eg, the first camera 111). 5D and 5E show a case in which it is detected that a first body part of the user is located within a space set based on the first area 510a (eg, the first space 512) according to an embodiment of the present document. , These are exemplary drawings for explaining functions or operations in which the first body part of the user is determined to be located in the first radial region 510 by the glasses-type wearable device 100 . According to another embodiment of the present document, it is detected that the user's first body part is located in a space (eg, the first space 512) set in advance or according to the user's setting based on the first area 510a. In this case, the wearable device 100 according to an embodiment of the present document may identify that the user's first body part is located in at least one radius area (eg, the first radius area 510). In this case, as shown in FIG. 5E , even if the user's first body part is not included on the display area 400, it can be identified by the glass-type wearable device 100 as being located in the first radius area 510. there is. 5F illustrates a case in which at least one radius area (eg, a first radius area 510, a second radius area 520, and a third radius area 530) is set according to another embodiment of the present document. This is an example drawing for 5g and 5h show cases in which at least one radius area (eg, a first radius area 510, a second radius area 520, and a third radius area 530) is set according to another embodiment of the present document. , the user's first body part is located within at least one radius area (eg, the first radius area 510, the second radius area 520, and the third radius area 530) by the glass-type wearable device 100. These are exemplary drawings for explaining a function or operation in which location is detected. Referring to FIG. 5F , radial areas (eg, a first radius area 510, a second radius area 520, and a third radius area 530) according to an embodiment of the present document are shown in FIG. 5F. As such, it may be set in a form gradually moving away from the user (eg, horizontally based on the user's location). In this case, in the glasses-type wearable device 100 according to an embodiment of the present document, the user's second body part (eg, the elbow or the part where the arm is folded in the opposite direction to the elbow) is moved from the glass-type wearable device 100. Based on the spaced distance, the user's first body part (eg, right hand) is in a specific radius area (eg, the first radius area 510, the second radius area 520, or the third radius area 530). location can be determined. In other words, the glass-type wearable device 100 according to an embodiment of the present document may select different radius regions according to the extent to which the user's arm is extended (eg, arm length). For example, in the glass-type wearable device 100 according to an embodiment of the present document, within a range where the user's second body part (eg, elbow) is invisible, the user's first body part (eg, right hand) It can be determined that it is included in the first radius area 510 . According to this, in the embodiment illustrated in FIG. 5G , it may be identified by the glasses-type wearable device 100 that the user's body part (eg, right hand) is included in the first radius region 510 . The glasses-type wearable device 100 according to an embodiment of the present document detects a part of the user's body (eg, the elbow) within a distance where the elbow is moved by a predetermined distance from a position where the second body part (eg, elbow) of the user is detected. When the user's body part (eg, the right hand) is detected, it may be determined that the second radius area 520 includes the user's body part. According to this, in the embodiment illustrated in FIG. 5H , the glass-type wearable device 100 may identify that the user's first body part (eg, right hand) is included in the second radius area 520 . According to an embodiment of the present document, the user's first body part (eg, a body part that is a criterion for identifying that the user's body part is included in a radial area) and the user's second body part (eg, included in a radius area) A body part that is a criterion for determining whether or not the body part) may be designated in advance. Referring to FIG. 5I, radius areas (eg, a first radius area 510 and a second radius area 520) according to an embodiment of the present document are based on different centers as shown in FIG. 5I. may be set. Even in this case, a specific area (eg, the first area (eg, the first area (eg, the first area (eg, the first area (eg, the first area)) 510a) and the second area 520a) may be set in advance. Also, the shading effect shown in FIGS. 5G and 5H to indicate that a specific area is selected may not be visible to the user.

본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 330에서, 사용자의 신체 일부(예: 오른손)가 제1 영역(예: 제1 영역(510a))에 위치함에 기반하여, 제1 영역(예: 제1 영역(510a))에 대응하는 그룹을 식별할 수 있다. 도 6a 및 도 6b는, 본 문서의 일 실시예에 따른 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및/또는 제3 반경 영역(530))에 대응하도록 미리 설정된 그룹을 설명하기 위한 예시 도면들이다. 도 6a를 참조하면, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 제1 그래픽 오브젝트(410a)에 대응하는 상대방 디바이스(280)와 제2 그래픽 오브젝트(410b)에 대응하는 상대방 디바이스(280)가 서로 동일한 그룹임을 식별할 수 있다. 본 문서의 일 실시예에 따른 그룹은, 적어도 하나의 반경 영역(예: 제1 반경 영역(510), 제2 반경 영역(520) 및/또는 제3 반경 영역(530))에 대응하도록 설정되어 있을 수 있다. 도 6a에서는, 제1 그래픽 오브젝트(410a)에 대응하는 상대방 디바이스(280)와 제2 그래픽 오브젝트(410b)에 대응하는 상대방 디바이스가 서로 동일한 그룹에 속하도록 사용자에 의하여 미리(예: 컨퍼런스 어플리케이션이 실행되기 전에) 설정되어 있는 실시예가 예시적으로 도시된다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 사용자의 제1 신체 일부(예: 오른손)가 제1 반경 영역(510)내에 위치하였음을 검출한 경우, 제1 반경 영역(510)에 대응하여 설정된 제1 그룹에 속하는 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a) 및 제2 그래픽 오브젝트(410b))주변에 시각적 효과(예: 테두리)를 디스플레이 할 수 있다. 다만, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 시각적 효과 이외에도/시각적 효과와 함께 청각적 효과(예: 미리 지정된 사운드) 및/또는 촉각적 효과(예: 미리 지정된 세기의 진동)를 글래스 타입 웨어러블 디바이스(100)를 통해 제공할 수 있다. 도 6a에서는, 본 문서의 일 실시예에 따른 제1 그래픽 오브젝트(410a) 및 제2 그래픽 오브젝트(410b)가 제1 반경 영역(510)에 대응하는 하나의 그룹으로 설정되어 있는 경우가 예시적으로 도시되며, 도 6b에서는, 본 문서의 일 실시예에 따른 제1 그래픽 오브젝트(410a)가 제1 반경 영역(510)에 대응하는 하나의 그룹으로 설정되어 있는 경우가 예시적으로 도시된다. In operation 330, the glasses-type wearable device 100 according to an embodiment of the present document, based on the location of the user's body part (eg, the right hand) in the first area (eg, the first area 510a), A group corresponding to the first area (eg, the first area 510a) may be identified. 6A and 6B show at least one radius area (eg, a first radius area 510, a second radius area 520, and/or a third radius area 530) according to an embodiment of the present document. These are exemplary drawings for explaining groups preset to correspond. Referring to FIG. 6A , the glasses-type wearable device 100 according to an embodiment of the present document includes a counterpart device 280 corresponding to a first graphic object 410a and a counterpart device 280 corresponding to a second graphic object 410b. Devices 280 may be identified as being in the same group. A group according to an embodiment of the present document is set to correspond to at least one radius area (eg, a first radius area 510, a second radius area 520, and/or a third radius area 530) There may be. In FIG. 6A , the counterpart device 280 corresponding to the first graphic object 410a and the counterpart device corresponding to the second graphic object 410b belong to the same group by the user in advance (eg, a conference application is executed). before) is shown as an example. When the glass-type wearable device 100 according to an embodiment of the present document detects that the user's first body part (eg, right hand) is located within the first radius area 510, the first radius area 510 ), a visual effect (eg, a border) may be displayed around at least one graphic object (eg, the first graphic object 410a and the second graphic object 410b) belonging to the set first group. However, the glass-type wearable device 100 according to an embodiment of the present document provides an auditory effect (eg, a pre-specified sound) and/or a tactile effect (eg, a pre-specified intensity) in addition to/with a visual effect. vibration) may be provided through the glass-type wearable device 100 . In FIG. 6A , a case in which the first graphic object 410a and the second graphic object 410b according to an embodiment of the present document are set as one group corresponding to the first radius area 510 is illustratively illustrated. 6B, a case in which the first graphic object 410a according to an embodiment of the present document is set as one group corresponding to the first radius area 510 is illustrated as an example.

본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 340에서, 사용자의 제1 신체 일부가 제1 영역(예: 제1 반경 영역(510))에 위치하는 동안에, 트리거 이벤트가 검출되는지 여부를 식별할 수 있다. 본 문서의 일 실시예에 따른 트리거 이벤트는, 사용자의 제1 신체 일부(예: 오른손)에 의한, 미리 지정된 제스처(예: 트리거 제스처)의 검출 또는 사용자의 음성 명령의 검출을 포함할 수 있다. 본 문서의 일 실시예에 따르면, 트리거 이벤트가 음성 명령의 검출을 포함하는 경우, 사용자의 제1 신체 일부의 위치는 제1 영역에 위치하고 있는 상태일 수 있다. 다만, 본 문서의 다른 실시예에 따르면, 사용자의 제1 신체 일부의 위치는 제1 영역에 위치하고 있지 않은 상태일 수도 있다. 도 7a 및 도 7b는, 본 문서의 일 실시예에 따른 트리거 제스처를 설명하기 위한 예시 도면들이다. 도 7a에서는, 하트 제스처가 트리거 제스처의 예시로서 도시된다. 도 7b에서는, 엄지손가락을 치켜 세운 채로 상하로 손을 움직이는 제스처가 트리거 제스처의 예시로서 도시된다. 본 문서의 다른 실시예에 따르면, 트리거 이벤트는 사용자의 표정 변화 및/또는 눈동자의 움직임을 검출하는 이벤트를 포함할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 적어도 하나의 카메라(예: 제2 카메라(112))를 통하여 획득된 사용자의 얼굴 이미지를 이용하여 사용자의 표정 변화 및/또는 눈동자의 움직임을 검출할 수 있다. In operation 340, the glass-type wearable device 100 according to an embodiment of the present document receives a trigger event while a first body part of the user is located in a first area (eg, the first radius area 510). It can be identified whether it is detected or not. A trigger event according to an embodiment of the present document may include detection of a predetermined gesture (eg, trigger gesture) by a user's first body part (eg, right hand) or detection of a user's voice command. According to an embodiment of the present document, when the trigger event includes detection of a voice command, the location of the user's first body part may be in a state of being located in the first region. However, according to another embodiment of the present document, the position of the user's first body part may be in a state not located in the first region. 7A and 7B are exemplary diagrams for describing a trigger gesture according to an embodiment of the present document. In Fig. 7a, a heart gesture is shown as an example of a trigger gesture. In FIG. 7B , a gesture of moving a hand up and down with a thumb raised is shown as an example of a trigger gesture. According to another embodiment of the present document, the trigger event may include an event of detecting a change in facial expression of the user and/or a movement of the pupil. The glasses-type wearable device 100 according to an embodiment of the present document may change the user's facial expression and/or detect pupils by using the user's face image obtained through at least one camera (eg, the second camera 112). movement can be detected.

본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 350에서, 트리거 이벤트가 검출됨에 기반하여, 식별된 그룹에 포함되는 상대방 디바이스(280)에 대해, 트리거 이벤트에 대응하는 기능을 수행할 수 있다. 도 8은, 본 문서의 일 실시예에 따른 트리거 이벤트(예: 트리거 제스처를 검출)에 따라 글래스 타입 웨어러블 디바이스(100)에 의해 특정한 기능이 수행되는 기능 또는 동작을 설명하기 위한 예시 도면이다. 도 8에서는, 트리거 제스처(예: 하트 제스처)가 검출된 경우, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)에 의해, 특정한 그룹에 속하는 상대방 디바이스(280)로 검출된 트리거 제스처(예: 하트 제스처)에 대응하는 기능(예: 하트를 포함하는 메시지 전송)이 수행되는 실시예가 예시적으로 도시된다. 본 문서의 일 실시예에 따른 트리거 제스처에 대응하는 메시지는, 상대방 디바이스가 스마트 폰을 이용한 영상 통화를 통하여 해당 세션(예: 회의)에 참석하고 있는 경우, 영상 통화의 실행 화면에 디스플레이(예: 2차원으로 디스플레이) 될 수 있다. 또는, 본 문서의 일 실시예에 따른 트리거 제스처에 대응하는 메시지는, 도 8에 도시된 바와 같이 특정한 어플리케이션에서 제공되는 채팅 윈도우에서 이모티콘(810)의 형식으로 디스플레이(예: 3차원으로 디스플레이) 될 수도 있다. 또는, 본 문서의 일 실시예에 따른 트리거 제스처에 대응하는 메시지는, 상대방 디바이스(280)에 대해서 SMS 메시지로 전송될 수도 있다. 도 8을 참조하여 설명하면, 본 문서의 일 실시예에 따른 트리거 제스처에 대응하는 메시지는, 제1 반경 영역(510)에 대응하는 그룹에 포함되는 상대방 디바이스(280)(예: 제1 그래픽 오브젝트(410a)에 대응하는 상대방 디바이스 및 제2 그래픽 오브젝트(410b)에 대응하는 상대방 디바이스) 모두에 대해 전송될 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 트리거 제스처에 대응하는 메시지를 상대방 디바이스(280)에 전송하기 위하여, 특정한 그룹에 속하는 상대방 디바이스(280)를 식별하는 기능 또는 동작을 수행할 수 있다. 본 문서의 일 실시예에 따르면, 시각적 효과(610)가 표시된 이후에는, 사용자가 제1 신체 일부를 제1 영역(예: 제1 반경 영역(510))으로부터 벗어나도록 위치하여도 시각적 효과(610)의 디스플레이 상태는 유지될 수 있으며, 트리거 이벤트의 검출에 따른 특정한 기능이 제1 영역(예: 제1 반경 영역(510))에 대응하는 그룹에 포함되는 상대방 디바이스(280)(예: 제1 그래픽 오브젝트(410a)에 대응하는 상대방 디바이스 및 제2 그래픽 오브젝트(410b)에 대응하는 상대방 디바이스) 모두에 대해 수행될 수 있다. 또는, 시각적 효과(610)가 표시된 이후, 사용자가 제1 신체 일부를 제1 영역(예: 제1 반경 영역(510))으로부터 벗어나도록 위치한 경우에는, 시각적 효과(610)는 더 이상 디스플레이 되지 않을 수 있으며, 트리거 이벤트가 검출(예: 하트 제스처의 검출)되더라도 글래스 타입 웨어러블 디바이스(100)에 의해 특정한 기능이 수행되지 않도록 제어될 수 있다. 본 문서의 다른 실시예에 따르면, 사용자의 눈동자의 움직임이 미리 지정된 거리 이상으로 움직이거나, 사용자의 표정 변화가 제1 상태에서 제2 상태로 변경됨이 검출된 경우, 글래스 타입 웨어러블 디바이스(100)는, 특정한 기능을 수행할 수 있다. 본 문서의 일 실시예에 따르면, 글래스 타입 웨어러블 디바이스(100)가 사용자의 표정 변화를 검출하기 위하여 메모리(140)에 저장된, 표정에 대한 탬플릿을 이용할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는 탬플릿과 획득된 이미지에서의 사용자의 표정을 비교하여 매칭 비율이 미리 지정된 비율 이상인 경우, 사용자의 표정이 특정한 상태(예: 웃는 상태)에 있다고 판단할 수 있다. 또는, 사용자의 표정을 판단히는 기능 또는 동작은 인공지능 모델에 의하여 학습될 수도 있다. The glasses-type wearable device 100 according to an embodiment of the present document, in operation 350, based on the detection of the trigger event, performs a function corresponding to the trigger event on the counterpart device 280 included in the identified group. can be done 8 is an exemplary diagram for explaining a function or operation in which a specific function is performed by the glasses-type wearable device 100 according to a trigger event (eg, detection of a trigger gesture) according to an embodiment of the present document. In FIG. 8 , when a trigger gesture (eg, a heart gesture) is detected, the trigger gesture (detected by the glasses-type wearable device 100 according to an embodiment of the present document to the counterpart device 280 belonging to a specific group) Example: An embodiment in which a function corresponding to a heart gesture (eg, message transmission including a heart) is performed is shown as an example. A message corresponding to a trigger gesture according to an embodiment of the present document is displayed on the execution screen of a video call (eg, a meeting) when the counterpart device is participating in a corresponding session (eg, a meeting) through a video call using a smart phone. can be displayed in two dimensions). Alternatively, a message corresponding to a trigger gesture according to an embodiment of the present document may be displayed (eg, displayed in three dimensions) in the form of an emoticon 810 in a chat window provided in a specific application, as shown in FIG. 8 . may be Alternatively, a message corresponding to a trigger gesture according to an embodiment of the present document may be transmitted as an SMS message to the counterpart device 280 . Referring to FIG. 8 , a message corresponding to a trigger gesture according to an embodiment of the present document is sent to the counterpart device 280 (eg, the first graphic object) included in the group corresponding to the first radius area 510. It can be transmitted to both the counterpart device corresponding to (410a) and the counterpart device corresponding to the second graphic object (410b). The glasses-type wearable device 100 according to an embodiment of this document performs a function or operation of identifying a counterpart device 280 belonging to a specific group in order to transmit a message corresponding to a trigger gesture to the counterpart device 280. can be done According to an embodiment of the present document, after the visual effect 610 is displayed, even if the user places the first body part away from the first area (eg, the first radius area 510), the visual effect 610 ) may be maintained, and the counterpart device 280 (eg, the first radius area 510) in which a specific function according to the detection of the trigger event is included in the group corresponding to the first area (eg, the first radius area 510). It can be performed on both the counterpart device corresponding to the graphic object 410a and the counterpart device corresponding to the second graphic object 410b. Alternatively, after the visual effect 610 is displayed, if the user places the first body part away from the first area (eg, the first radius area 510), the visual effect 610 may no longer be displayed. Also, even when a trigger event is detected (eg, detection of a heart gesture), a specific function may be controlled not to be performed by the glasses-type wearable device 100 . According to another embodiment of the present document, when it is detected that the movement of the user's pupil moves by a predetermined distance or more or the change in the user's facial expression changes from the first state to the second state, the glasses-type wearable device 100 , can perform a specific function. According to an embodiment of the present document, the glasses-type wearable device 100 may use a facial expression template stored in the memory 140 to detect a change in the user's facial expression. The glass-type wearable device 100 according to an embodiment of the present document compares the user's facial expression in the template and the obtained image, and when the matching ratio is equal to or greater than a predetermined ratio, the user's facial expression is in a specific state (eg, a smiling state). can be judged to be in Alternatively, the function or operation of determining the user's facial expression may be learned by an artificial intelligence model.

도 9는, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스에 의해, 글래스 타입 웨어러블 디바이스와 동작 가능하도록 연결된 외부 전자 장치로부터의 통신 신호의 수신에 따라 적어도 하나의 상대방 디바이스와 통신을 수행(예: 문자 메시지의 전송)하는 기능 또는 동작을 설명하기 위한 예시 도면이다.9 illustrates communication with at least one counterpart device according to reception of a communication signal from an external electronic device operatively connected to the glasses-type wearable device by the glasses-type wearable device according to an embodiment of the present document (example : It is an exemplary diagram for explaining a function or operation of transmitting a text message).

도 9를 참조하면, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 910에서, 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b), 제3 그래픽 오브젝트(410c) 및 제4 그래픽 오브젝트(420))가 디스플레이 영역(400)에서 보여지도록 디스플레이 모듈(150)을 제어할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 920에서, 사용자(예: 제1 사용자)의 제1 신체 일부가 제1 영역(예: 제1 영역(510a) 또는 제1 반경(510))에 위치하는지 여부를 식별할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 930에서, 사용자의 신체 일부(예: 오른손)가 제1 영역(예: 제1 영역(510a))에 위치함에 기반하여, 제1 영역(예: 제1 영역(510a))에 대응하는 그룹을 식별할 수 있다. 본 문서의 일 실시예에 따른 동작 910 내지 930에 대해서는, 상술한 동작 310 내지 330에 대한 설명이 동일하게 적용될 수 있으므로, 상세한 설명을 생략하기로 한다.Referring to FIG. 9 , the glasses-type wearable device 100 according to an embodiment of the present document, in operation 910, generates at least one graphic object (eg, a first graphic object 410a and a second graphic object 410b). , the display module 150 may be controlled so that the third graphic object 410c and the fourth graphic object 420 are displayed in the display area 400 . In operation 920, the glass-type wearable device 100 according to an embodiment of the present document moves a first body part of a user (eg, the first user) to a first area (eg, the first area 510a or the first area 510a). It is possible to identify whether it is located within the radius 510). The glasses-type wearable device 100 according to an embodiment of the present document, in operation 930, based on the location of the user's body part (eg, the right hand) in the first area (eg, the first area 510a), A group corresponding to the first area (eg, the first area 510a) may be identified. For the operations 910 to 930 according to an embodiment of the present document, since the description of the above-described operations 310 to 330 may be equally applicable, a detailed description thereof will be omitted.

본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 940에서, 외부 전자 장치(예: 스마트 폰)(1000)로부터, 식별된 그룹(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))에 속하는 상대방 디바이스(280)와 통신을 수행(예: 스마트 폰에 입력된 문자 메시지의 전송)하기 위한 요청을 수신할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 950에서, 수신된 요청에 기반하여, 상대방 디바이스와 통신을 수행할 수 있다. 도 10a, 도 10b 및 도 10c는, 도 9에서 설명된 기능 또는 동작을 그래픽 사용자 인터페이스 관점에서 설명하기 위한 예시 도면들이다. 본 문서의 일 실시예에 따른 외부 전자 장치(예: 스마트 폰)는, 유선 통신 또는 무선 통신을 통하여 글래스 타입 웨어러블 디바이스(100)와 동작 가능하도록 연결되어 있을 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 외부 전자 장치(예: 스마트 폰)로부터 도 10b에 도시된 바와 같이 외부 전자 장치의 "전송(send)" 버튼(1020)이 선택되었음을 나타내는 신호를 수신한 경우, 외부 전자 장치로부터 입력된 텍스트에 관한 정보를 전송 받아 식별된 그룹(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))에 속하는 상대방 디바이스(280)로 문자 메시지를 전송할 수 있다. 본 문서의 일 실시예에 따르면, 문자 메시지가 전송된 후, 도 10c에 도시된 바와 같이, 전송된 텍스트(1030)를 어플리케이션(예: 문자 메시지 어플리케이션)의 실행 화면(1010) 상에 디스플레이 할 수 있다. 본 문서의 다른 실시예에 따르면, 외부 전자 장치(예: 스마트 폰)로부터 도 10b에 도시된 바와 같이 외부 전자 장치(1000)의 "전송(send)" 버튼(1020)이 선택되었음을 나타내는 신호를 수신한 경우, 외부 전자 장치(1000)를 제어하여 입력된 텍스트(예: Hello)를 포함하는 문자 메시지가 식별된 상대방 디바이스(280)로 전송되도록 외부 전자 장치(1000)를 제어할 수도 있다. 본 문서의 일 실시예에 따르면, 동작 940 및 동작 950이 수행되는 동안에, 사용자의 제1 신체 일부(예: 오른손)의 위치는 제1 영역(예: 제1 반경 영역(510))에서 유지되지 않을 수 있다. 도 10b 및 도 10c에서는, 도 10a에 도시된 바와 같은 사용자의 제1 신체 일부(예: 오른손)의 검출에 따라 특정한 그룹이 식별된 후, 사용자의 제1 신체 일부(예: 오른손)의 위치가 제1 영역(예: 제1 반경 영역(510))에서 유지되지 않는 실시예가 예시적으로 도시된다. 그러나, 본 문서의 다른 실시예에 따르면, 동작 940 및 동작 950은, 동작 930이 수행되는 시점으로부터 사용자의 제1 신체 일부(예: 오른손)의 위치가 제1 영역(예: 제1 반경 영역(510))에서 유지되어야 수행될 수도 있다. In operation 940, the glasses-type wearable device 100 according to an embodiment of the present document displays the identified group (eg, the first graphic object 410a and the second graphic object 410a) from the external electronic device (eg, smart phone) 1000. 3) may receive a request for communication with the counterpart device 280 belonging to the graphic object 410c (eg, transmission of a text message input to a smart phone). In operation 950, the glasses-type wearable device 100 according to an embodiment of the present document may perform communication with a counterpart device based on the received request. 10A, 10B, and 10C are exemplary diagrams for explaining the function or operation described in FIG. 9 from the viewpoint of a graphic user interface. An external electronic device (eg, a smart phone) according to an embodiment of the present document may be operably connected to the glass-type wearable device 100 through wired or wireless communication. In the glass-type wearable device 100 according to an embodiment of the present document, a “send” button 1020 of an external electronic device (eg, a smart phone) is selected as shown in FIG. 10B from an external electronic device. When receiving a signal indicating that it has been received, the other device 280 that belongs to the identified group (eg, the first graphic object 410a and the third graphic object 410c) by receiving information on the input text from the external electronic device You can send text messages to According to an embodiment of the present document, after a text message is transmitted, as shown in FIG. 10C , the transmitted text 1030 may be displayed on the execution screen 1010 of an application (eg, a text message application). there is. According to another embodiment of the present document, a signal indicating that a “send” button 1020 of the external electronic device 1000 is selected is received from an external electronic device (eg, a smart phone) as shown in FIG. 10B. In one case, the external electronic device 1000 may be controlled so that a text message including input text (eg, Hello) is transmitted to the identified counterpart device 280 by controlling the external electronic device 1000 . According to an embodiment of the present document, while operations 940 and 950 are performed, the position of the user's first body part (eg, the right hand) is not maintained in the first area (eg, the first radial area 510). may not be In FIGS. 10B and 10C , after a specific group is identified according to the detection of the user's first body part (eg, right hand) as shown in FIG. 10A , the location of the user's first body part (eg, right hand) is determined. An embodiment not maintained in the first area (eg, the first radius area 510) is illustrated as an example. However, according to another embodiment of the present document, in operations 940 and 950, the location of the user's first body part (eg, right hand) from the time point at which operation 930 is performed is determined in a first area (eg, a first radius area ( 510)) may be performed.

도 11은, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)가 공유 제스처(예: 드래그 앤 드롭)를 검출한 경우, 적어도 하나의 컨텐트(예: 제5 컨텐트(1225))를 적어도 하나의 상대방 디바이스(280)와 공유하는 기능 또는 동작을 설명하기 위한 예시 도면이다. 도 12a, 도 12b 및 도 12c는, 도 11에서 설명된 기능 또는 동작을 그래픽 사용자 인터페이스 관점에서 설명하기 위한 예시 도면들이다.FIG. 11 shows at least one content (eg, fifth content 1225) when the glasses-type wearable device 100 according to an embodiment of the present document detects a sharing gesture (eg, drag and drop). It is an exemplary diagram for explaining a function or operation shared with one counterpart device 280 . 12A, 12B, and 12C are exemplary diagrams for describing the function or operation described in FIG. 11 from the viewpoint of a graphic user interface.

도 11을 참조하면, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1110에서, 적어도 하나의 컨텐트(예: 제5 컨텐트(1225))를 공유하기 위한 요청을 수신할 수 있다. 본 문서의 일 실시예에 따른, 적어도 하나의 컨텐트(예: 제5 컨텐트(1225))를 공유하기 위한 요청은 예를 들어, 디스플레이 영역(400)에 디스플레이 된 복수의 아이템들(예: 제1 아이템(1212), 제2 아이템(1214), 제3 아이템(1216)) 중 어느 하나의 아이템(예: 제2 아이템(1214))에 대한 가상 터치 입력을 포함할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 적어도 하나의 카메라(예: 제1 카메라(111))를 이용하여 획득된 사용자의 신체 일부(예: 오른손)에 대한 이미지가 복수의 아이템들(예: 제1 아이템(1212), 제2 아이템(1214), 제3 아이템(1216)) 중 어느 하나의 아이템(예: 제2 아이템(1214))과 오버랩 되었다고 판단된 경우, 또는, 오버랩 된 상태에서 어느 하나의 아이템(예: 제2 아이템(1214))을 선택하는 손가락의 움직임이 검출된 경우, 어느 하나의 아이템(예: 제2 아이템(1214))에 대한 가상 터치 입력이 수신되었다고 판단할 수 있다. 본 문서의 다른 실시예에 따르면, 가상 터치를 판단하기 위한 별도의 장치(예: 사용자의 손에 구비된 센서)를 통해 가상 터치가 입력되었는지 여부를 판단할 수 있다. 본 문서의 또 다른 실시예에 따르면, 복수 개의 카메라들을 이용하여 사용자의 손 끝이 위치하는 공간 상의 좌표를 인식하고, 인식된 공간 상의 좌표가 어느 하나의 아이템(예: 제2 아이템(1214))이 디스플레이 된 공간 상의 좌표와 매칭되는지 여부에 따라 가상 터치가 입력되었는지 여부를 판단할 수 있다. 이 밖에도, 가상 터치가 수행되었음을 판단하는 다양한 알고리즘들(예: 인공지능 모델 알고리즘)이 적용될 수 있다.Referring to FIG. 11 , in operation 1110, the glasses-type wearable device 100 according to an embodiment of the present document may receive a request for sharing at least one piece of content (eg, fifth content 1225). there is. According to an embodiment of the present document, a request for sharing at least one piece of content (eg, the fifth content 1225) may include, for example, a plurality of items displayed on the display area 400 (eg, the first content 1225). It may include a virtual touch input for any one item (eg, the second item 1214) among the item 1212, the second item 1214, and the third item 1216. In the glass-type wearable device 100 according to an embodiment of the present document, a plurality of images of a user's body part (eg, right hand) acquired using at least one camera (eg, the first camera 111) When it is determined that any one of the items (eg, the first item 1212, the second item 1214, and the third item 1216) overlaps with any one item (eg, the second item 1214), or , When a motion of a finger selecting any one item (eg, the second item 1214) is detected in an overlapping state, a virtual touch input for any one item (eg, the second item 1214) is It can be judged that it has been received. According to another embodiment of the present document, it is possible to determine whether a virtual touch is input through a separate device for determining a virtual touch (eg, a sensor provided on a user's hand). According to another embodiment of the present document, a coordinate in a space where a user's fingertip is located is recognized using a plurality of cameras, and the coordinate in the recognized space is an item (eg, the second item 1214). Whether or not a virtual touch is input may be determined according to whether the coordinates on the displayed space are matched. In addition, various algorithms (eg, artificial intelligence model algorithms) for determining that a virtual touch has been performed may be applied.

본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1120에서, 적어도 하나의 컨텐트(예: 제5 컨텐트(1225))에 대한 선택 입력(예: 가상 터치 입력)을 수신할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1110에 따라 적어도 하나의 컨텐트(예: 제5 컨텐트(1225))를 공유하기 위한 요청을 수신한 경우, 공유 대상이 되는 복수 개의 컨텐츠를 디스플레이 영역(400)에 디스플레이 할 수 있다. 도 12b에서는, 적어도 하나의 컨텐트(예: 제5 컨텐트(1225))를 공유하기 위한 요청에 따라 복수 개의 이미지들(예: 제1 컨텐트(1221), 제2 컨텐트(1222) 제3 컨텐트(1223), 제4 컨텐트(1224), 제5 컨텐트(1225), 제6 컨텐트(1226))를 포함하는 갤러리 어플리케이션의 실행 화면(1220)이 디스플레이 되는 실시예가 예시적으로 도시된다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 복수 개의 이미지들(예: 제1 컨텐트(1221), 제2 컨텐트(1222) 제3 컨텐트(1223), 제4 컨텐트(1224), 제5 컨텐트(1225), 제6 컨텐트(1226)) 중 어느 하나의 이미지(예: 제5 컨텐트(1225))에 대한 가상 터치 입력을 수신(예: 식별)할 수 있다. 다만, 본 문서의 일 실시예에 따른 가상 터치 입력은, 선택 입력에 대한 일 실시예로서, 다양한 디바이스들(예: 글래스 타입 웨어러블 디바이스(100)에 구비된 터치 패널 또는 센서)을 통해 동작 1120이 수행될 수도 있다. In operation 1120, the glasses-type wearable device 100 according to an embodiment of the present document may receive a selection input (eg, a virtual touch input) for at least one piece of content (eg, the fifth content 1225). there is. When the glasses-type wearable device 100 according to an embodiment of the present document receives a request for sharing at least one content (eg, the fifth content 1225) in accordance with operation 1110, a plurality of pieces of content to be shared are received. Two contents may be displayed on the display area 400 . In FIG. 12B, a plurality of images (eg, first content 1221, second content 1222, and third content 1223) are displayed according to a request for sharing at least one content (eg, fifth content 1225). ), the fourth content 1224, the fifth content 1225, and the sixth content 1226), an embodiment in which the execution screen 1220 of the gallery application is displayed is illustrated as an example. The glass-type wearable device 100 according to an embodiment of the present document includes a plurality of images (eg, first content 1221, second content 1222, third content 1223, and fourth content 1224). , the fifth content 1225, and the sixth content 1226) may receive (eg, identify) a virtual touch input for any one image (eg, the fifth content 1225). However, virtual touch input according to an embodiment of this document is an embodiment of selection input, and operation 1120 is performed through various devices (eg, a touch panel or sensor provided in the glass-type wearable device 100). may be performed.

본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1130에서, 사용자의 신체 일부가 위치한 영역(예: 제1 반경 영역(510))에 대해 설정된 그룹에 대응하는 그래픽 오브젝트를 식별할 수 있다. 도 12c에 도시된 바와 같이, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 선택된 컨텐트(예: 제5 컨텐트(1225))를 특정한 영역(예: 제1 반경 영역(510))으로 이동하는 제스처(예: 가상의 드래그 제스처)를 검출할 수 있다. 이 경우, 선택된 컨텐트(예: 제5 컨텐트(1225))는 사용자의 제스처가 종료될 때까지 도 12c에 도시된 바와 같이 썸네일 이미지로서 디스플레이 영역(400)에서 디스플레이 될 수 있다. 도 12c에서는, 제1 그래픽 오브젝트(410a)와 제2 그래픽 오브젝트(410b)가 제1 영역(예: 제1 반경 영역(510))에 대응하는 그래픽 오브젝트로서 결정되어 있는 실시예가 예시적으로 도시된다. 본 문서의 일 실시예에 따른 사용자의 신체 일부가 제1 영역(예: 제1 반경 영역(510))으로 진입하였음이 검출되면, 글래스 타입 웨어러블 디바이스(100)는, 시각적 효과(610)를 제1 그래픽 오브젝트(410a)와 제2 그래픽 오브젝트(410b) 주변에 디스플레이 할 수 있다. In operation 1130, the glasses-type wearable device 100 according to an embodiment of the present document identifies a graphic object corresponding to a group set for an area where a part of the user's body is located (eg, the first radius area 510). can do. As shown in FIG. 12C , the glass-type wearable device 100 according to an embodiment of the present document displays the selected content (eg, the fifth content 1225) in a specific area (eg, the first radius area 510). ), a gesture (eg, a virtual drag gesture) may be detected. In this case, the selected content (eg, the fifth content 1225) may be displayed in the display area 400 as a thumbnail image until the user's gesture ends, as shown in FIG. 12C. 12C illustrates an embodiment in which the first graphic object 410a and the second graphic object 410b are determined as graphic objects corresponding to the first area (eg, the first radius area 510). . According to an embodiment of the present document, when it is detected that a part of the user's body enters the first area (eg, the first radius area 510), the glass-type wearable device 100 provides a visual effect 610. It can be displayed around the first graphic object 410a and the second graphic object 410b.

본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1140에서, 공유 제스처를 검출할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1150에서, 공유 제스처의 검출에 따라, 식별된 그래픽 오브젝트에 대응하는 상대방 디바이스(280)로 적어도 하나의 컨텐트(예: 제5 컨텐트(1225))를 전송할 수 있다. 본 문서의 일 실시예에 따른 공유 제스처는 디스플레이 된 썸네일 이미지를 드롭하는 가상의 드롭 제스처를 포함할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 썸네일 이미지를 드롭하는 제스처를 판단하기 위하여, 상술한 가상의 터치 입력을 판단하는 기능 또는 동작 중 적어도 일부, 또는 글래스 타입 웨어러블 디바이스(100)에 미리 저장된 탬플릿(예: 드롭 제스처와 대응하는 탬플릿)을 이용하여 사용자의 제스처가 썸네일 이미지를 드롭하는 제스처인지 여부를 판단할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 공유 제스처가 검출되면, 글래스 타입 웨어러블 디바이스(100)에 저장된 적어도 하나의 컨텐트(예: 제5 컨텐트)에 관한 데이터를 상대방 디바이스(280)(예: 제1 그래픽 오브젝트(410a)에 대응하는 상대방 디바이스(280) 및 제2 그래픽 오브젝트(410b)에 대응하는 상대방 디바이스(280))로 전송할 수 있다.In operation 1140, the glasses-type wearable device 100 according to an embodiment of the present document may detect a sharing gesture. In operation 1150, the glasses-type wearable device 100 according to an embodiment of the present document transmits at least one piece of content (eg, a fifth Content 1225) may be transmitted. A sharing gesture according to an embodiment of the present document may include a virtual drop gesture for dropping a displayed thumbnail image. In order to determine a gesture of dropping a thumbnail image, the glasses-type wearable device 100 according to an embodiment of the present document includes at least a part of the function or operation of determining the virtual touch input described above, or the glasses-type wearable device ( 100), it may be determined whether the gesture of the user is a gesture of dropping a thumbnail image by using a template (eg, a template corresponding to a drop gesture) stored in advance. When a sharing gesture is detected, the glasses-type wearable device 100 according to an embodiment of this document transmits data about at least one content (eg, fifth content) stored in the glasses-type wearable device 100 to the other device ( 280) (eg, the counterpart device 280 corresponding to the first graphic object 410a and the counterpart device 280 corresponding to the second graphic object 410b).

도 13은, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)가 그룹 생성 제스처를 검출한 경우, 적어도 하나의 상대방 디바이스(280)를 특정한 반경에 대응하는 하나의 그룹으로 생성하는 기능 또는 동작을 설명하기 위한 예시 도면이다. 도 14a, 도 14b, 도 14c 및 도 14d는, 도 13에서 설명된 기능 또는 동작을 그래픽 사용자 인터페이스 관점에서 설명하기 위한 예시 도면들이다.13 illustrates a function of generating at least one counterpart device 280 into a group corresponding to a specific radius when the glasses-type wearable device 100 detects a group creation gesture according to an embodiment of the present document; It is an exemplary diagram for explaining the operation. 14a, 14b, 14c, and 14d are exemplary diagrams for explaining the function or operation described in FIG. 13 from the viewpoint of a graphic user interface.

도 13을 참조하면, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1310에서, 그룹을 생성하기 위한 요청을 수신할 수 있다. 본 문서의 일 실시예에 따른 그룹을 생성하기 위한 요청은, 도 14a에 예시적으로 도시된 바와 같이, 디스플레이 영역(400)에 디스플레이 된 복수의 아이템들(예: 제1 아이템(1212), 제2 아이템(1214), 제3 아이템(1216)) 중 어느 하나의 아이템(예: 제1 아이템(1212))에 대한 가상 터치 입력을 포함할 수 있다.Referring to FIG. 13 , the glasses-type wearable device 100 according to an embodiment of the present document may receive a request for creating a group in operation 1310 . A request for creating a group according to an embodiment of the present document is, as exemplarily shown in FIG. 14A , a plurality of items (eg, a first item 1212, It may include a virtual touch input for any one of the two items 1214 and the third item 1216 (eg, the first item 1212).

본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1320에서, 동일한 그룹에 속하게 될 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))에 대한 선택 입력을 수신할 수 있다. 본 문서의 일 실시예에 따르면, 동작 1320에 따른 선택 입력은, 도 14b에 예시적으로 도시된 바와 같이 특정한 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))에 대한 가상의 터치 입력을 포함할 수 있다. 다만, 본 문서의 일 실시예에 따른 가상 터치 입력은, 선택 입력에 대한 일 실시예로서, 다양한 디바이스들(예: 글래스 타입 웨어러블 디바이스(100)에 구비된 터치 패널 또는 센서)을 통해 동작 1320이 수행될 수도 있다.The glass-type wearable device 100 according to an embodiment of the present document, in operation 1320, includes at least one graphic object (eg, the first graphic object 410a and the third graphic object 410c) to belong to the same group. It is possible to receive selection input for. According to an embodiment of the present document, the selection input according to operation 1320 includes at least one specific graphic object (eg, a first graphic object 410a and a third graphic object 410c, as exemplarily shown in FIG. 14B ). )) may include a virtual touch input. However, virtual touch input according to an embodiment of this document is an embodiment of selection input, and operation 1320 is performed through various devices (eg, a touch panel or sensor provided in the glass-type wearable device 100). may be performed.

본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1330에서, 그룹 생성 제스처(예: 드래그 앤 드롭)를 검출할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 동작 1340에서, 그룹 생성 제스처에 따라, 선택된 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))를 동일한 그룹으로 결정할 수 있다. 도 14c 및 도 14d를 참조하면, 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 선택된 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))에 대한 썸네일 이미지를 제1 영역(예: 제1 반경 영역(510)) 또는 제2 영역(예: 제2 반경 영역(520))으로 이동하는 제스처를 검출할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 적어도 하나의 카메라(예: 제1 카메라(111))에 의하여 획득된 이미지를 이용하여, 사용자의 신체 일부(예: 사용자의 손가락 끝 부분)가 제1 영역(예: 제1 반경 영역(510)) 또는 제2 영역(예: 제2 반경 영역(520))에 위치하는지 여부를 식별할 수 있다. 본 문서의 일 실시예에 따른 글래스 타입 웨어러블 디바이스(100)는, 선택된 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))에 대응하는 썸네일 이미지를 특정한 영역(예: 제1 영역(예: 제1 반경 영역(510)) 또는 제2 영역(예: 제2 반경 영역(520))에 드롭하는 가상의 드롭 제스처를 검출하면, 선택된 적어도 하나의 그래픽 오브젝트(예: 제1 그래픽 오브젝트(410a) 및 제3 그래픽 오브젝트(410c))를 특정한 영역(예: 제1 영역(예: 제1 반경 영역(510)) 또는 제2 영역(예: 제2 반경 영역(520))에 대응하는 하나의 그룹으로서 생성할 수 있다. In operation 1330, the glasses-type wearable device 100 according to an embodiment of the present document may detect a group creation gesture (eg, drag and drop). In operation 1340, the glasses-type wearable device 100 according to an embodiment of the present document selects at least one graphic object (eg, a first graphic object 410a and a third graphic object 410c) according to a group creation gesture. )) can be determined as the same group. Referring to FIGS. 14C and 14D , the glass-type wearable device 100 according to an embodiment of the present document includes at least one selected graphic object (eg, a first graphic object 410a and a third graphic object 410c). ) to a first area (eg, the first radius area 510) or a second area (eg, the second radius area 520). The glass-type wearable device 100 according to an embodiment of the present document uses an image acquired by at least one camera (eg, the first camera 111) to detect a part of the user's body (eg, the user's finger). It is possible to identify whether the end portion) is located in the first area (eg, the first radius area 510) or the second area (eg, the second radius area 520). The glasses-type wearable device 100 according to an embodiment of the present document displays thumbnail images corresponding to at least one selected graphic object (eg, the first graphic object 410a and the third graphic object 410c) in a specific area. (Example: When detecting a virtual drop gesture for dropping to a first area (eg, the first radius area 510) or a second area (eg, the second radius area 520), the selected at least one graphic object ( Example: A specific area (eg, a first area (eg, the first radius area 510)) or a second area (eg, a second radius area (eg, the second radius area ( 520)) can be created as one group.

본 문서의 일 실시예에 따른 웨어러블 디바이스(예: 글래스 타입 웨어러블 디바이스(100))는, 디스플레이 모듈(예: 도 1의 디스플레이 모듈(150)), 및 적어도 하나의 프로세서(예: 도 1의 프로세서(120))를 포함하고, 적어도 하나의 프로세서는, 적어도 하나의 그래픽 오브젝트(예: 도 4의 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b), 제3 그래픽 오브젝트(410c))가 디스플레이 영역(예: 도 4의 디스플레이 영역(400))에서 보여지도록 디스플레이 모듈을 제어하고, 사용자의 신체 일부가 제1 영역(예: 제1 반경 영역(510) 및/또는 제1 영역(510a))에 위치하는지 여부를 식별하고, 사용자의 신체 일부가 제1 영역에 위치함에 기반하여, 제1 영역에 대응하는 그룹을 식별하고, 사용자의 신체 일부가 상기 제1 영역에 위치하는 동안에, 사용자에 의한 트리거 이벤트가 검출되는지 여부를 식별하고, 트리거 이벤트가 검출됨에 기반하여, 식별된 그룹에 포함되는 적어도 하나의 상대방 디바이스에 대해 트리거 이벤트에 대응하는 기능을 수행하도록 설정될 수 있다. A wearable device (eg, the glass-type wearable device 100) according to an embodiment of the present document includes a display module (eg, the display module 150 of FIG. 1 ) and at least one processor (eg, the processor of FIG. 1 ). (120)), and at least one processor includes at least one graphic object (eg, the first graphic object 410a, the second graphic object 410b, and the third graphic object 410c of FIG. 4) The display module is controlled to be displayed in the display area (eg, the display area 400 of FIG. 4 ), and a part of the user's body is displayed in the first area (eg, the first radius area 510 and/or the first area 510a). ), identify a group corresponding to the first area based on the location of the user's body part in the first area, and identify the user while the user's body part is located in the first area. It may be configured to identify whether a trigger event is detected, and to perform a function corresponding to the trigger event for at least one counterpart device included in the identified group based on the detection of the trigger event.

본 문서의 일 실시예에 따른 웨어러블 디바이스(예: 글래스 타입 웨어러블 디바이스(100))를 제어하는 방법은, 적어도 하나의 그래픽 오브젝트(예: 도 4의 제1 그래픽 오브젝트(410a), 제2 그래픽 오브젝트(410b), 제3 그래픽 오브젝트(410c))가 디스플레이 영역에서 보여지도록 상기 웨어러블 디바이스의 디스플레이 모듈을 제어하는 동작과, 사용자의 신체 일부가 제1 영역에 위치하는지 여부를 식별하는 동작과, 상기 사용자의 신체 일부가 상기 제1 영역에 위치함에 기반하여, 상기 제1 영역에 대응하는 그룹을 식별하는 동작과, 상기 사용자의 신체 일부가 상기 제1 영역에 위치하는 동안에, 상기 사용자에 의한 트리거 이벤트가 검출되는지 여부를 식별하는 동작과, 상기 트리거 이벤트가 검출됨에 기반하여, 상기 식별된 그룹에 포함되는 적어도 하나의 상대방 디바이스(counterpart device)에 대해 상기 트리거 이벤트에 대응하는 기능을 수행하는 동작을 포함할 수 있다.A method for controlling a wearable device (eg, the glass-type wearable device 100) according to an embodiment of the present document includes at least one graphic object (eg, the first graphic object 410a of FIG. 4 and the second graphic object). (410b) an operation of controlling a display module of the wearable device so that a third graphic object (410c) is displayed in a display area, and an operation of identifying whether a part of the user's body is located in a first area; An operation of identifying a group corresponding to the first area based on a body part of the user being located in the first area, and a trigger event by the user while the user's body part is located in the first area and identifying whether or not the trigger event is detected, and performing a function corresponding to the trigger event for at least one counterpart device included in the identified group based on the detection of the trigger event. can

본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. Electronic devices according to various embodiments disclosed in this document may be devices of various types. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. An electronic device according to an embodiment of the present document is not limited to the aforementioned devices.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.Various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, like reference numbers may be used for like or related elements. The singular form of a noun corresponding to an item may include one item or a plurality of items, unless the relevant context clearly dictates otherwise. In this document, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A Each of the phrases such as "at least one of , B, or C" may include any one of the items listed together in that phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "secondary" may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited. A (e.g., first) component is said to be "coupled" or "connected" to another (e.g., second) component, with or without the terms "functionally" or "communicatively." When mentioned, it means that the certain component may be connected to the other component directly (eg by wire), wirelessly, or through a third component.

본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logical blocks, parts, or circuits. can be used as A module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, "비일시적"은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of this document provide one or more instructions stored in a storage medium (eg, internal memory 136 or external memory 138) readable by a machine (eg, electronic device 101). It may be implemented as software (eg, the program 140) including them. For example, a processor (eg, the processor 120 ) of a device (eg, the electronic device 101 ) may call at least one command among one or more instructions stored from a storage medium and execute it. This enables the device to be operated to perform at least one function according to the at least one command invoked. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, "non-temporary" only means that the storage medium is a tangible device and does not contain a signal (e.g., electromagnetic waves), and this term refers to the case where data is stored semi-permanently in the storage medium. It does not discriminate when it is temporarily stored.

일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smart phones. In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.

본 문서의 일 실시예에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 본 문서의 일 실시예에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 본 문서의 일 실시예에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다. According to one embodiment of this document, each component (eg, module or program) of the components described above may include a single object or a plurality of entities, and some of the plurality of entities are separated from other components. It could be. According to an embodiment of the present document, one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. . According to one embodiment of this document, operations performed by modules, programs, or other components are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations are executed in a different order, or , may be omitted, or one or more other operations may be added.

Claims (20)

웨어러블 디바이스에 있어서,
디스플레이 모듈, 및
적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
적어도 하나의 그래픽 오브젝트(object)가 디스플레이 영역에서 보여지도록 상기 디스플레이 모듈을 제어하고,
사용자의 신체 일부가 제1 영역에 위치하는지 여부를 식별하고,
상기 사용자의 신체 일부가 상기 제1 영역에 위치함에 기반하여, 상기 제1 영역에 대응하는 그룹을 식별하고,
상기 사용자의 신체 일부가 상기 제1 영역에 위치하는 동안에, 상기 사용자에 의한 트리거 이벤트가 검출되는지 여부를 식별하고,
상기 트리거 이벤트가 검출됨에 기반하여, 상기 식별된 그룹에 포함되는 적어도 하나의 상대방 디바이스(counterpart device)에 대해 상기 트리거 이벤트에 대응하는 기능을 수행하도록 설정되고,
상기 기능은, 상기 적어도 하나의 상대방 디바이스에 대해 공통적으로 수행되는 기능인 것을 특징으로 하는, 웨어러블 디바이스.
In the wearable device,
a display module; and
including at least one processor, wherein the at least one processor comprises:
Control the display module so that at least one graphic object is displayed in a display area;
identify whether the user's body part is located in the first region;
Identifying a group corresponding to the first region based on the location of the user's body part in the first region;
Identifying whether a trigger event by the user is detected while the user's body part is located in the first region;
Based on the detection of the trigger event, at least one counterpart device included in the identified group is configured to perform a function corresponding to the trigger event;
The wearable device, characterized in that the function is a function commonly performed for the at least one counterpart device.
제1항에 있어서,
상기 그룹은, 상기 제1 영역에 대응하도록 미리 지정된 그룹인 것을 포함하는 것을 특징으로 하는, 웨어러블 디바이스.
According to claim 1,
The wearable device of claim 1 , wherein the group includes a group previously designated to correspond to the first region.
제1항에 있어서,
상기 적어도 하나의 프로세서는, 상기 사용자의 신체 일부가 상기 제1 영역에 위치함이 검출된 경우, 동일한 그룹에 속하는 상기 적어도 하나의 그래픽 오브젝트의 주변에 미리 지정된 시각적 효과를 제공하도록 더 설정된 것을 특징으로 하는, 웨어러블 디바이스.
According to claim 1,
The at least one processor is further configured to provide a predetermined visual effect around the at least one graphic object belonging to the same group when it is detected that the user's body part is located in the first region. A wearable device that does.
제1항에 있어서,
상기 제1 영역은, 상기 디스플레이 영역에서 미리 지정된 디스플레이 영역이고,
상기 적어도 하나의 프로세서는, 상기 사용자의 신체 일부가 상기 미리 지정된 디스플레이 영역 내에 위치하는지 여부를 식별함으로써 상기 사용자의 신체 일부가 상기 제1 영역에 위치하는지 여부를 식별하도록 더 설정된 것을 특징으로 하는, 웨어러블 디바이스.
According to claim 1,
The first area is a display area designated in advance in the display area,
The at least one processor is further set to identify whether the user's body part is located in the first area by identifying whether the user's body part is located in the pre-designated display area. device.
제1항에 있어서,
상기 트리거 이벤트는, 상기 사용자의 신체 일부에 의한 제스처 또는 상기 사용자의 표정 변화를 포함하는 것을 특징으로 하는, 웨어러블 디바이스.
According to claim 1,
The trigger event includes a gesture by a part of the user's body or a change in facial expression of the user, the wearable device.
제1항에 있어서,
상기 웨어러블 디바이스는, 외부 전자 장치와 연결되도록 설정된 통신 회로를 더 포함하고,
상기 트리거 이벤트는, 상기 통신 모듈을 통해 상기 외부 전자 장치로부터 수신된 메시지 전송 신호 또는 콜 발신 신호를 포함하는 것을 특징으로 하는, 웨어러블 디바이스.
According to claim 1,
The wearable device further includes a communication circuit configured to be connected to an external electronic device,
The trigger event may include a message transmission signal or a call origination signal received from the external electronic device through the communication module.
제6항에 있어서,
상기 기능은, 동일한 그룹에 속하는 상기 적어도 하나의 상대방 디바이스에 대한 메시지 전송 기능 또는 콜 발신 기능을 포함하는 것을 특징으로 하는, 웨어러블 디바이스.
According to claim 6,
The wearable device, characterized in that the function includes a message transmission function or a call origination function for the at least one counterpart device belonging to the same group.
제1항에 있어서,
상기 웨어러블 디바이스는, 적어도 하나의 메모리를 더 포함하고,
상기 적어도 하나의 프로세서는, 상기 적어도 하나의 메모리에 저장된 컨텐트를 동일한 그룹에 속하는 상기 적어도 하나의 상대방 디바이스와 공유하기 위한 요청을 수신하도록 더 설정된 것을 특징으로 하는, 웨어러블 디바이스.
According to claim 1,
The wearable device further includes at least one memory,
The wearable device, characterized in that the at least one processor is further configured to receive a request for sharing the content stored in the at least one memory with the at least one counterpart device belonging to the same group.
제8항에 있어서,
상기 적어도 하나의 프로세서는, 상기 사용자로부터의 공유 제스처의 수신에 따라 상기 적어도 하나의 컨텐츠를 상기 동일한 그룹에 속하는 상기 적어도 하나의 상대방 디바이스로 전송하도록 더 설정된 것을 특징으로 하는, 웨어러블 디바이스.
According to claim 8,
The wearable device of claim 1 , wherein the at least one processor is further configured to transmit the at least one content to the at least one counterpart device belonging to the same group upon reception of a sharing gesture from the user.
제1항에 있어서,
상기 적어도 하나의 프로세서는, 상기 사용자로부터의 그룹 생성 제스처에 따라 상기 적어도 하나의 그래픽 오브젝트를 상기 제1 영역에 대응하는 그룹으로 결정하도록 더 설정된 것을 특징으로 하는, 웨어러블 디바이스.
According to claim 1,
The wearable device of claim 1 , wherein the at least one processor is further configured to determine the at least one graphic object as a group corresponding to the first area according to a group creation gesture from the user.
웨어러블 디바이스를 제어하는 방법에 있어서,
적어도 하나의 그래픽 오브젝트(object)가 디스플레이 영역에서 보여지도록 상기 웨어러블 디바이스의 디스플레이 모듈을 제어하는 동작과,
사용자의 신체 일부가 제1 영역에 위치하는지 여부를 식별하는 동작과,
상기 사용자의 신체 일부가 상기 제1 영역에 위치함에 기반하여, 상기 제1 영역에 대응하는 그룹을 식별하는 동작과,
상기 사용자의 신체 일부가 상기 제1 영역에 위치하는 동안에, 상기 사용자에 의한 트리거 이벤트가 검출되는지 여부를 식별하는 동작과,
상기 트리거 이벤트가 검출됨에 기반하여, 상기 식별된 그룹에 포함되는 적어도 하나의 상대방 디바이스(counterpart device)에 대해 상기 트리거 이벤트에 대응하는 기능을 수행하는 동작을 포함하고,
상기 기능은, 상기 적어도 하나의 상대방 디바이스에 대해 공통적으로 수행되는 기능인 것을 특징으로 하는, 웨어러블 디바이스의 제어 방법.
A method for controlling a wearable device,
controlling a display module of the wearable device to display at least one graphic object in a display area;
identifying whether a user's body part is located in a first region;
identifying a group corresponding to the first region based on the location of the user's body part in the first region;
identifying whether or not a trigger event by the user is detected while the user's body part is located in the first region;
Based on the detection of the trigger event, performing a function corresponding to the trigger event for at least one counterpart device included in the identified group;
The method of controlling a wearable device, characterized in that the function is a function commonly performed for the at least one counterpart device.
제11항에 있어서,
상기 그룹은, 상기 제1 영역에 대응하도록 미리 지정된 그룹인 것을 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.
According to claim 11,
The method of controlling a wearable device of claim 1 , wherein the group includes a group previously designated to correspond to the first region.
제11항에 있어서,
상기 웨어러블 디바이스를 제어하는 방법은, 상기 사용자의 신체 일부가 상기 제1 영역에 위치함이 검출된 경우, 동일한 그룹에 속하는 상기 적어도 하나의 그래픽 오브젝트의 주변에 미리 지정된 시각적 효과를 제공하는 동작을 더 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.
According to claim 11,
The method of controlling the wearable device may further include providing a predetermined visual effect around the at least one graphic object belonging to the same group when it is detected that the user's body part is located in the first region. A method of controlling a wearable device comprising:
제1항에 있어서,
상기 제1 영역은, 상기 디스플레이 영역에서 미리 지정된 디스플레이 영역이고,
상기 웨어러블 디바이스를 제어하는 방법은, 상기 사용자의 신체 일부가 상기 미리 지정된 디스플레이 영역 내에 위치하는지 여부를 식별함으로써 상기 사용자의 신체 일부가 상기 제1 영역에 위치하는지 여부를 식별하는 동작을 더 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.
According to claim 1,
The first area is a display area designated in advance in the display area,
The method of controlling the wearable device further includes an operation of identifying whether the user's body part is located in the first region by identifying whether the user's body part is located within the predetermined display area. Characterized in, a method for controlling a wearable device.
제11항에 있어서,
상기 트리거 이벤트는, 상기 사용자의 신체 일부에 의한 제스처 또는 상기 사용자의 표정 변화를 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.
According to claim 11,
The trigger event may include a gesture by a part of the user's body or a change in facial expression of the user.
제11항에 있어서,
상기 웨어러블 디바이스는, 외부 전자 장치와 연결되도록 설정된 통신 회로를 더 포함하고,
상기 트리거 이벤트는, 상기 통신 모듈을 통해 상기 외부 전자 장치로부터 수신된 메시지 전송 신호 또는 콜 발신 신호를 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.
According to claim 11,
The wearable device further includes a communication circuit configured to be connected to an external electronic device,
The trigger event may include a message transmission signal or a call origination signal received from the external electronic device through the communication module.
제16항에 있어서,
상기 기능은, 동일한 그룹에 속하는 상기 적어도 하나의 상대방 디바이스에 대한 메시지 전송 기능 또는 콜 발신 기능을 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.
According to claim 16,
The method of controlling a wearable device, characterized in that the function includes a message transmission function or a call origination function for the at least one counterpart device belonging to the same group.
제11항에 있어서,
상기 웨어러블 디바이스는, 적어도 하나의 메모리를 더 포함하고,
상기 웨어러블 디바이스를 제어하는 방법은, 상기 적어도 하나의 메모리에 저장된 컨텐트를 동일한 그룹에 속하는 상기 적어도 하나의 상대방 디바이스와 공유하기 위한 요청을 수신하는 동작을 더 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.
According to claim 11,
The wearable device further includes at least one memory,
The method of controlling the wearable device may further include receiving a request for sharing the content stored in the at least one memory with the at least one counterpart device belonging to the same group, characterized in that the control of the wearable device further comprises: How to.
제18항에 있어서,
상기 웨어러블 디바이스를 제어하는 방법은, 상기 사용자로부터의 공유 제스처의 수신에 따라 상기 적어도 하나의 컨텐츠를 상기 동일한 그룹에 속하는 상기 적어도 하나의 상대방 디바이스로 전송하는 동작을 더 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.
According to claim 18,
The method of controlling the wearable device further comprises an operation of transmitting the at least one content to the at least one counterpart device belonging to the same group in response to receiving a sharing gesture from the user. How to control your device.
제11항에 있어서,
상기 웨어러블 디바이스를 제어하는 방법은, 상기 사용자로부터의 그룹 생성 제스처에 따라 상기 적어도 하나의 그래픽 오브젝트를 상기 제1 영역에 대응하는 그룹으로 결정하는 동작을 더 포함하는 것을 특징으로 하는, 웨어러블 디바이스를 제어하는 방법.
According to claim 11,
The method of controlling the wearable device may further include determining the at least one graphic object as a group corresponding to the first region according to a group creation gesture from the user. How to.
KR1020210175632A 2021-11-15 2021-12-09 A wearable device that communicates with at least one counterpart device according to a trigger event and a control method thereof Pending KR20230070990A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2022/017746 WO2023085847A1 (en) 2021-11-15 2022-11-11 Wearable device communicating with at least one counterpart device in response to trigger event, and control method therefor
US17/987,365 US12141364B2 (en) 2021-11-15 2022-11-15 Wearable device for communicating with at least one counterpart device according to trigger event and control method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210156598 2021-11-15
KR20210156598 2021-11-15

Publications (1)

Publication Number Publication Date
KR20230070990A true KR20230070990A (en) 2023-05-23

Family

ID=86544183

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210175632A Pending KR20230070990A (en) 2021-11-15 2021-12-09 A wearable device that communicates with at least one counterpart device according to a trigger event and a control method thereof

Country Status (1)

Country Link
KR (1) KR20230070990A (en)

Similar Documents

Publication Publication Date Title
US20230274511A1 (en) Displaying virtual content in augmented reality using a map of the world
CN115735178A (en) Augmented reality eyewear with speech bubble and translation
US20150379770A1 (en) Digital action in response to object interaction
WO2015161307A1 (en) Systems and methods for augmented and virtual reality
US20230384860A1 (en) Devices, methods, and graphical user interfaces for generating and displaying a representation of a user
US12450854B2 (en) User interfaces for capturing media and manipulating virtual objects
US20240345719A1 (en) Eyewear device user interface
CN120641864A (en) Electronic device for displaying icons, operating method thereof, and non-transitory computer-readable storage medium
KR20220115886A (en) Measurement based on point selection
KR20230070990A (en) A wearable device that communicates with at least one counterpart device according to a trigger event and a control method thereof
US20240143267A1 (en) Electronic device for using external device in metaverse and method thereof
KR20220162956A (en) Electronic device for supporting various communication during video call and operating method thereof
US20250348152A1 (en) Methods of providing feedback based on user-to-user interaction
US20250356608A1 (en) User interfaces for capturing media and manipulating virtual objects
US20250029350A1 (en) Devices, methods, and graphical user interfaces for interacting with virtual objects
US20250355535A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with System User Interfaces within Three-Dimensional Environments
KR20240062980A (en) Electronic device for using external device in metaverse and control method thereof
KR20250159549A (en) Electronic device and method for providing a shortcut gesture in electronic device
KR20230013532A (en) A Glass type wearable device providing augmented reality guide and control method thereof
KR20240036433A (en) Method and apparatus for determining persona of an avatar object disoposed in a virtual space
KR20240025380A (en) Electronic device for applying an effect to an image and method for controlling thereof
KR20240072880A (en) Electronic device and method for presenting virtual object on virtual reality space
CN119816871A (en) Interaction recording tool for creating interactive AR stories
KR20240062849A (en) Wearable electronic device comprising wheel
KR20240097659A (en) Wearable device for displaying visual object and method thereof

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20211209

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20241209

Comment text: Request for Examination of Application