WO2026010468A1 - Wearable electronic device including eye-tracking wave guide - Google Patents
Wearable electronic device including eye-tracking wave guideInfo
- Publication number
- WO2026010468A1 WO2026010468A1 PCT/KR2025/009784 KR2025009784W WO2026010468A1 WO 2026010468 A1 WO2026010468 A1 WO 2026010468A1 KR 2025009784 W KR2025009784 W KR 2025009784W WO 2026010468 A1 WO2026010468 A1 WO 2026010468A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- electronic device
- diffractive layer
- user
- wearable electronic
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 문서에 개시된 다양한 실시예는 웨어러블 전자 장치에 관한 것으로, 예를 들면, 시선 추적용 웨이브 가이드를 포함하는 웨어러블 전자 장치에 관한 것이다.Various embodiments disclosed in this document relate to wearable electronic devices, for example, wearable electronic devices including waveguides for eye tracking.
휴대 목적의 전자 장치, 예를 들어, 전자 수첩, 휴대용 멀티미디어 재생기, 이동통신 단말기 또는 태블릿 PC는 일반적으로 표시 부재와 배터리를 탑재하고 있으며, 표시 부재나 배터리의 형상으로 인해 바형(bar type), 폴더형(folder type) 또는 슬라이딩형(sliding type)의 외관을 가지고 있었다. 최근에는 표시 부재와 배터리의 성능이 향상되면서 소형화되어 손목(wrist)이나 두부(head)와 같은 신체의 일부에 착용할 수 있는 웨어러블 전자 장치가 상용화되기에 이르렀다. 웨어러블 전자 장치는 신체에 직접 착용되므로, 이동성(portability) 및/또는 사용자의 접근성(accessibility)이 향상될 수 있다.Portable electronic devices, such as electronic notebooks, portable multimedia players, mobile communication terminals, or tablet PCs, typically feature display elements and batteries, and have typically had bar-type, folder-type, or sliding-type appearances due to the shape of the display elements or batteries. Recently, as the performance of display elements and batteries has improved, they have become smaller, leading to the commercialization of wearable electronic devices that can be worn on parts of the body, such as the wrist or head. Since wearable electronic devices are directly worn on the body, portability and/or user accessibility can be improved.
웨어러블 전자 장치 중에서, 사용자가 안면에 착용할 수 있는 형태의 전자 장치, 예를 들어, 두부 장착형 장치(head-mounted device, HMD)가 개시된다. 머리 장착형 장치는 가상 현실(virtual reality) 또는 증강 현실(augmented reality) 구현에 유용하게 활용될 수 있다. 예를 들어, 웨어러블 전자 장치는 텔레비전이나 컴퓨터용 모니터를 통해 즐기던 게임 속 가상 공간의 영상을 입체적으로 제공하되, 사용자가 머물고 있는 실제 공간의 영상을 차단함으로써, 가상 현실을 구현할 수 있다. 다른 형태의 웨어러블 전자 장치는 사용자가 머물고 있는 공간의 실제 영상을 시각적으로 인지할 수 있는 환경을 제공하면서, 가상의 영상을 구현하여 사용자에게 다양한 시각적 정보를 제공하는 증강 현실을 제공할 수 있다.Among wearable electronic devices, an electronic device that a user can wear on their face, such as a head-mounted device (HMD), is disclosed. Head-mounted devices can be usefully utilized to implement virtual reality or augmented reality. For example, a wearable electronic device can implement virtual reality by providing a three-dimensional image of a virtual space in a game enjoyed through a television or computer monitor while blocking the image of the actual space in which the user is located. Another type of wearable electronic device can provide an environment in which the user can visually perceive an actual image of the space in which the user is located, while implementing a virtual image to provide the user with various visual information, thereby providing augmented reality.
상술한 정보는 본 개시에 대한 이해를 돕기 위한 목적으로 하는 배경 기술(related art)로 제공될 수 있다. 상술한 내용 중 어느 것도 본 개시와 관련된 종래 기술(prior art)로서 적용될 수 있는지에 대하여 어떠한 주장이나 결정이 제기되지 않는다.The above information may be provided as background art to aid in understanding the present disclosure. No claim or determination is made as to whether any of the above is applicable as prior art related to the present disclosure.
가상 현실 또는 증강 현실을 구현하기 위한 웨어러블 전자 장치는, 사용자의 시선 방향, 예를 들어, 사용자의 안구의 동공이 향하는 방향을 추적하여, 사용자가 웨어러블 전자 장치의 표시 부재(예를 들어, 렌즈 또는 디스플레이)의 특정 부분을 주목하는 경우(예를 들어, 특정 부분을 바라보는 경우), 해당 부분의 가상 이미지를 확대 또는 축소하거나, 가상 이미지의 배치를 변경 또는 최적화하여, 사용자에게 시각적으로 노출되는 가상 이미지의 동작 및 배치를 최적화할 수 있다.A wearable electronic device for implementing virtual reality or augmented reality can track the direction of a user's gaze, for example, the direction in which the pupil of the user's eye is directed, and when the user focuses on a specific part of a display member (for example, a lens or a display) of the wearable electronic device (for example, when looking at a specific part), it can enlarge or reduce a virtual image of the corresponding part, or change or optimize the arrangement of the virtual image, thereby optimizing the operation and arrangement of the virtual image visually exposed to the user.
웨어러블 전자 장치는, 사용자의 시선 방향을 추적하기 위한 카메라가 구비될 수 있다. 상기 카메라는, 웨어러블 전자 장치의 하우징의 외부에 노출되도록 배치될 수 있다.A wearable electronic device may be equipped with a camera for tracking the user's gaze direction. The camera may be positioned so as to be exposed on the outside of the housing of the wearable electronic device.
다만, 카메라가 웨어러블 전자 장치의 외부로 노출되도록 배치되는 경우, 웨어러블 전자 장치의 소형화 또는 디자인화 측면에서 불리한 점이 있었다. 또한, 카메라의 위치가 제약적이므로, 카메라를 통해 획득한 사용자의 시선 방향에 대한 정확성이 떨어지는 문제점이 있었다.However, when the camera is positioned so that it is exposed outside the wearable electronic device, it presents disadvantages in terms of miniaturization and design. Furthermore, because the camera's position is limited, the accuracy of the user's gaze direction acquired through the camera is limited.
본 개시의 일 실시예에 따르면, 웨어러블 전자 장치의 표시 부재에 배치된 웨이브 가이드 및 웨어러블 전자 장치의 착용 부재에 배치된 카메라를 통해 사용자의 시선 방향을 추적할 수 있는 웨어러블 전자 장치가 제공될 수 있다.According to one embodiment of the present disclosure, a wearable electronic device capable of tracking a user's gaze direction through a wave guide disposed on a display member of the wearable electronic device and a camera disposed on a wearing member of the wearable electronic device may be provided.
본 개시의 일 실시예에 따르면, 웨어러블 전자 장치의 내부에 카메라가 배치됨에 따라, 웨어러블 전자 장치의 소형화가 가능해지고, 웨어러블 전자 장치의 디자인 설계 자유도가 향상된 웨어러블 전자 장치가 제공될 수 있다.According to one embodiment of the present disclosure, since a camera is placed inside the wearable electronic device, miniaturization of the wearable electronic device is possible, and a wearable electronic device with improved design freedom can be provided.
본 개시의 일 실시예에 따르면, 웨어러블 디바이스에 상대적으로 근거리에 위치된 사용자의 안구 또는 사용자의 시선 방향을 촬영한 이미지가 선명한 이미지로 제공되는 웨어러블 전자 장치가 제공될 수 있다.According to one embodiment of the present disclosure, a wearable electronic device may be provided that provides a clear image of an image taken of a user's eye or a direction of the user's gaze located relatively close to the wearable device.
다만, 본 개시에서 해결하고자 하는 과제는 상기 언급된 과제에 한정되는 것은 아니며, 본 개시의 사상 및 영역으로부터 벗어나지 않는 범위에서 다양하게 확장될 수 있을 것이다.However, the problem to be solved in this disclosure is not limited to the problem mentioned above, and may be expanded in various ways without departing from the spirit and scope of this disclosure.
본 개시의 일 실시예에 따르면, 웨어러블 전자 장치는, 렌즈 프레임 및 상기 렌즈 프레임에 대해 회전 가능하게 연결된 착용 부재를 포함하는 하우징; 상기 렌즈 프레임에 배치되고, 상기 렌즈 프레임에 배치되고, 사용자의 안구에 의해 반사된 광이 상기 착용 부재를 향해 전달되도록 하는 제1 회절 층을 포함하는 웨이브 가이드; 및 상기 착용 부재의 내부에 배치되어 상기 웨이브 가이드를 향하고, 상기 웨이브 가이드로부터 출력된 광에 대한 이미지를 촬영하도록 구성된 카메라를 포함하고, 상기 제1 회절 층은, 상기 사용자의 안구의 일 지점으로부터 반사되어 상기 제1 회절 층의 복수 개의 지점들에 입사된 광들을 회절시키고, 상기 제1 회절 층을 통과한 광들을 서로 평행한 각도를 가지도록 회절시키도록 구성될 수 있다.According to one embodiment of the present disclosure, a wearable electronic device includes a housing including a lens frame and a wearing member rotatably connected to the lens frame; a wave guide disposed on the lens frame, the wave guide including a first diffractive layer disposed on the lens frame and configured to transmit light reflected by a user's eye toward the wearing member; and a camera disposed inside the wearing member and facing the wave guide, the camera configured to capture an image of light output from the wave guide, wherein the first diffractive layer may be configured to diffract light reflected from a point of the user's eye and incident on a plurality of points of the first diffractive layer, and to diffract light passing through the first diffractive layer to have parallel angles with each other.
본 개시의 일 실시예에 따르면, 웨어러블 전자 장치는, 하우징; 상기 하우징에 배치되고, 사용자의 안구를 향해 적외선 대역의 광을 조사하도록 구성된 광원; 상기 하우징에 배치되고, 상기 광원으로부터 조사되어 사용자의 안구에 의해 반사된 광이 입사되도록 구성되고, 사용자가 상기 웨어러블 전자 장치를 착용할 때 사용자의 안구를 향하는 웨이브 가이드; 및 상기 하우징의 내부에 배치되어 상기 웨이브 가이드를 향하고, 상기 웨이브 가이드로부터 출력된 광에 대한 이미지를 촬영하도록 구성된 카메라를 포함하고, 상기 웨이브 가이드는, 서브스트레이트; 상기 서브스트레이트에 배치되고, 서로 다른 회절 주기를 가지는 복수 개의 영역들을 포함하는 제1 회절 층; 및 상기 서브스트레이트에 배치되고, 상기 카메라와 상응하게 위치된 제2 회절 층을 포함할 수 있다.According to one embodiment of the present disclosure, a wearable electronic device includes a housing; a light source disposed in the housing and configured to irradiate light in an infrared band toward a user's eye; a wave guide disposed in the housing and configured to allow light irradiated from the light source and reflected by the user's eye to be incident thereon and directed toward a user's eye when the user wears the wearable electronic device; and a camera disposed inside the housing and configured to face the wave guide and capture an image of light output from the wave guide, wherein the wave guide may include a substrate; a first diffractive layer disposed on the substrate and including a plurality of regions having different diffraction periods; and a second diffractive layer disposed on the substrate and positioned corresponding to the camera.
본 개시의 일 실시예에 따르면, 웨어러블 전자 장치의 표시 부재에 배치된 웨이브 가이드 및 웨어러블 전자 장치의 착용 부재에 배치된 카메라를 통해 사용자의 시선 방향을 추적할 수 있는 웨어러블 전자 장치가 제공될 수 있다.According to one embodiment of the present disclosure, a wearable electronic device capable of tracking a user's gaze direction through a wave guide disposed on a display member of the wearable electronic device and a camera disposed on a wearing member of the wearable electronic device may be provided.
본 개시의 일 실시예에 따르면, 카메라가 웨이브 가이드를 통해 사용자의 안구를 정면에서 바라보는 이미지를 촬영하여 웨어러블 전자 장치가 사용자의 시선 방향을 추적함에 따라, 추적된 사용자의 시선 방향에 대한 정확성 및 신뢰성이 개선될 수 있는 웨어러블 전자 장치가 제공될 수 있다.According to one embodiment of the present disclosure, a wearable electronic device can be provided in which the accuracy and reliability of the tracked gaze direction of the user can be improved as the wearable electronic device tracks the gaze direction of the user by capturing an image of the user's eye from the front through a wave guide by a camera.
본 개시의 일 실시예에 따르면, 웨어러블 디바이스에 상대적으로 근거리에 위치된 사용자의 안구 또는 사용자의 시선 방향을 촬영한 이미지가 선명한 이미지로 제공되는 웨어러블 전자 장치가 제공될 수 있다.According to one embodiment of the present disclosure, a wearable electronic device may be provided that provides a clear image of an image taken of a user's eye or a direction of the user's gaze located relatively close to the wearable device.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained from the present disclosure are not limited to the effects mentioned above, and other effects that are not mentioned can be clearly understood by a person having ordinary skill in the art to which the present disclosure belongs from the description below.
본 개시의 일 실시예에 관해 상술한 측면 또는 다른 측면, 구성 및/또는 장점은 첨부된 도면을 참조하는 다음의 상세한 설명을 통해 더욱 명확해질 수 있다.The above-described aspects or other aspects, configurations and/or advantages of one embodiment of the present disclosure may be further clarified by the following detailed description taken in conjunction with the accompanying drawings.
도 1은 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블럭도이다.FIG. 1 is a block diagram of an electronic device within a network environment according to various embodiments.
도 2는 본 개시의 일 실시예에 따른, 웨어러블 전자 장치의 사시도이다.FIG. 2 is a perspective view of a wearable electronic device according to one embodiment of the present disclosure.
도 3은 본 개시의 일 실시예에 따른, 웨어러블 전자 장치의 내부 구성을 설명하기 위한 결합 사시도이다.FIG. 3 is a perspective view illustrating an internal configuration of a wearable electronic device according to one embodiment of the present disclosure.
도 4는 본 개시의 일 실시예에 따른, 웨어러블 전자 장치의 분해 사시도이다.FIG. 4 is an exploded perspective view of a wearable electronic device according to one embodiment of the present disclosure.
도 5는 본 개시의 일 실시예에 따른, 웨어러블 전자 장치의 개략도이다.FIG. 5 is a schematic diagram of a wearable electronic device according to one embodiment of the present disclosure.
도 6은 본 개시의 일 실시예에 따른, 웨이브 가이드를 설명하기 위한 개략도이다.FIG. 6 is a schematic diagram illustrating a wave guide according to one embodiment of the present disclosure.
도 7a는 비교예에 따른, 웨이브 가이드를 설명하기 위한 개략도이다.Figure 7a is a schematic diagram for explaining a wave guide according to a comparative example.
도 7b는 비교예에 따른, 이미지 중첩 상태를 설명하기 위한 개략도이다.Figure 7b is a schematic diagram for explaining an image overlapping state according to a comparative example.
도 8a은 본 개시의 일 실시예에 따른, 웨이브 가이드를 설명하기 위한 개략도이다.FIG. 8A is a schematic diagram illustrating a wave guide according to one embodiment of the present disclosure.
도 8b는 본 개시의 일 실시예에 따른, 제1 회절 층의 회절 소자의 격자 주기(period of grating)를 설명하기 위한 개략도이다.FIG. 8b is a schematic diagram illustrating a period of grating of a diffractive element of a first diffractive layer according to one embodiment of the present disclosure.
도 8c는 본 개시의 일 실시예에 따른, 제1 회절 층의 회절 소자의 격자 주기(period of grating)를 설명하기 위한 개략도이다.FIG. 8c is a schematic diagram illustrating the period of grating of a diffractive element of a first diffractive layer according to one embodiment of the present disclosure.
도 9a는 본 개시의 일 실시예에 따른, 제1 회절 층의 회절 소자의 격자 주기(period of grating)를 설명하기 위한 개략도이다.FIG. 9A is a schematic diagram illustrating a period of grating of a diffractive element of a first diffractive layer according to one embodiment of the present disclosure.
도 9b는 본 개시의 일 실시예에 따른, 사용자의 안구를 촬영한 이미지를 나타낸 도면이다.FIG. 9b is a drawing showing an image of a user's eye according to one embodiment of the present disclosure.
도 10은 본 개시의 일 실시예에 따른, 웨이브 가이드를 설명하기 위한 개략도이다.FIG. 10 is a schematic diagram illustrating a wave guide according to one embodiment of the present disclosure.
도 11은 본 개시의 일 실시예에 따른, 제1 회절 층을 설명하기 위한 개략도이다.FIG. 11 is a schematic diagram illustrating a first diffractive layer according to one embodiment of the present disclosure.
도 12는 본 개시의 일 실시예에 따른, 웨어러블 전자 장치가 사용자의 안구를 촬영할 때 사용자의 안구에 대한 촬영 영역을 설명하기 위한 개략도이다.FIG. 12 is a schematic diagram illustrating a photographing area for a user's eye when a wearable electronic device photographs the user's eye according to one embodiment of the present disclosure.
도 13은 본 개시의 일 실시예에 따른, 웨이브 가이드를 설명하기 위한 개략도이다.FIG. 13 is a schematic diagram illustrating a wave guide according to one embodiment of the present disclosure.
도 14는 본 개시의 일 실시예에 따른, 웨이브 가이드를 설명하기 위한 개략도이다.FIG. 14 is a schematic diagram illustrating a wave guide according to one embodiment of the present disclosure.
첨부된 도면의 전반에서, 유사한 부품, 구성 및/또는 구조에 대해서는 유사한 참조 번호가 부여될 수 있다.Throughout the attached drawings, similar reference numbers may be assigned to similar parts, components and/or structures.
이하에서는 도면을 참조하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 도면의 설명과 관련하여, 동일하거나 유사한 구성요소에 대해서는 동일하거나 유사한 참조 부호가 사용될 수 있다. 또한, 도면 및 관련된 설명에서는, 잘 알려진 기능 및 구성에 대한 설명이 명확성과 간결성을 위해 생략될 수 있다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings so that those skilled in the art can easily implement the present disclosure. However, the present disclosure may be implemented in various different forms and is not limited to the embodiments described herein. In connection with the description of the drawings, the same or similar reference numerals may be used for identical or similar components. Furthermore, in the drawings and related descriptions, descriptions of well-known functions and configurations may be omitted for clarity and conciseness.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.FIG. 1 is a block diagram of an electronic device (101) within a network environment (100) according to various embodiments.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.Referring to FIG. 1, in a network environment (100), an electronic device (101) may communicate with an electronic device (102) via a first network (198) (e.g., a short-range wireless communication network), or may communicate with at least one of an electronic device (104) or a server (108) via a second network (199) (e.g., a long-range wireless communication network). In one embodiment, the electronic device (101) may communicate with the electronic device (104) via the server (108). According to one embodiment, the electronic device (101) may include a processor (120), a memory (130), an input module (150), an audio output module (155), a display module (160), an audio module (170), a sensor module (176), an interface (177), a connection terminal (178), a haptic module (179), a camera module (180), a power management module (188), a battery (189), a communication module (190), a subscriber identification module (196), or an antenna module (197). In some embodiments, the electronic device (101) may omit at least one of these components (e.g., the connection terminal (178)), or may have one or more other components added. In some embodiments, some of these components (e.g., the sensor module (176), the camera module (180), or the antenna module (197)) may be integrated into one component (e.g., the display module (160)).
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor (120) may, for example, execute software (e.g., a program (140)) to control at least one other component (e.g., a hardware or software component) of the electronic device (101) connected to the processor (120) and perform various data processing or operations. According to one embodiment, as at least a part of the data processing or operations, the processor (120) may store commands or data received from other components (e.g., a sensor module (176) or a communication module (190)) in a volatile memory (132), process the commands or data stored in the volatile memory (132), and store result data in a non-volatile memory (134). According to one embodiment, the processor (120) may include a main processor (121) (e.g., a central processing unit or an application processor) or an auxiliary processor (123) (e.g., a graphics processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor) that can operate independently or together with the main processor (121). For example, when the electronic device (101) includes the main processor (121) and the auxiliary processor (123), the auxiliary processor (123) may be configured to use less power than the main processor (121) or to be specialized for a given function. The auxiliary processor (123) may be implemented separately from the main processor (121) or as a part thereof.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The auxiliary processor (123) may control at least a portion of functions or states associated with at least one component (e.g., a display module (160), a sensor module (176), or a communication module (190)) of the electronic device (101), for example, on behalf of the main processor (121) while the main processor (121) is in an inactive (e.g., sleep) state, or together with the main processor (121) while the main processor (121) is in an active (e.g., application execution) state. In one embodiment, the auxiliary processor (123) (e.g., an image signal processor or a communication processor) may be implemented as a part of another functionally related component (e.g., a camera module (180) or a communication module (190)). In one embodiment, the auxiliary processor (123) (e.g., a neural network processing unit) may include a hardware structure specialized for processing artificial intelligence models. The artificial intelligence models may be generated through machine learning. This learning can be performed, for example, in the electronic device (101) itself where the artificial intelligence model is executed, or can be performed through a separate server (e.g., server (108)). The learning algorithm can include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but is not limited to the examples described above. The artificial intelligence model can include a plurality of artificial neural network layers. The artificial neural network can be one of a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a restricted Boltzmann machine (RBM), a deep belief network (DBN), a bidirectional recurrent deep neural network (BRDNN), deep Q-networks, or a combination of two or more of the above, but is not limited to the examples described above. In addition to the hardware structure, the artificial intelligence model can additionally or alternatively include a software structure.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory (130) can store various data used by at least one component (e.g., processor (120) or sensor module (176)) of the electronic device (101). The data can include, for example, software (e.g., program (140)) and input data or output data for commands related thereto. The memory (130) can include volatile memory (132) or non-volatile memory (134).
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program (140) may be stored as software in the memory (130) and may include, for example, an operating system (142), middleware (144), or an application (146).
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module (150) can receive commands or data to be used in a component of the electronic device (101) (e.g., a processor (120)) from an external source (e.g., a user) of the electronic device (101). The input module (150) can include, for example, a microphone, a mouse, a keyboard, a key (e.g., a button), or a digital pen (e.g., a stylus pen).
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The audio output module (155) can output audio signals to the outside of the electronic device (101). The audio output module (155) can include, for example, a speaker or a receiver. The speaker can be used for general purposes, such as multimedia playback or recording playback. The receiver can be used to receive incoming calls. In one embodiment, the receiver can be implemented separately from the speaker or as part of the speaker.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module (160) can visually provide information to an external party (e.g., a user) of the electronic device (101). The display module (160) may include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device. According to one embodiment, the display module (160) may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of a force generated by the touch.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module (170) can convert sound into an electrical signal, or vice versa, convert an electrical signal into sound. According to one embodiment, the audio module (170) can acquire sound through the input module (150), output sound through the sound output module (155), or an external electronic device (e.g., electronic device (102)) (e.g., speaker or headphone) directly or wirelessly connected to the electronic device (101).
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module (176) can detect the operating status (e.g., power or temperature) of the electronic device (101) or the external environmental status (e.g., user status) and generate an electrical signal or data value corresponding to the detected status. According to one embodiment, the sensor module (176) can include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, or an illuminance sensor.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface (177) may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device (101) with an external electronic device (e.g., the electronic device (102)). In one embodiment, the interface (177) may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal (178) may include a connector through which the electronic device (101) may be physically connected to an external electronic device (e.g., electronic device (102)). According to one embodiment, the connection terminal (178) may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (e.g., a headphone connector).
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module (179) can convert electrical signals into mechanical stimuli (e.g., vibration or movement) or electrical stimuli that a user can perceive through tactile or kinesthetic sensations. According to one embodiment, the haptic module (179) can include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module (180) can capture still images and videos. According to one embodiment, the camera module (180) may include one or more lenses, image sensors, image signal processors, or flashes.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module (188) can manage power supplied to the electronic device (101). According to one embodiment, the power management module (188) can be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.A battery (189) may power at least one component of the electronic device (101). In one embodiment, the battery (189) may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. The communication module (190) may support the establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (101) and an external electronic device (e.g., electronic device (102), electronic device (104), or server (108)), and the performance of communication through the established communication channel. The communication module (190) may operate independently from the processor (120) (e.g., application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module (190) may include a wireless communication module (192) (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module (194) (e.g., a local area network (LAN) communication module, or a power line communication module). Among these communication modules, the corresponding communication module can communicate with an external electronic device (104) via a first network (198) (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network (199) (e.g., a long-range communication network such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., a LAN or WAN)). These various types of communication modules can be integrated into a single component (e.g., a single chip) or implemented as multiple separate components (e.g., multiple chips). The wireless communication module (192) can verify or authenticate the electronic device (101) within a communication network such as the first network (198) or the second network (199) by using subscriber information (e.g., an international mobile subscriber identity (IMSI)) stored in the subscriber identification module (196).
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module (192) can support 5G networks and next-generation communication technologies following the 4G network, such as NR access technology (new radio access technology). The NR access technology can support high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and connection of multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency communications)). The wireless communication module (192) can support, for example, a high-frequency band (e.g., mmWave band) to achieve a high data transmission rate. The wireless communication module (192) can support various technologies for securing performance in a high-frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), full dimensional MIMO (FD-MIMO), array antenna, analog beam-forming, or large scale antenna. The wireless communication module (192) can support various requirements specified in the electronic device (101), an external electronic device (e.g., the electronic device (104)), or a network system (e.g., the second network (199)). According to one embodiment, the wireless communication module (192) can support a peak data rate (e.g., 20 Gbps or more) for eMBB realization, a loss coverage (e.g., 164 dB or less) for mMTC realization, or a U-plane latency (e.g., 0.5 ms or less for downlink (DL) and uplink (UL), or 1 ms or less for round trip) for URLLC realization.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 전도체 또는 전도성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다. The antenna module (197) can transmit or receive signals or power to or from an external device (e.g., an external electronic device). In one embodiment, the antenna module (197) may include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (e.g., a PCB). In one embodiment, the antenna module (197) may include a plurality of antennas (e.g., an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network, such as the first network (198) or the second network (199), may be selected from the plurality of antennas, for example, by the communication module (190). A signal or power may be transmitted or received between the communication module (190) and an external electronic device via the selected at least one antenna. In some embodiments, in addition to the radiator, another component (e.g., a radio frequency integrated circuit (RFIC)) may be additionally formed as a part of the antenna module (197).
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module (197) may form a mmWave antenna module. In one embodiment, the mmWave antenna module may include a printed circuit board, an RFIC disposed on or adjacent a first side (e.g., a bottom side) of the printed circuit board and capable of supporting a designated high-frequency band (e.g., a mmWave band), and a plurality of antennas (e.g., an array antenna) disposed on or adjacent a second side (e.g., a top side or a side side) of the printed circuit board and capable of transmitting or receiving signals in the designated high-frequency band.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the above components can be interconnected and exchange signals (e.g., commands or data) with each other via a communication method between peripheral devices (e.g., a bus, GPIO (general purpose input and output), SPI (serial peripheral interface), or MIPI (mobile industry processor interface)).
일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to one embodiment, commands or data may be transmitted or received between the electronic device (101) and an external electronic device (104) via a server (108) connected to a second network (199). Each of the external electronic devices (102 or 104) may be the same or a different type of device as the electronic device (101). According to one embodiment, all or part of the operations executed in the electronic device (101) may be executed in one or more of the external electronic devices (102, 104, or 108). For example, when the electronic device (101) is to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device (101) may, instead of or in addition to executing the function or service itself, request one or more external electronic devices to perform the function or at least a part of the service. One or more external electronic devices that receive the request may execute at least a portion of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device (101). The electronic device (101) may process the result as is or additionally and provide it as at least a portion of a response to the request. For this purpose, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used, for example. The electronic device (101) may provide an ultra-low latency service by using distributed computing or mobile edge computing, for example. In another embodiment, the external electronic device (104) may include an Internet of Things (IoT) device. The server (108) may be an intelligent server utilizing machine learning and/or a neural network. According to one embodiment, the external electronic device (104) or the server (108) may be included in the second network (199). The electronic device (101) can be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to the various embodiments disclosed in this document may take various forms. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to the embodiments of this document are not limited to the aforementioned devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and the terminology used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, similar reference numerals may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the items, unless the context clearly indicates otherwise. In this document, each of the phrases "A or B", "at least one of A and B", "at least one of A or B", "A, B, or C", "at least one of A, B, and C", and "at least one of A, B, or C" can include any one of the items listed together in the corresponding phrase among those phrases, or all possible combinations thereof. Terms such as "first," "second," or "first" or "second" may be used merely to distinguish one component from another, and do not limit the components in any other respect (e.g., importance or order). When a component (e.g., a first component) is referred to as "coupled" or "connected" to another (e.g., a second component), with or without the terms "functionally" or "communicatively," it means that the component can be connected to the other component directly (e.g., wired), wirelessly, or through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.The term "module" used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit. A module may be an integral component, or a minimum unit or part of such a component that performs one or more functions. For example, according to one embodiment, a module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document may be implemented as software (e.g., a program (140)) including one or more instructions stored in a storage medium (e.g., an internal memory (136) or an external memory (138)) readable by a machine (e.g., an electronic device (101)). For example, a processor (e.g., a processor (120)) of the machine (e.g., an electronic device (101)) may call at least one instruction among the one or more instructions stored from the storage medium and execute it. This enables the machine to operate to perform at least one function according to the at least one called instruction. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The machine-readable storage medium may be provided in the form of a non-transitory storage medium. Here, ‘non-transitory’ simply means that the storage medium is a tangible device and does not contain signals (e.g., electromagnetic waves), and the term does not distinguish between cases where data is stored semi-permanently or temporarily on the storage medium.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in the present document may be provided as included in a computer program product. The computer program product may be traded as a product between a seller and a buyer. The computer program product may be distributed in the form of a machine-readable storage medium (e.g., compact disc read-only memory (CD-ROM)), or may be distributed online (e.g., downloaded or uploaded) via an application store (e.g., Play Store™) or directly between two user devices (e.g., smart phones). In the case of online distribution, at least a portion of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or an intermediary server.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (e.g., a module or a program) of the above-described components may include one or more entities, and some of the entities may be separated and placed in other components. According to various embodiments, one or more components or operations of the aforementioned components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (e.g., a module or a program) may be integrated into a single component. In such a case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. According to various embodiments, the operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or one or more other operations may be added.
도 2는 본 개시의 일 실시예에 따른, 웨어러블 전자 장치의 사시도이다.FIG. 2 is a perspective view of a wearable electronic device according to one embodiment of the present disclosure.
도 2의 실시예는, 도 1의 실시예, 또는 도 3 내지 도 14의 실시예들과 결합될 수 있다.The embodiment of FIG. 2 can be combined with the embodiment of FIG. 1, or the embodiments of FIGS. 3 to 14.
도 2의 실시예의 구성들은, 도 1의 실시예의 구성들, 또는 도 3 내지 도 14의 실시예들의 구성들과 일부 또는 전부가 동일할 수 있다.The configurations of the embodiment of FIG. 2 may be partially or entirely identical to the configurations of the embodiment of FIG. 1 or the configurations of the embodiments of FIGS. 3 to 14.
도 2를 참조하면, 웨어러블 전자 장치(101)(예: 도 1의 전자 장치(101))는, 안경 형태의 전자 장치로서, 사용자는 웨어러블 전자 장치(101)를 착용한 상태에서 주변의 사물이나 환경을 시각적으로 인지할 수 있다. 예를 들어, 웨어러블 전자 장치(101)는 사용자의 눈 앞에 직접 영상을 제공할 수 있는 스마트 안경(smart glasses)을 포함할 수 있다. 도 2의 웨어러블 전자 장치(101)의 구성은 도 1의 전자 장치(101)의 구성과 일부 또는 전부가 동일할 수 있다. 도시되지는 않았지만, 이하에서 설명되는 본 개시의 웨어러블 전자 장치(101)의 실시예들 및 이에 대한 설명들은, 헤드 마운팅 장치(head mounting device, HMD)에도 적용될 수 있다.Referring to FIG. 2, a wearable electronic device (101) (e.g., the electronic device (101) of FIG. 1) is an electronic device in the form of glasses, which allows a user to visually perceive surrounding objects or environments while wearing the wearable electronic device (101). For example, the wearable electronic device (101) may include smart glasses that can provide images directly in front of the user's eyes. The configuration of the wearable electronic device (101) of FIG. 2 may be partially or completely identical to the configuration of the electronic device (101) of FIG. 1. Although not illustrated, embodiments of the wearable electronic device (101) of the present disclosure and descriptions thereof described below may also be applied to a head mounting device (HMD).
일 실시예에 따르면, 웨어러블 전자 장치(101)는, 웨어러블 전자 장치(101)의 외관의 적어도 일부를 형성하는 하우징(210)을 포함할 수 있다. 하우징(210)은, 웨어러블 전자 장치(101)의 부품들이 배치될 수 있는 공간을 제공할 수 있다. 예를 들어, 하우징(210)은, 렌즈 프레임(202) 및 적어도 하나의 착용 부재(203)를 포함할 수 있다.According to one embodiment, the wearable electronic device (101) may include a housing (210) that forms at least a portion of the exterior of the wearable electronic device (101). The housing (210) may provide a space in which components of the wearable electronic device (101) may be placed. For example, the housing (210) may include a lens frame (202) and at least one wearing member (203).
일 실시예에 따르면, 웨어러블 전자 장치(101)는, 적어도 부분적으로(at least partially) 하우징(210) 내에 배치된 표시 부재(201)를 포함할 수 있다.According to one embodiment, a wearable electronic device (101) may include a display member (201) disposed at least partially within a housing (210).
일 실시예에 따르면, 표시 부재(201)는, 시각적 이미지를 출력할 수 있다. 예를 들어, 웨어러블 전자 장치(101)는 사용자에게 시각적인 정보(또는 이미지)를 제공할 수 있는 적어도 하나의 표시 부재(201)를 포함할 수 있다. 예를 들어, 표시 부재(201)는 렌즈, 디스플레이, 웨이브 가이드(waveguide) 및/또는 터치 회로가 장착된 모듈을 포함할 수 있다. 일 실시예에 따르면, 표시 부재(201)는 투명 또는 반투명하게 형성될 수 있다. 일 실시예에 따르면, 표시 부재(201)는 반투명 재질의 글래스 또는 착색 농도가 조절됨에 따라 빛의 투과율이 조절될 수 있는 윈도우 부재(window member)를 포함할 수 있다.According to one embodiment, the display member (201) can output a visual image. For example, the wearable electronic device (101) can include at least one display member (201) that can provide visual information (or images) to a user. For example, the display member (201) can include a module equipped with a lens, a display, a waveguide, and/or a touch circuit. According to one embodiment, the display member (201) can be formed transparently or translucently. According to one embodiment, the display member (201) can include a window member whose light transmittance can be adjusted by adjusting the glass of a translucent material or the tinting concentration.
일 실시예에 따르면, 렌즈 프레임(202)은 표시 부재(201)의 적어도 일부를 수용할 수 있다. 예를 들어, 렌즈 프레임(202)은 표시 부재(201)의 가장자리의 적어도 일부를 둘러쌀 수 있다. 일 실시예에 따르면, 렌즈 프레임(202)은 표시 부재(201) 중 적어도 하나를 사용자의 눈에 상응하게 위치시킬 수 있다. 일 실시예에 따르면, 렌즈 프레임(202)은 일반적인 안경 구조의 림(rim)을 포함할 수 있다. 일 실시예에 따르면, 렌즈 프레임(202)은 표시 부재(201)를 둘러싸는 적어도 하나의 폐곡선을 포함할 수 있다. 일 실시예에 따르면, 렌즈 프레임(202)은 제1 림 부분(202a)(first rim portion) 및 상기 제1 림 부분(202a)의 반대인 제2 림 부분(202b)(second rim portion)을 포함할 수 있다. 제1 림 부분(202a)은 제1 착용 부재(203a)와 인접하게 배치되고, 제2 림 부분(202b)은 제2 착용 부재(203b)와 인접하게 배치될 수 있다.In one embodiment, the lens frame (202) can accommodate at least a portion of the indicator member (201). For example, the lens frame (202) can surround at least a portion of an edge of the indicator member (201). In one embodiment, the lens frame (202) can position at least one of the indicator members (201) to correspond to a user's eye. In one embodiment, the lens frame (202) can include a rim of a typical eyeglass structure. In one embodiment, the lens frame (202) can include at least one closed curve surrounding the indicator member (201). In one embodiment, the lens frame (202) can include a first rim portion (202a) and a second rim portion (202b) opposite the first rim portion (202a). The first rim portion (202a) may be positioned adjacent to the first wearing member (203a), and the second rim portion (202b) may be positioned adjacent to the second wearing member (203b).
일 실시예에 따르면, 렌즈 프레임(202)은, 제1 림 부분(202a)과 제2 림 부분(202b)을 연결하는 브릿지 부분(202c)을 포함할 수 있다.According to one embodiment, the lens frame (202) may include a bridge portion (202c) connecting a first rim portion (202a) and a second rim portion (202b).
일 실시예에 따르면, 제1 림 부분(202a)에는, 사용자의 우안과 상응하는 표시 부재(201)가 배치될 수 있다. 제2 림 부분(202b)에는, 사용자의 좌안과 상응하는 표시 부재(201)가 배치될 수 있다.According to one embodiment, a display member (201) corresponding to the user's right eye may be arranged in the first rim portion (202a). A display member (201) corresponding to the user's left eye may be arranged in the second rim portion (202b).
일 실시예에 따르면, 착용 부재(203)는, 렌즈 프레임(202)에서 연장될 수 있다. 예를 들어, 착용 부재(203)는 렌즈 프레임(202)의 단부에서 연장되고, 렌즈 프레임(202)과 함께, 사용자의 신체(예: 귀)에 지지 또는 위치될 수 있다. 일 실시예에 따르면, 착용 부재(203)는 힌지 구조(229)를 통해 렌즈 프레임(202)에 대하여 상대적으로 회전될 수 있다.In one embodiment, the wearing member (203) may extend from the lens frame (202). For example, the wearing member (203) may extend from an end of the lens frame (202) and, together with the lens frame (202), may be supported or positioned on the user's body (e.g., an ear). In one embodiment, the wearing member (203) may be rotated relative to the lens frame (202) via a hinge structure (229).
일 실시예에 따르면, 착용 부재(203)는 사용자의 신체와 대면하도록 구성된 내측면 및 내측면의 반대인 외측면을 포함할 수 있다. 일 실시예(미도시)에 따르면, 착용 부재(203)의 적어도 일부는 가요성 재료(flexible material)(예: 고무)로 형성될 수 있다. 예를 들어, 착용 부재(203)의 적어도 일부는 사용자의 신체(예: 귀)의 적어도 일부를 둘러싸는 밴드 형상으로 형성될 수 있다.In one embodiment, the wearable member (203) may include an inner side configured to face the user's body and an outer side opposite the inner side. In one embodiment (not shown), at least a portion of the wearable member (203) may be formed of a flexible material (e.g., rubber). For example, at least a portion of the wearable member (203) may be formed in a band shape that surrounds at least a portion of the user's body (e.g., an ear).
일 실시예에 따르면, 제1 착용 부재(203a)는, 웨어러블 전자 장치(101)가 사용자에 의해 착용될 때, 사용자의 오른쪽 귀에 상응하도록 위치될 수 있다. 제1 착용 부재(203a)는, 제1 연결 부분(2032a) 및 제1 연장 부분(2031a)(first extension portion)을 포함할 수 있다. 실시예에 따라, 제1 연결 부분(2032a)은, 렌즈 프레임(202) 및/또는 제1 림 부분(202a)의 일부로 정의 및/또는 해석될 수 있다.According to one embodiment, the first wearing member (203a) may be positioned to correspond to the user's right ear when the wearable electronic device (101) is worn by the user. The first wearing member (203a) may include a first connection portion (2032a) and a first extension portion (2031a). According to an embodiment, the first connection portion (2032a) may be defined and/or interpreted as a part of the lens frame (202) and/or the first rim portion (202a).
일 실시예에 따르면, 제1 연결 부분(2032a)은, 렌즈 프레임(202)의 제1 림 부분(202a)으로부터 연장될 수 있다.According to one embodiment, the first connecting portion (2032a) may extend from the first rim portion (202a) of the lens frame (202).
일 실시예에 따르면, 제1 연장 부분(2031a)은, 제1 연결 부분(2032a)에 회전 가능하게 연결될 수 있다. 제1 연장 부분(2031a)은, 제1 연결 부분(2032a)으로부터 연장될 수 있다. 제1 연장 부분(2031a)은, 제1 레그 부분(first leg portion)으로 정의 및/또는 지칭될 수 있다.According to one embodiment, the first extension portion (2031a) may be rotatably connected to the first connection portion (2032a). The first extension portion (2031a) may extend from the first connection portion (2032a). The first extension portion (2031a) may be defined and/or referred to as a first leg portion.
일 실시예에 따르면, 제1 연장 부분(2031a)은, 힌지 구조(229)를 통해 제1 연결 부분(2032a)에 대해 회전 가능하게 결합될 수 있다. 예를 들어, 제1 연장 부분(2031a)는, 제1 연결 부분(2032a) 및 렌즈 프레임(202)에 대해 상대적으로 접히거나 또는 펼쳐지도록 회전될 수 있다. 이에 따라, 제1 착용 부재(203a)가 제1 림 부분(202a) 및 렌즈 프레임(202)에 대해 회전될 수 있다.In one embodiment, the first extension portion (2031a) can be rotatably coupled to the first connection portion (2032a) via a hinge structure (229). For example, the first extension portion (2031a) can be rotated to fold or unfold relative to the first connection portion (2032a) and the lens frame (202). Accordingly, the first wearing member (203a) can be rotated relative to the first rim portion (202a) and the lens frame (202).
일 실시예에 따르면, 제1 연결 부분(2032a)은, 카메라(예: 도 5의 카메라(330)) 및/또는 디스플레이 엔진(예: 도 3의 광 출력 모듈(211))을 수용할 수 있다. 예를 들어, 상기 카메라 및/또는 상기 디스플레이 엔진은, 제1 연결 부분(2032a)의 내부에 배치되어, 제1 착용 부재(203a)의 외부로 노출되지 않을 수 있다.According to one embodiment, the first connecting portion (2032a) may accommodate a camera (e.g., the camera (330) of FIG. 5) and/or a display engine (e.g., the light output module (211) of FIG. 3). For example, the camera and/or the display engine may be positioned within the first connecting portion (2032a) and not exposed to the outside of the first wearing member (203a).
일 실시예에 따르면, 제1 착용 부재(203a)는, 웨어러블 전자 장치(101)가 사용자에 의해 착용될 때, 사용자의 오른쪽 귀에 상응하도록 위치될 수 있다. 제1 착용 부재(203a)는, 제1 연장 부분(2031a)(first extension portion) 및 제1 연결 부분(2032a)(first connection portion)을 포함할 수 있다. 실시예에 따라, 제1 연결 부분(2032a)은, 렌즈 프레임(202) 및/또는 제1 림 부분(202a)의 일부로 정의 및/또는 해석될 수 있다.According to one embodiment, the first wearing member (203a) may be positioned to correspond to the user's right ear when the wearable electronic device (101) is worn by the user. The first wearing member (203a) may include a first extension portion (2031a) and a first connection portion (2032a). According to an embodiment, the first connection portion (2032a) may be defined and/or interpreted as a part of the lens frame (202) and/or the first rim portion (202a).
일 실시예에 따르면, 제1 연결 부분(2032a)은, 렌즈 프레임(202)의 제1 림 부분(202a)으로부터 연장될 수 있다.According to one embodiment, the first connecting portion (2032a) may extend from the first rim portion (202a) of the lens frame (202).
일 실시예에 따르면, 제1 연장 부분(2031a)은, 제1 연결 부분(2032a)에 회전 가능하게 연결될 수 있다. 제1 연장 부분(2031a)은, 제1 연결 부분(2032a)으로부터 연장될 수 있다. 제1 연장 부분(2031a)은, 제1 레그 부분(first leg portion)으로 정의 및/또는 지칭될 수 있다.According to one embodiment, the first extension portion (2031a) may be rotatably connected to the first connection portion (2032a). The first extension portion (2031a) may extend from the first connection portion (2032a). The first extension portion (2031a) may be defined and/or referred to as a first leg portion.
일 실시예에 따르면, 제1 연장 부분(2031a)은, 힌지 구조(229)를 통해 제1 연결 부분(2032a)에 대해 회전 가능하게 결합될 수 있다. 예를 들어, 제1 연장 부분(2031a)는, 제1 연결 부분(2032a) 및 렌즈 프레임(202)에 대해 상대적으로 접히거나 또는 펼쳐지도록 회전될 수 있다. 이에 따라, 제1 착용 부재(203a)가 제1 림 부분(202a) 및 렌즈 프레임(202)에 대해 회전될 수 있다.In one embodiment, the first extension portion (2031a) can be rotatably coupled to the first connection portion (2032a) via a hinge structure (229). For example, the first extension portion (2031a) can be rotated to fold or unfold relative to the first connection portion (2032a) and the lens frame (202). Accordingly, the first wearing member (203a) can be rotated relative to the first rim portion (202a) and the lens frame (202).
일 실시예에 따르면, 제2 착용 부재(203b)는, 웨어러블 전자 장치(101)가 사용자에 의해 착용될 때, 사용자의 왼쪽 귀에 상응하도록 위치될 수 있다. 제2 착용 부재(203b)는, 제2 연장 부분(2031b) 및 제2 연결 부분(2032b)을 포함할 수 있다. 실시예에 따라, 제2 연결 부분(2032b)은, 렌즈 프레임(202) 및/또는 제2 림 부분(202b)의 일부로 정의 및/또는 해석될 수 있다.In one embodiment, the second wearing member (203b) may be positioned to correspond to the user's left ear when the wearable electronic device (101) is worn by the user. The second wearing member (203b) may include a second extension portion (2031b) and a second connection portion (2032b). In some embodiments, the second connection portion (2032b) may be defined and/or interpreted as a part of the lens frame (202) and/or the second rim portion (202b).
일 실시예에 따르면, 제2 연결 부분(2032b)은, 렌즈 프레임(202)의 제2 림 부분(202b)으로부터 연장될 수 있다.According to one embodiment, the second connecting portion (2032b) may extend from the second rim portion (202b) of the lens frame (202).
일 실시예에 따르면, 제2 연장 부분(2031b)은, 제2 연결 부분(2032b)에 회전 가능하게 연결될 수 있다. 제2 연장 부분(2031b)은, 제2 연결 부분(2032b)으로부터 연장될 수 있다. 제2 연장 부분(2031b)은, 제2 레그 부분으로 정의 및/또는 지칭될 수 있다.According to one embodiment, the second extension portion (2031b) may be rotatably connected to the second connection portion (2032b). The second extension portion (2031b) may extend from the second connection portion (2032b). The second extension portion (2031b) may be defined and/or referred to as a second leg portion.
일 실시예에 따르면, 제2 연장 부분(2031b)은, 힌지 구조(229)를 통해 제2 연결 부분(2032b)에 대해 회전 가능하게 결합될 수 있다. 예를 들어, 제2 연장 부분(2031b)은, 제2 연결 부분(2032b) 및 렌즈 프레임(202)에 대해 상대적으로 접히거나 또는 펼쳐지도록 회전될 수 있다. 이에 따라, 제2 착용 부재(203b)가 제2 림 부분(202b) 및 렌즈 프레임(202)에 대해 회전될 수 있다.In one embodiment, the second extension portion (2031b) can be rotatably coupled to the second connection portion (2032b) via a hinge structure (229). For example, the second extension portion (2031b) can be rotated to fold or unfold relative to the second connection portion (2032b) and the lens frame (202). Accordingly, the second wearing member (203b) can be rotated relative to the second rim portion (202b) and the lens frame (202).
일 실시예에 따르면, 제2 연결 부분(2032b)은, 카메라(예: 도 5의 카메라(330)) 및/또는 디스플레이 엔진(예: 도 3의 광 출력 모듈(211))을 수용할 수 있다. 예를 들어, 상기 카메라 및/또는 상기 디스플레이 엔진은, 제2 연결 부분(2032b)의 내부에 배치되어, 제2 착용 부재(203b)의 외부로 노출되지 않을 수 있다.According to one embodiment, the second connecting portion (2032b) may accommodate a camera (e.g., the camera (330) of FIG. 5) and/or a display engine (e.g., the light output module (211) of FIG. 3). For example, the camera and/or the display engine may be disposed within the second connecting portion (2032b) and not be exposed to the outside of the second wearing member (203b).
일 실시예에 따르면, 웨어러블 전자 장치(101)는, 착용 부재(203)를 렌즈 프레임(202)에 대하여 상대적으로 접을 수 있도록 구성된 힌지 구조(229)를 포함할 수 있다. 힌지 구조(229)는, 렌즈 프레임(202)과 착용 부재(203) 사이에 배치될 수 있다. According to one embodiment, the wearable electronic device (101) may include a hinge structure (229) configured to fold the wearing member (203) relative to the lens frame (202). The hinge structure (229) may be positioned between the lens frame (202) and the wearing member (203).
일 실시예에 따르면, 힌지 구조(229)는, 제1 연결 부분(2032a)과 제1 연장 부분(2031a)에 연결된 제1 힌지 구조(229a)를 포함할 수 있다. 제1 힌지 구조(229a)는, 제1 연장 부분(2031a)이 제1 연결 부분(2032a)에 대해 상대적으로 회전되도록 할 수 있다. 이에 따라, 제1 착용 부재(203a) 및/또는 제1 연장 부분(2031a)은, 렌즈 프레임(202)(예: 제1 림 부분(202a))에 대해 회전될 수 있다.In one embodiment, the hinge structure (229) may include a first hinge structure (229a) connected to a first connecting portion (2032a) and a first extending portion (2031a). The first hinge structure (229a) may allow the first extending portion (2031a) to rotate relative to the first connecting portion (2032a). Accordingly, the first wearing member (203a) and/or the first extending portion (2031a) may rotate relative to the lens frame (202) (e.g., the first rim portion (202a)).
일 실시예에 따르면, 힌지 구조(229)는, 제2 연결 부분(2032b)과 제2 연장 부분(2031b)에 연결된 제2 힌지 구조(229b)를 포함할 수 있다. 제2 힌지 구조(229b)는, 제2 연장 부분(2031b)이 제2 연결 부분(2032b)에 대해 상대적으로 회전되도록 할 수 있다. 이에 따라, 제2 착용 부재(203b) 및/또는 제2 연장 부분(2031b)는, 렌즈 프레임(202)(예: 제2 림 부분(202b))에 대해 회전될 수 있다.In one embodiment, the hinge structure (229) may include a second hinge structure (229b) connected to a second connecting portion (2032b) and a second extending portion (2031b). The second hinge structure (229b) may allow the second extending portion (2031b) to rotate relative to the second connecting portion (2032b). Accordingly, the second wearing member (203b) and/or the second extending portion (2031b) may rotate relative to the lens frame (202) (e.g., the second rim portion (202b)).
일 실시예에 따르면, 사용자가 웨어러블 전자 장치(101)를 착용하지 않은 상태에서, 사용자는 착용 부재(203)를 렌즈 프레임(202)에 대하여 일부가 중첩되도록 접어 휴대 또는 보관할 수 있다.According to one embodiment, when the user is not wearing the wearable electronic device (101), the user can fold the wearing member (203) so that a portion overlaps the lens frame (202) and carry or store it.
일 실시예에 따르면, 웨어러블 전자 장치(101)는, 사용자에게 증강 현실을 제공 가능한 안경형 장치를 포함할 수 있다.According to one embodiment, the wearable electronic device (101) may include a glasses-type device capable of providing augmented reality to a user.
본 개시에서, '증강 현실(Augmented Reality)'은 현실 세계의 물리적 환경 공간(physical, real-world environment)이나 현실 객체(real-world object)에 컴퓨터에서 생성되는 가상 이미지를 오버레이(overlay)하여 하나의 이미지로 보여주는 것을 의미할 수 있다.In the present disclosure, 'Augmented Reality' may mean overlaying a virtual image generated by a computer onto a physical, real-world environment or real-world object to display it as a single image.
본 개시에서, '현실 장면(real scene)'이란 관찰자 또는 사용자가 증강 현실 표시 장치(예: 웨어러블 전자 장치(101))를 통해서 보는 현실 세계의 장면으로서, 현실 객체(real world object)(들)를 포함할 수 있다. 한편, '가상 이미지(virtual image)'는 디스플레이 엔진을 통해 생성되는 이미지일 수 있다. '가상 이미지'는, 가상 객체(virtual object)에 대한 이미지를 포함할 수 있다. 가상 이미지는 정적 이미지와 동적 이미지를 모두 포함할 수 있다. 이러한 가상 이미지는 현실 장면 상에 오버레이(overlay)되어, 현실 장면 속의 현실 객체에 대한 정보나 증강 현실 장치의 동작에 대한 정보나 제어 메뉴를 보여주는 이미지일 수 있다.In the present disclosure, a "real scene" refers to a scene of the real world viewed by an observer or user through an augmented reality display device (e.g., a wearable electronic device (101)), and may include real world objects. Meanwhile, a "virtual image" may be an image generated by a display engine. The "virtual image" may include an image of a virtual object. The virtual image may include both static and dynamic images. Such a virtual image may be an image overlaid on a real scene, showing information about a real object in the real scene, information about the operation of an augmented reality device, or a control menu.
일 실시예에 따르면, 웨어러블 전자 장치(101)는, 광원에서 생성된 광으로 구성된 가상 이미지를 생성하기 위한 디스플레이 엔진(display engine)(예: 도 3의 광 출력 모듈(211))을 포함할 수 있다.According to one embodiment, a wearable electronic device (101) may include a display engine (e.g., a light output module (211) of FIG. 3) for generating a virtual image composed of light generated from a light source.
일 실시예에 따르면, 적어도 하나의 표시 부재(201)는, 디스플레이 엔진으로부터 제공된 가상 이미지를 사용자의 눈으로 안내하도록 구성된 웨이브 가이드를 포함할 수 있다.According to one embodiment, at least one display member (201) may include a wave guide configured to guide a virtual image provided from the display engine to the user's eyes.
일 실시예에 따르면, 웨어러블 전자 장치(101)는, 사용자의 눈(예: 예: 동공(pupil), 또는 홍채(iris)) 또는 시선의 궤적을 촬영 및/또는 인식할 수 있다. 예를 들어, 적어도 하나의 표시 부재(201)의 웨이브 가이드(예: 도 6의 웨이브 가이드(400)) 및 카메라(예: 도 5의 카메라(330))는, 사용자의 눈 또는 시선의 궤적을 촬영 및/또는 인식하는데 사용될 수 있다. 예를 들어, 웨어러블 전자 장치(101)는, 사용자의 시선 방향(sight direction)을 추적하도록 구성될 수 있다. According to one embodiment, the wearable electronic device (101) can capture and/or recognize the trajectory of the user's eye (e.g., pupil or iris) or gaze. For example, a wave guide (e.g., wave guide (400) of FIG. 6) and a camera (e.g., camera (330) of FIG. 5) of at least one display member (201) can be used to capture and/or recognize the trajectory of the user's eye or gaze. For example, the wearable electronic device (101) can be configured to track the user's gaze direction.
일 실시예에 따르면, 웨어러블 전자 장치(101)는, 사용자의 시선 방향을 추적하여, 사용자가 표시 부재(201) 상에서 특정 부분을 주목하는 경우(예: 특정 부분을 바라보는 경우), 해당 부분의 가상 이미지를 확대 또는 축소하거나, 가상 이미지의 배치를 변경 또는 최적화하여, 사용자에게 시각적으로 노출되는 가상 이미지의 동작 및 배치를 최적화하도록 구성될 수 있다.According to one embodiment, the wearable electronic device (101) may be configured to track the direction of the user's gaze, and when the user focuses on a specific portion on the display member (201) (e.g., looks at a specific portion), enlarge or reduce a virtual image of the corresponding portion, or change or optimize the arrangement of the virtual image, thereby optimizing the operation and arrangement of the virtual image visually exposed to the user.
도 3은 본 개시의 일 실시예에 따른, 웨어러블 전자 장치의 내부 구성을 설명하기 위한 결합 사시도이다.FIG. 3 is a perspective view illustrating an internal configuration of a wearable electronic device according to one embodiment of the present disclosure.
도 4는 본 개시의 일 실시예에 따른, 웨어러블 전자 장치의 분해 사시도이다.FIG. 4 is an exploded perspective view of a wearable electronic device according to one embodiment of the present disclosure.
도 3 및 도 4의 실시예들은, 도 1 내지 도 2의 실시예들, 또는 도 5 내지 도 14의 실시예들과 결합될 수 있다.The embodiments of FIGS. 3 and 4 can be combined with the embodiments of FIGS. 1 to 2, or the embodiments of FIGS. 5 to 14.
도 3 및/또는 도 4의 표시 부재(201), 렌즈 프레임(202), 착용 부재(203) 및 힌지 구조(229)의 구성들은 도 2의 표시 부재(201), 렌즈 프레임(202), 착용 부재(203) 및 힌지 구조(229)의 구성들과 일부 또는 전부가 동일할 수 있다.The configurations of the display member (201), the lens frame (202), the wearing member (203), and the hinge structure (229) of FIG. 3 and/or FIG. 4 may be partially or entirely identical to the configurations of the display member (201), the lens frame (202), the wearing member (203), and the hinge structure (229) of FIG. 2.
도 3 내지 도 4를 참조하면, 웨어러블 전자 장치(101)(예: 도 2의 웨어러블 전자 장치(101))는 표시 부재(201), 렌즈 프레임(202), 착용 부재(203), 힌지 구조(229), 적어도 하나의 회로 기판(241), 적어도 하나의 배터리(243), 적어도 하나의 전원 전달 구조(246), 카메라 모듈(250) 및/또는 센서 모듈(280)을 포함할 수 있다.Referring to FIGS. 3 and 4, a wearable electronic device (101) (e.g., the wearable electronic device (101) of FIG. 2) may include a display member (201), a lens frame (202), a wearing member (203), a hinge structure (229), at least one circuit board (241), at least one battery (243), at least one power transmission structure (246), a camera module (250), and/or a sensor module (280).
일 실시예에 따르면, 웨어러블 전자 장치(101)는 카메라 모듈(253, 255)을 이용하여 사용자가 바라보는 또는 웨어러블 전자 장치(101)가 지향하는 방향(예: +Y 방향)의 사물이나 환경에 관한 시각적인 이미지를 획득 및/또는 인지하고, 네트워크(예: 도 1의 제1 네트워크(198) 또는 제2 네트워크(199))를 통해 외부의 전자 장치(예: 도 1의 전자 장치(102, 104), 또는 도 1의 서버(108))로부터 사물 또는 환경에 관한 정보를 제공받을 수 있다. 다른 실시예에서, 웨어러블 전자 장치(101)는 제공받은 사물이나 환경에 관한 정보를 음향 또는 시각적인 형태로 사용자에게 제공할 수 있다. 웨어러블 전자 장치(101)는 제공받은 사물이나 환경에 관한 정보를 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160))을 이용하여 시각적인 형태로 표시 부재(201)를 통해 사용자에게 제공할 수 있다. 예를 들어, 웨어러블 전자 장치(101)는 사물이나 환경에 관한 정보를 시각적인 형태로 구현하고 사용자 주변 환경의 실제 이미지와 조합함으로써, 웨어러블 전자 장치(101)는 증강 현실(augmented reality)을 구현할 수 있다.According to one embodiment, the wearable electronic device (101) may acquire and/or recognize a visual image of an object or environment in a direction (e.g., +Y direction) that the user is looking at or that the wearable electronic device (101) is facing by using a camera module (253, 255), and may receive information about the object or environment from an external electronic device (e.g., the electronic device (102, 104) of FIG. 1 or the server (108) of FIG. 1) through a network (e.g., the first network (198) or the second network (199) of FIG. 1). In another embodiment, the wearable electronic device (101) may provide the received information about the object or environment to the user in an acoustic or visual form. The wearable electronic device (101) may provide the received information about the object or environment to the user in a visual form through a display member (201) by using a display module (e.g., the display module (160) of FIG. 1). For example, the wearable electronic device (101) can implement augmented reality by visualizing information about objects or the environment and combining it with actual images of the user's surroundings.
일 실시예에 따르면, 표시 부재(201)는 한 쌍으로 제공되어, 웨어러블 전자 장치(101)가 사용자 신체에 착용된 상태에서, 사용자의 좌안과 우안에 각각 대응하게 배치될 수 있다. 예를 들어, 표시 부재(201)는 제1 표시 부재(201a) 및 제1 표시 부재(201a)에 이격되어 배치된 제2 표시 부재(201b)를 포함할 수 있다. 제1 표시 부재(201a)는 사용자의 우안에 대응되도록 배치되고, 제2 표시 부재(201b)는 사용자의 좌안에 대응되도록 배치될 수 있다.According to one embodiment, the display member (201) may be provided as a pair and may be arranged to correspond to the left and right eyes of the user, respectively, when the wearable electronic device (101) is worn on the user's body. For example, the display member (201) may include a first display member (201a) and a second display member (201b) arranged spaced apart from the first display member (201a). The first display member (201a) may be arranged to correspond to the user's right eye, and the second display member (201b) may be arranged to correspond to the user's left eye.
일 실시예에 따르면, 제1 표시 부재(201a)는, 렌즈 프레임(202)의 제1 림 부분(예: 도 2의 제1 림 부분(202a))에 배치될 수 있고, 제2 표시 부재(201b)는, 렌즈 프레임(202)의 제2 림 부분(예: 도 2의 제2 림 부분(202b))에 배치될 수 있다.According to one embodiment, the first display member (201a) may be disposed on a first rim portion of the lens frame (202) (e.g., the first rim portion (202a) of FIG. 2), and the second display member (201b) may be disposed on a second rim portion of the lens frame (202) (e.g., the second rim portion (202b) of FIG. 2).
일 실시예에 따르면, 표시 부재(201)는 외부의 빛이 입사되는 방향(예: -Y 방향)을 향하는 제1 면(F1) 및 제1 면(F1)의 반대 방향(예: +Y 방향)을 향하는 제2 면(F2)을 포함할 수 있다. 사용자가 웨어러블 전자 장치(101)를 착용한 상태에서, 제1 면(F1)을 통해 입사된 빛 또는 이미지의 적어도 일부는 사용자의 좌안 및/또는 우안과 마주보게 배치된 표시 부재(201)의 제2 면(F2)을 통과하여 사용자의 좌안 및/또는 우안으로 입사될 수 있다.According to one embodiment, the display member (201) may include a first side (F1) facing a direction in which external light is incident (e.g., -Y direction) and a second side (F2) facing an opposite direction (e.g., +Y direction) of the first side (F1). When a user wears the wearable electronic device (101), at least a portion of light or an image incident through the first side (F1) may pass through the second side (F2) of the display member (201) arranged to face the user's left eye and/or right eye and be incident on the user's left eye and/or right eye.
일 실시예에 따르면, 렌즈 프레임(202)은 적어도 둘 이상의 프레임을 포함할 수 있다. 예를 들면, 렌즈 프레임(202)은 제1 프레임(2021b) 및 제2 프레임(2021b)을 포함할 수 있다.According to one embodiment, the lens frame (202) may include at least two frames. For example, the lens frame (202) may include a first frame (2021b) and a second frame (2021b).
일 실시예에 따르면, 웨어러블 전자 장치(101)를 사용자가 착용할 때, 제1 프레임(2021a)은 사용자의 안면과 대면하는 부분의 프레임이고, 제2 프레임(2021b)은 제1 프레임(2021a)에 대하여 사용자가 바라보는 시선 방향(예: +Y 방향)으로 이격된 렌즈 프레임(202)의 일부일 수 있다.According to one embodiment, when a user wears a wearable electronic device (101), the first frame (2021a) may be a frame that faces the user's face, and the second frame (2021b) may be a part of a lens frame (202) spaced apart in a direction of the user's gaze (e.g., +Y direction) with respect to the first frame (2021a).
일 실시예에 따르면, 웨어러블 전자 장치(101)는 사용자에게 이미지 및/또는 영상을 제공하도록 구성된 광 출력 모듈(211)(예: 디스플레이 엔진(display engine))을 포함할 수 있다. 예를 들어, 광 출력 모듈(211)은 영상을 출력할 수 있는 디스플레이 패널(미도시) 및 사용자의 눈에 대응되고, 상기 영상을 표시 부재(201)로 가이드하는 렌즈(미도시)를 포함할 수 있다. 예를 들어, 사용자는 광 출력 모듈(211)의 렌즈를 통해 광 출력 모듈(211)의 디스플레이 패널로부터 출력된 영상을 획득할 수 있다.According to one embodiment, the wearable electronic device (101) may include a light output module (211) (e.g., a display engine) configured to provide images and/or videos to a user. For example, the light output module (211) may include a display panel (not shown) capable of outputting videos and a lens (not shown) corresponding to a user's eye and guiding the videos to a display member (201). For example, the user may obtain videos output from the display panel of the light output module (211) through the lens of the light output module (211).
일 실시예에 따르면, 광 출력 모듈(211)은, 다양한 정보를 표시하도록 구성된 장치를 포함할 수 있다. 예를 들면, 광 출력 모듈(211)은 액정 표시 장치(liquid crystal display, LCD), 디지털 미러 표시 장치(digital mirror device, DMD), 실리콘 액정 표시 장치(liquid crystal on silicon, LCoS), 유기 발광 다이오드(organic light emitting diode, OLED) 또는 마이크로 엘이디(micro light emitting diode, micro LED) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 광 출력 모듈(211) 및/또는 표시 부재(201)가, 액정 표시 장치, 디지털 미러 표시 장치, 또는 실리콘 액정 표시 장치 중 하나를 포함하는 경우, 웨어러블 전자 장치(101)는 광 출력 모듈(211) 및/또는 표시 부재(201)의 디스플레이 영역으로 빛을 조사하는 광원을 포함할 수 있다. 다른 실시예에 따르면, 광 출력 모듈(211) 및/또는 표시 부재(201)가 유기 발광 다이오드, 또는 마이크로 엘이디 중 하나를 포함하는 경우, 웨어러블 전자 장치(101)는 별도의 광원을 포함하지 않고 사용자에게 가상 영상을 제공할 수 있다.According to one embodiment, the light output module (211) may include a device configured to display various information. For example, the light output module (211) may include at least one of a liquid crystal display (LCD), a digital mirror device (DMD), a liquid crystal on silicon (LCoS), an organic light emitting diode (OLED), or a micro light emitting diode (micro LED). According to one embodiment, when the light output module (211) and/or the display member (201) include one of a liquid crystal display, a digital mirror display, or a silicon liquid crystal display, the wearable electronic device (101) may include a light source that irradiates light to a display area of the light output module (211) and/or the display member (201). According to another embodiment, when the light output module (211) and/or the display member (201) includes one of an organic light emitting diode or a micro LED, the wearable electronic device (101) can provide a virtual image to the user without including a separate light source.
일 실시예에 따르면, 광 출력 모듈(211)의 적어도 일부는 하우징(210) 내에 배치될 수 있다. 예를 들어, 광 출력 모듈(211)은, 착용 부재(203) 내에 배치되어 표시 부재(201)와 연결되고, 표시 부재(201)를 통하여 사용자에게 영상을 제공할 수 있다. 예를 들어, 광 출력 모듈(211)에서 출력된 영상은 표시 부재(201)의 일단에 위치하는 입력 광학 부재(미도시)를 통해 표시 부재(201)로 입사되고, 표시 부재(201)의 적어도 일부에 위치하는 웨이브 가이드(예: 도 6의 웨이브 가이드(400)) 및 출력 광학 부재를 통해 사용자의 눈을 향하여 방사될 수 있다. 출력 광학 부재는, 사용자의 눈과 상응하는 아이박스(eye-box)를 형성할 수 있다.According to one embodiment, at least a portion of the light output module (211) may be disposed within the housing (210). For example, the light output module (211) may be disposed within the wearable member (203) and connected to the display member (201), and may provide an image to the user through the display member (201). For example, an image output from the light output module (211) may be incident on the display member (201) through an input optical member (not shown) positioned at one end of the display member (201), and may be radiated toward the user's eye through a wave guide (e.g., a wave guide (400) of FIG. 6) positioned at at least a portion of the display member (201) and an output optical member. The output optical member may form an eye-box corresponding to the user's eye.
일 실시예에 따르면, 웨어러블 전자 장치(101)는 웨어러블 전자 장치(101)의 구동을 위한 부품들을 수용하는 회로 기판(241)(예: PCB(printed circuit board), PBA(printed board assembly), FPCB(flexible PCB) 또는 RFPCB(rigid-flexible PCB))을 포함할 수 있다. 예를 들어, 회로 기판(241)은 적어도 하나의 집적회로 칩(integrated circuit chip)을 포함할 수 있으며, 프로세서(미도시)(예: 도 1의 프로세서(120)), 메모리(미도시)(예: 도 1의 메모리(130), 전력 관리 모듈(미도시)(예: 도 1의 전력 관리 모듈(188)) 또는 통신 모듈(예: 도 1의 통신 모듈(190)) 중 적어도 하나는 집적회로 칩에 제공될 수 있다. 일 실시예에 따르면, 회로 기판(241)은 하우징(210)의 착용 부재(203) 내에 배치될 수 있다. 예를 들어, 회로 기판(241)은 제1 착용 부재(203a) 내에 배치된 제1 회로 기판(241a) 및 제2 착용 부재(203b) 내에 배치된 제2 회로 기판(241b)을 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(예: 도 1의 통신 모듈(190))은 제1 착용 부재(203a) 내에 위치한 제1 회로 기판(241a)에 실장되고, 프로세서(예: 도 1의 프로세서(120))는 제2 착용 부재(203b) 내에 위치한 제2 회로 기판(241b)에 실장될 수 있다. 일 실시예에 따르면, 회로 기판(241)은 전원 전달 구조(246)를 통하여 배터리(243)(예: 도 1의 배터리(189))와 전기적으로 연결될 수 있다. 일 실시예에 따르면, 회로 기판(241)은 인터포저(interposer) 기판일 수 있다.According to one embodiment, the wearable electronic device (101) may include a circuit board (241) (e.g., a printed circuit board (PCB), a printed board assembly (PBA), a flexible PCB (FPCB), or a rigid-flexible PCB (RFPCB)) that accommodates components for driving the wearable electronic device (101). For example, the circuit board (241) may include at least one integrated circuit chip, and at least one of a processor (not shown) (e.g., a processor (120) of FIG. 1), a memory (not shown) (e.g., a memory (130) of FIG. 1), a power management module (not shown) (e.g., a power management module (188) of FIG. 1), or a communication module (e.g., a communication module (190) of FIG. 1) may be provided on the integrated circuit chip. According to one embodiment, the circuit board (241) may be disposed within the wearing member (203) of the housing (210). For example, the circuit board (241) may include a first circuit board (241a) disposed within a first wearing member (203a) and a second circuit board (241b) disposed within a second wearing member (203b). According to one embodiment, the communication module (e.g., the communication module (190) of FIG. 1) may be disposed within the first wearing member. A first circuit board (241a) located within a member (203a) may be mounted, and a processor (e.g., processor (120) of FIG. 1) may be mounted within a second circuit board (241b) located within a second wearable member (203b). According to one embodiment, the circuit board (241) may be electrically connected to a battery (243) (e.g., battery (189) of FIG. 1) via a power transmission structure (246). According to one embodiment, the circuit board (241) may be an interposer board.
일 실시예에 따르면, 배터리(243)는 웨어러블 전자 장치(101)의 부품(예: 광 출력 모듈(211), 회로 기판(241), 스피커 모듈(245), 마이크 모듈(247) 및/또는 카메라 모듈(250))과 전기적으로 연결될 수 있고, 웨어러블 전자 장치(101)의 부품들에게 전력을 공급할 수 있다.According to one embodiment, the battery (243) may be electrically connected to components of the wearable electronic device (101) (e.g., the light output module (211), the circuit board (241), the speaker module (245), the microphone module (247), and/or the camera module (250)) and may supply power to the components of the wearable electronic device (101).
일 실시예에 따르면, 배터리(243)의 적어도 일부는 착용 부재(203)에 배치될 수 있다. 일 실시예에 따르면, 배터리(243)는 제1 착용 부재(203a) 내에 배치된 제1 배터리(243a) 및 제2 착용 부재(203b) 내에 배치된 제2 배터리(243b)를 포함할 수 있다. 일 실시예에 따르면, 배터리(243)는 착용 부재(203)의 단부(203c, 203d)에 인접하도록 배치될 수 있다.In one embodiment, at least a portion of the battery (243) may be disposed in the wearable member (203). In one embodiment, the battery (243) may include a first battery (243a) disposed within the first wearable member (203a) and a second battery (243b) disposed within the second wearable member (203b). In one embodiment, the battery (243) may be disposed adjacent to an end (203c, 203d) of the wearable member (203).
일 실시예에 따르면, 스피커 모듈(245)(예: 도 1의 오디오 모듈(170) 또는 음향 출력 모듈(155))은 전기 신호를 소리로 변환시킬 수 있다. 스피커 모듈(245)의 적어도 일부는 하우징(210)의 착용 부재(203) 내에 배치될 수 있다. 일 실시예에 따르면, 스피커 모듈(245)은 사용자의 귀에 대응되도록 착용 부재(203) 내에 위치할 수 있다. 일 실시예(예: 도 3)에 따르면, 스피커 모듈(245)은 회로 기판(241)의 옆에 배치될 수 있다. 예를 들어, 스피커 모듈(245)은 회로 기판(241)과 배터리(243) 사이에 배치될 수 있다. 다른 실시예(미도시)에 따르면, 스피커 모듈(245)은 회로 기판(241) 상에 배치될 수 있다. 예를 들어, 스피커 모듈(245)은 회로 기판(241)과 내측 케이스(예: 도 4의 내측 케이스(231)) 사이에 배치될 수 있다.According to one embodiment, the speaker module (245) (e.g., the audio module (170) or the sound output module (155) of FIG. 1) can convert an electrical signal into sound. At least a portion of the speaker module (245) can be disposed within the wearing member (203) of the housing (210). According to one embodiment, the speaker module (245) can be positioned within the wearing member (203) to correspond to the user's ear. According to one embodiment (e.g., FIG. 3), the speaker module (245) can be disposed next to the circuit board (241). For example, the speaker module (245) can be disposed between the circuit board (241) and the battery (243). According to another embodiment (not shown), the speaker module (245) can be disposed on the circuit board (241). For example, the speaker module (245) may be placed between the circuit board (241) and the inner case (e.g., the inner case (231) of FIG. 4).
일 실시예에 따르면, 웨어러블 전자 장치(101)는 배터리(243)의 전력을 웨어러블 전자 장치(101)의 전자 부품(예: 광 출력 모듈(211))으로 전달하도록 구성된 전원 전달 구조(246)를 포함할 수 있다. 예를 들어, 전원 전달 구조(246)는 배터리(243) 및/또는 회로 기판(241)과 전기적으로 연결되고, 회로 기판(241)은 전원 전달 구조(246)를 통해 수신한 전력을 광 출력 모듈(211)로 전달할 수 있다. 일 실시예에 따르면, 전원 전달 구조(246)는 전력을 전달할 수 있는 구성일 수 있다. 예를 들어, 전원 전달 구조(246)는 가요성 인쇄회로기판 또는 와이어를 포함할 수 있다. 예를 들면, 와이어는 복수의 케이블들(미도시)을 포함할 수 있다. 일 실시예에서, 전원 전달 구조(246)의 형태는 케이블의 개수 및/또는 종류 등을 고려하여 다양하게 변형될 수 있다.According to one embodiment, the wearable electronic device (101) may include a power transmission structure (246) configured to transmit power from the battery (243) to an electronic component (e.g., an optical output module (211)) of the wearable electronic device (101). For example, the power transmission structure (246) is electrically connected to the battery (243) and/or the circuit board (241), and the circuit board (241) may transmit power received through the power transmission structure (246) to the optical output module (211). According to one embodiment, the power transmission structure (246) may be a configuration capable of transmitting power. For example, the power transmission structure (246) may include a flexible printed circuit board or a wire. For example, the wire may include a plurality of cables (not shown). In one embodiment, the shape of the power transmission structure (246) may be variously modified in consideration of the number and/or type of cables.
일 실시예에 따르면, 마이크 모듈(247)(예: 도 1의 입력 모듈(150) 및/또는 오디오 모듈(170))은 소리를 전기 신호로 변환할 수 있다. 일 실시예에 따르면, 마이크 모듈(247)은 렌즈 프레임(202) 내에 배치될 수 있다. 예를 들면, 적어도 하나의 마이크 모듈(247)은 웨어러블 전자 장치(101)의 하단(예: -Z축을 향하는 방향) 및/또는 상단(예: +Z축을 향하는 방향)에 배치될 수 있다. 일 실시예에 따르면, 웨어러블 전자 장치(101)는 적어도 하나의 마이크 모듈(247)에서 획득된 음성 정보(예: 소리)를 이용하여 사용자의 음성을 보다 명확하게 인식할 수 있다. 예를 들면, 전자 장치(101)는 획득된 음성 정보 및/또는 추가 정보(예: 사용자의 피부와 뼈의 저주파 진동)에 기반하여, 음성 정보와 주변 잡음을 구별할 수 있다. 예를 들면, 웨어러블 전자 장치(101)는, 사용자의 음성을 명확하게 인식할 수 있고, 주변 소음을 줄여주는 기능(예: 노이즈 캔슬링)을 수행할 수 있다.According to one embodiment, the microphone module (247) (e.g., the input module (150) and/or the audio module (170) of FIG. 1) may convert sound into an electrical signal. According to one embodiment, the microphone module (247) may be disposed within the lens frame (202). For example, at least one microphone module (247) may be disposed at the bottom (e.g., in the direction toward the -Z axis) and/or the top (e.g., in the direction toward the +Z axis) of the wearable electronic device (101). According to one embodiment, the wearable electronic device (101) may recognize the user's voice more clearly by using voice information (e.g., sound) acquired from the at least one microphone module (247). For example, the electronic device (101) may distinguish voice information from ambient noise based on the acquired voice information and/or additional information (e.g., low-frequency vibration of the user's skin and bones). For example, a wearable electronic device (101) can clearly recognize a user's voice and perform a function of reducing ambient noise (e.g., noise canceling).
일 실시예에 따르면, 웨어러블 전자 장치(101)는, 광원(251)을 포함할 수 있다. 광원(251)은, 렌즈 프레임(202)에 배치될 수 있으나, 이에 제한되지 않는다.According to one embodiment, the wearable electronic device (101) may include a light source (251). The light source (251) may be disposed in the lens frame (202), but is not limited thereto.
일 실시예에 따르면, 광원(251)은, 사용자의 좌안 및 우안에 각각 대응되도록 구성될 수 있다. 광원(251)은, IR(infrared radiation) 광을 조사하는 IR 광원(예: IR LED)을 포함할 수 있으나, 이에 제한되지 않는다.According to one embodiment, the light source (251) may be configured to correspond to the left and right eyes of the user, respectively. The light source (251) may include, but is not limited to, an IR light source (e.g., an IR LED) that irradiates IR (infrared radiation) light.
일 실시예에 따르면, 광원(251)은, 사용자의 안구를 향해 미리 설정된 파장 대역(예: 적외선 대역)의 광을 조사하도록 구성될 수 있다. 사용자의 안구, 상기 안구에 인접한 신체의 일부(예: 눈꺼풀), 또는 사용자의 안구의 동공은, 광원(251)으로부터 입사되는 광을 반사할 수 있다.In one embodiment, the light source (251) may be configured to irradiate light of a preset wavelength band (e.g., an infrared band) toward the user's eye. The user's eye, a body part adjacent to the eye (e.g., an eyelid), or the pupil of the user's eye may reflect the light incident from the light source (251).
일 실시예에 따르면, 사용자의 안구, 신체의 일부 또는 동공으로부터 반사된 광은, 표시 부재(201)로 입사할 수 있다. 표시 부재(201)로 입사된 광은, 표시 부재(201)의 적어도 일부에 위치된 웨이브 가이드(예: 도 6의 웨이브 가이드(400))를 통해 착용 부재(203) 내에 배치된 카메라(예: 도 5의 카메라(330))로 입사될 수 있다.In one embodiment, light reflected from a user's eye, a part of the body, or the pupil may be incident on the display member (201). The light incident on the display member (201) may be incident on a camera (e.g., camera (330) of FIG. 5) positioned within the wearable member (203) through a wave guide (e.g., wave guide (400) of FIG. 6) positioned on at least a portion of the display member (201).
일 실시예에 따르면, 웨어러블 전자 장치(101)는, 광원(251)으로부터 조사되어 사용자의 동공에 의해 반사된 광을 상기 카메라(예: 도 5의 카메라(330))로 획득하여, 사용자의 동공이 향하는 방향(예를 들어, 사용자의 시선 방향)을 식별할 수 있다.According to one embodiment, the wearable electronic device (101) can identify the direction in which the user's pupil is directed (e.g., the direction of the user's gaze) by acquiring light reflected by the user's pupil from a light source (251) using the camera (e.g., the camera (330) of FIG. 5).
일 실시예에 따르면, 웨어러블 전자 장치(101)는, 카메라 모듈(253, 255)을 포함할 수 있다. 카메라 모듈(253, 255)은 정지 영상 및/또는 동영상을 촬영할 수 있다. 카메라 모듈(253, 255)은 렌즈, 적어도 하나의 이미지 센서, 이미지 시그널 프로세서 또는 플래시 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈(253, 255)은 렌즈 프레임(202) 내에 배치되고, 표시 부재(201)의 주위에 배치될 수 있다.According to one embodiment, the wearable electronic device (101) may include a camera module (253, 255). The camera module (253, 255) may capture still images and/or moving images. The camera module (253, 255) may include at least one of a lens, at least one image sensor, an image signal processor, or a flash. According to one embodiment, the camera module (253, 255) may be disposed within a lens frame (202) and may be disposed around a display member (201).
일 실시예에 따르면, 제1 카메라 모듈(253)을 포함할 수 있다. 일 실시예에 따르면, 제1 카메라 모듈(253)은 외부의 이미지를 촬영할 수 있다. 일 실시예에 따르면, 제1 카메라 모듈(253)은 제2 프레임(2021b)에 형성된 제2 광학 홀(223)을 통해 외부의 이미지를 촬영할 수 있다. 예를 들어, 제2 카메라 모듈(253)은 고해상도의 컬러 카메라를 포함할 수 있으며, HR(high resolution) 또는 PV(photo video) 카메라일 수 있다. 일 실시예에 따르면, 제1 카메라 모듈(251)은 자동 초점 기능(auto focus, AF)과 이미지 안정화 기능(optical image stabilizer, OIS)을 제공할 수 있다. According to one embodiment, a first camera module (253) may be included. According to one embodiment, the first camera module (253) may capture an external image. According to one embodiment, the first camera module (253) may capture an external image through a second optical hole (223) formed in the second frame (2021b). For example, the second camera module (253) may include a high-resolution color camera, and may be a high-resolution (HR) or photo video (PV) camera. According to one embodiment, the first camera module (251) may provide an auto focus (AF) function and an optical image stabilizer (OIS) function.
일 실시예에 따르면(미도시), 웨어러블 전자 장치(101)는 제1 카메라 모듈(253)과 인접하도록 위치한 플래시(미도시)를 포함할 수 있다. 예를 들면, 플래시(미도시)는 제1 카메라 모듈(251)의 외부 이미지 획득 시, 웨어러블 전자 장치(101) 주변의 밝기(예: 조도)를 증대시키기 위한 광을 제공할 수 있으며, 어두운 환경, 다양한 광원의 혼입 및/또는 빛의 반사로 인한 이미지 획득의 어려움을 감소시킬 수 있다.According to one embodiment (not shown), the wearable electronic device (101) may include a flash (not shown) positioned adjacent to the first camera module (253). For example, the flash (not shown) may provide light to increase the brightness (e.g., illuminance) around the wearable electronic device (101) when the first camera module (251) acquires an external image, and may reduce difficulties in acquiring images due to dark environments, mixing of various light sources, and/or reflection of light.
일 실시예에 따르면, 적어도 하나의 제2 카메라 모듈(255)은 렌즈 프레임(202)에 형성된 제1 광학 홀(221)을 통해 사용자의 동작을 촬영할 수 있다. 예를 들어, 제2 카메라 모듈(255)은 사용자의 제스처(예: 손동작)를 촬영할 수 있다. 제2 카메라 모듈(255) 및/또는 제1 광학 홀(221)은 렌즈 프레임(202)(예: 제2 프레임(2021b))의 양 측단, 예를 들어, X 방향에서 렌즈 프레임(202)(예: 제2 프레임(2021b))의 양 단부에 각각 배치될 수 있다. 일 실시예에 따르면, 제2 카메라 모듈(255)은 글로벌 셔터(global shutter, GS) 방식의 카메라일 수 있다. 예를 들면, 제2 카메라 모듈(255)은 3DoF(degrees of freedom, 자유도) 또는 6DoF를 지원하는 카메라로 360도 공간(예: 전 방향), 위치 인식 및/또는 이동 인식을 제공할 수 있다. According to one embodiment, at least one second camera module (255) can capture a user's action through a first optical hole (221) formed in the lens frame (202). For example, the second camera module (255) can capture a user's gesture (e.g., hand motion). The second camera module (255) and/or the first optical hole (221) may be respectively disposed at opposite side ends of the lens frame (202) (e.g., the second frame (2021b)), for example, at opposite ends of the lens frame (202) (e.g., the second frame (2021b)) in the X direction. According to one embodiment, the second camera module (255) may be a global shutter (GS) type camera. For example, the second camera module (255) may be a camera that supports 3DoF (degrees of freedom) or 6DoF, which may provide 360-degree space (e.g., omnidirectional), position recognition, and/or movement recognition.
일 실시예에 따르면, 제2 카메라 모듈(255)은 스테레오 카메라로 동일 규격 및 성능의 복수개의 글로벌 셔터 방식의 카메라를 이용하여 이동 경로 추적 기능(simultaneous localization and mapping, SLAM) 및 사용자 움직임 인식 기능을 수행할 수 있다. 일 실시예에 따르면, 제2 카메라 모듈(255)은 IR(infrared) 카메라(예: TOF(time of flight) camera 또는 structured light camera)를 포함할 수 있다. 예를 들어, IR 카메라는 피사체와의 거리를 감지하기 위한 센서 모듈(예: 도 1의 센서 모듈(176))의 적어도 일부로 동작될 수 있다.According to one embodiment, the second camera module (255) may perform a movement path tracking function (simultaneous localization and mapping, SLAM) and a user movement recognition function using a plurality of global shutter type cameras of the same standard and performance as a stereo camera. According to one embodiment, the second camera module (255) may include an IR (infrared) camera (e.g., a time of flight (TOF) camera or a structured light camera). For example, the IR camera may operate as at least a part of a sensor module (e.g., the sensor module (176) of FIG. 1) for detecting a distance to a subject.
일 실시예에 따르면, 제2 카메라 모듈(255)은, 적어도 하나는 센서 모듈(예: 도 1의 센서 모듈(176))로 대체될 수 있다. 예를 들면, 센서 모듈은 VCSEL(vertical cavity surface emitting laser), 적외선 센서 및/또는 포토 다이오드(photodiode) 중 적어도 하나를 포함할 수 있다. 예를 들면, 포토 다이오드는 PIN(positive intrinsic negative) 포토 다이오드 또는 APD(avalanche photo diode)를 포함할 수 있다. 상기 포토 다이오드는 포토 디텍터(photo detector) 또는 포토 센서로 해석될 수 있다.According to one embodiment, at least one of the second camera modules (255) may be replaced with a sensor module (e.g., the sensor module (176) of FIG. 1). For example, the sensor module may include at least one of a vertical cavity surface emitting laser (VCSEL), an infrared sensor, and/or a photodiode. For example, the photodiode may include a positive intrinsic negative (PIN) photodiode or an avalanche photodiode (APD). The photodiode may be interpreted as a photo detector or a photo sensor.
일 실시예에 따르면, 제1 카메라 모듈(253) 또는 제2 카메라 모듈(255) 중 적어도 하나는 복수의 카메라 모듈들(미도시)을 포함할 수 있다. 예를 들면, 제1 카메라 모듈(253)은 복수의 렌즈들(예: 광각 및 망원 렌즈) 및 이미지 센서들로 구성되어 웨어러블 전자 장치(101)의 한 면(예: -Y 방향을 향하는 면)에 배치될 수 있다. 예를 들면, 웨어러블 전자 장치(101)는 각각 다른 속성(예: 화각) 또는 기능을 가진 복수의 카메라 모듈들을 포함할 수 있고, 사용자의 선택 및/또는 궤적 정보에 기반하여, 카메라 모듈의 화각을 변경하도록 제어할 수 있다. 예를 들면, 상기 복수의 카메라 모듈들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다.According to one embodiment, at least one of the first camera module (253) or the second camera module (255) may include a plurality of camera modules (not shown). For example, the first camera module (253) may be configured with a plurality of lenses (e.g., wide-angle and telephoto lenses) and image sensors and may be arranged on one side (e.g., the side facing the -Y direction) of the wearable electronic device (101). For example, the wearable electronic device (101) may include a plurality of camera modules, each having a different property (e.g., angle of view) or function, and may be controlled to change the angle of view of the camera module based on a user's selection and/or trajectory information. For example, at least one of the plurality of camera modules may be a wide-angle camera, and at least another may be a telephoto camera.
일 실시예에 따르면, 프로세서(예: 도 1의 프로세서(120))는 센서 모듈(예: 도 1의 센서 모듈(176))의 제스처 센서, 자이로 센서 또는 가속도 센서 중 적어도 하나를 이용하여 획득한 웨어러블 전자 장치(101)의 정보 및 제2 카메라 모듈(255)을 이용하여 획득한 사용자의 동작(예: 전자 장치(101)에 대한 사용자 신체의 접근)을 이용하여, 웨어러블 전자 장치(101)의 움직임 및/또는 사용자의 움직임을 판단할 수 있다. 일 실시예에 따르면, 웨어러블 전자 장치(101)는 서술된 센서 이외에 자기장 및 자력션을 이용하여 방위를 측정할 수 있는 자기(지자기) 센서 및/또는 자기장의 세기를 이용하여 움직임 정보(예: 이동 방향 또는 이동 거리)를 획득할 수 있는 홀 센서를 포함할 수 있다. 예를 들면, 프로세서는 자기(지자기) 센서 및/또는 홀 센서로부터 획득된 정보에 기반하여, 전자 장치(101)의 움직임 및/또는 사용자의 움직임을 판단할 수 있다.According to one embodiment, a processor (e.g., processor (120) of FIG. 1) may determine movement of the wearable electronic device (101) and/or movement of the user by using information of the wearable electronic device (101) acquired using at least one of a gesture sensor, a gyro sensor, or an acceleration sensor of a sensor module (e.g., sensor module (176) of FIG. 1) and a user's motion (e.g., approach of the user's body to the electronic device (101)) acquired using a second camera module (255). According to one embodiment, the wearable electronic device (101) may include, in addition to the described sensors, a magnetic (geomagnetic) sensor capable of measuring a direction using a magnetic field and magnetism, and/or a Hall sensor capable of acquiring movement information (e.g., a moving direction or a moving distance) using the strength of a magnetic field. For example, the processor may determine movement of the electronic device (101) and/or movement of the user based on information acquired from the magnetic (geomagnetic) sensor and/or the Hall sensor.
일 실시예에 따르면(미도시), 웨어러블 전자 장치(101)는 사용자와의 상호 작용이 가능한 입력 기능(예: 터치 및/또는 압력 감지 기능)을 수행할 수 있다. 예를 들면, 터치 및/또는 압력 감지 기능을 수행하도록 구성된 구성 요소(예: 터치 센서 및/또는 압력 센서)가 착용 부재(203)의 적어도 일부에 배치될 수 있다. 웨어러블 전자 장치(101)는 상기 구성 요소를 통해 획득된 정보에 기반하여 표시 부재(201)를 통해 출력되는 가상 영상을 제어할 수 있다. 예를 들어, 터치 및/또는 압력 감지 기능과 관련된 센서는 저항막 방식(resistive type), 정전 용량 방식(capacitive type), 전자기 유도형(electro-magnetic type, EM) 또는 광 감지 방식(optical type)과 같은 다양한 방식으로 구성될 수 있다. 일 실시예에 따르면, 상기 터치 및/또는 압력 감지 기능을 수행하도록 구성된 구성 요소는 도 1의 입력 모듈(150)의 구성과 일부 또는 전부가 동일할 수 있다.According to one embodiment (not shown), the wearable electronic device (101) can perform an input function (e.g., a touch and/or pressure sensing function) that enables interaction with a user. For example, a component configured to perform a touch and/or pressure sensing function (e.g., a touch sensor and/or a pressure sensor) may be disposed on at least a portion of the wearable member (203). The wearable electronic device (101) can control a virtual image output through the display member (201) based on information acquired through the component. For example, the sensor related to the touch and/or pressure sensing function may be configured in various ways, such as a resistive type, a capacitive type, an electromagnetic induction (EM) type, or an optical type. According to one embodiment, the component configured to perform the touch and/or pressure sensing function may have part or all of the same configuration as the input module (150) of FIG. 1.
일 실시예에 따르면, 웨어러블 전자 장치(101)는 렌즈 프레임(202)의 내부 공간에 배치되고, 렌즈 프레임(202)의 강성 보다 높은 강성을 가지도록 형성된 보강 부재(260)를 포함할 수 있다.According to one embodiment, the wearable electronic device (101) may include a reinforcing member (260) disposed in the internal space of the lens frame (202) and formed to have a rigidity higher than the rigidity of the lens frame (202).
일 실시예에 따르면, 전자 장치(101)는 렌즈 구조(273)를 포함할 수 있다. 렌즈 구조(273)는 빛의 적어도 일부를 굴절시킬 수 있다. 예를 들어, 렌즈 구조(273)는 지정된 굴절력을 가진 도수 렌즈(prescription lens)일 수 있다. 일 실시예에 따르면, 렌즈 구조(273)의 적어도 일부는 표시 부재(201)의 후방(예: +Y 방향)에 배치될 수 있다. 예를 들어, 렌즈 구조(273)는 표시 부재(201)와 사용자의 눈 사이에 위치할 수 있다. In one embodiment, the electronic device (101) may include a lens structure (273). The lens structure (273) may refract at least a portion of light. For example, the lens structure (273) may be a prescription lens having a specified refractive power. In one embodiment, at least a portion of the lens structure (273) may be positioned behind the display member (201) (e.g., in the +Y direction). For example, the lens structure (273) may be positioned between the display member (201) and the user's eye.
일 실시예에 따르면, 하우징(210)은 힌지 구조(229)의 일부분을 은폐할 수 있는 힌지 커버(227)를 포함할 수 있다. 상기 힌지 구조(229)의 다른 일부분은 후술할 내측 커버(231)와 외측 커버(233) 사이로 수용 또는 은폐될 수 있다.In one embodiment, the housing (210) may include a hinge cover (227) that may conceal a portion of the hinge structure (229). Another portion of the hinge structure (229) may be accommodated or concealed between an inner cover (231) and an outer cover (233), which will be described later.
일 실시예에 따르면, 착용 부재(203)는 내측 커버(231)와 외측 커버(233)를 포함할 수 있다. 예를 들면, 내측 커버(231)는 사용자의 신체와 대면하거나 사용자의 신체에 직접 접촉하도록 구성된 커버로서, 열 전도율이 낮은 물질, 예를 들면, 합성수지로 제작될 수 있다. 일 실시예에 따르면, 내측 커버(231)는 사용자의 신체와 대면하는 내측면을 포함할 수 있다. 예를 들면, 외측 커버(233)는 적어도 부분적으로 열을 전달할 수 있는 물질(예: 금속 물질)을 포함하며, 내측 커버(231)와 마주보게 결합될 수 있다. 일 실시예에 따르면, 외측 커버(233)는 상기 내측면의 반대인 외측면을 포함할 수 있다. 일 실시예에서, 회로 기판(241) 또는 스피커 모듈(245) 중 적어도 하나는 착용 부재(203) 내에서 배터리(243)와 분리된 공간에 수용될 수 있다. 도시된 실시예에서, 내측 커버(231)는 회로 기판(241) 및/또는 스피커 모듈(245)을 수용하는 제1 커버(231a)와, 배터리(243)를 수용하는 제2 커버(231b)를 포함할 수 있으며, 외측 커버(233)는 제1 커버(231a)와 마주보게 결합하는 제3 커버(233a)와, 제2 커버(231b)와 마주보게 결합하는 제4 커버(233b)를 포함할 수 있다. 예를 들어, 제1 커버(231a)와 제3 커버(233a)가 결합(이하, '제1 커버 부분(231a, 233a)')하여 회로 기판(241) 및/또는 스피커 모듈(245)을 수용할 수 있고, 제2 커버(231b)와 제4 커버(233b)가 결합(이하, '제2 커버 부분(231b, 233b)')하여 배터리(243)를 수용할 수 있다. In one embodiment, the wearable member (203) may include an inner cover (231) and an outer cover (233). For example, the inner cover (231) is a cover configured to face the user's body or to come into direct contact with the user's body, and may be made of a material with low thermal conductivity, for example, a synthetic resin. In one embodiment, the inner cover (231) may include an inner side that faces the user's body. For example, the outer cover (233) may include a material (for example, a metal material) that can at least partially transmit heat, and may be coupled to face the inner cover (231). In one embodiment, the outer cover (233) may include an outer side opposite the inner side. In one embodiment, at least one of the circuit board (241) or the speaker module (245) may be accommodated in a space separated from the battery (243) within the wearable member (203). In the illustrated embodiment, the inner cover (231) may include a first cover (231a) that accommodates a circuit board (241) and/or a speaker module (245), and a second cover (231b) that accommodates a battery (243), and the outer cover (233) may include a third cover (233a) that is coupled to face the first cover (231a), and a fourth cover (233b) that is coupled to face the second cover (231b). For example, the first cover (231a) and the third cover (233a) may be combined (hereinafter, 'the first cover portion (231a, 233a)') to accommodate a circuit board (241) and/or a speaker module (245), and the second cover (231b) and the fourth cover (233b) may be combined (hereinafter, 'the second cover portion (231b, 233b)') to accommodate a battery (243).
일 실시예에 따르면, 제1 커버 부분(231a, 233a)은 힌지 구조(229)를 통해 렌즈 프레임(202)에 회전 가능하게 결합되고, 제2 커버 부분(231b, 233b)은 연결 구조(235)를 통해 제1 커버 부분(231a, 233a)의 단부에 연결 또는 장착될 수 있다. 일 실시예에 따르면, 연결 구조(235) 중 사용자 신체에 접촉하는 부분은 열 전도율이 낮은 물질, 예를 들면, 실리콘(silicone), 폴리우레탄(polyurethane)이나 고무와 같은 탄성체 재질로 제작될 수 있으며, 사용자 신체에 접촉하지 않는 부분은 열 전도율이 높은 물질(예: 금속 물질)로 제작될 수 있다. 예컨대, 회로 기판(241)이나 배터리(243)에서 열이 발생될 때, 연결 구조(235)는 사용자 신체에 접하는 부분으로 열이 전달되는 것을 차단하고, 사용자 신체와 접촉하지 않는 부분을 통해 열을 분산 또는 방출시킬 수 있다. 일 실시예에 따르면, 연결 구조(235) 중 사용자 신체와 접촉하게 구성된 부분은 내측 커버(231)의 일부로서 해석될 수 있으며, 연결 구조(235) 중 사용자 신체와 접촉하지 않는 부분은 외측 커버(233)의 일부로서 해석될 수 있다. 일 실시예에 따르면(미도시), 제1 커버(231a)와 제2 커버(231b)는 연결 구조(235) 없이 일체형으로 구성되고, 제3 커버(233a)와 제4 커버(233b)는 연결 구조(235) 없이 일체형으로 구성될 수 있다. 일 실시예에 따르면, 도시된 구성요소 외에 다른 구성요소(예: 도 1의 안테나 모듈(197))를 더 포함할 수 있으며, 통신 모듈(예: 도 1의 통신 모듈(190))을 이용하여, 네트워크(예: 도 1의 제1 네트워크(198) 또는 제2 네트워크(199))를 통해 외부의 전자 장치(예: 도 1의 전자 장치(102, 104), 또는 도 1의 서버(108))로부터 사물 또는 환경에 관한 정보를 제공받을 수 있다.According to one embodiment, the first cover portion (231a, 233a) is rotatably coupled to the lens frame (202) via a hinge structure (229), and the second cover portion (231b, 233b) can be connected or mounted to an end of the first cover portion (231a, 233a) via a connection structure (235). According to one embodiment, a portion of the connection structure (235) that comes into contact with the user's body can be made of a material having low thermal conductivity, for example, an elastic material such as silicone, polyurethane, or rubber, and a portion that does not come into contact with the user's body can be made of a material having high thermal conductivity, for example, a metal material. For example, when heat is generated in the circuit board (241) or the battery (243), the connection structure (235) can block the heat from being transferred to the portion coming into contact with the user's body, and can disperse or release the heat through the portion that does not come into contact with the user's body. According to one embodiment, a portion of the connection structure (235) that is configured to come into contact with the user's body may be interpreted as a part of the inner cover (231), and a portion of the connection structure (235) that is not configured to come into contact with the user's body may be interpreted as a part of the outer cover (233). According to one embodiment (not shown), the first cover (231a) and the second cover (231b) may be configured as an integral body without the connection structure (235), and the third cover (233a) and the fourth cover (233b) may be configured as an integral body without the connection structure (235). According to one embodiment, in addition to the illustrated components, other components (e.g., antenna module (197) of FIG. 1) may be further included, and information about objects or environments may be provided from an external electronic device (e.g., electronic device (102, 104) of FIG. 1, or server (108) of FIG. 1) through a network (e.g., first network (198) or second network (199) of FIG. 1) using a communication module (e.g., communication module (190) of FIG. 1).
일 실시예에 따르면, 렌즈 프레임(202)은 제1 표시 부재(201a) 및 제2 표시 부재(201b) 사이의 브릿지 부분(274)(예: 도 2의 브릿지 부분(202c))을 포함할 수 있다. 예를 들어, 브릿지 부분(274)은 안경의 코 받침부에 대응되는 부분으로 해석될 수 있다.According to one embodiment, the lens frame (202) may include a bridge portion (274) (e.g., bridge portion (202c) of FIG. 2) between the first display member (201a) and the second display member (201b). For example, the bridge portion (274) may be interpreted as a portion corresponding to a nose pad of glasses.
일 실시예에 따르면, 전자 장치(101)는 접속 부재(205)를 포함할 수 있다. 일 실시예에 따르면, 회로 기판(241)은 접속 부재(205)와 연결되고, 접속 부재(205)를 통하여 전자 장치(101)의 부품들(예: 광 출력 모듈(211) 및/또는 카메라 모듈(250))에 전기적 신호를 전달할 수 있다. 예를 들어, 회로 기판(241)에 위치한 프로세서(예: 도 1의 프로세서(120))에서 전달되는 제어 신호는 접속 부재(205)의 적어도 일부를 이용하여 전자 부품들에 전달될 수 있다. 예를 들어, 접속 부재(205)의 적어도 일부는 전자 장치(101)의 부품들과 전기적으로 연결된 배선(미도시)을 포함할 수 있다.According to one embodiment, the electronic device (101) may include a connection member (205). According to one embodiment, the circuit board (241) is connected to the connection member (205) and may transmit electrical signals to components of the electronic device (101) (e.g., the light output module (211) and/or the camera module (250)) through the connection member (205). For example, a control signal transmitted from a processor (e.g., the processor (120) of FIG. 1) located on the circuit board (241) may be transmitted to the electronic components using at least a portion of the connection member (205). For example, at least a portion of the connection member (205) may include wiring (not shown) electrically connected to components of the electronic device (101).
일 실시예에 따르면, 접속 부재(205)는 적어도 일부가 제1 착용 부재(203a) 내에 배치된 제1 접속 부재(205a) 및 적어도 일부가 제2 착용 부재(203b) 내에 배치된 제2 접속 부재(205b)를 포함할 수 있다. 일 실시예에 따르면, 제1 접속 부재(205a) 및/또는 제2 접속 부재(205b)의 적어도 일부는 힌지 구조(229)와 대면할 수 있다. 예를 들어, 제1 접속 부재(205a)는 제1 회로 기판(241a)로부터 힌지 구조(229)를 가로질러 렌즈 프레임(202)의 내부로 연장될 수 있다. 제2 접속 부재(205b)는 제2 회로 기판(241b)로부터 힌지 구조(229)를 가로질러 렌즈 프레임(202)의 내부로 연장될 수 있다. 예를 들어, 제1 접속 부재(205a)의 일부 및 제2 접속 부재(205b)의 일부는 착용 부재(203) 내에 배치되고, 다른 일부는 렌즈 프레임(202) 내에 배치될 수 있다.In one embodiment, the connecting member (205) can include a first connecting member (205a) at least partially disposed within the first wearing member (203a) and a second connecting member (205b) at least partially disposed within the second wearing member (203b). In one embodiment, at least a portion of the first connecting member (205a) and/or the second connecting member (205b) can face the hinge structure (229). For example, the first connecting member (205a) can extend from the first circuit board (241a) across the hinge structure (229) into the interior of the lens frame (202). The second connecting member (205b) can extend from the second circuit board (241b) across the hinge structure (229) into the interior of the lens frame (202). For example, a portion of the first connecting member (205a) and a portion of the second connecting member (205b) may be placed within the wearing member (203), and the other portion may be placed within the lens frame (202).
일 실시예에 따르면, 제1 접속 부재(205a) 및 제2 접속 부재(205b)는 힌지 구조(229)의 회전에 기초하여 접히거나 펼쳐질 수 있는 구조물을 포함할 수 있다. 예를 들어, 제1 접속 부재(205a) 및/또는 제2 접속 부재(205b)는 가요성 인쇄회로기판(flexible printed circuit board, FPCB)을 포함할 수 있다. 일 실시예에 따르면, 제1 접속 부재(205a)는 제1 회로 기판(241a)에 전기적 및/또는 기계적으로 연결될 수 있다. 일 실시예에 따르면, 제2 접속 부재(205b)는 제2 회로 기판(241b)에 전기적 및/또는 기계적으로 연결될 수 있다. 일 실시예에 따르면, 제1 접속 부재(205a) 및/또는 제2 접속 부재(205b)는 신호를 전달하기 위한 구조(예: 배선 및/또는 케이블)를 포함할 수 있다.In one embodiment, the first connecting member (205a) and the second connecting member (205b) may include structures that can be folded or unfolded based on the rotation of the hinge structure (229). For example, the first connecting member (205a) and/or the second connecting member (205b) may include a flexible printed circuit board (FPCB). In one embodiment, the first connecting member (205a) may be electrically and/or mechanically connected to the first circuit board (241a). In one embodiment, the second connecting member (205b) may be electrically and/or mechanically connected to the second circuit board (241b). In one embodiment, the first connecting member (205a) and/or the second connecting member (205b) may include structures (e.g., wiring and/or cables) for transmitting signals.
일 실시예에 따르면, 센서 모듈(280)(예: 도 1의 센서 모듈(176))은 표시 부재(201)를 통과한 빛을 감지할 수 있다. 일 실시예에 따르면, 센서 모듈(280)은 제1 표시 부재(201a)를 통과한 빛을 감지할 수 있는 제1 센서 모듈(281) 및 제2 표시 부재(201b)를 통과한 빛을 감지할 수 있는 제2 센서 모듈(282)을 포함할 수 있다. 예를 들어, 제1 센서 모듈(281)은 제1 표시 부재(201a)의 후방(예: -Y 방향)에서 빛을 감지할 수 있고, 제2 센서 모듈(282)은 제2 표시 부재(201b)의 후방에서 빛을 감지할 수 있다. 일 실시예에 따르면, 센서 모듈(280)은 표시 부재(201)의 전방(예: +Y 방향)의 빛을 감지할 수 있는 제3 센서 모듈(283)을 포함할 수 있다. 예를 들어, 제3 센서 모듈(283)은 표시 부재(201)의 전방(예: +Y 방향)에서 빛을 감지할 수 있다. 일 실시예에 따르면, 센서 모듈(280)은 조도 센서일 수 있다. 일 실시예에 따르면, 제3 센서 모듈(283)은 제1 카메라 모듈(253)의 구성과 일부 또는 전부가 동일할 수 있다.According to one embodiment, the sensor module (280) (e.g., the sensor module (176) of FIG. 1) can detect light passing through the display member (201). According to one embodiment, the sensor module (280) can include a first sensor module (281) capable of detecting light passing through the first display member (201a) and a second sensor module (282) capable of detecting light passing through the second display member (201b). For example, the first sensor module (281) can detect light from the rear (e.g., in the -Y direction) of the first display member (201a), and the second sensor module (282) can detect light from the rear of the second display member (201b). According to one embodiment, the sensor module (280) can include a third sensor module (283) capable of detecting light from the front (e.g., in the +Y direction) of the display member (201). For example, the third sensor module (283) can detect light in front of the display member (201) (e.g., in the +Y direction). In one embodiment, the sensor module (280) can be a light sensor. In one embodiment, the third sensor module (283) can have part or all of the same configuration as the first camera module (253).
도 5는 본 개시의 일 실시예에 따른, 웨어러블 전자 장치의 개략도이다.FIG. 5 is a schematic diagram of a wearable electronic device according to one embodiment of the present disclosure.
도 5의 실시예는, 도 1 내지 도 4의 실시예들, 또는 도 6 내지 도 14의 실시예들과 결합될 수 있다.The embodiment of FIG. 5 can be combined with the embodiments of FIGS. 1 to 4, or the embodiments of FIGS. 6 to 14.
도 5의 실시예의 구성들은, 도 1 내지 도 4의 실시예들의 구성들, 또는 도 6 내지 도 14의 실시예들의 구성들과 일부 또는 전부가 동일할 수 있다.The configurations of the embodiment of FIG. 5 may be partially or entirely identical to the configurations of the embodiments of FIGS. 1 to 4, or the configurations of the embodiments of FIGS. 6 to 14.
도 5를 참조하면, 웨어러블 전자 장치(101)(예: 도 2 내지 도 4의 웨어러블 전자 장치(101))는, 렌즈 프레임(302)(예: 도 2 내지 도 4의 렌즈 프레임(202)) 및 착용 부재(303)(예: 도 2 내지 도 4의 착용 부재(203))를 포함하는 하우징(310)을 포함할 수 있다.Referring to FIG. 5, a wearable electronic device (101) (e.g., the wearable electronic device (101) of FIGS. 2 to 4) may include a housing (310) including a lens frame (302) (e.g., the lens frame (202) of FIGS. 2 to 4) and a wearing member (303) (e.g., the wearing member (203) of FIGS. 2 to 4).
일 실시예에 따르면, 렌즈 프레임(302)은, 표시 부재(320, 321)(예: 도 2 내지 도 4의 표시 부재(201))와 결합될 수 있다. 예를 들어, 표시 부재(320, 321)의 가장자리는, 렌즈 프레임(302)에 의해 둘러싸일 수 있다.According to one embodiment, the lens frame (302) may be coupled with an indicator member (320, 321) (e.g., the indicator member (201) of FIGS. 2 to 4). For example, the edge of the indicator member (320, 321) may be surrounded by the lens frame (302).
일 실시예에 따르면, 렌즈 프레임(302)은, 사용자의 좌안과 상응하는 제1 표시 부재(320)와 결합된 제1 림 부분(311)(예: 도 2의 제2 림 부분(202b)), 및 사용자의 우안과 상응하는 제2 표시 부재(321)와 결합된 제2 림 부분(312)(예: 도 2의 제1 림 부분(202a))을 포함할 수 있다.According to one embodiment, the lens frame (302) may include a first rim portion (311) coupled with a first indicator member (320) corresponding to the user's left eye (e.g., the second rim portion (202b) of FIG. 2), and a second rim portion (312) coupled with a second indicator member (321) corresponding to the user's right eye (e.g., the first rim portion (202a) of FIG. 2).
일 실시예에 따르면, 착용 부재(303)는, 제1 림 부분(311)에 회전 가능하게 연결된 제1 레그 부분(315)(예: 도 2의 제2 착용 부재(203b)) 및 제2 림 부분(312)에 회전 가능하게 연결된 제2 레그 부분(316)(예: 도 2의 제1 착용 부재(203a))를 포함할 수 있다.According to one embodiment, the wearing member (303) may include a first leg portion (315) rotatably connected to a first rim portion (311) (e.g., the second wearing member (203b) of FIG. 2) and a second leg portion (316) rotatably connected to a second rim portion (312) (e.g., the first wearing member (203a) of FIG. 2).
일 실시예에 따르면, 제1 레그 부분(315)은, 사용자의 왼쪽 귀에 상응할 수 있다. 제2 레그 부분(316)은, 사용자의 오른쪽 귀에 상응할 수 있다.In one embodiment, the first leg portion (315) may correspond to the user's left ear. The second leg portion (316) may correspond to the user's right ear.
일 실시예에 따르면, 웨어러블 전자 장치(101)는, 광원(370)(예: 도 3 및 도 4의 광원(251))을 포함할 수 있다. 일 실시예에 따르면, 광원(370)은, 렌즈 프레임(302)에 배치될 수 있다.According to one embodiment, the wearable electronic device (101) may include a light source (370) (e.g., light source (251) of FIGS. 3 and 4). According to one embodiment, the light source (370) may be disposed in the lens frame (302).
일 실시예에 따르면, 광원(370)(예: IR LED)은, 사용자의 신체의 일부(예: 안구(10))를 향해 적외선을 조사하도록 구성될 수 있다. 일 실시예에 따르면, 광원(370)으로부터 조사된 광은, 안구(10)에 의해 반사되어 표시 부재(320, 321)로 입사될 수 있다.In one embodiment, a light source (370) (e.g., an IR LED) may be configured to irradiate infrared light toward a part of a user's body (e.g., an eye (10)). In one embodiment, light irradiated from the light source (370) may be reflected by the eye (10) and incident on the display member (320, 321).
일 실시예에 따르면, 웨어러블 전자 장치(101)는, 카메라(330)를 포함할 수 있다. 카메라(330)는, 적외선 대역의 이미지를 촬영 가능한 IR 카메라를 포함할 수 있다. 카메라(330)는, 표시 부재(320)를 통해 전달된 광을 획득할 수 있다. 예를 들어, 카메라(330)는, 사용자의 안구(10)로부터 반사된 광을 획득할 수 있다.According to one embodiment, the wearable electronic device (101) may include a camera (330). The camera (330) may include an IR camera capable of capturing images in the infrared band. The camera (330) may capture light transmitted through the display member (320). For example, the camera (330) may capture light reflected from the user's eye (10).
일 실시예에 따르면, 카메라(330)는, 착용 부재(303)의 내부에 배치될 수 있다. 예를 들어, 카메라(330)는, 제1 레그 부분(315)의 내부 및 제2 레그 부분(316)의 내부에 각각 배치된 적어도 한 쌍의 카메라를 포함할 수 있다. 카메라(330)가 착용 부재(303)의 내부에 배치됨에 따라, 카메라(330)는 웨어러블 전자 장치(101)의 외부로 노출되지 않을 수 있다. 이에 따라, 웨어러블 전자 장치(101)의 디자인이 개선될 수 있다.According to one embodiment, the camera (330) may be positioned inside the wearable member (303). For example, the camera (330) may include at least one pair of cameras, each positioned inside the first leg portion (315) and the second leg portion (316). Since the camera (330) is positioned inside the wearable member (303), the camera (330) may not be exposed to the outside of the wearable electronic device (101). Accordingly, the design of the wearable electronic device (101) may be improved.
일 실시예에 따르면, 웨어러블 전자 장치(101)는, 회로 기판(340)(예: 도 4의 회로 기판(241))을 포함할 수 있다. 회로 기판(340)은, 착용 부재(303)의 내부에 배치될 수 있다. 회로 기판(340)은, 카메라(330)와 전기적으로 연결될 수 있다. 회로 기판(241)은, 제1 레그 부분(315)의 내부 및 제2 레그 부분(316)의 내부에 배치된 적어도 한 쌍의 회로 기판을 포함할 수 있다.According to one embodiment, the wearable electronic device (101) may include a circuit board (340) (e.g., circuit board (241) of FIG. 4). The circuit board (340) may be disposed within the wearable member (303). The circuit board (340) may be electrically connected to the camera (330). The circuit board (241) may include at least one pair of circuit boards disposed within the first leg portion (315) and within the second leg portion (316).
일 실시예에 따르면, 회로 기판(340)은, 프로세서(예: 도 1의 프로세서(120)) 및 메모리(예: 도 1의 메모리(130))를 포함할 수 있다.According to one embodiment, the circuit board (340) may include a processor (e.g., processor (120) of FIG. 1) and memory (e.g., memory (130) of FIG. 1).
일 실시예에 따르면, 웨어러블 전자 장치(101) 및/또는 프로세서는, 카메라(330)를 통해 획득된 사용자의 안구(10)에 대한 이미지에 기초하여, 사용자의 동공이 향하는 시선 방향을 추적할 수 있다.According to one embodiment, the wearable electronic device (101) and/or the processor can track the direction of gaze of the user's pupil based on an image of the user's eye (10) obtained through the camera (330).
이하, 설명의 편의를 위해, 제1 림 부분(311)에 배치된 제1 표시 부재(320)를 통해, 사용자의 좌안에 대한 이미지를 획득하는 경우를 설명하나, 이에 대한 설명은 제2 표시 부재(321)를 통해 사용자의 우안에 대한 이미지를 획득하는 경우에도 동일하게 적용 및/또는 준용될 수 있다.Hereinafter, for convenience of explanation, a case in which an image for the user's left eye is acquired through the first display member (320) arranged on the first rim portion (311) will be described, but the description thereof may be equally applied and/or applied to a case in which an image for the user's right eye is acquired through the second display member (321).
일 실시예에 따르면, 광원(370)은, 사용자의 좌안(10)을 향해 적외선을 조사할 수 있다.According to one embodiment, the light source (370) can irradiate infrared light toward the user's left eye (10).
일 실시예에 따르면, 사용자의 좌안(10)에서 반사된 광은, 제1 표시 부재(320)로 입사될 수 있다.According to one embodiment, light reflected from the user's left eye (10) may be incident on the first display member (320).
일 실시예에 따르면, 제1 표시 부재(320)는, 입사된 광을 카메라(330)로 전달하도록 구성된 웨이브 가이드(예: 도 6의 웨이브 가이드(400))를 포함할 수 있다. 제1 표시 부재(320)는, 사용자의 시선 추적을 위한 웨이브 가이드(예: 도 6의 웨이브 가이드(400)), 가상 이미지를 출력하기 위한 다른 웨이브 가이드(another waveguide), 또는 렌즈 구조(예: 도 4의 렌즈 구조(273))를 포함할 수 있다.According to one embodiment, the first display member (320) may include a waveguide (e.g., waveguide (400) of FIG. 6) configured to transmit incident light to the camera (330). The first display member (320) may include a waveguide for tracking the user's gaze (e.g., waveguide (400) of FIG. 6), another waveguide for outputting a virtual image, or a lens structure (e.g., lens structure (273) of FIG. 4).
일 실시예에 따르면, 웨이브 가이드(예: 도 6의 웨이브 가이드(400))에 입사된 광은, 웨이브 가이드 내에서 전반사되며 카메라(330)를 향해 전달될 수 있다.According to one embodiment, light incident on a wave guide (e.g., wave guide (400) of FIG. 6) may be totally reflected within the wave guide and transmitted toward the camera (330).
일 실시예에 따르면, 웨이브 가이드에서 출력된 광은, 카메라(330)로 입사될 수 있다.According to one embodiment, light output from the wave guide can be incident on a camera (330).
일 실시예에 따르면, 카메라(330)는, 웨이브 가이드로부터 출력된 광을 획득하여, 사용자의 신체 또는 사용자의 좌안에 대한 이미지를 촬영할 수 있다.According to one embodiment, the camera (330) can capture an image of the user's body or the user's left eye by obtaining light output from the wave guide.
일 실시예에 따르면, 회로 기판(340)의 프로세서(120)는, 카메라(330)에 의해 획득된 또는 촬영된 이미지에 기초하여, 사용자의 좌안(10)의 동공이 지향하는 방향(예: 시선 방향)을 획득 및/또는 결정할 수 있다.According to one embodiment, the processor (120) of the circuit board (340) can obtain and/or determine the direction (e.g., gaze direction) of the pupil of the user's left eye (10) based on an image obtained or photographed by the camera (330).
도 6은 본 개시의 일 실시예에 따른, 웨이브 가이드를 설명하기 위한 개략도이다.FIG. 6 is a schematic diagram illustrating a wave guide according to one embodiment of the present disclosure.
도 6의 실시예는, 도 1 내지 도 5의 실시예들, 또는 도 7a 내지 도 14의 실시예들과 결합될 수 있다.The embodiment of FIG. 6 can be combined with the embodiments of FIGS. 1 to 5, or the embodiments of FIGS. 7a to 14.
도 6의 실시예의 구성들은, 도 1 내지 도 5의 실시예들의 구성들, 또는 도 7a 내지 도 14의 실시예들의 구성들과 일부 또는 전부가 동일할 수 있다.The configurations of the embodiment of FIG. 6 may be partially or entirely identical to the configurations of the embodiments of FIGS. 1 to 5, or the configurations of the embodiments of FIGS. 7a to 14.
도 6을 참조하면, 웨어러블 전자 장치(예: 도 2 내지 도 5의 웨어러블 전자 장치(101))의 표시 부재(예: 도 5의 표시 부재(320, 321))는, 웨이브 가이드(400)를 포함할 수 있다.Referring to FIG. 6, a display member (e.g., display member (320, 321) of FIG. 5) of a wearable electronic device (e.g., wearable electronic device (101) of FIGS. 2 to 5) may include a wave guide (400).
일 실시예에 따르면, 웨이브 가이드(400)는, 서브스트레이트(410), 제1 회절 층(420)(first diffractive layer), 또는 제2 회절 층(430)(second diffractive layer)을 포함할 수 있다.According to one embodiment, the waveguide (400) may include a substrate (410), a first diffractive layer (420), or a second diffractive layer (430).
일 실시예에 따르면, 서브스트레이트(410)(substrate)는, 사용자의 안구(10)를 향하는 제1 면(411) 및 제1 면(411)과 반대인 제2 면(412)을 포함할 수 있다.According to one embodiment, the substrate (410) may include a first side (411) facing the user's eye (10) and a second side (412) opposite the first side (411).
일 실시예에 따르면, 광원(예: 도 5의 광원(370))으로부터 조사된 광은, 사용자의 안구(10)에 의해 웨이브 가이드(400)를 향해 반사될 수 있다. According to one embodiment, light emitted from a light source (e.g., light source (370) of FIG. 5) may be reflected toward a wave guide (400) by the user's eye (10).
일 실시예에 따르면, 서브스트레이트(410)는, 사용자의 안구(10)로부터 반사되어 서브스트레이트(410)로 입사된 광을 카메라(330)(예: 도 5의 카메라(330))로 안내하도록 구성될 수 있다.According to one embodiment, the substrate (410) may be configured to guide light reflected from the user's eye (10) and incident on the substrate (410) to a camera (330) (e.g., the camera (330) of FIG. 5).
일 실시예에 따르면, 서브스트레이트(410)는, 사용자가 현실 객체를 인식할 수 있도록 가시광선 대역에 대해 투명한 재질(예: 글래스(glass))로 형성될 수 있으나, 이에 제한되지 않는다. 예를 들어, 웨어러블 전자 장치(101)의 외부에서 서브스트레이트(410)로 입사된 가시광선 대역의 광은, 서브스트레이트(410)를 통과하여 사용자의 안구(10)에 입사될 수 있다.According to one embodiment, the substrate (410) may be formed of a material (e.g., glass) that is transparent to the visible light band so that the user can recognize real objects, but is not limited thereto. For example, light in the visible light band incident on the substrate (410) from outside the wearable electronic device (101) may pass through the substrate (410) and enter the user's eye (10).
일 실시예에 따르면, 제1 회절 층(420)은, 서브스트레이트(410)의 제1 면(411)에 배치될 수 있으나, 이에 제한되지 않는다. 예를 들어, 도시되지는 않았지만, 제1 회절 층(420)은, 서브스트레이트(410)의 제2 면(412)에 배치될 수도 있다.According to one embodiment, the first diffractive layer (420) may be disposed on the first side (411) of the substrate (410), but is not limited thereto. For example, although not shown, the first diffractive layer (420) may also be disposed on the second side (412) of the substrate (410).
일 실시예에 따르면, 사용자가 웨어러블 전자 장치를 착용할 때, 제1 회절 층(420)은, 사용자의 안구(10)와 상응하게 위치될 수 있으나, 이에 제한되지 않는다.According to one embodiment, when a user wears the wearable electronic device, the first diffractive layer (420) may be positioned to correspond to the user's eyeball (10), but is not limited thereto.
일 실시예에 따르면, 제1 회절 층(420)은, 적어도 하나의 회절 소자를 포함할 수 있다. 제1 회절 층(420)의 적어도 하나의 회절 소자는, 회절광학소자(Diffractive optical element, DOE), 홀로그래픽 광학소자(Holographic optical element, HOE), 고분자분산 액정(Polymer dispered liquid crystal, PDLC), 메타 표면(meta surface), 또는 메타 격자(meta grating)을 포함할 수 있으나, 이에 제한되지 않는다.According to one embodiment, the first diffractive layer (420) may include at least one diffractive element. The at least one diffractive element of the first diffractive layer (420) may include, but is not limited to, a diffractive optical element (DOE), a holographic optical element (HOE), a polymer dispersed liquid crystal (PDLC), a meta surface, or a meta grating.
일 실시예에 따르면, 제1 회절 층(420) 및 제1 회절 층(420)의 적어도 하나의 회절 소자는, 사용자의 안구(10)로부터 반사되어 제1 회절 소자(420)로 입사된 적외선 대역의 광을 회절시킬 수 있다. 예를 들어, 제1 회절 층(420)에서 회절된 적외선 대역의 광은, 서브스트레이트(410) 내부에서 전반사되며 제2 회절 층(430)으로 전달될 수 있다. 예를 들어, 제1 회절 층(420)은, 서브스트레이트(410)로 입사되는 적외선 대역의 광을, 서브스트레이트(410)의 전반사 조건에 부합하도록 회절시킬 수 있다.According to one embodiment, the first diffractive layer (420) and at least one diffractive element of the first diffractive layer (420) can diffract infrared band light that is reflected from the user's eye (10) and incident on the first diffractive element (420). For example, the infrared band light diffracted by the first diffractive layer (420) can be totally reflected within the substrate (410) and transmitted to the second diffractive layer (430). For example, the first diffractive layer (420) can diffract infrared band light incident on the substrate (410) so as to satisfy the total reflection condition of the substrate (410).
일 실시예에 따르면, 제2 회절 층(430)은, 서브스트레이트(410)의 제1 면(411)에 배치될 수 있으나, 이에 제한되지 않는다. 예를 들어, 도시되지는 않았지만, 제2 회절 층(430)은, 서브스트레이트(410)의 제2 면(412)에 배치될 수도 있다.According to one embodiment, the second diffractive layer (430) may be disposed on the first side (411) of the substrate (410), but is not limited thereto. For example, although not shown, the second diffractive layer (430) may also be disposed on the second side (412) of the substrate (410).
일 실시예에 따르면, 사용자가 웨어러블 전자 장치를 착용할 때, 제2 회절 층(430)은, 카메라(330)와 상응하게 위치될 수 있으나, 이에 제한되지 않는다.In one embodiment, when a user wears the wearable electronic device, the second diffractive layer (430) may be positioned corresponding to, but not limited to, the camera (330).
일 실시예에 따르면, 제2 회절 층(430)은, 적어도 하나의 회절 소자를 포함할 수 있다. 제2 회절 층(430)의 적어도 하나의 회절 소자는, 회절광학소자(Diffractive optical element, DOE), 홀로그래픽 광학소자(Holographic optical element, HOE), 고분자분산 액정(Polymer dispered liquid crystal, PDLC), 메타 표면(meta surface), 또는 메타 격자(meta grating)을 포함할 수 있으나, 이에 제한되지 않는다.According to one embodiment, the second diffractive layer (430) may include at least one diffractive element. The at least one diffractive element of the second diffractive layer (430) may include, but is not limited to, a diffractive optical element (DOE), a holographic optical element (HOE), a polymer dispersed liquid crystal (PDLC), a meta surface, or a meta grating.
일 실시예에 따르면, 제2 회절 층(430) 및 제2 회절 층(430)의 적어도 하나의 회절 소자는, 서브스트레이트(410) 내에서 전반사되는 광을 회절시켜, 카메라(330)로 출력시키도록 구성될 수 있다. 예를 들어, 제1 회절 층(420)에서 회절되어 서브스트레이트(410) 내에서 전반사되며 제2 회절 층(430)으로 전달되는 적외선 대역의 광은, 제2 회절 층(430)에서 회절되어 카메라(330)로 출력될 수 있다.According to one embodiment, the second diffractive layer (430) and at least one diffractive element of the second diffractive layer (430) may be configured to diffract light that is totally reflected within the substrate (410) and output it to the camera (330). For example, light in the infrared band that is diffracted by the first diffractive layer (420), totally reflected within the substrate (410), and transmitted to the second diffractive layer (430) may be diffracted by the second diffractive layer (430) and output it to the camera (330).
일 실시예에 따르면, 카메라(330)는, 제2 회절 층(430)으로부터 카메라(330)로 출력되는 광을 수신하여, 사용자의 안구(10)에 대한 이미지를 촬영 또는 획득하도록 구성될 수 있다.According to one embodiment, the camera (330) may be configured to capture or acquire an image of the user's eye (10) by receiving light output from the second diffractive layer (430) to the camera (330).
도 7a은 비교예에 따른, 웨이브 가이드를 설명하기 위한 개략도이다.Figure 7a is a schematic diagram for explaining a wave guide according to a comparative example.
도 7b는 비교예에 따른, 이미지 중첩 상태를 설명하기 위한 개략도이다.Figure 7b is a schematic diagram for explaining an image overlapping state according to a comparative example.
도 8a은 본 개시의 일 실시예에 따른, 웨이브 가이드를 설명하기 위한 개략도이다.FIG. 8A is a schematic diagram illustrating a wave guide according to one embodiment of the present disclosure.
도 8b는 본 개시의 일 실시예에 따른, 웨이브 가이드를 설명하기 위한 개략도이다.FIG. 8b is a schematic diagram illustrating a wave guide according to one embodiment of the present disclosure.
도 8c는 본 개시의 일 실시예에 따른, 제1 회절 층의 회절 소자의 격자 주기(period of grating)를 설명하기 위한 개략도이다.FIG. 8c is a schematic diagram illustrating the period of grating of a diffractive element of a first diffractive layer according to one embodiment of the present disclosure.
도 9a는 본 개시의 일 실시예에 따른, 제1 회절 층의 회절 소자의 격자 주기(period of grating)를 설명하기 위한 개략도이다.FIG. 9A is a schematic diagram illustrating a period of grating of a diffractive element of a first diffractive layer according to one embodiment of the present disclosure.
도 9b는 본 개시의 일 실시예에 따른, 사용자의 안구를 촬영한 이미지를 나타낸 도면이다.FIG. 9b is a drawing showing an image of a user's eye according to one embodiment of the present disclosure.
도 7a 내지 도 9b의 실시예들은, 도 1 내지 도 6의 실시예들, 또는 도 10 내지 도 14의 실시예들과 결합될 수 있다.The embodiments of FIGS. 7A to 9B can be combined with the embodiments of FIGS. 1 to 6, or the embodiments of FIGS. 10 to 14.
도 7a 내지 도 9b의 실시예들의 구성들은, 도 1 내지 도 6의 실시예들의 구성들, 또는 도 10 내지 도 14의 실시예들의 구성들과 일부 또는 전부가 동일할 수 있다.The configurations of the embodiments of FIGS. 7A to 9B may be partially or entirely identical to the configurations of the embodiments of FIGS. 1 to 6, or the configurations of the embodiments of FIGS. 10 to 14.
도 7a를 참조하면, 비교예에 따른 웨이브 가이드가 도시된다.Referring to Fig. 7a, a wave guide according to a comparative example is illustrated.
도 7a를 참조하면, 비교예에 따른 웨이브 가이드(4000)는, 서브스트레이트(4100) 및 제1 회절 층(4200)을 포함할 수 있다.Referring to FIG. 7a, a wave guide (4000) according to a comparative example may include a substrate (4100) and a first diffractive layer (4200).
비교예에 따르면, 사용자의 안구(예: 도 5의 안구(10))의 복수 개의 지점들(T1, T2, T3)로부터 반사된 적외선 대역의 광들(L1, L2, L3)은, 제1 회절 층(4200)으로 입사될 수 있다.According to a comparative example, infrared band lights (L1, L2, L3) reflected from multiple points (T1, T2, T3) of a user's eye (e.g., eye (10) of FIG. 5) can be incident on the first diffractive layer (4200).
비교예에 따르면, 제1 회절 층(4100)에서 회절된 광들(L1, L2, L3)은, 서브스트레이트(4100) 내에서 전반사되며 제2 회절 층으로 전달될 수 있다.According to a comparative example, the light (L1, L2, L3) diffracted in the first diffractive layer (4100) is totally reflected within the substrate (4100) and can be transmitted to the second diffractive layer.
비교예에 따르면, 제1 회절 층(4200)은, 복수 개의 영역들(A-1, ... , A-n)을 포함할 수 있다. 복수 개의 영역들은, 제1 회절 층(4100)의 길이 방향으로 나누어진 영역들로 정의될 수 있다. 비교예에 따르면, 제1 회절 층(4200)의 복수 개의 영역들은, 실질적으로 동일한 주기(period)를 가질 수 있다. 제1 회절 층(4200)의 회절 소자의 주기는, 회절 층(4200)의 표면에 형성된 주기적인 구조의 반복되는 간격으로 정의될 수 있다.According to a comparative example, the first diffractive layer (4200) may include a plurality of regions (A-1, ..., A-n). The plurality of regions may be defined as regions divided in the longitudinal direction of the first diffractive layer (4100). According to a comparative example, the plurality of regions of the first diffractive layer (4200) may have substantially the same period. The period of the diffractive element of the first diffractive layer (4200) may be defined as the repeating interval of the periodic structure formed on the surface of the diffractive layer (4200).
비교예에 따르면, 안구의 어느 하나의 지점(T1)으로부터 반사되어 제1 회절 층(4200)으로 입사되는 광(L1)은, 제2 회절 층과 가장 인접하게 위치된 제1 영역(A-1)과 제2 회절 층과 가장 멀리 위치된 제n 영역(A-n)에 각각 서로 다른 입사각으로 입사될 수 있다. 예를 들어, 사용자의 안구가 웨이브 가이드(4000)와 가깝기 때문에, 사용자의 안구의 동일한 지점(예: T1)으로부터 반사되는 광이어도 입사되는 제1 회절 층(4200)의 영역의 위치에 따라 광의 입사각이 달라질 수 있다. 제1 회절 층(4200)의 복수 개의 영역들이 각각 동일한 회절 주기를 가짐에 따라, 서로 다른 입사각을 갖는 광이 회절되는 정도가 동일/유사할 수 있다. 이에 따라, 제1 회절 층(4100)에서 회절되어 서브스트레이트(4100)로 입사되는 광들은, 서로 다른 입사각을 가질 수 있다. 예를 들어, 제1 영역(A-1)을 통과하는 광(L1)의 입사각은, G-1일 수 있고, 제n 영역(A-n)을 통과하는 광(L1)의 입사각은, G-n일 수 있다. 상기 G-1의 입사각은, 상기 G-n의 입사각보다 클 수 있다. 즉, 상기 광들의 입사각들이 다름에 따라, 서브스트레이트(4100)로 입사하는 광들이 평행하지 않을 수 있다. 이와 같은 경우, 카메라의 이미지 센서에서 광들이 중첩되어, 도 7b와 같이 사용자의 안구를 촬영한 이미지(10b)에 블러(blur)가 형성되거나 이미지(10b)에서 사용자의 안구가 서로 다른 영역들간 중첩될 우려가 있다.According to a comparative example, light (L1) reflected from a point (T1) of the eye and incident on the first diffractive layer (4200) may be incident at different incident angles on the first region (A-1) positioned closest to the second diffractive layer and the n-th region (A-n) positioned farthest from the second diffractive layer. For example, since the user's eye is close to the waveguide (4000), even if the light is reflected from the same point (e.g., T1) of the user's eye, the incident angle of the light may vary depending on the location of the region of the first diffractive layer (4200) where it is incident. Since the plurality of regions of the first diffractive layer (4200) each have the same diffraction period, the degree to which light having different incident angles is diffracted may be the same/similar. Accordingly, light diffracted by the first diffractive layer (4100) and incident on the substrate (4100) may have different incident angles. For example, the incident angle of light (L1) passing through the first region (A-1) may be G-1, and the incident angle of light (L1) passing through the nth region (A-n) may be G-n. The incident angle of G-1 may be greater than the incident angle of G-n. That is, since the incident angles of the lights are different, the lights incident on the substrate (4100) may not be parallel. In this case, there is a concern that the lights may overlap in the image sensor of the camera, resulting in a blur being formed in the image (10b) capturing the user's eye, as in FIG. 7b, or that the user's eye may overlap between different regions in the image (10b).
도 8a을 참조하면, 일 실시예에 따른 웨이브 가이드(400)는, 서브스트레이트(410) 및 제1 회절 층(420)을 포함할 수 있다.Referring to FIG. 8a, a wave guide (400) according to one embodiment may include a substrate (410) and a first diffractive layer (420).
일 실시예에 따르면, 사용자의 안구(예: 도 5의 안구(10))의 복수 개의 지점들(T1, T2, T3)로부터 반사된 적외선 대역의 광들(L1, L2, L3)은, 제1 회절 층(420)으로 입사될 수 있다.According to one embodiment, infrared band lights (L1, L2, L3) reflected from multiple points (T1, T2, T3) of a user's eye (e.g., eye (10) of FIG. 5) can be incident on the first diffractive layer (420).
일 실시예에 따르면, 제1 회절 층(410)에서 회절된 광들(L1, L2, L3)은, 서브스트레이트(410) 내에서 전반사되며 제2 회절 층으로 전달될 수 있다.According to one embodiment, the light rays (L1, L2, L3) diffracted in the first diffractive layer (410) are totally reflected within the substrate (410) and can be transmitted to the second diffractive layer.
일 실시예에 따르면, 제1 회절 층(420)은, 복수 개의 영역들(A-1, ... , A-n)을 포함할 수 있다. 복수 개의 영역들은, 제1 회절 층(420)의 길이 방향으로 나누어진 영역들로 정의될 수 있다. 일 실시예에 따르면, 제1 회절 층(420)의 복수 개의 영역들에 위치된 회절 소자들은, 서로 다른 격자 주기(period of grating)를 가질 수 있다. 제1 회절 층(420)의 회절 소자의 격자 주기는, 회절 층(420)의 표면에 형성된 주기적인 구조의 반복되는 간격으로 정의될 수 있다.According to one embodiment, the first diffractive layer (420) may include a plurality of regions (A-1, ..., A-n). The plurality of regions may be defined as regions divided in the longitudinal direction of the first diffractive layer (420). According to one embodiment, the diffractive elements positioned in the plurality of regions of the first diffractive layer (420) may have different grating periods. The grating period of the diffractive elements of the first diffractive layer (420) may be defined as the repeating interval of a periodic structure formed on the surface of the diffractive layer (420).
도 8b를 참조하면, 예를 들어, 사용자의 안구의 동일한 지점(T2)(예: 어느 하나의 지점)으로부터 반사된 광은, 제1 회절 층(420)의 복수 개의 지점들(예: 420-1, 420-2, 420-3)으로 입사될 수 있다. 상기 제1 회절 층(420)의 복수 개의 지점들에 입사된 광은, 각 지점에 위치된 회절 소자에 의해 회절될 수 있다. 각 지점에 위치된 회절 소자의 격자 주기는, 어느 하나의 지점(T2)으로부터 입사된 광이 회절되어 서브스트레이트(400)에 동일한 입사각(G-2)으로 입사되도록 설계될 수 있다. 예를 들어, 제1 회절 층(420)의 서로 다른 지점들(420-1, 420-2, 420-3)은, 사용자의 안구의 어느 하나의 지점(T2)으로부터 반사되어 입사된 광이 서브스트레이트(400)로 동일한 입사각으로 입사되도록 회절시킬 수 있다. 이를 위해, 제1 회절 층(420)의 복수 개의 지점들의 회절 소자의 격자 주기는, 서로 다른 값을 가질 수 있으나, 이에 제한되지 않는다. 예를 들어, 도 8b 및 도 8c를 참조하면, 어느 하나의 지점(T2)으로부터 반사된 광의 파장이 약 850nm이고, 제1 회절 층(410)의 폭(W)이 약 20mm이고, 제1 회절 층(410)과 안구와의 이격 거리(L)가 약 20mm일 때, 서브스트레이트(400)로 입사하는 광의 입사각이 약 60도로 설계하기 위해, 제1 회절 층(420)의 중앙 지점(420-1)의 회절 소자의 격자 주기는, 약 600의 값을 가질 수 있고, 일단 지점(420-2)의 회절 소자의 격자 주기는, 약 1000의 값을 가질 수 있고, 타단 지점(420-3)의 회절 소자의 격자 주기는, 약 500의 값을 가지도록 설계될 수 있으나, 이에 제한되지 않는다. Referring to FIG. 8B, for example, light reflected from the same point (T2) of the user's eye (e.g., one point) may be incident on a plurality of points (e.g., 420-1, 420-2, 420-3) of the first diffractive layer (420). The light incident on the plurality of points of the first diffractive layer (420) may be diffracted by a diffractive element positioned at each point. The grating period of the diffractive element positioned at each point may be designed so that light incident from one point (T2) is diffracted and incident on the substrate (400) at the same incident angle (G-2). For example, different points (420-1, 420-2, 420-3) of the first diffractive layer (420) can diffract light reflected from a point (T2) of the user's eye so that the light is incident on the substrate (400) at the same incident angle. To this end, the grating periods of the diffractive elements of the multiple points of the first diffractive layer (420) may have different values, but are not limited thereto. For example, referring to FIGS. 8b and 8c, when the wavelength of light reflected from a point (T2) is about 850 nm, the width (W) of the first diffractive layer (410) is about 20 mm, and the distance (L) between the first diffractive layer (410) and the eye is about 20 mm, in order to design the incident angle of light incident on the substrate (400) to be about 60 degrees, the grating period of the diffractive element at the central point (420-1) of the first diffractive layer (420) may have a value of about 600, the grating period of the diffractive element at one end point (420-2) may have a value of about 1000, and the grating period of the diffractive element at the other end point (420-3) may be designed to have a value of about 500, but is not limited thereto.
도 9를 참조하면, 제1 회절 층(420)의 복수 개의 영역들에 위치된 회절 소자의 격자 주기가 도시된다. 예를 들어, 주기(예: 회절 소자의 격자 주기)는, 제1 회절 층(420)의 해당 영역의 표면에 형성된 회절 소자의 구조의 간격으로 정의될 수 있으나, 이에 한정되지 않는다. Referring to FIG. 9, the grating period of the diffractive elements positioned in a plurality of regions of the first diffractive layer (420) is illustrated. For example, the period (e.g., the grating period of the diffractive element) may be defined as the spacing of the structure of the diffractive element formed on the surface of the corresponding region of the first diffractive layer (420), but is not limited thereto.
일 실시예에 따르면, 제2 회절 층과 가장 인접하게 위치된 제1 영역(A-1)의 회절 소자의 격자 주기는, 제1 주기(P-1)일 수 있다. 제2 회절 층과 가장 멀리 위치된 제n 영역(A-n)의 회절 소자의 격자 주기는, 제n 주기(P-n)일 수 있다. 상기 제n 주기(P-n)은, 상기 제1 주기(P-1)보다 클 수 있다. 회절 소자의 격자 주기는, 제1 영역(A-1)으로부터 According to one embodiment, the grating period of the diffractive element of the first region (A-1) positioned closest to the second diffractive layer may be the first period (P-1). The grating period of the diffractive element of the nth region (A-n) positioned farthest from the second diffractive layer may be the nth period (P-n). The nth period (P-n) may be greater than the first period (P-1). The grating period of the diffractive element may be from the first region (A-1).
일 실시예에 따르면, 제1 영역(A-1)과 제n 영역(A-n) 사이의 어느 하나의 영역의 격자 주기는, 제1 주기(P-1)보다 크고, 제n 주기(P-n)보다 작을 수 있다.According to one embodiment, the lattice period of any one region between the first region (A-1) and the n-th region (A-n) may be greater than the first period (P-1) and less than the n-th period (P-n).
일 실시예에 따르면, 제1 회절 층(420)의 복수 개의 영역들의 회절 소자들의 격자 주기들은, 제2 회절 층과 인접하게 위치된 영역으로부터 제2 회절 층과 멀리 위치된 영역을 향해 커질 수 있다. 상기 주기들이 커지는 정도는, 선형으로 커질 수 있으나, 이에 제한되지 않고, 비선형으로 커질 수 있다.According to one embodiment, the grating periods of the diffractive elements of the plurality of regions of the first diffractive layer (420) may increase from a region positioned adjacent to the second diffractive layer toward a region positioned away from the second diffractive layer. The degree to which the periods increase may be linear, but is not limited thereto, and may increase nonlinearly.
일 실시예에 따르면, 제1 회절 층(420)의 일 영역의 격자 주기는, 해당 영역에서 광이 회절되는 정도와 연관될 수 있다. 예를 들어, 상대적으로 큰 격자 주기를 갖는 제n 영역(A-n)에서 광이 회절되는 정도는, 상대적으로 작은 격자 주기를 갖는 제1 영역(A-1)에서 광이 회절되는 정도보다 클 수 있다. 일 실시예에 따르면, 제1 회절 층(420)의 일 영역의 격자 주기는, 제1 회절 층(420)을 통과한 광이 제2 회절 층을 향해 전파되도록 서브스트레이트(410)에 입사되도록 하는 격자 주기로 설계될 수 있으나, 이에 제한되지 않는다.In one embodiment, the grating period of a region of the first diffractive layer (420) may be related to the degree to which light is diffracted in that region. For example, the degree to which light is diffracted in an n-th region (A-n) having a relatively large grating period may be greater than the degree to which light is diffracted in a first region (A-1) having a relatively small grating period. In one embodiment, the grating period of a region of the first diffractive layer (420) may be designed to have a grating period such that light passing through the first diffractive layer (420) is incident on the substrate (410) to propagate toward the second diffractive layer, but is not limited thereto.
도 8a 내지 도 9b를 참조하면, 안구의 어느 하나의 지점(T1)으로부터 반사되어 제1 회절 층(420)으로 입사되는 광(L1)은, 제2 회절 층과 가장 인접하게 위치된 제1 영역(A-1)과 제2 회절 층과 가장 멀리 위치된 제n 영역(A-n)에 각각 서로 다른 입사각으로 입사될 수 있다. 예를 들어, 사용자의 안구가 웨이브 가이드(400)와 가깝기 때문에, 사용자의 안구의 동일한 지점(예: T1)으로부터 반사되는 광이어도 입사되는 제1 회절 층(420)의 영역의 위치에 따라 광의 입사각이 달라질 수 있다. 제1 회절 층(420)의 복수 개의 영역들이 각각 서로 다른 회절 격자 주기를 가짐에 따라, 서로 다른 입사각을 갖는 광이 회절되는 정도가 다를 수 있다.Referring to FIGS. 8A to 9B, light (L1) reflected from any one point (T1) of the eye and incident on the first diffractive layer (420) may be incident at different incidence angles on the first region (A-1) positioned closest to the second diffractive layer and the n-th region (A-n) positioned farthest from the second diffractive layer, respectively. For example, since the user's eye is close to the waveguide (400), even if light is reflected from the same point (e.g., T1) of the user's eye, the incidence angle of the light may vary depending on the location of the region of the first diffractive layer (420) into which it is incident. Since the plurality of regions of the first diffractive layer (420) each have different diffraction grating periods, the degree to which light having different incidence angles is diffracted may vary.
일 실시예에 따르면, 제1 회절 층(410)에서 회절되어 서브스트레이트(410)로 입사되는 광들은, 실질적으로 동일한 입사각을 가질 수 있다. 예를 들어, 제1 영역(A-1)을 통과하는 광(L1)의 입사각은, G-1일 수 있고, 제n 영역(A-n)을 통과하는 광(L1)의 입사각은, G-n일 수 있다. 제1 영역(A-1)에서는, 상대적으로 회절이 덜 되고, 제n 영역(G-n)에서는, 상대적으로 회절이 많이 되기 때문에, 상기 G-1의 입사각은, 상기 G-n의 입사각과 동일할 수 있다. 즉, 상기 광들의 입사각들이 동일함에 따라, 서브스트레이트(410)로 입사하는 광들이 평행할 수 있다. 이와 같은 경우, 카메라(330)의 이미지 센서에서 광들이 중첩되지 않으므로, 도 9b와 같이 사용자의 안구(10c)에 대한 이미지가 선명해질 수 있고, 이에 따라 웨어러블 전자 장치가 사용자의 안구 또는 시선의 궤적을 추적의 정확성이 개선될 수 있다.According to one embodiment, the light rays diffracted by the first diffractive layer (410) and incident on the substrate (410) may have substantially the same incident angle. For example, the incident angle of the light (L1) passing through the first region (A-1) may be G-1, and the incident angle of the light (L1) passing through the n-th region (A-n) may be G-n. Since diffraction is relatively less in the first region (A-1) and diffraction is relatively more in the n-th region (G-n), the incident angle of G-1 may be the same as the incident angle of G-n. That is, since the incident angles of the light rays are the same, the light rays incident on the substrate (410) may be parallel. In this case, since the lights from the image sensor of the camera (330) do not overlap, the image of the user's eye (10c) can be made clearer as in FIG. 9b, and accordingly, the accuracy of the wearable electronic device tracking the trajectory of the user's eye or gaze can be improved.
도 10은 본 개시의 일 실시예에 따른, 웨이브 가이드를 설명하기 위한 개략도이다.FIG. 10 is a schematic diagram illustrating a wave guide according to one embodiment of the present disclosure.
도 11은 본 개시의 일 실시예에 따른, 제1 회절 층을 설명하기 위한 개략도이다.FIG. 11 is a schematic diagram illustrating a first diffractive layer according to one embodiment of the present disclosure.
도 12는 본 개시의 일 실시예에 따른, 웨어러블 전자 장치가 사용자의 안구를 촬영할 때 사용자의 안구에 대한 촬영 영역을 설명하기 위한 개략도이다.FIG. 12 is a schematic diagram illustrating a photographing area for a user's eye when a wearable electronic device photographs the user's eye according to one embodiment of the present disclosure.
도 10 내지 도 12의 실시예들은, 도 1 내지 도 9b의 실시예들, 또는 도 13 및 도 14의 실시예들과 결합될 수 있다.The embodiments of FIGS. 10 to 12 can be combined with the embodiments of FIGS. 1 to 9b, or the embodiments of FIGS. 13 and 14.
도 10 내지 도 12의 실시예들의 구성들은, 도 1 내지 도 9b의 실시예들의 구성들, 또는 도 13 및 도 14의 실시예들의 구성들과 일부 또는 전부가 동일할 수 있다.The configurations of the embodiments of FIGS. 10 to 12 may be partially or entirely identical to the configurations of the embodiments of FIGS. 1 to 9b, or the configurations of the embodiments of FIGS. 13 and 14.
도 10 및 도 11을 참조하면, 웨이브 가이드(500)(예: 도 6 및 도 8의 웨이브 가이드(400))는, 서브스트레이트(510), 제1 회절 층(520), 또는 제2 회절 층(530)을 포함할 수 있다.Referring to FIGS. 10 and 11, the wave guide (500) (e.g., the wave guide (400) of FIGS. 6 and 8) may include a substrate (510), a first diffractive layer (520), or a second diffractive layer (530).
일 실시예에 따르면, 제1 회절 층(520)은, 복수 개의 영역들(521, 522, 523)을 포함할 수 있다. 복수 개의 영역들(521, 522, 523)의 주기들(P1, P2, P3)은, 제2 회절 층(520)과 가장 인접하게 위치된 영역(510)으로부터 제2 회절 층(520)과 가장 멀리 위치된 영역(530)을 향하는 방향으로 커질 수 있다.According to one embodiment, the first diffractive layer (520) may include a plurality of regions (521, 522, 523). The periods (P1, P2, P3) of the plurality of regions (521, 522, 523) may increase in a direction from a region (510) positioned closest to the second diffractive layer (520) toward a region (530) positioned farthest from the second diffractive layer (520).
일 실시예에 따르면, 제2 회절 층(530)은, 카메라(330)와 상응하게 위치될 수 있다. 카메라(330)는, 경통(331)(barrel), 렌즈(332), 및 이미지 센서(333)를 포함할 수 있다. 경통(331)은, 카메라(330)의 전반적인 외관을 형성하고, 그 내부에 배치된 부품들을 보호할 수 있다. 렌즈(332)는, 제2 회절 층(530)으로부터 출력된 광을 이미지 센서(333)로 집속시킬 수 있다.According to one embodiment, the second diffractive layer (530) may be positioned corresponding to the camera (330). The camera (330) may include a barrel (331), a lens (332), and an image sensor (333). The barrel (331) may form the overall appearance of the camera (330) and protect components positioned therein. The lens (332) may focus light output from the second diffractive layer (530) onto the image sensor (333).
일 실시예에 따르면, 사용자의 안구의 복수 개의 지점들(T1, T2, T3)로부터 반사되어 제1 회절 층(520)으로 입사되는 광들(L1, L2, L3)은, 제1 회절 층(520)에서 회절되어 서브스트레이트(510) 내부에서 제2 회절 층(530)을 향해 전반사되며 전달될 수 있다.According to one embodiment, light rays (L1, L2, L3) reflected from multiple points (T1, T2, T3) of the user's eye and incident on the first diffractive layer (520) may be diffracted by the first diffractive layer (520) and transmitted through total reflection toward the second diffractive layer (530) within the substrate (510).
일 실시예에 따르면, 제2 회절 층(530)으로 전달된 광은, 제2 회절 층(530)에서 회절되어 카메라(330)로 출력될 수 있다. 이에 따라, 웨어러블 전자 장치는, 상기 카메라(330)로 입사된 광을 통해, 사용자의 안구에 대한 이미지를 촬영 또는 획득할 수 있다.According to one embodiment, light transmitted to the second diffractive layer (530) may be diffracted by the second diffractive layer (530) and output to the camera (330). Accordingly, the wearable electronic device may capture or acquire an image of the user's eye through the light incident on the camera (330).
일 실시예에 따르면, 제1 회절 층(520)의 복수 개의 영역들은, 서로 이격될 수 있다. 예를 들어, 제1 회절 층(520)의 복수 개의 영역들은, 그 사이에 에어 갭(g1, g2)(air gap)이 형성될 수 있다. 이에 따라, 웨이브 가이드(500)가 커버하는 사용자의 안구 또는 안구와 인접한 부분에 대한 커버 영역이 상대적으로 커질 수 있다. 예를 들어, 상기 커버 영역이라 함은, 상기 카메라(330)의 이미지 센서(333)를 통해 획득되는, 사용자의 안구 또는 이와 인접한 부분에 대한 촬영 영역으로 정의될 수 있다.According to one embodiment, the plurality of regions of the first diffractive layer (520) may be spaced apart from each other. For example, an air gap (g1, g2) may be formed between the plurality of regions of the first diffractive layer (520). Accordingly, the coverage area of the user's eye or a part adjacent to the eye covered by the wave guide (500) may be relatively large. For example, the coverage area may be defined as a photographing area of the user's eye or a part adjacent thereto, obtained through the image sensor (333) of the camera (330).
도 10 내지 도 12를 참조하여 사용자의 안구 및 이와 인접한 부분에 대한 촬영 영역에 대해 설명한다.Referring to FIGS. 10 to 12, the photographing area for the user's eye and its adjacent parts will be described.
예를 들어, 사용자의 두상의 크기나 형태, 또는 사용자의 얼굴에서 안구의 위치에 따라, 웨이브 가이드(500)의 제1 회절 층(520)이 사용자의 안구 또는 사용자의 홍채(10a)에 대한 상대적인 위치가 달라질 수 있다.For example, depending on the size or shape of the user's head or the position of the eye on the user's face, the position of the first diffractive layer (520) of the wave guide (500) relative to the user's eye or the user's iris (10a) may vary.
일 실시예에 따르면, 제1 회절 층(520)의 제1 영역(521)과 상응하는 영역은, 제1 촬영 영역(521a)으로 정의될 수 있고, 제1 회절 층(520)의 제2 영역(522)과 상응하는 영역은, 제2 촬영 영역(522a)으로 정의될 수 있고, 제1 회절 층(520)의 제3 영역(523)과 상응하는 영역은, 제3 촬영 영역(523a)으로 정의될 수 있다. 예를 들어, 제1 회절 층(520)의 제1 영역(521) 중에서 제2 회절 층(530)과 가장 가까운 부분의 광(예를 들어, 도 10의 K-1의 입사각을 갖는 광)과 제1 회절 층(520)의 제3 영역(523) 중에서 제2 회절 층(530)과 가장 먼 부분의 광(예를 들어, 도 10의 K-n의 입사각을 갖는 광)이 실제 사용자의 안구로부터 반사된 광 중에서 가장 바깥쪽 광들에 해당될 수 있다. 즉, 해당 광들은, 도 12에 도시된 촬영 영역(EB)의 가장 바깥쪽 부분들과 상응할 수 있다.According to one embodiment, an area corresponding to the first region (521) of the first diffractive layer (520) may be defined as a first photographing region (521a), an area corresponding to the second region (522) of the first diffractive layer (520) may be defined as a second photographing region (522a), and an area corresponding to the third region (523) of the first diffractive layer (520) may be defined as a third photographing region (523a). For example, light from a part of the first region (521) of the first diffractive layer (520) that is closest to the second diffractive layer (530) (e.g., light having an incident angle of K-1 in FIG. 10) and light from a part of the third region (523) of the first diffractive layer (520) that is farthest from the second diffractive layer (530) (e.g., light having an incident angle of K-n in FIG. 10) may correspond to the outermost lights among the lights reflected from the actual user's eye. That is, the corresponding lights may correspond to the outermost parts of the photographing area (EB) illustrated in FIG. 12.
일 실시예에 따르면, 제1 회절 층(510)의 복수 개의 영역들(521, 522, 523)이 그 사이에 에어 갭(g1, g2)이 형성됨에 따라, 사용자의 안구 중에서 실제로 촬영되지 않는 영역들(g1a, g2a)이 형성될 수 있다. 이와 같은 영역들에 사용자의 동공이 위치되는 경우, 웨어러블 전자 장치가 캘리브레이션 동작을 수행하여, 사용자의 동공이 향하는 방향을 추적할 수 있다.In one embodiment, a plurality of regions (521, 522, 523) of the first diffractive layer (510) may form air gaps (g1, g2) therebetween, thereby forming regions (g1a, g2a) of the user's eye that are not actually imaged. When the user's pupil is located in such regions, the wearable electronic device may perform a calibration operation to track the direction in which the user's pupil is facing.
일 실시예에 따르면, 상기 에어 갭(g1, g2)으로 인해, 사용자의 안구 및 이와 인접한 부분들에 대한 촬영 영역(EB)이 커질 수 있다.According to one embodiment, the air gap (g1, g2) may increase the imaging area (EB) for the user's eye and adjacent parts thereof.
도 13은 본 개시의 일 실시예에 따른, 웨이브 가이드를 설명하기 위한 개략도이다.FIG. 13 is a schematic diagram illustrating a wave guide according to one embodiment of the present disclosure.
도 14는 본 개시의 일 실시예에 따른, 웨이브 가이드를 설명하기 위한 개략도이다.FIG. 14 is a schematic diagram illustrating a wave guide according to one embodiment of the present disclosure.
도 13 및 도 14의 실시예들은, 도 1 내지 도 12의 실시예들과 결합될 수 있다.The embodiments of FIGS. 13 and 14 can be combined with the embodiments of FIGS. 1 to 12.
도 13 및 도 14의 실시예들의 구성들은, 도 1 내지 도 12의 실시예들의 구성들과 일부 또는 전부가 동일할 수 있다.The configurations of the embodiments of FIGS. 13 and 14 may be partially or entirely identical to the configurations of the embodiments of FIGS. 1 to 12.
도 13 및 도 14를 참조하면, 웨이브 가이드(500)(예: 도 10의 웨이브 가이드(500))는, 서브스트레이트(510), 제1 회절 층(520), 또는 제2 회절 층(530)을 포함할 수 있다.Referring to FIGS. 13 and 14, the wave guide (500) (e.g., the wave guide (500) of FIG. 10) may include a substrate (510), a first diffractive layer (520), or a second diffractive layer (530).
도 13을 참조하면, 제2 회절 층(530)은, 서브스트레이트(510)의 일면(예: 카메라(630)를 향하는 면)에 배치될 수 있다. 카메라(630)는, 제2 회절 층(530)과 대면할 수 있다. 예를 들어, 카메라(630)의 경통(631)은, 제2 회절 층(530)과 연결될 수 있다. 제2 회절 층(530)에서 출력된 광은, 곧바로 경통(631)의 내부에서 이미지 센서(633)로 도달할 수 있다. 즉, 도 13을 예로 들어 설명하는 웨어러블 전자 장치의 카메라(630)는, 별도의 렌즈를 포함하지 않으며, 제2 회절 층(530)이 카메라(630)의 렌즈 역할을 수행할 수 있다. 이에 따라, 카메라(630)의 크기가 소형화될 수 있고, 웨어러블 전자 장치의 전반적인 크기가 소형화될 수 있다.Referring to FIG. 13, the second diffractive layer (530) may be disposed on one surface of the substrate (510) (e.g., the surface facing the camera (630). The camera (630) may face the second diffractive layer (530). For example, the optical tube (631) of the camera (630) may be connected to the second diffractive layer (530). Light output from the second diffractive layer (530) may directly reach the image sensor (633) inside the optical tube (631). That is, the camera (630) of the wearable electronic device described as an example in FIG. 13 does not include a separate lens, and the second diffractive layer (530) may function as the lens of the camera (630). Accordingly, the size of the camera (630) may be reduced, and the overall size of the wearable electronic device may be reduced.
도 14를 참조하면, 서브스트레이트(510)의 일면에는, 이미지 센서(732)가 배치될 수 있다. 서브스트레이트(510)의 타면에는, 제2 회절 층(531)(예: 도 13의 제2 회절 층(530)이 배치될 수 있다. 즉, 이미지 센서(732)와 제2 회절 층(531)은, 그 사이에 서브스트레이트(510)를 사이에 두고 서로 마주할 수 있다. 제2 회절 층(531)에서 회절된 광은, 서브스트레이트(510)를 통과하여 이미지 센서(732)로 도달할 수 있다. 즉, 도 14를 예로 들어 설명하는 웨어러블 전자 장치는, 이미지 센서(733)를 수용하는 별도의 경통을 포함하지 않을 수 있고, 서브스트레이트(510)가 경통의 역할을 수행할 수 있다. 또한, 제2 회절 층(731)이 카메라의 렌즈 역할을 수행할 수 있다. 이에 따라, 웨어러블 전자 장치의 전반적인 크기가 소형화될 수 있다.Referring to FIG. 14, an image sensor (732) may be placed on one surface of the substrate (510). On the other side of the substrate (510), a second diffractive layer (531) (e.g., the second diffractive layer (530) of FIG. 13) may be arranged. That is, the image sensor (732) and the second diffractive layer (531) may face each other with the substrate (510) therebetween. Light diffracted by the second diffractive layer (531) may pass through the substrate (510) and reach the image sensor (732). That is, the wearable electronic device described with reference to FIG. 14 as an example may not include a separate optical tube that accommodates the image sensor (733), and the substrate (510) may serve as the optical tube. In addition, the second diffractive layer (731) may serve as a lens of the camera. Accordingly, the overall size of the wearable electronic device may be reduced.
본 개시의 일 실시예에 따르면, 웨어러블 전자 장치는, 렌즈 프레임 및 상기 렌즈 프레임에 대해 회전 가능하게 연결된 착용 부재를 포함하는 하우징; 상기 렌즈 프레임에 배치되고, 상기 렌즈 프레임에 배치되고, 사용자의 안구에 의해 반사된 광이 상기 착용 부재를 향해 전달되도록 하는 제1 회절 층을 포함하는 웨이브 가이드; 및 상기 착용 부재의 내부에 배치되어 상기 웨이브 가이드를 향하고, 상기 웨이브 가이드로부터 출력된 광에 대한 이미지를 촬영하도록 구성된 카메라를 포함하고, 상기 제1 회절 층은, 상기 사용자의 안구의 일 지점으로부터 반사되어 상기 제1 회절 층의 복수 개의 지점들에 입사된 광들을 회절시키고, 상기 제1 회절 층을 통과한 광들을 서로 평행한 각도를 가지도록 회절시키도록 구성될 수 있다.According to one embodiment of the present disclosure, a wearable electronic device includes a housing including a lens frame and a wearing member rotatably connected to the lens frame; a wave guide disposed on the lens frame, the wave guide including a first diffractive layer disposed on the lens frame and configured to transmit light reflected by a user's eye toward the wearing member; and a camera disposed inside the wearing member and facing the wave guide, the camera configured to capture an image of light output from the wave guide, wherein the first diffractive layer may be configured to diffract light reflected from a point of the user's eye and incident on a plurality of points of the first diffractive layer, and to diffract light passing through the first diffractive layer to have parallel angles with each other.
일 실시예에 따르면, 웨어러블 전자 장치는, 사용자의 안구를 향해 광을 조사하도록 구성된 광원을 더 포함할 수 있다.According to one embodiment, the wearable electronic device may further include a light source configured to irradiate light toward the user's eye.
일 실시예에 따르면, 상기 웨이브 가이드는, 서브스트레이트; 상기 서브스트레이트에 배치된 상기 제1 회절 층; 및 상기 서브스트레이트에 배치되고, 상기 카메라와 상응하게 위치된 제2 회절 층을 더 포함할 수 있다.In one embodiment, the waveguide may further include: a substrate; the first diffractive layer disposed on the substrate; and a second diffractive layer disposed on the substrate and positioned corresponding to the camera.
일 실시예에 따르면, 상기 제1 회절 층의 상기 복수 개의 영역들의 회절 주기들은, 상기 제2 회절 층과 가장 인접하게 위치된 영역으로부터 상기 제2 회절 층과 가장 멀리 위치된 영역을 향하는 방향으로 작아지도록 구성될 수 있다.According to one embodiment, the diffraction periods of the plurality of regions of the first diffractive layer may be configured to decrease in a direction from a region positioned closest to the second diffractive layer toward a region positioned farthest from the second diffractive layer.
일 실시예에 따르면, 상기 제1 회절 층의 상기 복수 개의 영역들의 회절 주기들은, 상기 방향으로 선형적으로 작아지거나 또는 비선형적으로 작아지도록 구성될 수 있다.According to one embodiment, the diffraction periods of the plurality of regions of the first diffractive layer may be configured to decrease linearly or nonlinearly in the direction.
일 실시예에 따르면, 상기 제1 회절 층은, 상기 서브스트레이트의 일면에 배치되고, 상기 제2 회절 층은, 상기 서브스트레이트의 상기 일면에 배치될 수 있다.According to one embodiment, the first diffractive layer may be disposed on one surface of the substrate, and the second diffractive layer may be disposed on the one surface of the substrate.
일 실시예에 따르면, 상기 제1 회절 층은, 상기 서브스트레이트의 일면에 배치되고, 상기 제2 회절 층은, 상기 서브스트레이트의 상기 일면과 반대인 타면에 배치될 수 있다.According to one embodiment, the first diffractive layer may be disposed on one surface of the substrate, and the second diffractive layer may be disposed on the other surface of the substrate opposite to the one surface.
일 실시예에 따르면, 상기 카메라는, 경통; 상기 경통에 배치된 이미지 센서; 및 상기 경통에 배치되고, 상기 제2 회절 층으로부터 출력된 광을 상기 이미지 센서로 집속시키도록 구성된 렌즈를 포함할 수 있다.In one embodiment, the camera may include: a barrel; an image sensor disposed in the barrel; and a lens disposed in the barrel and configured to focus light output from the second diffractive layer onto the image sensor.
일 실시예에 따르면, 상기 카메라는, 상기 제2 회절 층과 연결된 경통; 및 상기 경통에 배치된 이미지 센서를 포함할 수 있다.In one embodiment, the camera may include a barrel connected to the second diffractive layer; and an image sensor disposed in the barrel.
일 실시예에 따르면, 상기 카메라는, 상기 서브스트레이트의 일면에 배치된 이미지 센서를 포함하고, 상기 제2 회절 층은, 상기 서브스트레이트의 상기 일면과 반대인 타면에 배치될 수 있다.In one embodiment, the camera includes an image sensor disposed on one surface of the substrate, and the second diffractive layer may be disposed on the other surface of the substrate opposite to the one surface.
일 실시예에 따르면, 상기 제1 회절 층의 복수 개의 영역들 사이에는 에어 갭(air gap)이 형성될 수 있다.According to one embodiment, an air gap may be formed between the plurality of regions of the first diffractive layer.
일 실시예에 따르면, 상기 광원으로부터 조사되는 광은, 적외선 대역의 광일 수 있다.According to one embodiment, the light irradiated from the light source may be light in the infrared band.
본 개시의 일 실시예에 따르면, 웨어러블 전자 장치는, 하우징; 상기 하우징에 배치되고, 사용자의 안구를 향해 적외선 대역의 광을 조사하도록 구성된 광원; 상기 하우징에 배치되고, 상기 광원으로부터 조사되어 사용자의 안구에 의해 반사된 광이 입사되도록 구성되고, 사용자가 상기 웨어러블 전자 장치를 착용할 때 사용자의 안구를 향하는 웨이브 가이드; 및 상기 하우징의 내부에 배치되어 상기 웨이브 가이드를 향하고, 상기 웨이브 가이드로부터 출력된 광에 대한 이미지를 촬영하도록 구성된 카메라를 포함하고, 상기 웨이브 가이드는, 서브스트레이트; 상기 서브스트레이트에 배치되고, 서로 다른 회절 주기를 가지는 복수 개의 영역들을 포함하는 제1 회절 층; 및 상기 서브스트레이트에 배치되고, 상기 카메라와 상응하게 위치된 제2 회절 층을 포함할 수 있다.According to one embodiment of the present disclosure, a wearable electronic device includes a housing; a light source disposed in the housing and configured to irradiate light in an infrared band toward a user's eye; a wave guide disposed in the housing and configured to allow light irradiated from the light source and reflected by the user's eye to be incident thereon and directed toward a user's eye when the user wears the wearable electronic device; and a camera disposed inside the housing and configured to face the wave guide and capture an image of light output from the wave guide, wherein the wave guide may include a substrate; a first diffractive layer disposed on the substrate and including a plurality of regions having different diffraction periods; and a second diffractive layer disposed on the substrate and positioned corresponding to the camera.
일 실시예에 따르면, 상기 제1 회절 층의 상기 복수 개의 영역들의 회절 주기들은, 상기 제2 회절 층과 가장 인접하게 위치된 영역으로부터 상기 제2 회절 층과 가장 멀리 위치된 영역을 향하는 방향으로 작아지도록 구성될 수 있다.According to one embodiment, the diffraction periods of the plurality of regions of the first diffractive layer may be configured to decrease in a direction from a region positioned closest to the second diffractive layer toward a region positioned farthest from the second diffractive layer.
일 실시예에 따르면, 상기 제1 회절 층의 상기 복수 개의 영역들의 회절 주기들은, 상기 방향으로 선형적으로 작아지거나 또는 비선형적으로 작아지도록 구성될 수 있다.According to one embodiment, the diffraction periods of the plurality of regions of the first diffractive layer may be configured to decrease linearly or nonlinearly in the direction.
일 실시예에 따르면, 상기 제1 회절 층은, 상기 서브스트레이트의 일면에 배치되고, 상기 제2 회절 층은, 상기 서브스트레이트의 상기 일면에 배치될 수 있다.According to one embodiment, the first diffractive layer may be disposed on one surface of the substrate, and the second diffractive layer may be disposed on the one surface of the substrate.
일 실시예에 따르면, 상기 제1 회절 층은, 상기 서브스트레이트의 일면에 배치되고, 상기 제2 회절 층은, 상기 서브스트레이트의 상기 일면과 반대인 타면에 배치될 수 있다.According to one embodiment, the first diffractive layer may be disposed on one surface of the substrate, and the second diffractive layer may be disposed on the other surface of the substrate opposite to the one surface.
일 실시예에 따르면, 상기 카메라는, 경통; 상기 경통에 배치된 이미지 센서; 및 상기 경통에 배치되고, 상기 제2 회절 층으로부터 출력된 광을 상기 이미지 센서로 집속시키도록 구성된 렌즈를 포함할 수 있다.In one embodiment, the camera may include: a barrel; an image sensor disposed in the barrel; and a lens disposed in the barrel and configured to focus light output from the second diffractive layer onto the image sensor.
일 실시예에 따르면, 상기 카메라는, 상기 제2 회절 층과 연결된 경통; 및 상기 경통에 배치된 이미지 센서를 포함할 수 있다.In one embodiment, the camera may include a barrel connected to the second diffractive layer; and an image sensor disposed in the barrel.
일 실시예에 따르면, 상기 카메라는, 상기 서브스트레이트의 일면에 배치된 이미지 센서를 포함하고, 상기 제2 회절 층은, 상기 서브스트레이트의 상기 일면과 반대인 타면에 배치될 수 있다.According to one embodiment, the camera includes an image sensor disposed on one surface of the substrate, and the second diffractive layer may be disposed on the other surface of the substrate opposite to the one surface.
일 실시예에 따르면, 상기 제1 회절 층의 복수 개의 영역들 사이에는 에어 갭(air gap)이 형성될 수 있다.According to one embodiment, an air gap may be formed between the plurality of regions of the first diffractive layer.
이상, 본 문서의 상세한 설명에서는 구체적인 실시 예에 관해서 설명하였으나, 본 문서의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 당해 분야에서 통상의 지식을 가진 자에게 있어서 자명하다 할 것이다.Although the detailed description of this document has described specific embodiments, it will be apparent to those skilled in the art that various modifications are possible without departing from the scope of this document.
Claims (11)
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2024-0089249 | 2024-07-05 | ||
| KR20240089249 | 2024-07-05 | ||
| KR1020250038349A KR20260007059A (en) | 2024-07-05 | 2025-03-25 | Wearable electronic device including waveguide for eye-tracking |
| KR10-2025-0038349 | 2025-03-25 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2026010468A1 true WO2026010468A1 (en) | 2026-01-08 |
Family
ID=98318921
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2025/009784 Pending WO2026010468A1 (en) | 2024-07-05 | 2025-07-07 | Wearable electronic device including eye-tracking wave guide |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2026010468A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20160102481A (en) * | 2013-12-26 | 2016-08-30 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | Eye tracking apparatus, method and system |
| KR20210156613A (en) * | 2020-06-18 | 2021-12-27 | 삼성전자주식회사 | Augmented reality glass and operating method thereof |
| KR20220046494A (en) * | 2020-10-07 | 2022-04-14 | 삼성전자주식회사 | Eye tracking method and eye tracking sensor |
| JP2022543363A (en) * | 2019-07-30 | 2022-10-12 | マジック リープ, インコーポレイテッド | Angularly segmented hot mirror for eye tracking |
| WO2024006165A1 (en) * | 2022-06-30 | 2024-01-04 | Apple Inc. | Eye imaging system |
-
2025
- 2025-07-07 WO PCT/KR2025/009784 patent/WO2026010468A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20160102481A (en) * | 2013-12-26 | 2016-08-30 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | Eye tracking apparatus, method and system |
| JP2022543363A (en) * | 2019-07-30 | 2022-10-12 | マジック リープ, インコーポレイテッド | Angularly segmented hot mirror for eye tracking |
| KR20210156613A (en) * | 2020-06-18 | 2021-12-27 | 삼성전자주식회사 | Augmented reality glass and operating method thereof |
| KR20220046494A (en) * | 2020-10-07 | 2022-04-14 | 삼성전자주식회사 | Eye tracking method and eye tracking sensor |
| WO2024006165A1 (en) * | 2022-06-30 | 2024-01-04 | Apple Inc. | Eye imaging system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2022059893A1 (en) | Wearable electronic device including heat-dissipating structure | |
| WO2022060126A1 (en) | Electronic device comprising camera module | |
| WO2022203285A1 (en) | Camera module including image stabilization assembly, and electronic device including same | |
| WO2022092517A1 (en) | Wearable electronic device comprising display, method for controlling display, and system comprising wearable electronic device and case | |
| WO2022169332A1 (en) | Lens assembly and electronic device comprising same | |
| WO2023018092A1 (en) | Electronic device comprising camera module | |
| WO2024101747A1 (en) | Wearable electronic device including camera and operation method thereof | |
| WO2023018219A1 (en) | Electronic device comprising display and camera, and method for controlling same | |
| WO2026010468A1 (en) | Wearable electronic device including eye-tracking wave guide | |
| WO2022075797A1 (en) | Camera module and electronic device comprising same | |
| WO2025254354A1 (en) | Display and wearable electronic device comprising same | |
| WO2026005441A1 (en) | Wearable electronic device comprising waveguide for eye tracking | |
| WO2024205357A1 (en) | Camera module and electronic device comprising same | |
| WO2025042169A1 (en) | Wearable device for performing call by using virtual object, and control method thereof | |
| WO2024029779A1 (en) | Wearable electronic device comprising heat transfer member | |
| WO2024029699A1 (en) | Wearable electronic device for displaying virtual object and control method therefor | |
| WO2025037844A1 (en) | Electronic device capable of vision recognition and operating method thereof | |
| WO2025095557A1 (en) | Apparatus and method for processing vision information by using image sensor | |
| WO2025159434A1 (en) | Wearable electronic device comprising infrared light receiver | |
| WO2025023480A1 (en) | Electronic device, method, and computer-readable storage medium for changing screen on basis of switching of virtual space | |
| WO2025042048A1 (en) | Wearable device and method for adjusting brightness of environment, and non-transitory computer-readable recording medium | |
| WO2024058436A1 (en) | Electronic device for displaying image, and method for controlling same | |
| WO2024029784A1 (en) | Wearable electronic device for displaying virtual object and control method therefor | |
| WO2025258990A1 (en) | Head-mounted display device and control method thereof | |
| WO2025110582A1 (en) | Apparatus and method for measuring distance to external object |