KR20250064572A - Light guide device and electronic device including the same - Google Patents
Light guide device and electronic device including the same Download PDFInfo
- Publication number
- KR20250064572A KR20250064572A KR1020240112154A KR20240112154A KR20250064572A KR 20250064572 A KR20250064572 A KR 20250064572A KR 1020240112154 A KR1020240112154 A KR 1020240112154A KR 20240112154 A KR20240112154 A KR 20240112154A KR 20250064572 A KR20250064572 A KR 20250064572A
- Authority
- KR
- South Korea
- Prior art keywords
- angle
- diffractive element
- substrate
- guide device
- grating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
- G02B6/0001—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
- G02B6/0011—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
- G02B6/0013—Means for improving the coupling-in of light from the light source into the light guide
- G02B6/0015—Means for improving the coupling-in of light from the light source into the light guide provided on the surface of the light guide or in the bulk of it
- G02B6/0016—Grooves, prisms, gratings, scattering particles or rough surfaces
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/18—Diffraction gratings
- G02B5/1814—Diffraction gratings structurally combined with one or more further optical elements, e.g. lenses, mirrors, prisms or other diffraction gratings
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/18—Diffraction gratings
- G02B5/1866—Transmission gratings characterised by their structure, e.g. step profile, contours of substrate or grooves, pitch variations, materials
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
실시 예는, 제1 기판; 및 상기 제1 기판에 배치되고, 프로젝트로부터 출사된 광이 순차적으로 입사되는 제1 입력 회절소자, 제1 전달 회절소자 및 제1 출사 회절소자;를 포함하며, 수학식 1 및 수학식 2를 만족하는 광 가이드 장치를 개시한다.
[수학식 1]
[수학식 2]
(여기서 θprojector는 프로젝터와 제1 기판 간의 각도, 는 프로젝터가 제1 기판 상에서 향하는 각도, γ는 제1 기판의 랩 앵글(wrap angle), λ는 광의 파장, α는 제1 기판의 팬터스카픽 앵글(pantoscopic angle), ΛIC는 제1 입력 회절소자의 격자 주기, ΛOC는 제1 출사 회절소자의 격자 주기, ΛFG는 제1 전달 회절소자의 격자 주기, 는 제1 입력 회절소자의 격자 각도, 는 제1 출사 회절소자의 격자 각도, 는 제1 전달 회절소자의 격자 각도, FoV는 광 가이드 장치의 시야각, x 및 y는 광 가이드 장치의 해상도이다)The embodiment discloses a light guide device including a first substrate; and a first input diffractive element, a first transmission diffractive element, and a first output diffractive element arranged on the first substrate and onto which light emitted from a projector is sequentially incident; and satisfying mathematical expressions 1 and 2.
[Mathematical Formula 1]
[Mathematical formula 2]
(Here, θ projector is the angle between the projector and the first substrate, is the angle at which the projector faces the first substrate, γ is the wrap angle of the first substrate, λ is the wavelength of light, α is the pantoscopic angle of the first substrate, Λ IC is the grating period of the first input diffractive element, Λ OC is the grating period of the first output diffractive element, Λ FG is the grating period of the first transmission diffractive element, is the grating angle of the first input diffractive element, is the grating angle of the first diffractive element, is the grating angle of the first transmission diffraction element, FoV is the field of view of the light guide device, x and y are the resolutions of the light guide device.)
Description
실시 예는 광 가이드 장치 및 이를 포함하는 전자 디바이스에 관한 것이다.The embodiment relates to a light guide device and an electronic device including the same.
가상현실(Virtual Reality, VR)은 컴퓨터 등을 사용한 인공적인 기술로 만들어낸 실제와 유사하지만 실제가 아닌 어떤 특정한 환경이나 상황 혹은 그 기술 자체를 말한다.Virtual Reality (VR) refers to a specific environment or situation, or the technology itself, that is similar to reality but not real, created using artificial technology such as computers.
증강현실(Augmented Reality, AR)은 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 기술을 말한다.Augmented Reality (AR) is a technology that synthesizes virtual objects or information into the real environment to make them appear as if they existed in the original environment.
혼합현실 (Mixed Reality, MR) 혹은 혼성현실 (Hybrid reality)은 가상 세계와 현실 세계를 합쳐서 새로운 환경이나 새로운 정보를 만들어 내는 것을 말한다. 특히, 실시간으로 현실과 가상에 존재하는 것 사이에서 실시간으로 상호작용할 수 있는 것을 말할 때 혼합현실이라 한다.Mixed reality (MR) or hybrid reality refers to the creation of a new environment or new information by combining the virtual world and the real world. In particular, it is called mixed reality when it refers to real-time interaction between things that exist in reality and virtual worlds.
이 때, 만들어진 가상의 환경이나 상황 등은 사용자의 오감을 자극하며 실제와 유사한 공간적, 시간적 체험을 하게 함으로써 현실과 상상의 경계를 자유롭게 드나들게 한다. 또한, 사용자는 이러한 환경에 단순히 몰입할 뿐만 아니라 실재하는 디바이스를 이용해 조작이나 명령을 가하는 등 이러한 환경 속에 구현된 것들과 상호작용이 가능하다.At this time, the created virtual environment or situation stimulates the user's five senses and allows them to freely move between reality and imagination by experiencing spatial and temporal experiences similar to reality. In addition, the user can interact with the things implemented in this environment by not only simply immersing himself in this environment, but also using real devices to operate or give commands.
최근, 이러한 기술분야에 사용되는 장비(gear, device)에 대한 연구가 활발히 이루어지고 있다. 다만, 이러한 장비에 대한 소형화와 광학 성능 개선에 대한 필요성이 대두되고 있다.Recently, research on the equipment (gear, device) used in these technical fields has been actively conducted. However, the need for miniaturization and improvement of optical performance of these equipment is emerging.
실시예는 AR(Augmented Reality) 등에 사용되는 프로젝트 장치 및 이를 포함하는 전자 디바이스를 사용함에 있어, 광 기기와 관측자의 모든 각도에 대해 자유도를 가지는 격자 구조의 설계가 가능한 프로젝트 장치 및 전자 디바이스를 제공한다.The embodiment provides a projector device and an electronic device capable of designing a grid structure having degrees of freedom for all angles of an optical device and an observer, when using a projector device used for AR (Augmented Reality) and an electronic device including the same.
실시예는 광학 성능이 개선된 프로젝트 장치 및 전자 디바이스를 제공한다.The embodiments provide a project device and an electronic device with improved optical performance.
실시 예에서 해결하고자 하는 과제는 이에 한정되는 것은 아니며, 아래에서 설명하는 과제의 해결수단이나 실시 형태로부터 파악될 수 있는 목적이나 효과도 포함된다고 할 것이다.The problem to be solved in the embodiment is not limited to this, and it can be said that the purpose or effect that can be understood from the solution or embodiment of the problem described below is also included.
실시예에 따른 광 가이드 장치는 제1 기판; 및 상기 제1 기판에 배치되고, 프로젝트로부터 출사된 광이 순차적으로 입사되는 제1 입력 회절소자, 제1 전달 회절소자 및 제1 출사 회절소자;를 포함하며, 수학식 1 및 수학식 2를 만족할 수 있다.An optical guide device according to an embodiment includes a first substrate; and a first input diffraction element, a first transmission diffraction element, and a first output diffraction element, which are arranged on the first substrate and onto which light emitted from a projector is sequentially incident; and can satisfy
[수학식 1][Mathematical formula 1]
[수학식 2][Mathematical formula 2]
(여기서 θprojector는 프로젝터와 제1 기판 간의 각도, 는 프로젝터가 제1 기판 상에서 향하는 각도, γ는 제1 기판의 랩 앵글(wrap angle), λ는 광의 파장, α는 제1 기판의 팬터스카픽 앵글(pantoscopic angle), ΛIC는 제1 입력 회절소자의 격자 주기, ΛOC는 제1 출사 회절소자의 격자 주기, ΛFG는 제1 전달 회절소자의 격자 주기, 는 제1 입력 회절소자의 격자 각도, 는 제1 출사 회절소자의 격자 각도, 는 제1 전달 회절소자의 격자 각도, FoV는 광 가이드 장치의 시야각, x 및 y는 광 가이드 장치의 해상도이다)(Here, θ projector is the angle between the projector and the first substrate, is the angle at which the projector faces the first substrate, γ is the wrap angle of the first substrate, λ is the wavelength of light, α is the pantoscopic angle of the first substrate, Λ IC is the grating period of the first input diffractive element, Λ OC is the grating period of the first output diffractive element, Λ FG is the grating period of the first transmission diffractive element, is the grating angle of the first input diffractive element, is the grating angle of the first diffractive element, is the grating angle of the first transmission diffraction element, FoV is the field of view of the light guide device, x and y are the resolutions of the light guide device.)
상기 제1 기판의 랩 앵글은 상기 제1 기판이 제1 방향과 이루는 각도이며, 상기 제1 방향은 사용자가 상기 광 가이드 장치를 바라보는 방향과 수직한 방향일 수 있다.The wrap angle of the first substrate is an angle formed by the first substrate with respect to a first direction, and the first direction may be a direction perpendicular to a direction in which a user views the light guide device.
상기 제1 기판의 팬터스카픽 앵글은 상기 제1 기판이 제2 방향과 이루는 각도이며, 상기 제2 방향은 상기 제1 방향 및 상기 사용자가 상기 광 가이드 장치를 바라보는 방향과 수직한 방향일 수 있다.The pantospheric angle of the first substrate is an angle formed by the first substrate with respect to a second direction, and the second direction may be a direction perpendicular to the first direction and a direction in which the user views the light guide device.
상기 프로젝터와 제1 기판 간의 각도는 상기 프로젝터가 상기 광을 출력하는 방향과 상기 제1 기판과 수직한 면과 이루는 각도일 수 있다.The angle between the projector and the first substrate may be the angle formed between the direction in which the projector outputs the light and a plane perpendicular to the first substrate.
상기 프로젝터가 제1 기판 상에서 향하는 각도는 상기 프로젝터가 상기 광을 출력하는 방향이 상기 제1 기판 상에서 제1 축과 이루는 각도이고, 상기 제1 축은 상기 제1 기판의 장축일 수 있다.The angle at which the projector faces the first substrate is the angle that the direction in which the projector outputs the light makes with the first axis on the first substrate, and the first axis may be the long axis of the first substrate.
상기 제1 입력 회절소자는 제1 돌출부를 포함하고, 상기 제1 전달 회절소자는 제2 돌출부를 포함하며, 상기 제1 출사 회절소자는 제3 돌출부를 포함하고, 상기 제1 입력 회절소자의 격자 주기는 인접한 상기 제1 돌출부의 동일한 측면 간의 최단 거리이고, 상기 제1 전달 회절소자의 격자 주기는 인접한 상기 제2 돌출부의 동일한 측면 간의 최단 거리이며, 상기 제1 출사 회절소자의 격자 주기는 인접한 상기 제3 돌출부의 동일한 측면 간의 최단 거리일 수 있다.The first input diffractive element may include a first protrusion, the first transmission diffractive element may include a second protrusion, the first output diffractive element may include a third protrusion, and a grating period of the first input diffractive element may be a shortest distance between same side surfaces of adjacent first protrusions, a grating period of the first transmission diffractive element may be a shortest distance between same side surfaces of adjacent second protrusions, and a grating period of the first output diffractive element may be a shortest distance between same side surfaces of adjacent third protrusions.
상기 제1 입력 회절소자의 격자 각도는 상기 제1 입력 회절소자의 제1 돌출부 간의 이격방향이 상기 제1 축과 이루는 각도이고, 상기 제1 전달 회절소자의 격자 각도는 상기 제1 전달 회절소자의 제2 돌출부 간의 이격방향이 상기 제1 축과 이루는 각도이며, 상기 제1 출사 회절소자의 격자 각도는 상기 제1 출사 회절소자의 제3 돌출부 간의 이격방향이 상기 제1 축과 이루는 각도일 수 있다.The grating angle of the first input diffractive element may be an angle formed by the separation direction between the first protrusions of the first input diffractive element and the first axis, the grating angle of the first transmission diffractive element may be an angle formed by the separation direction between the second protrusions of the first transmission diffractive element and the first axis, and the grating angle of the first output diffractive element may be an angle formed by the separation direction between the third protrusions of the first output diffractive element and the first axis.
제1 기판과 중첩되도록 배치되는 제2 기판; 상기 제2 기판 상에 배치되고, 광이 순차적으로 입사되는 제2 입력 회절소자, 제2 전달 회절소자 및 제2 출사 회절소자;를 더 포함할 수 있다.The apparatus may further include a second substrate arranged to overlap the first substrate; a second input diffractive element, a second transmission diffractive element, and a second output diffractive element arranged on the second substrate, onto which light is sequentially incident.
상기 제1 입력 회절소자와 상기 제2 입력 회절소자의 상기 격자 각도는 동일하고, 상기 제1 전달 회절소자와 상기 제2 전달 회절소자의 상기 격자 각도는 동일하며, 상기 제1 출사 회절소자와 상기 제2 출사 회절소자의 상기 격자 각도는 동일할 수 있다.The grating angles of the first input diffractive element and the second input diffractive element may be the same, the grating angles of the first transmission diffractive element and the second transmission diffractive element may be the same, and the grating angles of the first output diffractive element and the second output diffractive element may be the same.
상기 광 가이드 장치의 시야각은 상기 광이 상기 제1 입력 회절소자의 입사하여 상기 제1 전달 회절소자로 전달되는 각도일 수 있다.The viewing angle of the above light guide device may be the angle at which the light is incident on the first input diffractive element and transmitted to the first transmission diffractive element.
상기 제2 입력 회절소자, 상기 제2 전달 회절소자 및 상기 제2 출사 회절소자의 격자 주기는 상기 제1 입력 회절소자, 상기 제1 전달 회절소자 및 상기 제1 출사 회절소자의 격자 주기와 각각 상이할 수 있다.The grating periods of the second input diffractive element, the second transmission diffractive element, and the second output diffractive element may be different from the grating periods of the first input diffractive element, the first transmission diffractive element, and the first output diffractive element, respectively.
실시예에 따른 광 가이드 장치는 수학식 3 및 수학식 4를 만족할 수 있다.The light guide device according to the embodiment can satisfy
[수학식 3][Mathematical Formula 3]
[수학식 4][Mathematical formula 4]
(여기서 θprojector는 프로젝터와 제2 기판 간의 각도, 는 프로젝터가 제2 기판 상에서 향하는 각도, γ는 제2 기판의 랩 앵글(wrap angle), λ는 광의 파장, α는 제2 기판의 팬터스카픽 앵글(pantoscopic angle), ΛIC는 제2 입력 회절소자의 격자 주기, ΛOC는 제2 출사 회절소자의 격자 주기, ΛFG는 제2 전달 회절소자의 격자 주기, 는 제2 입력 회절소자의 격자 각도, 는 제2 출사 회절소자의 격자 각도, 는 제2 전달 회절소자의 격자 각도, FoV는 광 가이드 장치의 시야각, x 및 y는 광 가이드 장치의 해상도이다)(Here, θ projector is the angle between the projector and the second substrate, is the angle at which the projector faces the second substrate, γ is the wrap angle of the second substrate, λ is the wavelength of light, α is the pantoscopic angle of the second substrate, Λ IC is the grating period of the second input diffractive element, Λ OC is the grating period of the second output diffractive element, Λ FG is the grating period of the second transmission diffractive element, is the grating angle of the second input diffractive element, is the grating angle of the second diffraction element, is the grating angle of the second transmission diffraction element, FoV is the field of view of the light guide device, x and y are the resolutions of the light guide device.)
상기 제1 기판의 랩 앵글과 상기 제2 기판의 랩 앵글은 동일할 수 있다.The wrap angle of the first substrate and the wrap angle of the second substrate may be the same.
상기 제1 기판의 팬터스카픽 앵글과 상기 제2 기판의 팬터스카픽 앵글은 동일할 수 있다.The pantospheric angle of the first substrate and the pantospheric angle of the second substrate may be the same.
상기 제1 입력 회절소자, 상기 제1 전달 회절소자 및 상기 제1 출사 회절소자에 순차로 입사된 광은 상기 제2 입력 회절소자, 상기 제2 전달 회절소자 및 상기 제2 출사 회절소자에 순차로 입사된 광과 파장이 상이할 수 있다.Light sequentially incident on the first input diffraction element, the first transmission diffraction element, and the first output diffraction element may have a different wavelength from light sequentially incident on the second input diffraction element, the second transmission diffraction element, and the second output diffraction element.
광 기기와 관측자의 모든 각도에 대해 자유도를 가지는 격자 구조의 설계가 가능한 프로젝트 장치 및 전자 디바이스를 제공할 수 있다.It is possible to provide a project device and electronic device capable of designing a grating structure having degrees of freedom for all angles of the optical device and the observer.
광학 성능이 개선된 프로젝트 장치 및 전자 디바이스를 제공할 수 있다.It is possible to provide a project device and electronic device with improved optical performance.
본 발명의 다양하면서도 유익한 장점과 효과는 상술한 내용에 한정되지 않으며, 본 발명의 구체적인 실시형태를 설명하는 과정에서 보다 쉽게 이해될 수 있을 것이다.The various advantageous and beneficial advantages and effects of the present invention are not limited to the above-described contents, and will be more easily understood in the course of explaining specific embodiments of the present invention.
도 1은 AI 장치의 실시예를 나타내는 개념도이고,
도 2는 본 발명의 실시예에 따른 확장현실 전자 디바이스의 구성을 나타내는 블럭도이고,
도 3은 본 발명의 실시예에 따른 증강현실 전자 디바이스의 사시도이고,
도 4는 본 발명의 실시예에 따른 광 가이드 장치의 모식도이고,
도 5는 본 발명의 실시예에 따른 광 가이드 장치의 기판의 각도를 나타내는 도면이고,
도 6은 본 발명의 실시예에 따른 광 가이드 장치의 프로젝터와 기판 간의 각도를 나타내는 도면이고,
도 7은 본 발명의 실시예에 따른 광 가이드 장치의 회절소자의 격자 패턴을 나타내는 도면이고,
도 8은 본 발명의 다른 실시예에 따른 광 가이드 장치의 모식도이다.Figure 1 is a conceptual diagram illustrating an embodiment of an AI device.
FIG. 2 is a block diagram showing the configuration of an extended reality electronic device according to an embodiment of the present invention.
FIG. 3 is a perspective view of an augmented reality electronic device according to an embodiment of the present invention.
Figure 4 is a schematic diagram of a light guide device according to an embodiment of the present invention.
FIG. 5 is a drawing showing the angle of the substrate of the light guide device according to an embodiment of the present invention.
FIG. 6 is a drawing showing the angle between the projector and the substrate of the light guide device according to an embodiment of the present invention.
FIG. 7 is a drawing showing a grating pattern of a diffraction element of a light guide device according to an embodiment of the present invention.
Figure 8 is a schematic diagram of a light guide device according to another embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the embodiments described, but can be implemented in various different forms, and within the scope of the technical idea of the present invention, one or more of the components among the embodiments can be selectively combined or substituted for use.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention can be interpreted as having a meaning that can be generally understood by a person of ordinary skill in the technical field to which the present invention belongs, unless explicitly and specifically defined and described, and terms that are commonly used, such as terms defined in a dictionary, can be interpreted in consideration of the contextual meaning of the relevant technology.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.Additionally, the terms used in the embodiments of the present invention are for the purpose of describing the embodiments and are not intended to limit the present invention.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In this specification, the singular may also include the plural unless specifically stated otherwise in the phrase, and when it is described as "A and (or at least one) of B, C", it may include one or more of all combinations that can be combined with A, B, C.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.Additionally, in describing components of embodiments of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only intended to distinguish one component from another, and are not intended to limit the nature, order, or sequence of the component.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.And, when a component is described as being 'connected', 'coupled' or 'connected' to another component, it may include not only cases where the component is directly connected, coupled or connected to the other component, but also cases where the component is 'connected', 'coupled' or 'connected' by another component between the component and the other component.
또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.In addition, when described as being formed or arranged "above or below" each component, above or below includes not only the case where the two components are in direct contact with each other, but also the case where one or more other components are formed or arranged between the two components. In addition, when expressed as "above or below", it can include the meaning of the downward direction as well as the upward direction based on one component.
도 1은 AI 장치의 실시예를 나타내는 개념도이다.Figure 1 is a conceptual diagram illustrating an embodiment of an AI device.
도 1을 참조하면, AI 시스템은 AI 서버(16), 로봇(11), 자율주행 차량(12), XR 장치(13), 스마트폰(14) 또는 가전(15) 중에서 적어도 하나 이상이 클라우드 네트워크(10)와 연결된다. 여기서, AI 기술이 적용된 로봇(11), 자율주행 차량(12), XR 장치(13), 스마트폰(14) 또는 가전(15) 등을 AI 장치(11 내지 15)라 칭할 수 있다.Referring to FIG. 1, an AI system is connected to a cloud network (10) by at least one of an AI server (16), a robot (11), an autonomous vehicle (12), an XR device (13), a smartphone (14), or an appliance (15). Here, a robot (11), an autonomous vehicle (12), an XR device (13), a smartphone (14), or an appliance (15) to which AI technology is applied may be referred to as an AI device (11 to 15).
클라우드 네트워크(10)는 클라우드 컴퓨팅 인프라의 일부를 구성하거나 클라우드 컴퓨팅 인프라 안에 존재하는 네트워크를 의미할 수 있다. 여기서, 클라우드 네트워크(10)는 3G 네트워크, 4G 또는 LTE(Long Term Evolution) 네트워크 또는 5G 네트워크 등을 이용하여 구성될 수 있다.A cloud network (10) may mean a network that constitutes part of a cloud computing infrastructure or exists within a cloud computing infrastructure. Here, the cloud network (10) may be configured using a 3G network, a 4G or LTE (Long Term Evolution) network, a 5G network, etc.
즉, AI 시스템을 구성하는 각 장치들(11 내지 16)은 클라우드 네트워크(10)를 통해 서로 연결될 수 있다. 특히, 각 장치들(11 내지 16)은 기지국을 통해서 서로 통신할 수도 있지만, 기지국을 통하지 않고 직접 서로 통신할 수도 있다.That is, each device (11 to 16) constituting the AI system can be connected to each other through the cloud network (10). In particular, each device (11 to 16) can communicate with each other through a base station, but can also communicate with each other directly without going through a base station.
AI 서버(16)는 AI 프로세싱을 수행하는 서버와 빅 데이터에 대한 연산을 수행하는 서버를 포함할 수 있다.The AI server (16) may include a server that performs AI processing and a server that performs operations on big data.
AI 서버(16)는 AI 시스템을 구성하는 AI 장치들인 로봇(11), 자율주행 차량(12), XR 장치(13), 스마트폰(14) 또는 가전(15) 중에서 적어도 하나 이상과 클라우드 네트워크(10)를 통하여 연결되고, 연결된 AI 장치들(11 내지 15)의 AI 프로세싱을 적어도 일부를 도울 수 있다.The AI server (16) is connected to at least one of AI devices constituting the AI system, such as a robot (11), an autonomous vehicle (12), an XR device (13), a smartphone (14), or a home appliance (15), through a cloud network (10), and can assist at least part of the AI processing of the connected AI devices (11 to 15).
이 때, AI 서버(16)는 AI 장치(11 내지 15)를 대신하여 머신 러닝 알고리즘에 따라 인공 신경망을 학습시킬 수 있고, 학습 모델을 직접 저장하거나 AI 장치(11 내지 15)에 전송할 수 있다.At this time, the AI server (16) can train an artificial neural network according to a machine learning algorithm on behalf of the AI devices (11 to 15), and can directly store the learning model or transmit it to the AI devices (11 to 15).
이 때, AI 서버(16)는 AI 장치(11 내지 15)로부터 입력 데이터를 수신하고, 학습 모델을 이용하여 수신한 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성하여 AI 장치(11 내지 15)로 전송할 수 있다.At this time, the AI server (16) can receive input data from the AI devices (11 to 15), infer a result value for the received input data using a learning model, and generate a response or control command based on the inferred result value and transmit it to the AI devices (11 to 15).
또는, AI 장치(11 내지 15)는 직접 학습 모델을 이용하여 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수도 있다.Alternatively, the AI device (11 to 15) may infer a result value for input data using a direct learning model and generate a response or control command based on the inferred result value.
<AI+로봇><AI+Robot>
로봇(11)은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.Robots (11) can be implemented as guide robots, transport robots, cleaning robots, wearable robots, entertainment robots, pet robots, unmanned flying robots, etc. by applying AI technology.
로봇(11)은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.The robot (11) may include a robot control module for controlling movement, and the robot control module may mean a software module or a chip that implements the same as hardware.
로봇(11)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇(11)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.The robot (11) can obtain status information of the robot (11), detect (recognize) the surrounding environment and objects, generate map data, determine a movement path and driving plan, determine a response to user interaction, or determine an action using sensor information obtained from various types of sensors.
여기서, 로봇(11)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.Here, the robot (11) can use sensor information acquired from at least one sensor among lidar, radar, and camera to determine a movement path and driving plan.
로봇(11)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇(11)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇(11)에서 직접 학습되거나, AI 서버(16) 등의 외부 장치에서 학습된 것일 수 있다.The robot (11) can perform the above-described operations using a learning model composed of at least one artificial neural network. For example, the robot (11) can recognize the surrounding environment and objects using the learning model, and determine operations using the recognized surrounding environment information or object information. Here, the learning model can be learned directly in the robot (11) or learned from an external device such as an AI server (16).
이 때, 로봇(11)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(16) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.At this time, the robot (11) may perform an action by generating a result using a direct learning model, but may also transmit sensor information to an external device such as an AI server (16) and perform an action by receiving the result generated accordingly.
로봇(11)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 로봇(11)을 주행시킬 수 있다.The robot (11) can determine a movement path and driving plan using at least one of map data, object information detected from sensor information, or object information acquired from an external device, and control a driving unit to drive the robot (11) according to the determined movement path and driving plan.
맵 데이터에는 로봇(11)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.The map data may include object identification information for various objects placed in the space where the robot (11) moves. For example, the map data may include object identification information for fixed objects such as walls and doors, and movable objects such as flower pots and desks. In addition, the object identification information may include name, type, distance, location, etc.
또한, 로봇(11)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이 때, 로봇(11)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.In addition, the robot (11) can perform an action or drive by controlling the driving unit based on the user's control/interaction. At this time, the robot (11) can obtain the intention information of the interaction according to the user's action or voice utterance, and determine a response based on the obtained intention information to perform the action.
<AI+자율주행><AI+Autonomous Driving>
자율주행 차량(12)은 AI 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.Autonomous vehicles (12) can be implemented as mobile robots, vehicles, unmanned aerial vehicles, etc. by applying AI technology.
자율주행 차량(12)은 자율주행 기능을 제어하기 위한 자율주행 제어 모듈을 포함할 수 있고, 자율주행 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다. 자율주행 제어 모듈은 자율주행 차량(12)의 구성으로써 내부에 포함될 수도 있지만, 자율주행 차량(12)의 외부에 별도의 하드웨어로 구성되어 연결될 수도 있다.The autonomous vehicle (12) may include an autonomous driving control module for controlling autonomous driving functions, and the autonomous driving control module may mean a software module or a chip that implements the same as hardware. The autonomous driving control module may be included internally as a component of the autonomous vehicle (12), but may also be configured as separate hardware and connected to the outside of the autonomous vehicle (12).
자율주행 차량(12)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 자율주행 차량(12)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 동작을 결정할 수 있다.An autonomous vehicle (12) can obtain status information of the autonomous vehicle (12), detect (recognize) the surrounding environment and objects, generate map data, determine a movement path and driving plan, or determine an operation by using sensor information obtained from various types of sensors.
여기서, 자율주행 차량(12)은 이동 경로 및 주행 계획을 결정하기 위하여, 로봇(11)과 마찬가지로, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.Here, the autonomous vehicle (12) can use sensor information acquired from at least one sensor among lidar, radar, and camera, similar to the robot (11), to determine the movement path and driving plan.
특히, 자율주행 차량(12)은 시야가 가려지는 영역이나 일정 거리 이상의 영역에 대한 환경이나 객체는 외부 장치들로부터 센서 정보를 수신하여 인식하거나, 외부 장치들로부터 직접 인식된 정보를 수신할 수 있다.In particular, an autonomous vehicle (12) can recognize an environment or objects in an area where the field of vision is obscured or an area beyond a certain distance by receiving sensor information from external devices, or can receive information recognized directly from external devices.
자율주행 차량(12)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 자율주행 차량(12)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 주행 동선을 결정할 수 있다. 여기서, 학습 모델은 자율주행 차량(12)에서 직접 학습되거나, AI 서버(16) 등의 외부 장치에서 학습된 것일 수 있다.The autonomous vehicle (12) can perform the above-described operations using a learning model composed of at least one artificial neural network. For example, the autonomous vehicle (12) can recognize the surrounding environment and objects using the learning model, and determine the driving route using the recognized surrounding environment information or object information. Here, the learning model can be learned directly in the autonomous vehicle (12) or learned from an external device such as an AI server (16).
이 때, 자율주행 차량(12)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(16) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.At this time, the autonomous vehicle (12) may perform an operation by generating a result using a direct learning model, but may also perform an operation by transmitting sensor information to an external device such as an AI server (16) and receiving the result generated accordingly.
자율주행 차량(12)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 자율주행 차량(12)을 주행시킬 수 있다.An autonomous vehicle (12) can determine a movement path and driving plan by using at least one of map data, object information detected from sensor information, or object information acquired from an external device, and control a driving unit to drive the autonomous vehicle (12) according to the determined movement path and driving plan.
맵 데이터에는 자율주행 차량(12)이 주행하는 공간(예컨대, 도로)에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 가로등, 바위, 건물 등의 고정 객체들과 차량, 보행자 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.Map data may include object identification information for various objects placed in a space (e.g., a road) where an autonomous vehicle (12) runs. For example, map data may include object identification information for fixed objects such as streetlights, rocks, and buildings, and movable objects such as vehicles and pedestrians. In addition, object identification information may include name, type, distance, location, and the like.
또한, 자율주행 차량(12)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이 때, 자율주행 차량(12)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.In addition, the autonomous vehicle (12) can perform an action or drive by controlling the driving unit based on the user's control/interaction. At this time, the autonomous vehicle (12) can obtain the intention information of the interaction according to the user's action or voice utterance, and determine a response based on the obtained intention information to perform the action.
<AI+XR><AI+XR>
XR 장치(13)는 AI 기술이 적용되어, HMD(Head-Mount Display), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 휴대폰, 스마트 폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지, 차량, 고정형 로봇이나 이동형 로봇 등으로 구현될 수 있다.The XR device (13) can be implemented as an HMD (Head-Mount Display), a HUD (Head-Up Display) equipped in a vehicle, a television, a mobile phone, a smart phone, a computer, a wearable device, a home appliance, digital signage, a vehicle, a fixed robot or a mobile robot, etc. by applying AI technology.
XR 장치(13)는 다양한 센서들을 통해 또는 외부 장치로부터 획득한 3차원 포인트 클라우드 데이터 또는 이미지 데이터를 분석하여 3차원 포인트들에 대한 위치 데이터 및 속성 데이터를 생성함으로써 주변 공간 또는 현실 객체에 대한 정보를 획득하고, 출력할 XR 객체를 렌더링하여 출력할 수 있다. 예컨대, XR 장치(13)는 인식된 물체에 대한 추가 정보를 포함하는 XR 객체를 해당 인식된 물체에 대응시켜 출력할 수 있다.The XR device (13) can obtain information about surrounding space or real objects by analyzing 3D point cloud data or image data acquired through various sensors or from an external device to generate location data and attribute data for 3D points, and can render and output an XR object to be output. For example, the XR device (13) can output an XR object including additional information about a recognized object by corresponding it to the recognized object.
XR 장치(13)는 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, XR 장치(13)는 학습 모델을 이용하여 3차원 포인트 클라우드 데이터 또는 이미지 데이터에서 현실 객체를 인식할 수 있고, 인식한 현실 객체에 상응하는 정보를 제공할 수 있다. 여기서, 학습 모델은 XR 장치(13)에서 직접 학습되거나, AI 서버(16) 등의 외부 장치에서 학습된 것일 수 있다.The XR device (13) can perform the above-described operations using a learning model composed of at least one artificial neural network. For example, the XR device (13) can recognize a real object from 3D point cloud data or image data using the learning model, and provide information corresponding to the recognized real object. Here, the learning model can be learned directly in the XR device (13) or learned in an external device such as an AI server (16).
이 때, XR 장치(13)는 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(16) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.At this time, the XR device (13) may perform an operation by generating a result using a direct learning model, but may also transmit sensor information to an external device such as an AI server (16) and perform an operation by receiving the result generated accordingly.
<AI+로봇+자율주행><AI+Robot+Autonomous Driving>
로봇(11)은 AI 기술 및 자율주행 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.Robots (11) can be implemented as guide robots, transport robots, cleaning robots, wearable robots, entertainment robots, pet robots, unmanned flying robots, etc. by applying AI technology and autonomous driving technology.
AI 기술과 자율주행 기술이 적용된 로봇(11)은 자율주행 기능을 가진 로봇 자체나, 자율주행 차량(12)과 상호작용하는 로봇(11) 등을 의미할 수 있다.A robot (11) to which AI technology and autonomous driving technology are applied may refer to a robot itself with autonomous driving functions, or a robot (11) that interacts with an autonomous vehicle (12).
자율주행 기능을 가진 로봇(11)은 사용자의 제어 없이도 주어진 동선에 따라 스스로 움직이거나, 동선을 스스로 결정하여 움직이는 장치들을 통칭할 수 있다.A robot (11) with autonomous driving function can be a general term for devices that move on their own along a given path without user control or move by determining the path on their own.
자율주행 기능을 가진 로봇(11) 및 자율주행 차량(12)은 이동 경로 또는 주행 계획 중 하나 이상을 결정하기 위해 공통적인 센싱 방법을 사용할 수 있다. 예를 들어, 자율주행 기능을 가진 로봇(11) 및 자율주행 차량(12)은 라이다, 레이더, 카메라를 통해 센싱된 정보를 이용하여, 이동 경로 또는 주행 계획 중 하나 이상을 결정할 수 있다.A robot (11) with autonomous driving function and an autonomous vehicle (12) may use a common sensing method to determine one or more of a movement path or a driving plan. For example, a robot (11) with autonomous driving function and an autonomous vehicle (12) may use information sensed through a lidar, a radar, and a camera to determine one or more of a movement path or a driving plan.
자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(12)과 별개로 존재하면서, 자율주행 차량(12)의 내부 또는 외부에서 자율주행 기능에 연계되거나, 자율주행 차량(12)에 탑승한 사용자와 연계된 동작을 수행할 수 있다.A robot (11) interacting with an autonomous vehicle (12) may exist separately from the autonomous vehicle (12), and may be linked to autonomous driving functions inside or outside the autonomous vehicle (12) or perform actions linked to a user riding in the autonomous vehicle (12).
이 때, 자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(12)을 대신하여 센서 정보를 획득하여 자율주행 차량(12)에 제공하거나, 센서 정보를 획득하고 주변 환경 정보 또는 객체 정보를 생성하여 자율주행 차량(12)에 제공함으로써, 자율주행 차량(12)의 자율주행 기능을 제어하거나 보조할 수 있다.At this time, the robot (11) interacting with the autonomous vehicle (12) can control or assist the autonomous driving function of the autonomous vehicle (12) by acquiring sensor information on behalf of the autonomous vehicle (12) and providing it to the autonomous vehicle (12), or by acquiring sensor information and generating surrounding environment information or object information and providing it to the autonomous vehicle (12).
또는, 자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(12)에 탑승한 사용자를 모니터링하거나 사용자와의 상호작용을 통해 자율주행 차량(12)의 기능을 제어할 수 있다. 예컨대, 로봇(11)은 운전자가 졸음 상태인 경우로 판단되는 경우, 자율주행 차량(12)의 자율주행 기능을 활성화하거나 자율주행 차량(12)의 구동부의 제어를 보조할 수 있다. 여기서, 로봇(11)이 제어하는 자율주행 차량(12)의 기능에는 단순히 자율주행 기능 뿐만 아니라, 자율주행 차량(12)의 내부에 구비된 네비게이션 시스템이나 오디오 시스템에서 제공하는 기능도 포함될 수 있다.Alternatively, a robot (11) interacting with a self-driving vehicle (12) may monitor a user riding in the self-driving vehicle (12) or control the functions of the self-driving vehicle (12) through interaction with the user. For example, if the robot (11) determines that the driver is drowsy, it may activate the self-driving function of the self-driving vehicle (12) or assist in the control of the driving unit of the self-driving vehicle (12). Here, the functions of the self-driving vehicle (12) controlled by the robot (11) may include not only the self-driving function, but also functions provided by a navigation system or audio system equipped inside the self-driving vehicle (12).
또는, 자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(12)의 외부에서 자율주행 차량(12)에 정보를 제공하거나 기능을 보조할 수 있다. 예컨대, 로봇(11)은 스마트 신호등과 같이 자율주행 차량(12)에 신호 정보 등을 포함하는 교통 정보를 제공할 수도 있고, 전기 차량의 자동 전기 충전기와 같이 자율주행 차량(12)과 상호작용하여 충전구에 전기 충전기를 자동으로 연결할 수도 있다.Alternatively, a robot (11) interacting with an autonomous vehicle (12) may provide information to the autonomous vehicle (12) or assist functions from outside the autonomous vehicle (12). For example, the robot (11) may provide traffic information including signal information to the autonomous vehicle (12), such as a smart traffic light, or may interact with the autonomous vehicle (12) to automatically connect an electric charger to a charging port, such as an automatic electric charger for an electric vehicle.
<AI+로봇+XR><AI+Robot+XR>
로봇(11)은 AI 기술 및 XR 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇, 드론 등으로 구현될 수 있다.Robots (11) can be implemented as guide robots, transport robots, cleaning robots, wearable robots, entertainment robots, pet robots, unmanned flying robots, drones, etc. by applying AI technology and XR technology.
XR 기술이 적용된 로봇(11)은 XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇을 의미할 수 있다. 이 경우, 로봇(11)은 XR 장치(13)와 구분되며 서로 연동될 수 있다.A robot (11) to which XR technology is applied may refer to a robot that is the target of control/interaction within an XR image. In this case, the robot (11) is distinct from the XR device (13) and can be linked with each other.
XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇(11)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 로봇(11) 또는 XR 장치(13)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(13)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 로봇(11)은 XR 장치(13)를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.When a robot (11) that is the target of control/interaction within an XR image obtains sensor information from sensors including a camera, the robot (11) or the XR device (13) can generate an XR image based on the sensor information, and the XR device (13) can output the generated XR image. In addition, the robot (11) can operate based on a control signal input through the XR device (13) or a user's interaction.
예컨대, 사용자는 XR 장치(13) 등의 외부 장치를 통해 원격으로 연동된 로봇(11)의 시점에 상응하는 XR 영상을 확인할 수 있고, 상호작용을 통하여 로봇(11)의 자율주행 경로를 조정하거나, 동작 또는 주행을 제어하거나, 주변 객체의 정보를 확인할 수 있다.For example, a user can check an XR image corresponding to the viewpoint of a remotely connected robot (11) through an external device such as an XR device (13), and through interaction, adjust the autonomous driving path of the robot (11), control the operation or driving, or check information on surrounding objects.
<AI+자율주행+XR><AI+Autonomous Driving+XR>
자율주행 차량(12)은 AI 기술 및 XR 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.Autonomous vehicles (12) can be implemented as mobile robots, vehicles, unmanned aerial vehicles, etc. by applying AI technology and XR technology.
XR 기술이 적용된 자율주행 차량(12)은 XR 영상을 제공하는 수단을 구비한 자율주행 차량이나, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율주행 차량 등을 의미할 수 있다. 특히, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율주행 차량(12)은 XR 장치(13)와 구분되며 서로 연동될 수 있다.An autonomous vehicle (12) to which XR technology is applied may refer to an autonomous vehicle equipped with a means for providing XR images, an autonomous vehicle that is the subject of control/interaction within an XR image, etc. In particular, an autonomous vehicle (12) that is the subject of control/interaction within an XR image is distinct from an XR device (13) and can be linked with each other.
XR 영상을 제공하는 수단을 구비한 자율주행 차량(12)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하고, 획득한 센서 정보에 기초하여 생성된 XR 영상을 출력할 수 있다. 예컨대, 자율주행 차량(12)은 HUD를 구비하여 XR 영상을 출력함으로써, 탑승자에게 현실 객체 또는 화면 속의 객체에 대응되는 XR 객체를 제공할 수 있다.An autonomous vehicle (12) equipped with a means for providing XR images can obtain sensor information from sensors including cameras and output XR images generated based on the obtained sensor information. For example, the autonomous vehicle (12) can provide passengers with XR objects corresponding to real objects or objects on the screen by having a HUD to output XR images.
이 때, XR 객체가 HUD에 출력되는 경우에는 XR 객체의 적어도 일부가 탑승자의 시선이 향하는 실제 객체에 오버랩되도록 출력될 수 있다. 반면, XR 객체가 자율주행 차량(12)의 내부에 구비되는 디스플레이에 출력되는 경우에는 XR 객체의 적어도 일부가 화면 속의 객체에 오버랩되도록 출력될 수 있다. 예컨대, 자율주행 차량(12)은 차로, 타 차량, 신호등, 교통 표지판, 이륜차, 보행자, 건물 등과 같은 객체와 대응되는 XR 객체들을 출력할 수 있다.At this time, when the XR object is output to the HUD, at least a part of the XR object may be output so as to overlap with an actual object toward which the passenger's gaze is directed. On the other hand, when the XR object is output to a display provided inside the autonomous vehicle (12), at least a part of the XR object may be output so as to overlap with an object in the screen. For example, the autonomous vehicle (12) may output XR objects corresponding to objects such as a road, another vehicle, a traffic light, a traffic sign, a two-wheeled vehicle, a pedestrian, a building, etc.
XR 영상 내에서의 제어/상호작용의 대상이 되는 자율주행 차량(12)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 자율주행 차량(12) 또는 XR 장치(13)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(13)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 자율주행 차량(12)은 XR 장치(13) 등의 외부 장치를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.When an autonomous vehicle (12) that is the target of control/interaction within an XR image obtains sensor information from sensors including a camera, the autonomous vehicle (12) or the XR device (13) can generate an XR image based on the sensor information, and the XR device (13) can output the generated XR image. In addition, the autonomous vehicle (12) can operate based on a control signal input through an external device such as the XR device (13) or a user's interaction.
[확장현실 기술][Augmented Reality Technology]
확장현실(XR: eXtended Reality)은 가상현실(VR: Virtual Reality), 증강현실(AR: Augmented Reality), 혼합현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다.Extended reality (XR) is a general term for virtual reality (VR), augmented reality (AR), and mixed reality (MR). VR technology provides real-world objects and backgrounds only as CG images, AR technology provides virtual CG images on top of images of real objects, and MR technology is a computer graphics technology that mixes and combines virtual objects in the real world.
MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나, AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.MR technology is similar to AR technology in that it shows real objects and virtual objects together. However, there is a difference in that while AR technology uses virtual objects to complement real objects, MR technology uses virtual and real objects with equal characteristics.
XR 기술은 HMD(Head-Mount Display), HUD(Head-Up Display), 휴대폰, 태블릿 PC, 랩탑, 데스크탑, TV, 디지털 사이니지 등에 적용될 수 있고, XR 기술이 적용된 장치를 XR 장치(XR Device)라 칭할 수 있다.XR technology can be applied to HMD (Head-Mount Display), HUD (Head-Up Display), mobile phones, tablet PCs, laptops, desktops, TVs, digital signage, etc., and devices to which XR technology is applied can be called XR devices.
이하에서는 본 발명의 실시예에 따른 확장현실을 제공하는 전자 디바이스에 대해 설명하기로 한다. 특히, 증강현실에 적용되는 프로젝트 장치 및 이를 포함한 전자 디바이스에 대해 자세히 설명한다.Hereinafter, an electronic device providing augmented reality according to an embodiment of the present invention will be described. In particular, a projector applied to augmented reality and an electronic device including the same will be described in detail.
도 2는 본 발명의 실시예에 따른 확장현실 전자 디바이스의 구성을 나타내는 블럭도이다.FIG. 2 is a block diagram showing the configuration of an extended reality electronic device according to an embodiment of the present invention.
도 2를 참조하면, 확장현실 전자 디바이스(20)는 무선 통신부(21), 입력부(22), 센싱부(23), 출력부(24), 인터페이스부(25), 메모리(26), 제어부(27) 및 전원 공급부(28) 등을 포함할 수 있다. 도 1에 도시된 구성요소들은 전자 디바이스(20)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 전자 디바이스(20)는 위에서 열거된 구성요소들 보다 많거나, 적은 구성요소들을 가질 수 있다.Referring to FIG. 2, the extended reality electronic device (20) may include a wireless communication unit (21), an input unit (22), a sensing unit (23), an output unit (24), an interface unit (25), a memory (26), a control unit (27), and a power supply unit (28). The components illustrated in FIG. 1 are not essential for implementing the electronic device (20), and thus, the electronic device (20) described in this specification may have more or fewer components than the components listed above.
보다 구체적으로, 위 구성요소들 중 무선 통신부(21)는, 전자 디바이스(20)와 무선 통신 시스템 사이, 전자 디바이스(20)와 다른 전자 디바이스 사이, 또는 전자 디바이스(20)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(21)는, 전자 디바이스(20)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, among the above components, the wireless communication unit (21) may include one or more modules that enable wireless communication between the electronic device (20) and a wireless communication system, between the electronic device (20) and another electronic device, or between the electronic device (20) and an external server. In addition, the wireless communication unit (21) may include one or more modules that connect the electronic device (20) to one or more networks.
이러한 무선 통신부(21)는, 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.This wireless communication unit (21) may include at least one of a broadcast reception module, a mobile communication module, a wireless Internet module, a short-range communication module, and a location information module.
입력부(22)는, 영상 신호 입력을 위한 카메라 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(22)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit (22) may include a camera or a video input unit for inputting a video signal, a microphone or an audio input unit for inputting an audio signal, and a user input unit (e.g., a touch key, a mechanical key, etc.) for receiving information from a user. Voice data or image data collected by the input unit (22) may be analyzed and processed into a user's control command.
센싱부(23)는 전자 디바이스(20) 내 정보, 전자 디바이스(20)를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다.The sensing unit (23) may include one or more sensors for sensing at least one of information within the electronic device (20), information about the surrounding environment surrounding the electronic device (20), and user information.
예를 들어, 센싱부(23)는 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 촬영수단), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 전자 디바이스(20)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.For example, the sensing unit (23) may include at least one of a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, a G-sensor, a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor (IR sensor), a finger scan sensor, an ultrasonic sensor, an optical sensor (e.g., a photographing device), a microphone, a battery gauge, an environmental sensor (e.g., a barometer, a hygrometer, a thermometer, a radiation detection sensor, a heat detection sensor, a gas detection sensor, etc.), and a chemical sensor (e.g., an electronic nose, a healthcare sensor, a biometric recognition sensor, etc.). Meanwhile, the electronic device (20) disclosed in the present specification may utilize information sensed by at least two or more of these sensors in combination.
출력부(24)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부, 음향 출력부, 햅틱 모듈, 광 출력부 중 적어도 하나를 포함할 수 있다. 디스플레이부는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 증강현실 전자 디바이스(20)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력수단으로써 기능함과 동시에, 증강현실 전자 디바이스(20)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit (24) is for generating output related to vision, hearing, or tactile sensations, and may include at least one of a display unit, an audio output unit, a haptic module, and an optical output unit. The display unit may be formed as a layer structure with a touch sensor or formed as an integral part, thereby implementing a touch screen. This touch screen may function as a user input means that provides an input interface between the augmented reality electronic device (20) and the user, and at the same time, provide an output interface between the augmented reality electronic device (20) and the user.
인터페이스부(25)는 전자 디바이스(20)에 연결되는 다양한 종류의 외부장치와의 통로 역할을 수행한다. 인터페이스부(25)를 통해 전자 디바이스(20)는 외부장치로부터 가상현실 또는 증강현실 컨텐츠를 제공받을 수 있고, 다양한 입력 신호, 센싱 신호, 데이터를 주고받음으로써, 상호 인터랙션을 수행할 수 있다.The interface unit (25) serves as a passageway between various types of external devices connected to the electronic device (20). Through the interface unit (25), the electronic device (20) can receive virtual reality or augmented reality content from an external device, and can perform mutual interaction by exchanging various input signals, sensing signals, and data.
예를 들어, 인터페이스부(25)는 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다.For example, the interface unit (25) may include at least one of a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port for connecting a device equipped with an identification module, an audio I/O (Input/Output) port, a video I/O (Input/Output) port, and an earphone port.
또한, 메모리(26)는 전자 디바이스(20)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(26)는 전자 디바이스(20)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 전자 디바이스(20)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 전자 디바이스(20)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 전자 디바이스(20)상에 존재할 수 있다.In addition, the memory (26) stores data that supports various functions of the electronic device (20). The memory (26) can store a plurality of application programs (or applications) that run on the electronic device (20), data for the operation of the electronic device (20), and commands. At least some of these application programs can be downloaded from an external server via wireless communication. In addition, at least some of these application programs can exist on the electronic device (20) from the time of shipment for basic functions of the electronic device (20) (e.g., call reception, call transmission, message reception, call transmission).
제어부(27)는 응용 프로그램과 관련된 동작 외에도, 통상적으로 전자 디바이스(20)의 전반적인 동작을 제어한다. 제어부(27)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리할 수 있다.In addition to operations related to the application program, the control unit (27) typically controls the overall operation of the electronic device (20). The control unit (27) can process signals, data, information, etc. input or output through the components discussed above.
또한, 제어부(27)는 메모리(26)에 저장된 응용 프로그램을 구동함으로써 구성요소들 중 적어도 일부를 제어하여 사여 사용자에게 적절한 정보를 제공하거나 기능을 처리할 수 있다. 나아가, 제어부(27)는 응용 프로그램의 구동을 위하여 전자 디바이스(20)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the control unit (27) can control at least some of the components by driving the application program stored in the memory (26) to provide appropriate information to the user or process a function. Furthermore, the control unit (27) can operate at least two or more of the components included in the electronic device (20) in combination with each other to drive the application program.
또한, 제어부(27)는 센싱부(23)에 포함된 자이로스코프 센서, 중력 센서, 모션 센서 등을 이용하여 전자 디바이스(20)나 사용자의 움직임을 감지할 수 있다. 또는 제어부(27)는 센싱부(23)에 포함된 근접센서, 조도센서, 자기센서, 적외선 센서, 초음파 센서, 광 센서 등을 이용하여 전자 디바이스(20)나 사용자 주변으로 다가오는 대상체를 감지할 수도 있다. 그 밖에도, 제어부(27)는 전자 디바이스(20)와 연동하여 동작하는 컨트롤러에 구비된 센서들을 통해서도 사용자의 움직임을 감지할 수 있다.In addition, the control unit (27) can detect the movement of the electronic device (20) or the user by using a gyroscope sensor, a gravity sensor, a motion sensor, etc. included in the sensing unit (23). Alternatively, the control unit (27) can detect an object approaching the electronic device (20) or the user by using a proximity sensor, a light sensor, a magnetic sensor, an infrared sensor, an ultrasonic sensor, a light sensor, etc. included in the sensing unit (23). In addition, the control unit (27) can also detect the movement of the user by using sensors provided in a controller that operates in conjunction with the electronic device (20).
또한, 제어부(27)는 메모리(26)에 저장된 응용 프로그램을 이용하여 전자 디바이스(20)의 동작(또는 기능)을 수행할 수 있다.Additionally, the control unit (27) can perform operations (or functions) of the electronic device (20) using an application program stored in the memory (26).
전원 공급부(28)는 제어부(27)의 제어 하에서, 외부의 전원 또는 내부의 전원을 인가받아 전자 디바이스(20)에 포함된 각 구성요소들에 전원을 공급한다. 전원 공급부(28)는 배터리를 포함하며, 배터리는 내장형 또는 교체가능한 형태로 마련될 수 있다.The power supply unit (28) receives external power or internal power under the control of the control unit (27) and supplies power to each component included in the electronic device (20). The power supply unit (28) includes a battery, and the battery may be provided in a built-in or replaceable form.
위 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시예들에 따른 전자 디바이스의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 전자 디바이스의 동작, 제어, 또는 제어방법은 메모리(26)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 전자 디바이스 상에서 구현될 수 있다.At least some of the above components may operate in cooperation with each other to implement the operation, control, or control method of the electronic device according to various embodiments described below. In addition, the operation, control, or control method of the electronic device may be implemented on the electronic device by driving at least one application program stored in the memory (26).
이하, 본 발명의 일 예로서 설명되는 전자 디바이스는 HMD(Head Mounted Display)에 적용되는 실시예를 기준으로 설명한다. 그러나 본 발명에 따른 전자 디바이스의 실시예에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 및 웨어러블 디바이스(wearable device) 등이 포함될 수 있다. 웨어러블 디바이스에는 HMD 이외에도 워치형 단말기(smart watch)와 컨택트 렌즈(Contact lens), VR/AR/MR Glass 등이 포함될 수 있다.Hereinafter, an electronic device described as an example of the present invention will be described based on an embodiment applied to an HMD (Head Mounted Display). However, embodiments of the electronic device according to the present invention may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (personal digital assistants), a PMP (portable multimedia player), a navigation, a slate PC, a tablet PC, an ultrabook, and a wearable device. In addition to an HMD, the wearable device may include a smart watch, a contact lens, VR/AR/MR Glass, and the like.
도 3은 본 발명의 실시예에 따른 증강현실 전자 디바이스의 사시도이다.FIG. 3 is a perspective view of an augmented reality electronic device according to an embodiment of the present invention.
도 3에 도시된 바와 같이, 본 발명의 실시예에 따른 전자 디바이스는 프레임(100), 프로젝트 장치(200) 및 디스플레이부(300)를 포함할 수 있다.As illustrated in FIG. 3, an electronic device according to an embodiment of the present invention may include a frame (100), a projector device (200), and a display unit (300).
전자 디바이스는 글라스 타입(smart glass)으로 마련될 수 있다. 글라스 타입의 전자 디바이스는 인체의 두부에 착용 가능하도록 구성되며, 이를 위한 프레임(케이스, 하우징 등)(100)을 구비할 수 있다. 프레임(100)은 착용이 용이하도록 플렉서블 재질로 형성될 수 있다.The electronic device may be provided as a glass type (smart glass). The glass type electronic device is configured to be worn on the head of the human body and may be provided with a frame (case, housing, etc.) (100) for this purpose. The frame (100) may be formed of a flexible material to facilitate wearing.
프레임(100)은 두부에 지지되며, 각종 부품들이 장착되는 공간을 마련한다. 도시된 바와 같이, 프레임(100)에는 프로젝트 장치(200), 사용자 입력부(130) 또는 음향 출력부(140) 등과 같은 전자부품이 장착될 수 있다. 또한, 프레임(100)에는 좌안 및 우안 중 적어도 하나를 덮는 렌즈가 착탈 가능하게 장착될 수 있다.The frame (100) is supported on the head and provides a space for mounting various components. As illustrated, electronic components such as a projector device (200), a user input unit (130), or an audio output unit (140) may be mounted on the frame (100). In addition, a lens covering at least one of the left and right eyes may be detachably mounted on the frame (100).
프레임(100)은 도면에 도시된 바와 같이, 사용자의 신체 중 안면에 착용되는 안경 형태를 가질 수 있으나, 이에 반드시 한정되는 것은 아니고, 사용자의 안면에 밀착되어 착용되는 고글 등의 형태를 가질 수도 있다.The frame (100) may have a form of glasses worn on the face of the user's body as shown in the drawing, but is not necessarily limited thereto, and may also have a form such as goggles worn in close contact with the user's face.
이와 같은 프레임(100)은 적어도 하나의 개구부를 구비하는 전면 프레임(110)과, 전면 프레임(110)과 교차하는 y 방향(도 2에서)으로 연장되어 서로 나란한 한 쌍의 측면 프레임(120)을 포함할 수 있다.Such a frame (100) may include a front frame (110) having at least one opening, and a pair of side frames (120) that extend in the y direction (in FIG. 2) intersecting the front frame (110) and are parallel to each other.
프레임(100)은 x 방향으로 길이(DI)와 y 방향으로 길이(LI)가 동일 또는 상이할 수 있다.The frame (100) may have the same or different length (DI) in the x direction and length (LI) in the y direction.
프로젝트 장치(200)는 전자 디바이스에 구비되는 각종 전자부품을 제어하도록 마련된다. 프로젝트 장치(200)는 ‘광 출력 장치’, ‘광 프로젝트 장치’, ‘광 조사 장치’, ‘광학 장치’ 등과 혼용될 수 있다.The project device (200) is provided to control various electronic components provided in an electronic device. The project device (200) may be used interchangeably with ‘optical output device’, ‘optical projector device’, ‘light irradiation device’, ‘optical device’, etc.
프로젝트 장치(200)는 사용자에게 보여지는 이미지 또는 이미지가 연속되는 영상을 생성할 수 있다. 프로젝트 장치(200)는 이미지를 발생시키는 이미지 소스 패널과 이미지 소스 패널에서 발생된 빛을 확산 및 수렴하는 복수의 렌즈 등을 포함할 수 있다.The projector device (200) can generate an image or a video of a series of images that are displayed to the user. The projector device (200) can include an image source panel that generates an image and a plurality of lenses that diffuse and converge light generated from the image source panel.
프로젝트 장치(200)는 두 측면 프레임(120) 중 어느 하나의 측면 프레임(120)에 고정될 수 있다. 예를 들어, 프로젝트 장치(200)는 어느 하나의 측면 프레임(120) 내측 또는 외측에 고정되거나, 어느 하나의 측면 프레임(120)의 내부에 내장되어 일체로 형성될 수 있다. 또는 프로젝트 장치(200)가 전면 프레임(110)에 고정되거나 전자 디바이스와 별도로 마련될 수도 있다.The project device (200) may be secured to either of the two side frames (120). For example, the project device (200) may be secured to the inside or outside of either of the side frames (120), or may be integrally formed by being built into the inside of either of the side frames (120). Alternatively, the project device (200) may be secured to the front frame (110) or may be provided separately from the electronic device.
디스플레이부(300)는 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 구현될 수 있다. HMD 형태란, 두부에 장착되어, 사용자의 눈 앞에 직접 영상을 보여주는 디스플레이 방식을 말한다. 사용자가 전자 디바이스를 착용하였을 때, 사용자의 눈 앞에 직접 영상을 제공할 수 있도록, 디스플레이부(300)는 좌안 및 우안 중 적어도 하나에 대응되게 배치될 수 있다. 본 도면에서는, 사용자의 우안을 향하여 영상을 출력할 수 있도록, 디스플레이부(300)가 우안에 대응되는 부분에 위치한 것을 예시하고 있다. 다만, 상술한 바와 같이 이에 한정되는 것은 아니며 좌안 우안에 모두 배치될 수도 있다. The display unit (300) may be implemented in the form of a head mounted display (HMD). The HMD form refers to a display method that is mounted on the head and directly shows an image in front of the user's eyes. When the user wears the electronic device, the display unit (300) may be positioned to correspond to at least one of the left and right eyes so that the image can be directly provided in front of the user's eyes. In this drawing, the display unit (300) is positioned in a portion corresponding to the right eye so that the image can be output toward the user's right eye. However, as described above, it is not limited thereto and may be positioned for both the left and right eyes.
디스플레이부(300)는 사용자가 외부 환경을 시각적으로 인지하면서, 동시에 프로젝트 장치(200)에서 생성된 이미지가 사용자에게 보이도록 할 수 있다. 예를 들어, 디스플레이부(300)는 프리즘을 이용하여 디스플레이 영역에 이미지를 투사할 수 있다.The display unit (300) can allow the user to visually perceive the external environment while simultaneously allowing the user to see an image generated by the projector device (200). For example, the display unit (300) can project an image onto the display area using a prism.
그리고 디스플레이부(300)는 투사된 이미지와 전방의 일반 시야(사용자가 눈을 통하여 바라보는 범위)가 동시에 보이도록 하기 위해 투광성으로 형성될 수 있다. 예를 들어, 디스플레이부(300)는 반투명일 수 있으며, 글라스(Glass)를 포함하는 광학 부재로 형성될 수 있다.And the display unit (300) may be formed to be translucent so that the projected image and the general field of view in front (the range that the user sees through his eyes) can be viewed simultaneously. For example, the display unit (300) may be translucent and may be formed of an optical member including glass.
그리고 디스플레이부(300)는 전면 프레임(110)에 포함된 개구부에 삽입되어 고정되거나, 개부구의 배면[즉 개구부와 사용자 사이]에 위치하여, 전면 프레임(110)에 고정될 수 있다. 도면에는 디스플레이부(300)가 개구부의 배면에 위치하여, 전면 프레임(110)에 고정된 경우를 일 예로 도시하였지만, 이와 달리 디스플레이부(300)는 프레임(100)의 다양한 위치에 배치 및 고정될 수 있다.And the display unit (300) may be inserted and fixed into an opening included in the front frame (110), or may be positioned on the back surface of the opening (i.e., between the opening and the user) and fixed to the front frame (110). In the drawing, the display unit (300) is positioned on the back surface of the opening and fixed to the front frame (110) as an example, but the display unit (300) may be positioned and fixed at various positions of the frame (100).
전자 디바이스는 도 2에 도시된 바와 같이, 프로젝트 장치(200)에서 이미지에 대한 이미지 광을 디스플레이부(300)의 일측으로 입사시키면, 이미지광이 디스플레이부(300)를 통하여 타측으로 출사되어, 프로젝트 장치(200)에서 생성된 이미지를 사용자에게 보이도록 할 수 있다.As illustrated in FIG. 2, when the electronic device projects image light from the projector device (200) to one side of the display unit (300), the image light is emitted to the other side through the display unit (300), allowing the user to see the image generated from the projector device (200).
이에 따라, 사용자는 프레임(100)의 개구부를 통하여 외부 환경을 보면서 동시에 프로젝트 장치(200)에서 생성된 이미지를 함께 볼 수 있게 된다. 즉, 디스플레이부(300)를 통하여 출력되는 영상은 일반 시야와 오버랩(overlap)되어 보일 수 있다. 전자 디바이스는 이러한 디스플레이 특성을 이용하여 현실의 이미지나 배경에 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 증강현실(Augmented Reality, AR)을 제공할 수 있다.Accordingly, the user can view the external environment through the opening of the frame (100) and at the same time view the image generated by the projector device (200). That is, the image output through the display unit (300) can be seen to overlap with the general field of view. By utilizing these display characteristics, the electronic device can provide augmented reality (AR) that superimposes a virtual image on a real image or background and shows it as a single image.
나아가, 이러한 구동 이외에 사람이 인식하지 못하는 짧은 시간 동안 외부 환경과 프로젝트 장치(200)에서 생성된 이미지가 시간차로 사용자에게 제공될 수 있다. 예컨대, 하나의 프레임 내에서 일 구간에서는 외부 환경이 사람에게 제공되고, 다른 구간에서는 프로젝트 장치(200)로부터의 영상이 사람에게 제공될 수 있다.Furthermore, in addition to these drives, images generated from the external environment and the projector device (200) can be provided to the user with a time difference for a short period of time that is not recognized by the person. For example, in one frame, the external environment can be provided to the person in one section, and images from the projector device (200) can be provided to the person in another section.
또는, 오버랩과 시간차가 모두 제공될 수도 있다.Alternatively, both overlap and time difference may be provided.
또한, 실시예에 따른 프로젝트 장치는 후술하는 구조를 갖거나, 해당 구조에 도파관 또는/및 글래스를 더포함한 구조로 이루어질 수도 있다. 또한, 프로젝트 장치는 DLP(Digital Light Processing) 프로젝터 또는 프로젝트 장치를 포함할 수 있다.In addition, the projector device according to the embodiment may have a structure described below, or may be formed of a structure further including a waveguide or/and glass in the structure. In addition, the projector device may include a DLP (Digital Light Processing) projector or a projector device.
이하 디스플레이부는 광 가이드 장치로 표현될 수 있다. 실시예에 따른 광 가이드 장치는 상기 실시예에 따른 증강현실 전자 디바이스에 포함되는 디스플레이부에 대응될 수 있다.The following display unit may be expressed as a light guide device. The light guide device according to the embodiment may correspond to the display unit included in the augmented reality electronic device according to the embodiment.
도 4는 본 발명의 실시예에 따른 광 가이드 장치의 모식도이다.Figure 4 is a schematic diagram of a light guide device according to an embodiment of the present invention.
도 4를 참조하면, 실시예에 따른 광 가이드 장치(300)는 제1 기판(310), 제1 입력 회절소자(320), 제1 전달 회절소자(330), 제1 출사 회절소자(340) 그리고 커버(301)를 포함할 수 있다.Referring to FIG. 4, the light guide device (300) according to the embodiment may include a first substrate (310), a first input diffraction element (320), a first transmission diffraction element (330), a first output diffraction element (340), and a cover (301).
광 가이드 장치(300)는 프로젝트 장치에서 출력되어 입사한 광의 경로를 변경하여 다시 광을 외부로 출력할 수 있다. 광 가이드 장치(300)는 광을 외부로 출력하여 사용자의 눈에 도달하게 할 수 있다. 광은 제1 입력 회절소자(320), 제1 전달 회절소자(330), 제1 출사 회절소자(340)로 순차적으로 입사하여 외부로 다시 출력될 수 있다. 광의 광 가이드 장치(300)로의 입사 방향은 제1 기판(310)과 수직한 방향이거나 제1 기판(310)과 수직한 방향과 일정 각도를 이루는 방향일 수 있다.The light guide device (300) can change the path of light that is output from the projector device and can output the light to the outside again. The light guide device (300) can output the light to the outside so that it reaches the user's eyes. The light can be sequentially input to the first input diffraction element (320), the first transmission diffraction element (330), and the first output diffraction element (340) and output to the outside again. The direction of incidence of the light to the light guide device (300) can be a direction perpendicular to the first substrate (310) or a direction forming a certain angle with the direction perpendicular to the first substrate (310).
제1 기판(310)은 광을 전달하는 경로의 역할을 할 수 있다. 제1 기판(310) 상에 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340)가 배치될 수 있다. 광은 제1 기판(310)의 내부를 전반사하여 제1 기판(310)의 내부를 따라 이동할 수 있다. 제1 기판(310)은 도파관을 포함할 수 있다. 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340)는 제1 기판(310) 상에 서로 이격되어 배치될 수 있다. The first substrate (310) can serve as a path for transmitting light. A first input diffractive element (320), a first transmission diffractive element (330), and a first output diffractive element (340) can be arranged on the first substrate (310). The light can be totally reflected inside the first substrate (310) and travel along the inside of the first substrate (310). The first substrate (310) can include a waveguide. The first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340) can be arranged spaced apart from each other on the first substrate (310).
제1 기판(310)은 복수의 면을 포함할 수 있다. 제1 기판(310)은 제1 면과 제2 면을 포함할 수 있다. 제1 면은 광이 입사하는 면일 수 있다. 또한, 제2 면은 광이 출사하는 면일 수 있다. 제2 면은 제1 면과 이격된 면일 수 있다. 제1 면과 제2 면은 서로 나란할 수 있다. 제1 면 또는 제2 면 상에 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340)가 배치될 수 있다.The first substrate (310) may include a plurality of surfaces. The first substrate (310) may include a first surface and a second surface. The first surface may be a surface on which light is incident. In addition, the second surface may be a surface on which light is emitted. The second surface may be a surface spaced apart from the first surface. The first surface and the second surface may be parallel to each other. A first input diffraction element (320), a first transmission diffraction element (330), and a first output diffraction element (340) may be arranged on the first surface or the second surface.
제1 입력 회절소자(320)는 광이 입사하는 경로의 역할을 할 수 있다. 제1 입력 회절소자(320)는 제1 기판(310) 상에 배치될 수 있다. 광은 외부에서 제1 입력 회절소자(320)를 통해 광 가이드 장치(300)로 입사하여 제1 기판(310)을 통해 전달될 수 있다. 제1 입력 회절소자(320)는 광을 회절 시킴으로써 광의 경로를 변경할 수 있다. The first input diffraction element (320) can serve as a path through which light is incident. The first input diffraction element (320) can be placed on the first substrate (310). Light can be incident from the outside to the light guide device (300) through the first input diffraction element (320) and transmitted through the first substrate (310). The first input diffraction element (320) can change the path of light by diffracting the light.
제1 전달 회절소자(330)는 광의 경로를 변경하는 역할을 할 수 있다. 제1 전달 회절소자(330)는 제1 기판(310) 상에 배치될 수 있다. 제1 전달 회절소자(330)는 제1 입력 회절소자(320)를 통하여 입사한 광의 경로를 변경할 수 있다. 제1 전달 회절소자(330)는 광의 경로를 변경하여 제1 출사 회절소자(340)를 향하도록 하게 할 수 있다. 제1 전달 회절소자(330)는 광을 회절 시킴으로써 광의 경로를 변경할 수 있다.The first transmission diffraction element (330) can play a role in changing the path of light. The first transmission diffraction element (330) can be arranged on the first substrate (310). The first transmission diffraction element (330) can change the path of light incident through the first input diffraction element (320). The first transmission diffraction element (330) can change the path of light so that it is directed toward the first output diffraction element (340). The first transmission diffraction element (330) can change the path of light by diffracting the light.
제1 출사 회절소자(340)는 광이 출사하는 경로의 역할을 할 수 있다. 제1 출사 회절소자(340)는 제1 기판(310) 상에 배치될 수 있다. 광은 제1 출사 회절소자(340)를 통해 광 가이드 장치(300)의 외부로 출사할 수 있다. 제1 출사 회절소자(340)는 제1 전달 회절소자(330)로부터 경로가 변경된 광을 전달받아 외부로 출사하게 할 수 있다. 제1 출사 회절소자(340)는 광의 경로를 변경하여 외부로 출사할 수 있다. 제1 출사 회절소자(340)는 광을 회절 시킴으로써 광의 경로를 변경할 수 있다.The first exit diffraction element (340) can serve as a path through which light is emitted. The first exit diffraction element (340) can be arranged on the first substrate (310). Light can be emitted to the outside of the light guide device (300) through the first exit diffraction element (340). The first exit diffraction element (340) can receive light whose path has been changed from the first transmission diffraction element (330) and emit it to the outside. The first exit diffraction element (340) can change the path of light and emit it to the outside. The first exit diffraction element (340) can change the path of light by diffracting the light.
커버(301)는 제1 기판(310), 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340) 상에 배치될 수 있다. 커버(301)는 제1 기판(310), 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340) 상에 프로젝터(200)와 인접하게 배치될 수 있다. 광은 커버(301)를 통과하여 제1 입력 회절소자(320)에 입사할 수 있다. 커버(301)는 광 가이드 장치(300)의 내부를 보호하는 효과를 가질 수 있다.The cover (301) may be placed on the first substrate (310), the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340). The cover (301) may be placed adjacent to the projector (200) on the first substrate (310), the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340). Light may pass through the cover (301) and enter the first input diffractive element (320). The cover (301) may have an effect of protecting the interior of the light guide device (300).
제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340)는 복수의 돌출부를 포함할 수 있다. 복수의 돌출부는 일정한 너비, 주기, 높이를 가지며 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340) 상에 배치될 수 있다. 복수의 돌출부는 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340) 상에 수직한 방향으로 돌출될 수 있다. 복수의 돌출부는 돌출부가 포함된 패턴의 벡터 방향으로 이격되어 배치될 수 있다. 복수의 돌출부의 너비, 주기, 높이에 따라 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340)를 통과한 후 광의 경로가 서로 다르게 변경될 수 있다.The first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340) may include a plurality of protrusions. The plurality of protrusions may have constant widths, periods, and heights and may be arranged on the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340). The plurality of protrusions may protrude in a direction perpendicular to the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340). The plurality of protrusions may be arranged to be spaced apart from each other in a vector direction of a pattern including the protrusions. Depending on the widths, periods, and heights of the plurality of protrusions, the paths of light after passing through the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340) may be changed differently.
도 5는 본 발명의 실시예에 따른 광 가이드 장치의 기판의 각도를 나타내는 도면이다.FIG. 5 is a drawing showing the angle of the substrate of the light guide device according to an embodiment of the present invention.
도 5에서 제1 좌표축(x1, y1, z1)은 사용자를 기준으로 설정된 좌표축일 수 있다. 사용자의 시선 방향을 z1축으로 정의할 수 있다. x1축 및 y1축은 z1축과 수직한 방향으로 설정된 축일 수 있다. x1축 및 y2축은 서로 수직할 수 있다. 또한, 제2 좌표축(x2, y2, z2)은 광 가이드 장치를 기준으로 설정된 좌표축일 수 있다. 광 가이드 장치의 제1 기판(310)과 수직한 방향을 z2축으로 정의할 수 있다. x2축 및 y2축은 z2축과 수직한 방향으로 설정된 축일 수 있다. x2축 및 y2축은 서로 수직할 수 있다.In FIG. 5, the first coordinate axis (x1, y1, z1) may be a coordinate axis set based on the user. The user's gaze direction may be defined as the z1 axis. The x1 axis and the y1 axis may be axes set in a direction perpendicular to the z1 axis. The x1 axis and the y2 axis may be perpendicular to each other. In addition, the second coordinate axis (x2, y2, z2) may be a coordinate axis set based on the light guide device. The direction perpendicular to the first substrate (310) of the light guide device may be defined as the z2 axis. The x2 axis and the y2 axis may be axes set in a direction perpendicular to the z2 axis. The x2 axis and the y2 axis may be perpendicular to each other.
도 5a를 참조하면, 랩 앵글(γ, wrap angle)은 광 가이드 장치의 제1 기판(310)과 제1 방향(x1)이 이루는 각도로 정의될 수 있다. 제1 방향(x1)은 사용자가 광 가이드 장치를 바라보는 방향과 수직한 방향일 수 있다. 사용자가 광 가이드 장치를 바라보는 방향은 제3 방향(z1)일 수 있다. 제1 방향(x1)은 제3 방향(z3)과 수직한 방향일 수 있다. Referring to FIG. 5a, the wrap angle (γ) may be defined as an angle formed by the first substrate (310) of the light guide device and the first direction (x1). The first direction (x1) may be a direction perpendicular to a direction in which a user views the light guide device. The direction in which the user views the light guide device may be a third direction (z1). The first direction (x1) may be a direction perpendicular to the third direction (z3).
도 5b를 참조하면, 팬터스카픽 앵글(α, pantoscopic angle)은 광 가이드 장치의 제1 기판(310)과 제2 방향(y1)이 이루는 각도로 정의될 수 있다. 제2 방향(y1)은 사용자가 광 가이드 장치를 바라보는 방향과 수직한 방향일 수 있다. 제2 방향(y1)은 제1 방향(x1) 및 제3 방향(z1)과 수직한 방향일 수 있다.Referring to FIG. 5b, a pantoscopic angle (α) may be defined as an angle formed by a first substrate (310) of the light guide device and a second direction (y1). The second direction (y1) may be a direction perpendicular to a direction in which a user views the light guide device. The second direction (y1) may be a direction perpendicular to the first direction (x1) and the third direction (z1).
랩 앵글과 팬터스카픽 앵글에 따라 광 가이드 장치의 배치 각도가 달라질 수 있다.The placement angle of the light guide device may vary depending on the wrap angle and pantoscope angle.
도 6은 본 발명의 실시예에 따른 광 가이드 장치의 프로젝터와 기판 간의 각도를 나타내는 도면이다.FIG. 6 is a drawing showing the angle between the projector and the substrate of the light guide device according to an embodiment of the present invention.
도 6a를 참조하면, 제1 각도(θprojector)는 프로젝터(200)와 제1 기판(310) 간의 각도로 정의될 수 있다. 프로젝터(200)와 제1 기판(310) 간의 각도는 프로젝터(200)가 광을 출력하는 방향과 제1 기판(310)과 수직한 방향(z2)과 이루는 각도일 수 있다. 제1 각도(θprojector)는 0˚ 내지 90˚일 수 있다.Referring to FIG. 6a, a first angle (θ projector ) may be defined as an angle between the projector (200) and the first substrate (310). The angle between the projector (200) and the first substrate (310) may be an angle formed between a direction in which the projector (200) outputs light and a direction (z2) perpendicular to the first substrate (310). The first angle (θ projector ) may be 0˚ to 90˚.
도 6b를 참조하면, 제2 각도()는 프로젝터(200)가 제1 기판(310) 상에서 향하는 각도로 정의될 수 있다. 프로젝터(200)가 제1 기판(310) 상에서 향하는 각도는 프로젝터(200)가 광을 출력하는 방향이 제1 기판(310) 상에서 제1 축(x2)과 이루는 각도일 수 있다. 제1 축(x2)은 제1 기판(310)의 장축일 수 있다. 제2 각도()는 제1 축(x2)으로부터 반시계 방향으로 형성된 각도일 수 있다. 제2 각도()는 0˚ 내지 360˚일 수 있다.Referring to Fig. 6b, the second angle ( ) can be defined as the angle at which the projector (200) faces the first substrate (310). The angle at which the projector (200) faces the first substrate (310) can be the angle that the direction in which the projector (200) outputs light forms with the first axis (x2) on the first substrate (310). The first axis (x2) can be the long axis of the first substrate (310). The second angle ( ) may be an angle formed counterclockwise from the first axis (x2). The second angle ( ) can be between 0˚ and 360˚.
제1 각도와 제2 각도에 따라 프로젝터와 광 가이드 장치의 배치 관계가 달라질 수 있다.The arrangement relationship between the projector and the light guide device may vary depending on the first and second angles.
도 7은 본 발명의 실시예에 따른 광 가이드 장치의 회절소자의 격자 패턴을 나타내는 도면이다.FIG. 7 is a drawing showing a grating pattern of a diffraction element of a light guide device according to an embodiment of the present invention.
도 7을 참조하면, 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340)는 각각 복수의 돌출부가 반복하여 배치되는 격자 패턴을 포함할 수 있다. 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340)는 각각 복수의 돌출부를 포함하며, 복수의 돌출부는 서로 일정 거리 이격되어 나란하게 배치될 수 있다. 이 경우 회절소자의 격자 주기는 돌출부의 일면과 인접한 돌출부의 일면 간의 최단 거리로 정의될 수 있다. 회절소자의 격자 주기는 돌출부의 동일한 측면 간의 최단 거리일 수 있다. 회절소자의 격자 벡터는 돌출부의 배치 방향과 수직한 방향으로 설정될 수 있다. 회절소자의 격자 각도는 회절소자의 격자 벡터가 제1 축(x2)과 이루는 각도일 수 있다. 또한, 회절소자의 격자 각도는 회절소자의 돌출부 간의 이격방향이 제1 축(x2)과 이루는 각도일 수 있다.Referring to FIG. 7, the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340) may each include a grating pattern in which a plurality of protrusions are repeatedly arranged. The first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340) may each include a plurality of protrusions, and the plurality of protrusions may be arranged in parallel and spaced apart from each other by a predetermined distance. In this case, the grating period of the diffractive element may be defined as the shortest distance between one side of the protrusion and one side of an adjacent protrusion. The grating period of the diffractive element may be the shortest distance between the same side surfaces of the protrusions. The grating vector of the diffractive element may be set in a direction perpendicular to the direction in which the protrusions are arranged. The grating angle of the diffractive element may be an angle that the grating vector of the diffractive element forms with the first axis (x2). Additionally, the grating angle of the diffractive element may be the angle formed by the separation direction between the protrusions of the diffractive element and the first axis (x2).
제1 입력 회절소자(320)는 복수의 제1 돌출부(321)를 포함할 수 있다. 제1 입력 회절소자(320)의 격자 주기(λIC)는 제1 돌출부(321)의 일면과 인접한 제1 돌출부(321)의 일면 간의 최단 거리일 수 있다. 또한, 제1 입력 회절소자(320)의 격자 주기(λIC)는 인접한 제1 돌출부(321)의 동일한 측면 간의 최단 거리일 수 있다. 제1 입력 회절소자(320)의 격자 각도()는 제1 입력 회절소자(320)의 격자 벡터가 제1 축(x2)과 이루는 각도일 수 있다. 또한, 제1 입력 회절소자(320)의 격자 각도()는 제1 입력 회절소자(320)의 제1 돌출부(321) 간의 이격방향이 제1 축(x2)과 이루는 각도일 수 있다. 제1 입력 회절소자(320)의 격자 주기(λIC)는 480nm 내지 520nm일 수 있다. 예를 들어, 제1 입력 회절소자(320)의 격자 주기(λIC)는 500nm일 수 있다. 제1 입력 회절소자(320)의 격자 각도()는 310˚ 내지 320˚일 수 있다. 예를 들어, 제1 입력 회절소자(320)의 격자 각도()는 315˚일 수 있다.The first input diffractive element (320) may include a plurality of first protrusions (321). The grating period (λ IC ) of the first input diffractive element (320) may be the shortest distance between one side of the first protrusion (321) and one side of an adjacent first protrusion (321). In addition, the grating period (λ IC ) of the first input diffractive element (320) may be the shortest distance between the same side surfaces of adjacent first protrusions (321). The grating angle ( ) may be the angle formed by the grating vector of the first input diffraction element (320) with the first axis (x2). In addition, the grating angle ( ) may be an angle formed by the separation direction between the first protrusions (321) of the first input diffractive element (320) and the first axis (x2). The grating period (λ IC ) of the first input diffractive element (320) may be 480 nm to 520 nm. For example, the grating period (λ IC ) of the first input diffractive element (320) may be 500 nm. The grating angle ( ) can be 310˚ to 320˚. For example, the grating angle ( of the first input diffractive element (320) ) can be 315˚.
제1 전달 회절소자(330)는 복수의 제2 돌출부(331)를 포함할 수 있다. 제1 전달 회절소자(330)의 격자 주기(λFG)는 제2 돌출부(331)의 일면과 인접한 제2 돌출부(331)의 일면 간의 최단 거리일 수 있다. 또한, 제1 전달 회절소자(330)의 격자 주기(λFG)는 인접한 제2 돌출부(331)의 동일한 측면 간의 최단 거리일 수 있다. 제1 전달 회절소자(330)의 격자 각도()는 제1 전달 회절소자(330)의 격자 벡터가 제1 축(x2)과 이루는 각도일 수 있다. 또한, 제1 전달 회절소자(330)의 격자 각도()는 제1 전달 회절소자(330)의 제2 돌출부(331) 간의 이격방향이 제1 축(x2)과 이루는 각도일 수 있다. 제1 전달 회절소자(330)의 격자 주기(λFG)는 380nm 내지 420nm일 수 있다. 예를 들어, 제1 전달 회절소자(330)의 격자 주기(λFG)는 400nm일 수 있다. 제1 전달 회절소자(330)의 격자 각도()는 65˚ 내지 75˚일 수 있다. 예를 들어, 제1 전달 회절소자(330)의 격자 각도()는 70˚일 수 있다.The first transmission diffraction element (330) may include a plurality of second protrusions (331). The grating period (λ FG ) of the first transmission diffraction element (330) may be the shortest distance between one side of the second protrusion (331) and one side of the adjacent second protrusion (331). In addition, the grating period (λ FG ) of the first transmission diffraction element (330) may be the shortest distance between the same side surfaces of the adjacent second protrusions (331). The grating angle ( ) may be the angle formed by the grating vector of the first transmission diffraction element (330) with the first axis (x2). In addition, the grating angle ( ) may be an angle formed by the separation direction between the second protrusions (331) of the first transmission diffraction element (330) and the first axis (x2). The grating period (λ FG ) of the first transmission diffraction element (330) may be 380 nm to 420 nm. For example, the grating period (λ FG ) of the first transmission diffraction element (330) may be 400 nm. The grating angle ( ) can be 65˚ to 75˚. For example, the grating angle ( of the first transmission diffraction element (330) ) can be 70˚.
제1 출사 회절소자(340)는 복수의 제3 돌출부(341)를 포함할 수 있다. 제1 출사 회절소자(340)의 격자 주기(λOC)는 제3 돌출부(341)의 일면과 인접한 제3 돌출부(341)의 일면 간의 최단 거리일 수 있다. 또한, 제1 출사 회절소자(340)의 격자 주기(λOC)는 인접한 제3 돌출부(341)의 동일한 측면 간의 최단 거리일 수 있다. 제1 출사 회절소자(340)의 격자 각도()는 제1 출사 회절소자(340)의 격자 벡터가 제1 축(x2)과 이루는 각도일 수 있다. 또한, 제1 출사 회절소자(340)의 격자 각도()는 제1 출사 회절소자(340)의 제3 돌출부(341) 간의 이격방향이 제1 축(x2)과 이루는 각도일 수 있다. 제1 출사 회절소자(340)의 격자 주기(λOC)는 360nm 내지 400nm일 수 있다. 예를 들어, 제1 출사 회절소자(340)의 격자 주기(λOC)는 378nm일 수 있다. 제1 출사 회절소자(340)의 격자 각도()는 180˚ 내지 190˚일 수 있다. 예를 들어, 제1 출사 회절소자(340)의 격자 각도()는 185.35˚일 수 있다.The first emission diffraction element (340) may include a plurality of third protrusions (341). The grating period (λ OC ) of the first emission diffraction element (340) may be the shortest distance between one side of the third protrusion (341) and one side of an adjacent third protrusion (341). In addition, the grating period (λ OC ) of the first emission diffraction element (340) may be the shortest distance between the same side surfaces of adjacent third protrusions (341). The grating angle ( ) may be the angle formed by the grating vector of the first diffraction element (340) with the first axis (x2). In addition, the grating angle ( ) may be an angle formed by the separation direction between the third protrusions (341) of the first diffraction element (340) and the first axis (x2). The grating period (λ OC ) of the first diffraction element (340) may be 360 nm to 400 nm. For example, the grating period (λ OC ) of the first diffraction element (340) may be 378 nm. The grating angle ( ) can be 180˚ to 190˚. For example, the grating angle ( ) of the first diffractive element (340) ) can be 185.35˚.
실시예에 따른 광 가이드 장치(300)는 수학식1 및 수학식 2를 만족할 수 있다.The light guide device (300) according to the embodiment can satisfy
[수학식 1][Mathematical formula 1]
[수학식 2][Mathematical formula 2]
여기서 θprojector는 프로젝터와 제1 기판 간의 각도, 는 프로젝터가 제1 기판 상에서 향하는 각도, γ는 제1 기판의 랩 앵글(wrap angle), λ는 광의 파장, α는 제1 기판의 팬터스카픽 앵글(pantoscopic angle), ΛIC는 제1 입력 회절소자의 격자 주기, ΛOC는 제1 출사 회절소자의 격자 주기, ΛFG는 제1 전달 회절소자의 격자 주기, 는 제1 입력 회절소자의 격자 각도, 는 제1 출사 회절소자의 격자 각도, 는 제1 전달 회절소자의 격자 각도, FoV는 광 가이드 장치의 시야각, x 및 y는 광 가이드 장치의 해상도일 수 있다. 광 가이드 장치의 시야각은 광이 제1 입력 회절소자의 입사하여 제1 전달 회절소자로 전달되는 각도일 수 있다. 광 가이드 장치와 프로젝터의 모든 각도에 대하여 적용될 수 있는 회절소자의 격자 구조를 설계할 수 있다.Here, θ projector is the angle between the projector and the first substrate, is the angle at which the projector faces the first substrate, γ is the wrap angle of the first substrate, λ is the wavelength of light, α is the pantoscopic angle of the first substrate, Λ IC is the grating period of the first input diffractive element, Λ OC is the grating period of the first output diffractive element, Λ FG is the grating period of the first transmission diffractive element, is the grating angle of the first input diffractive element, is the grating angle of the first diffractive element, is the grating angle of the first transmission diffractive element, FoV is the field of view of the light guide device, and x and y can be the resolutions of the light guide device. The field of view of the light guide device can be the angle at which light is incident on the first input diffractive element and transmitted to the first transmission diffractive element. It is possible to design a grating structure of the diffractive element that can be applied to all angles of the light guide device and the projector.
일 실시예에 따른 광 가이드 장치는 ΛIC 는 500nm, ΛOC 는 378nm, ΛFG는 400nm, 는 315˚, 는 185.35˚, 는 70˚, λ는 525nm, θprojector는 5˚, 는 7˚, α는 6˚, γ는 8˚일 수 있다.An optical guide device according to one embodiment is Λ IC is 500nm, Λ OC is 378 nm, Λ FG is 400 nm, is 315˚, is 185.35˚, is 70˚, λ is 525nm, θ projector is 5˚, can be 7˚, α can be 6˚, and γ can be 8˚.
도 8은 본 발명의 다른 실시예에 따른 광 가이드 장치의 모식도이다.Figure 8 is a schematic diagram of a light guide device according to another embodiment of the present invention.
도 8을 참조하면, 광 가이드 장치(300)는 제2 기판(350), 제2 입력 회절소자(360), 제2 전달 회절소자(370) 및 제2 출사 회절소자(380)를 더 포함할 수 있다.Referring to FIG. 8, the light guide device (300) may further include a second substrate (350), a second input diffractive element (360), a second transmission diffractive element (370), and a second output diffractive element (380).
제2 기판(350)은 제1 기판(310)과 광축 방향으로 이격되어 배치될 수 있다. 제2 기판(350)은 광의 경로 상 제1 기판(310)의 후단에 배치될 수 있다. 제2 입력 회절소자(360), 제2 전달 회절소자(370) 및 제2 출사 회절소자(280)는 제2 기판(350) 상에 배치될 수 있다. 광은 제2 입력 회절소자(370)를 통해 입사할 수 있고, 제2 출사 회절소자(380)를 통해 출사할 수 있다. 제2 입력 회절소자(360)는 제1 입력 회절소자(320)에 회절되지 않고 제1 입력 회절소자(320)를 통과한 광을 회절시킬 수 있다. 제1 기판의 랩 앵글과 제2 기판의 랩 앵글은 동일할 수 있다. 또한, 제1 기판의 팬터스카픽 앵글과 상기 제2 기판의 팬터스카픽 앵글은 동일할 수 있다. 제2 입력 회절소자(360)는 제1 입력 회절소자(320)와 다른 파장 대역의 광을 회절시킬 수 있다. 그에 따라 제2 기판(350)을 통해 전달되는 광의 파장 대역은 제1 기판(310)을 통해 전달되는 광의 파장 대역과 상이할 수 있다. 따라서, 제1 입력 회절소자, 제1 전달 회절소자 및 제1 출사 회절소자에 순차로 입사된 광은 제2 입력 회절소자, 제2 전달 회절소자 및 제2 출사 회절소자에 순차로 입사된 광과 파장이 상이할 수 있다. 서로 다른 파장 대역의 광은 각각 제1 출사 회절소자(340) 및 제2 출사 회절소자(380)에서 출사되어 사용자의 눈에 도달할 수 있다.The second substrate (350) may be arranged spaced apart from the first substrate (310) in the direction of the optical axis. The second substrate (350) may be arranged at the rear end of the first substrate (310) on the path of light. The second input diffraction element (360), the second transmission diffraction element (370), and the second exit diffraction element (280) may be arranged on the second substrate (350). Light may be incident through the second input diffraction element (370) and may be exited through the second exit diffraction element (380). The second input diffraction element (360) may diffract light that passes through the first input diffraction element (320) without being diffracted by the first input diffraction element (320). The wrap angle of the first substrate and the wrap angle of the second substrate may be the same. In addition, the pantoscal angle of the first substrate and the pantoscal angle of the second substrate may be the same. The second input diffractive element (360) may diffract light having a different wavelength band from the first input diffractive element (320). Accordingly, the wavelength band of light transmitted through the second substrate (350) may be different from the wavelength band of light transmitted through the first substrate (310). Accordingly, light sequentially incident on the first input diffractive element, the first transmission diffractive element, and the first exit diffractive element may have a different wavelength from light sequentially incident on the second input diffractive element, the second transmission diffractive element, and the second exit diffractive element. Light having different wavelength bands may be emitted from the first exit diffractive element (340) and the second exit diffractive element (380), respectively, and may reach the user's eyes.
제1 입력 회절소자(320)의 격자 각도와 제2 입력 회절소자(360)의 격자 각도는 동일하고, 제1 전달 회절소자(330)의 격자 각도와 제2 전달 회절소자(370)의 격자 각도는 동일하며, 제1 출사 회절소자(340)와 제2 출사 회절소자(380)의 격자 각도는 동일할 수 있다. 그로 인해 서로 다른 파장 대역의 광을 동일하게 전달하여 출력할 수 있다.The grating angle of the first input diffractive element (320) and the grating angle of the second input diffractive element (360) are the same, the grating angle of the first transmission diffractive element (330) and the grating angle of the second transmission diffractive element (370) are the same, and the grating angles of the first exit diffractive element (340) and the second exit diffractive element (380) can be the same. As a result, light of different wavelength bands can be transmitted and output in the same manner.
제2 입력 회절소자(360), 제2 전달 회절소자(370) 및 제2 출사 회절소자(380)의 격자 주기는 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340)의 격자 주기와 각각 상이할 수 있다. 제2 입력 회절소자(360), 제2 전달 회절소자(370) 및 제2 출사 회절소자(380)의 격자 주기가 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340)의 격자 주기와 각각 상이함으로써 서로 다른 파장 대역의 광을 회절시킬 수 있다.The grating periods of the second input diffractive element (360), the second transmission diffractive element (370), and the second output diffractive element (380) may be different from the grating periods of the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340), respectively. Since the grating periods of the second input diffractive element (360), the second transmission diffractive element (370), and the second output diffractive element (380) are different from the grating periods of the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340), light of different wavelength bands can be diffracted.
실시예에 따른 광 가이드 장치는 수학식 3 및 수학식 4를 만족할 수 있다.The light guide device according to the embodiment can satisfy
[수학식 3][Mathematical Formula 3]
[수학식 4][Mathematical formula 4]
여기서 θprojector는 프로젝터와 제2 기판 간의 각도, 는 프로젝터가 제2 기판 상에서 향하는 각도, γ는 제2 기판의 랩 앵글(wrap angle), λ는 광의 파장, α는 제2 기판의 팬터스카픽 앵글(pantoscopic angle), ΛIC는 제2 입력 회절소자의 격자 주기, ΛOC는 제2 출사 회절소자의 격자 주기, ΛFG는 제2 전달 회절소자의 격자 주기, 는 제2 입력 회절소자의 격자 각도, 는 제2 출사 회절소자의 격자 각도, 는 제2 전달 회절소자의 격자 각도, FoV는 광 가이드 장치의 시야각, x 및 y는 광 가이드 장치의 해상도일 수 있다. 광 가이드 장치와 프로젝터의 모든 각도에 대하여 적용될 수 있는 회절소자의 격자 구조를 설계할 수 있다. Here, θ projector is the angle between the projector and the second substrate, is the angle at which the projector faces the second substrate, γ is the wrap angle of the second substrate, λ is the wavelength of light, α is the pantoscopic angle of the second substrate, Λ IC is the grating period of the second input diffractive element, Λ OC is the grating period of the second output diffractive element, Λ FG is the grating period of the second transmission diffractive element, is the grating angle of the second input diffractive element, is the grating angle of the second diffraction element, is the grating angle of the second transmission diffractive element, FoV is the viewing angle of the light guide device, x and y can be the resolutions of the light guide device. It is possible to design a grating structure of the diffractive element that can be applied to all angles of the light guide device and the projector.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Although the above has been described with reference to examples, these are merely examples and do not limit the present invention. Those skilled in the art will appreciate that various modifications and applications not exemplified above are possible without departing from the essential characteristics of the present invention. For example, each component specifically shown in the examples can be modified and implemented. In addition, differences related to such modifications and applications should be interpreted as being included in the scope of the present invention defined in the appended claims.
200: 프로젝터
300: 광 가이드 장치
310: 제1 기판
320: 제1 입력 회절소자
330: 제1 전달 회절소자
340: 제1 출사 회절소자200: Projector
300: Light guide device
310: 1st substrate
320: First input diffractive element
330: First transmission diffraction element
340: 1st diffractive element
Claims (15)
상기 제1 기판에 배치되고, 프로젝트로부터 출사된 광이 순차적으로 입사되는 제1 입력 회절소자, 제1 전달 회절소자 및 제1 출사 회절소자;를 포함하며,
수학식 1 및 수학식 2를 만족하는 광 가이드 장치.
[수학식 1]
[수학식 2]
(여기서 θprojector는 프로젝터와 제1 기판 간의 각도, 는 프로젝터가 제1 기판 상에서 향하는 각도, γ는 제1 기판의 랩 앵글(wrap angle), λ는 광의 파장, α는 제1 기판의 팬터스카픽 앵글(pantoscopic angle), ΛIC는 제1 입력 회절소자의 격자 주기, ΛOC는 제1 출사 회절소자의 격자 주기, ΛFG는 제1 전달 회절소자의 격자 주기, 는 제1 입력 회절소자의 격자 각도, 는 제1 출사 회절소자의 격자 각도, 는 제1 전달 회절소자의 격자 각도, FoV는 광 가이드 장치의 시야각, x 및 y는 광 가이드 장치의 해상도이다)first substrate; and
It comprises a first input diffraction element, a first transmission diffraction element and a first output diffraction element, which are arranged on the first substrate and onto which light emitted from the project is sequentially incident;
An optical guide device satisfying mathematical expressions 1 and 2.
[Mathematical Formula 1]
[Mathematical formula 2]
(Here, θ projector is the angle between the projector and the first substrate, is the angle at which the projector faces the first substrate, γ is the wrap angle of the first substrate, λ is the wavelength of light, α is the pantoscopic angle of the first substrate, Λ IC is the grating period of the first input diffractive element, Λ OC is the grating period of the first output diffractive element, Λ FG is the grating period of the first transmission diffractive element, is the grating angle of the first input diffractive element, is the grating angle of the first diffractive element, is the grating angle of the first transmission diffraction element, FoV is the field of view of the light guide device, x and y are the resolutions of the light guide device.)
상기 제1 기판의 랩 앵글은 상기 제1 기판이 제1 방향과 이루는 각도이며,
상기 제1 방향은 사용자가 상기 광 가이드 장치를 바라보는 방향과 수직한 방향인 광 가이드 장치.In the first paragraph,
The wrap angle of the first substrate is the angle that the first substrate forms with the first direction,
A light guide device in which the first direction is perpendicular to the direction in which the user views the light guide device.
상기 제1 기판의 팬터스카픽 앵글은 상기 제1 기판이 제2 방향과 이루는 각도이며,
상기 제2 방향은 상기 제1 방향 및 상기 사용자가 상기 광 가이드 장치를 바라보는 방향과 수직한 방향인 광 가이드 장치.In the second paragraph,
The pantospheric angle of the first substrate is the angle formed by the first substrate with the second direction,
A light guide device wherein the second direction is a direction perpendicular to the first direction and the direction in which the user views the light guide device.
상기 프로젝터와 제1 기판 간의 각도는 상기 프로젝터가 상기 광을 출력하는 방향과 상기 제1 기판과 수직한 면과 이루는 각도인 광 가이드 장치.In the first paragraph,
A light guide device in which the angle between the projector and the first substrate is the angle formed between the direction in which the projector outputs the light and a plane perpendicular to the first substrate.
상기 프로젝터가 제1 기판 상에서 향하는 각도는 상기 프로젝터가 상기 광을 출력하는 방향이 상기 제1 기판 상에서 제1 축과 이루는 각도이고,
상기 제1 축은 상기 제1 기판의 장축인 광 가이드 장치.In the first paragraph,
The angle at which the projector is directed on the first substrate is the angle at which the direction in which the projector outputs the light forms with the first axis on the first substrate,
An optical guide device in which the first axis is the long axis of the first substrate.
상기 제1 입력 회절소자는 제1 돌출부를 포함하고, 상기 제1 전달 회절소자는 제2 돌출부를 포함하며, 상기 제1 출사 회절소자는 제3 돌출부를 포함하고,
상기 제1 입력 회절소자의 격자 주기는 인접한 상기 제1 돌출부의 동일한 측면 간의 최단 거리이고, 상기 제1 전달 회절소자의 격자 주기는 인접한 상기 제2 돌출부의 동일한 측면 간의 최단 거리이며, 상기 제1 출사 회절소자의 격자 주기는 인접한 상기 제3 돌출부의 동일한 측면 간의 최단 거리인 광 가이드 장치.In the first paragraph,
The first input diffractive element comprises a first protrusion, the first transmission diffractive element comprises a second protrusion, and the first output diffractive element comprises a third protrusion.
A light guide device in which the grating period of the first input diffractive element is the shortest distance between the same side surfaces of adjacent first protrusions, the grating period of the first transmission diffractive element is the shortest distance between the same side surfaces of adjacent second protrusions, and the grating period of the first output diffractive element is the shortest distance between the same side surfaces of adjacent third protrusions.
상기 제1 입력 회절소자의 격자 각도는 상기 제1 입력 회절소자의 제1 돌출부 간의 이격방향이 상기 제1 축과 이루는 각도이고, 상기 제1 전달 회절소자의 격자 각도는 상기 제1 전달 회절소자의 제2 돌출부 간의 이격방향이 상기 제1 축과 이루는 각도이며, 상기 제1 출사 회절소자의 격자 각도는 상기 제1 출사 회절소자의 제3 돌출부 간의 이격방향이 상기 제1 축과 이루는 각도인 광 가이드 장치.In paragraph 5,
A light guide device wherein the grating angle of the first input diffractive element is the angle formed by the separation direction between the first protrusions of the first input diffractive element and the first axis, the grating angle of the first transmission diffractive element is the angle formed by the separation direction between the second protrusions of the first transmission diffractive element and the first axis, and the grating angle of the first exit diffractive element is the angle formed by the separation direction between the third protrusions of the first exit diffractive element and the first axis.
제1 기판과 중첩되도록 배치되는 제2 기판;
상기 제2 기판 상에 배치되고, 광이 순차적으로 입사되는 제2 입력 회절소자, 제2 전달 회절소자 및 제2 출사 회절소자;를 더 포함하는 광 가이드 장치.In the first paragraph,
A second substrate arranged to overlap the first substrate;
An optical guide device further comprising a second input diffraction element, a second transmission diffraction element, and a second output diffraction element, which are arranged on the second substrate and onto which light is sequentially incident.
상기 제1 입력 회절소자와 상기 제2 입력 회절소자의 상기 격자 각도는 동일하고, 상기 제1 전달 회절소자와 상기 제2 전달 회절소자의 상기 격자 각도는 동일하며, 상기 제1 출사 회절소자와 상기 제2 출사 회절소자의 상기 격자 각도는 동일한 광 가이드 장치.In Article 8,
A light guide device wherein the grating angles of the first input diffractive element and the second input diffractive element are the same, the grating angles of the first transmission diffractive element and the second transmission diffractive element are the same, and the grating angles of the first exit diffractive element and the second exit diffractive element are the same.
상기 광 가이드 장치의 시야각은 상기 광이 상기 제1 입력 회절소자의 입사하여 상기 제1 전달 회절소자로 전달되는 각도인 광 가이드 장치.In the first paragraph,
A light guide device in which the viewing angle of the light guide device is the angle at which the light is incident on the first input diffraction element and transmitted to the first transmission diffraction element.
상기 제2 입력 회절소자, 상기 제2 전달 회절소자 및 상기 제2 출사 회절소자의 격자 주기는 상기 제1 입력 회절소자, 상기 제1 전달 회절소자 및 상기 제1 출사 회절소자의 격자 주기와 각각 상이한 광 가이드 장치.In Article 9,
A light guide device wherein the grating periods of the second input diffractive element, the second transmission diffractive element, and the second output diffractive element are each different from the grating periods of the first input diffractive element, the first transmission diffractive element, and the first output diffractive element.
수학식 3 및 수학식 4를 만족하는 광 가이드 장치.
[수학식 3]
[수학식 4]
(여기서 θprojector는 프로젝터와 제2 기판 간의 각도, 는 프로젝터가 제2 기판 상에서 향하는 각도, γ는 제2 기판의 랩 앵글(wrap angle), λ는 광의 파장, α는 제2 기판의 팬터스카픽 앵글(pantoscopic angle), ΛIC는 제2 입력 회절소자의 격자 주기, ΛOC는 제2 출사 회절소자의 격자 주기, ΛFG는 제2 전달 회절소자의 격자 주기, 는 제2 입력 회절소자의 격자 각도, 는 제2 출사 회절소자의 격자 각도, 는 제2 전달 회절소자의 격자 각도, FoV는 광 가이드 장치의 시야각, x 및 y는 광 가이드 장치의 해상도이다)In Article 11,
An optical guide device satisfying mathematical expressions 3 and 4.
[Mathematical Formula 3]
[Mathematical Formula 4]
(Here, θ projector is the angle between the projector and the second substrate, is the angle at which the projector faces the second substrate, γ is the wrap angle of the second substrate, λ is the wavelength of light, α is the pantoscopic angle of the second substrate, Λ IC is the grating period of the second input diffractive element, Λ OC is the grating period of the second output diffractive element, Λ FG is the grating period of the second transmission diffractive element, is the grating angle of the second input diffractive element, is the grating angle of the second diffraction element, is the grating angle of the second transmission diffraction element, FoV is the field of view of the light guide device, x and y are the resolutions of the light guide device.)
상기 제1 기판의 랩 앵글과 상기 제2 기판의 랩 앵글은 동일한 광 가이드 장치.In Article 12,
The wrap angle of the first substrate and the wrap angle of the second substrate are the same light guide device.
상기 제1 기판의 팬터스카픽 앵글과 상기 제2 기판의 팬터스카픽 앵글은 동일한 광 가이드 장치.In Article 12,
The pantospheric angle of the first substrate and the pantospheric angle of the second substrate are the same light guide device.
상기 제1 입력 회절소자, 상기 제1 전달 회절소자 및 상기 제1 출사 회절소자에 순차로 입사된 광은 상기 제2 입력 회절소자, 상기 제2 전달 회절소자 및 상기 제2 출사 회절소자에 순차로 입사된 광과 파장이 상이한 광 가이드 장치.In Article 12,
A light guide device in which light sequentially incident on the first input diffraction element, the first transmission diffraction element, and the first output diffraction element has a different wavelength from light sequentially incident on the second input diffraction element, the second transmission diffraction element, and the second output diffraction element.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020240129814A KR20250064580A (en) | 2023-11-02 | 2024-09-25 | Light guide device and electronic device including the same |
| PCT/KR2024/017138 WO2025095720A1 (en) | 2023-11-02 | 2024-11-04 | Optical guide device and electronic device including same |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR20230149975 | 2023-11-02 | ||
| KR1020230149975 | 2023-11-02 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20250064572A true KR20250064572A (en) | 2025-05-09 |
Family
ID=95708329
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020240112154A Pending KR20250064572A (en) | 2023-11-02 | 2024-08-21 | Light guide device and electronic device including the same |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20250064572A (en) |
-
2024
- 2024-08-21 KR KR1020240112154A patent/KR20250064572A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102811577B1 (en) | Electronic device | |
| KR102812420B1 (en) | Electronic device | |
| KR102811574B1 (en) | Electronic device | |
| KR102808965B1 (en) | Electronic device | |
| KR102805852B1 (en) | Electronic device | |
| KR102638960B1 (en) | AR Device and Method For Controlling The Same | |
| KR20190106931A (en) | Electronic device | |
| KR102821828B1 (en) | Electronic device | |
| KR102847844B1 (en) | Electronic device | |
| CN112789543B (en) | Electronic equipment | |
| KR102808696B1 (en) | Electronic device | |
| KR20240041547A (en) | Optical device and electronic device including the same | |
| KR102828452B1 (en) | Electronic device | |
| KR102821140B1 (en) | Electronic device | |
| KR20240098986A (en) | Project device and electronic device including the same | |
| KR20240034614A (en) | Project device and electronic device including the same | |
| KR20250064572A (en) | Light guide device and electronic device including the same | |
| KR20250064646A (en) | Light guide device and electronic device including the same | |
| KR20250064577A (en) | Light guide device and electronic device including the same | |
| KR20230167686A (en) | Optical device and electronic device including the same | |
| KR102820788B1 (en) | Electronic device | |
| KR20250064652A (en) | Light guide device and electronic device including the same | |
| EP4585996A1 (en) | Projection device and electronic device including same | |
| KR20250145997A (en) | Project device and electronic device including the same | |
| KR20250064580A (en) | Light guide device and electronic device including the same |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| PC1204 | Withdrawal of earlier application forming a basis of a priority claim |
St.27 status event code: N-1-6-B10-B12-nap-PC1204 |