WO2025095721A1 - Light guide device and electronic device including same - Google Patents
Light guide device and electronic device including same Download PDFInfo
- Publication number
- WO2025095721A1 WO2025095721A1 PCT/KR2024/017141 KR2024017141W WO2025095721A1 WO 2025095721 A1 WO2025095721 A1 WO 2025095721A1 KR 2024017141 W KR2024017141 W KR 2024017141W WO 2025095721 A1 WO2025095721 A1 WO 2025095721A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- light
- protrusion
- thin film
- input
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B1/00—Optical elements characterised by the material of which they are made; Optical coatings for optical elements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/18—Diffraction gratings
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
Definitions
- the embodiment relates to a light guide device and an electronic device including the same.
- VR Virtual Reality
- a specific environment or situation or the technology itself, that is similar to reality but not real, created using artificial technology such as computers.
- Augmented Reality is a technology that synthesizes virtual objects or information into the real environment to make them appear as if they existed in the original environment.
- Mixed reality or hybrid reality refers to the creation of a new environment or new information by combining the virtual world and the real world.
- mixed reality when it refers to real-time interaction between things that exist in reality and virtual worlds.
- the created virtual environment or situation stimulates the user's five senses and allows them to freely move between reality and imagination by experiencing spatial and temporal experiences similar to reality.
- the user can interact with the things implemented in this environment by not only simply immersing himself in this environment, but also using real devices to operate or give commands.
- DMS was generally implemented in a form that simply predicted the driver's condition based on the driver's steering wheel operation status or the driving time, and alerted the driver with a warning sound or message.
- ADAS advanced driver assistance systems
- ACC Adaptive Cruise Control
- LKAS Lane Keeping Assist System
- various methods are being implemented, such as using a camera to film the driver to actively determine the driver's driving concentration or physical condition, such as drowsiness, or monitoring the driver's physical movements through the captured video, or monitoring the movement of the driver's eyelids to determine the driver's driving concentration or drowsiness, and vibrating the steering wheel or generating a warning sound to the driver to avoid danger, or slowing down the vehicle to a certain speed or below.
- Embodiments provide a light guide device with increased diffraction efficiency and an electronic device including the same.
- a light guide device having increased light output uniformity and an electronic device including the same are provided.
- the embodiment provides a light guide device and a camera module that enable easier creation of images of passengers, etc., within a vehicle, etc.
- An optical guide device comprises: a first substrate; and a first input diffractive element, a first transmission diffractive element, and a first output diffractive element, which are arranged on the first substrate and onto which light is sequentially incident, wherein the first input diffractive element comprises a plurality of first protrusions protruding in the direction of an optical axis, and a plurality of first thin films arranged on the first substrate and the first protrusions, wherein the first protrusions include an upper surface, a first side surface, and a second side surface, and the first thin films can be arranged between the upper surface, the first side surface, and the adjacent plurality of first protrusions.
- the plurality of first protrusions and the plurality of first thin films may be arranged at a predetermined distance from each other in a first direction perpendicular to the optical axis direction.
- the first thin film may include a first sub-thin film arranged on an upper surface of the first protrusion, a second sub-thin film arranged between the plurality of adjacent first protrusions, and a third sub-thin film arranged on a first side of the first protrusion.
- the first side and the second side are arranged spaced apart from each other in the first direction, the first side forms a first angle with the optical axis direction, the second side forms a second angle with the optical axis direction, and the first angle and the second angle can be the same.
- the angle formed by the first side surface of the first protrusion and the upper surface of the first protrusion may be greater than the angle formed by the second side surface of the first protrusion and the upper surface.
- the distance between the adjacent first protrusions in the first direction may be greater than or equal to the width of the second sub-film in the first direction.
- the height of the first protrusion in the optical axis direction is less than 200 cos ⁇ , and ⁇ may be the first angle.
- the second sub-film can be arranged on the upper surface of the first input diffraction element.
- the thickness of the first thin film in the optical axis direction may be 20% to 60% of the height of the first protrusion in the optical axis direction.
- the sum of the width of the first sub-film in the first direction and the width of the second sub-film in the first direction is equal to the period of the first protrusion, and the period of the first protrusion can be the distance in the first direction between the first side surfaces of adjacent first protrusions.
- the second sub-film can be spaced apart from the second side of the first protrusion by a certain distance.
- the angle formed by the third sub-film with the first sub-film and the second sub-film may be greater than 90°.
- An optical guide device comprises: a first substrate; and a first input diffractive element, a first transmission diffractive element, and a first output diffractive element, which are arranged on the first substrate and onto which light is sequentially incident, wherein the first input diffractive element comprises a plurality of first protrusions protruding in the direction of an optical axis, and a second thin film arranged on the first input diffractive element and the first protrusions, and the second thin film may include a first sub-thin film arranged on the first protrusions and a second sub-thin film arranged on the first input diffractive element.
- the side surface of the first protrusion forms a certain angle with the optical axis direction, and the first sub-film can partially overlap with one of the adjacent second sub-films in the optical axis direction.
- the first sub-film and the second sub-film may not overlap in a first direction perpendicular to the optical axis direction.
- the above first thin film may be a plasmonic metasurface.
- a light guide device comprises: a first substrate; and a first input diffractive element, a first transmission diffractive element, and a first output diffractive element, which are arranged on the first substrate and onto which light is sequentially incident, wherein the first input diffractive element comprises a plurality of first protrusions protruding in an optical axis direction and a first thin film arranged on the first input diffractive element and the first protrusions, wherein the plurality of first protrusions are spaced apart in a first direction perpendicular to the optical axis direction, and the first input diffractive element comprises first to third regions arranged in a direction perpendicular to the optical axis direction, and a width of the first protrusion in the first direction may be different from each other according to the first to third regions.
- the above plurality of first protrusions can be arranged in a parallel manner and spaced apart from each other in a first direction perpendicular to the optical axis direction.
- the periods of the first protrusions in the first region to the third region may be the same.
- the first region to the third region can be arranged relative to each other in the first direction.
- the first region may be spaced apart from the first transmission diffraction element, and the third region may be arranged adjacent to the first transmission diffraction element.
- the maximum widths in the first direction of the first region to the third region may be the same.
- the ratio of the widths in the first direction of the first protrusion of the first region, the first protrusion of the second region, and the first protrusion of the third region may be 7:5:3.
- the first region to the third region can be arranged in a second direction perpendicular to the optical axis direction and the first direction.
- the first region may be spaced apart from the first diffractive element, and the third region may be arranged adjacent to the first diffractive element.
- the maximum widths in the second direction of the first region to the third region may be the same, and the maximum width in the first direction of the second region may be greater than the maximum widths in the first direction of the first region and the third region.
- a fill factor of the first region may be greater than a fill factor of the second region, a fill factor of the third region may be less than a fill factor of the second region, and the fill factor may be a ratio of a width of the first protrusion in the first direction to a period of the first protrusion.
- the ratio of the fill factor of the first region, the fill factor of the second region, and the fill factor of the third region may be 7:5:3.
- the height in the optical axis direction of the first thin film may be 2 to 4 times the height in the optical axis direction of the first protrusion, and the height in the optical axis direction of the first thin film may be the distance in the optical axis direction from the upper surface of the first protrusion to the upper surface of the first thin film.
- the height of the first protrusion may be from 40 nm to 100 nm.
- the height of the first protrusion may be 50 nm to 70 nm.
- the area of the second region is larger than the areas of the first region and the third region, and the areas of the first region and the third region may be equal.
- a light guide device with increased diffraction efficiency and an electronic device including the same can be provided.
- a light guide device with increased light output uniformity and an electronic device including the same can be provided.
- a light guide device and a camera module can be provided that make it easier to create images of passengers, etc., within a vehicle.
- Figure 1 is a conceptual diagram illustrating an embodiment of an AI device.
- FIG. 2 is a block diagram showing the configuration of an extended reality electronic device according to an embodiment of the present invention.
- FIG. 3 is a perspective view of an augmented reality electronic device according to an embodiment of the present invention.
- Figure 4 is a schematic diagram of a light guide device according to an embodiment of the present invention.
- FIG. 5 is a drawing showing a grating pattern of a diffraction element of a light guide device according to an embodiment of the present invention.
- Figures 6 to 10 are schematic diagrams of a first input diffraction element of a light guide device according to an embodiment of the present invention.
- FIG. 11a and FIG. 11b are graphs showing the diffraction efficiency of a light guide device according to an embodiment of the present invention.
- FIG. 12 is a schematic diagram of a first input diffraction element of a light guide device according to another embodiment of the present invention.
- FIG. 13 is a top view of a light guide device according to an embodiment of the present invention.
- FIG. 14 is a top view of a light guide device according to another embodiment of the present invention.
- FIG. 15 is a drawing illustrating the configuration of a camera module according to an embodiment of the present invention.
- a component when a component is described as being 'connected', 'coupled' or 'connected' to another component, it may include not only cases where the component is directly connected, coupled or connected to the other component, but also cases where the component is 'connected', 'coupled' or 'connected' by another component between the component and the other component.
- each component when described as being formed or arranged "above or below” each component, above or below includes not only the case where the two components are in direct contact with each other, but also the case where one or more other components are formed or arranged between the two components.
- it when expressed as "above or below", it can include the meaning of the downward direction as well as the upward direction based on one component.
- Figure 1 is a conceptual diagram illustrating an embodiment of an AI device.
- an AI system is connected to a cloud network (10) by at least one of an AI server (16), a robot (11), an autonomous vehicle (12), an XR device (13), a smartphone (14), or an appliance (15).
- an AI device 11 to 15
- an AI device 11 to 15
- a cloud network (10) may mean a network that constitutes part of a cloud computing infrastructure or exists within a cloud computing infrastructure.
- the cloud network (10) may be configured using a 3G network, a 4G or LTE (Long Term Evolution) network, a 5G network, etc.
- each device (11 to 16) constituting the AI system can be connected to each other through the cloud network (10).
- each device (11 to 16) can communicate with each other through a base station, but can also communicate with each other directly without going through a base station.
- the AI server (16) may include a server that performs AI processing and a server that performs operations on big data.
- the AI server (16) is connected to at least one of AI devices constituting the AI system, such as a robot (11), an autonomous vehicle (12), an XR device (13), a smartphone (14), or a home appliance (15), through a cloud network (10), and can assist at least part of the AI processing of the connected AI devices (11 to 15).
- AI devices constituting the AI system, such as a robot (11), an autonomous vehicle (12), an XR device (13), a smartphone (14), or a home appliance (15), through a cloud network (10), and can assist at least part of the AI processing of the connected AI devices (11 to 15).
- the AI server (16) can train an artificial neural network according to a machine learning algorithm on behalf of the AI devices (11 to 15), and can directly store the learning model or transmit it to the AI devices (11 to 15).
- the AI server (16) can receive input data from the AI devices (11 to 15), infer a result value for the received input data using the learning model, and generate a response or control command based on the inferred result value and transmit it to the AI devices (11 to 15).
- the AI device may infer a result value for input data using a direct learning model and generate a response or control command based on the inferred result value.
- Robots (11) can be implemented as guide robots, transport robots, cleaning robots, wearable robots, entertainment robots, pet robots, unmanned flying robots, etc. by applying AI technology.
- the robot (11) may include a robot control module for controlling movement, and the robot control module may mean a software module or a chip that implements the same as hardware.
- the robot (11) can obtain status information of the robot (11), detect (recognize) the surrounding environment and objects, generate map data, determine a movement path and driving plan, determine a response to user interaction, or determine an action using sensor information obtained from various types of sensors.
- the robot (11) can use sensor information acquired from at least one sensor among lidar, radar, and camera to determine a movement path and driving plan.
- the robot (11) can perform the above-described operations using a learning model composed of at least one artificial neural network.
- the robot (11) can recognize the surrounding environment and objects using the learning model, and determine operations using the recognized surrounding environment information or object information.
- the learning model can be learned directly in the robot (11) or learned from an external device such as an AI server (16).
- the robot (11) may perform an action by generating a result using a direct learning model, but may also transmit sensor information to an external device such as an AI server (16) and perform an action by receiving the result generated accordingly.
- the robot (11) can determine a movement path and driving plan using at least one of map data, object information detected from sensor information, or object information acquired from an external device, and control a driving unit to drive the robot (11) according to the determined movement path and driving plan.
- the map data may include object identification information for various objects placed in the space where the robot (11) moves.
- the map data may include object identification information for fixed objects such as walls and doors, and movable objects such as flower pots and desks.
- the object identification information may include name, type, distance, location, etc.
- the robot (11) can perform an action or drive by controlling the driving unit based on the user's control/interaction. At this time, the robot (11) can obtain the intention information of the interaction according to the user's action or voice utterance, and determine a response based on the obtained intention information to perform the action.
- Autonomous vehicles (12) can be implemented as mobile robots, vehicles, unmanned aerial vehicles, etc. by applying AI technology.
- the autonomous vehicle (12) may include an autonomous driving control module for controlling autonomous driving functions, and the autonomous driving control module may mean a software module or a chip that implements the same as hardware.
- the autonomous driving control module may be included internally as a component of the autonomous vehicle (12), but may also be configured as separate hardware and connected to the outside of the autonomous vehicle (12).
- An autonomous vehicle (12) can obtain status information of the autonomous vehicle (12), detect (recognize) the surrounding environment and objects, generate map data, determine a movement path and driving plan, or determine an operation by using sensor information obtained from various types of sensors.
- the autonomous vehicle (12) can use sensor information acquired from at least one sensor among lidar, radar, and camera, similar to the robot (11), to determine the movement path and driving plan.
- an autonomous vehicle (12) can recognize an environment or objects in an area where the field of vision is obscured or an area beyond a certain distance by receiving sensor information from external devices, or can receive information recognized directly from external devices.
- the autonomous vehicle (12) can perform the above-described operations using a learning model composed of at least one artificial neural network.
- the autonomous vehicle (12) can recognize the surrounding environment and objects using the learning model, and determine the driving route using the recognized surrounding environment information or object information.
- the learning model can be learned directly in the autonomous vehicle (12) or learned from an external device such as an AI server (16).
- the autonomous vehicle (12) may perform an operation by generating a result using a direct learning model, but may also perform an operation by transmitting sensor information to an external device such as an AI server (16) and receiving the result generated accordingly.
- An autonomous vehicle (12) can determine a movement path and driving plan by using at least one of map data, object information detected from sensor information, or object information acquired from an external device, and control a driving unit to drive the autonomous vehicle (12) according to the determined movement path and driving plan.
- Map data may include object identification information for various objects placed in a space (e.g., a road) where an autonomous vehicle (12) runs.
- map data may include object identification information for fixed objects such as streetlights, rocks, and buildings, and movable objects such as vehicles and pedestrians.
- object identification information may include name, type, distance, location, and the like.
- the autonomous vehicle (12) can perform an action or drive by controlling the driving unit based on the user's control/interaction. At this time, the autonomous vehicle (12) can obtain the intention information of the interaction according to the user's action or voice utterance, and determine a response based on the obtained intention information to perform the action.
- the XR device (13) can be implemented as an HMD (Head-Mount Display), a HUD (Head-Up Display) equipped in a vehicle, a television, a mobile phone, a smart phone, a computer, a wearable device, a home appliance, digital signage, a vehicle, a fixed robot or a mobile robot, etc. by applying AI technology.
- HMD Head-Mount Display
- HUD Head-Up Display
- the XR device (13) can obtain information about surrounding space or real objects by analyzing 3D point cloud data or image data acquired through various sensors or from an external device to generate location data and attribute data for 3D points, and can render and output an XR object to be output. For example, the XR device (13) can output an XR object including additional information about a recognized object by corresponding it to the recognized object.
- the XR device (13) can perform the above-described operations using a learning model composed of at least one artificial neural network.
- the XR device (13) can recognize a real object from 3D point cloud data or image data using the learning model, and provide information corresponding to the recognized real object.
- the learning model can be learned directly in the XR device (13) or learned in an external device such as an AI server (16).
- the XR device (13) may perform an operation by generating a result using a direct learning model, but may also transmit sensor information to an external device such as an AI server (16) and perform an operation by receiving the result generated accordingly.
- Robots (11) can be implemented as guide robots, transport robots, cleaning robots, wearable robots, entertainment robots, pet robots, unmanned flying robots, etc. by applying AI technology and autonomous driving technology.
- a robot (11) to which AI technology and autonomous driving technology are applied may refer to a robot itself with autonomous driving functions, or a robot (11) that interacts with an autonomous vehicle (12).
- a robot (11) with autonomous driving function can be a general term for devices that move on their own along a given path without user control or move by determining the path on their own.
- a robot (11) with autonomous driving function and an autonomous vehicle (12) may use a common sensing method to determine one or more of a movement path or a driving plan.
- a robot (11) with autonomous driving function and an autonomous vehicle (12) may use information sensed through a lidar, a radar, and a camera to determine one or more of a movement path or a driving plan.
- a robot (11) interacting with an autonomous vehicle (12) may exist separately from the autonomous vehicle (12), and may be linked to autonomous driving functions inside or outside the autonomous vehicle (12) or perform actions linked to a user riding in the autonomous vehicle (12).
- the robot (11) interacting with the autonomous vehicle (12) can control or assist the autonomous driving function of the autonomous vehicle (12) by acquiring sensor information on behalf of the autonomous vehicle (12) and providing it to the autonomous vehicle (12), or by acquiring sensor information and generating surrounding environment information or object information and providing it to the autonomous vehicle (12).
- a robot (11) interacting with a self-driving vehicle (12) may monitor a user riding in the self-driving vehicle (12) or control the functions of the self-driving vehicle (12) through interaction with the user. For example, if the robot (11) determines that the driver is drowsy, it may activate the self-driving function of the self-driving vehicle (12) or assist in the control of the driving unit of the self-driving vehicle (12).
- the functions of the self-driving vehicle (12) controlled by the robot (11) may include not only the self-driving function, but also functions provided by a navigation system or audio system equipped inside the self-driving vehicle (12).
- a robot (11) interacting with an autonomous vehicle (12) may provide information to the autonomous vehicle (12) or assist functions from outside the autonomous vehicle (12).
- the robot (11) may provide traffic information including signal information to the autonomous vehicle (12), such as a smart traffic light, or may interact with the autonomous vehicle (12) to automatically connect an electric charger to a charging port, such as an automatic electric charger for an electric vehicle.
- Robots (11) can be implemented as guide robots, transport robots, cleaning robots, wearable robots, entertainment robots, pet robots, unmanned flying robots, drones, etc. by applying AI technology and XR technology.
- a robot (11) to which XR technology is applied may refer to a robot that is the target of control/interaction within an XR image.
- the robot (11) is distinct from the XR device (13) and can be linked with each other.
- a robot (11) that is the target of control/interaction within an XR image obtains sensor information from sensors including a camera
- the robot (11) or the XR device (13) can generate an XR image based on the sensor information, and the XR device (13) can output the generated XR image.
- the robot (11) can operate based on a control signal input through the XR device (13) or a user's interaction.
- a user can check an XR image corresponding to the viewpoint of a remotely connected robot (11) through an external device such as an XR device (13), and through interaction, adjust the autonomous driving path of the robot (11), control the operation or driving, or check information on surrounding objects.
- Autonomous vehicles (12) can be implemented as mobile robots, vehicles, unmanned aerial vehicles, etc. by applying AI technology and XR technology.
- An autonomous vehicle (12) to which XR technology is applied may refer to an autonomous vehicle equipped with a means for providing XR images, an autonomous vehicle that is the subject of control/interaction within an XR image, etc.
- an autonomous vehicle (12) that is the subject of control/interaction within an XR image is distinct from an XR device (13) and can be linked with each other.
- An autonomous vehicle (12) equipped with a means for providing XR images can obtain sensor information from sensors including cameras and output XR images generated based on the obtained sensor information.
- the autonomous vehicle (12) can provide passengers with XR objects corresponding to real objects or objects on the screen by having a HUD to output XR images.
- the XR object when the XR object is output to the HUD, at least a part of the XR object may be output so as to overlap with an actual object toward which the passenger's gaze is directed.
- the XR object when the XR object is output to a display provided inside the autonomous vehicle (12), at least a part of the XR object may be output so as to overlap with an object in the screen.
- the autonomous vehicle (12) may output XR objects corresponding to objects such as a road, another vehicle, a traffic light, a traffic sign, a two-wheeled vehicle, a pedestrian, a building, etc.
- an autonomous vehicle (12) that is the target of control/interaction within an XR image obtains sensor information from sensors including a camera
- the autonomous vehicle (12) or the XR device (13) can generate an XR image based on the sensor information, and the XR device (13) can output the generated XR image.
- the autonomous vehicle (12) can operate based on a control signal input through an external device such as the XR device (13) or a user's interaction.
- Extended reality is a general term for virtual reality (VR), augmented reality (AR), and mixed reality (MR).
- VR technology provides real-world objects and backgrounds only as CG images
- AR technology provides virtual CG images on top of images of real objects
- MR technology is a computer graphics technology that mixes and combines virtual objects in the real world.
- MR technology is similar to AR technology in that it shows real objects and virtual objects together. However, there is a difference in that while AR technology uses virtual objects to complement real objects, MR technology uses virtual and real objects with equal characteristics.
- XR technology can be applied to HMD (Head-Mount Display), HUD (Head-Up Display), mobile phones, tablet PCs, laptops, desktops, TVs, digital signage, etc., and devices to which XR technology is applied can be called XR devices.
- HMD Head-Mount Display
- HUD Head-Up Display
- mobile phones tablet PCs, laptops, desktops, TVs, digital signage, etc.
- XR devices devices to which XR technology is applied.
- FIG. 2 is a block diagram showing the configuration of an extended reality electronic device according to an embodiment of the present invention.
- the extended reality electronic device (20) may include a wireless communication unit (21), an input unit (22), a sensing unit (23), an output unit (24), an interface unit (25), a memory (26), a control unit (27), and a power supply unit (28).
- the components illustrated in FIG. 1 are not essential for implementing the electronic device (20), and thus, the electronic device (20) described in this specification may have more or fewer components than the components listed above.
- the wireless communication unit (21) may include one or more modules that enable wireless communication between the electronic device (20) and a wireless communication system, between the electronic device (20) and another electronic device, or between the electronic device (20) and an external server.
- the wireless communication unit (21) may include one or more modules that connect the electronic device (20) to one or more networks.
- This wireless communication unit (21) may include at least one of a broadcast reception module, a mobile communication module, a wireless Internet module, a short-range communication module, and a location information module.
- the input unit (22) may include a camera or a video input unit for inputting a video signal, a microphone or an audio input unit for inputting an audio signal, and a user input unit (e.g., a touch key, a mechanical key, etc.) for receiving information from a user.
- Voice data or image data collected by the input unit (22) may be analyzed and processed into a user's control command.
- the sensing unit (23) may include one or more sensors for sensing at least one of information within the electronic device (20), information about the surrounding environment surrounding the electronic device (20), and user information.
- the sensing unit (23) may include at least one of a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, a G-sensor, a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor (IR sensor), a finger scan sensor, an ultrasonic sensor, an optical sensor (e.g., a photographing device), a microphone, a battery gauge, an environmental sensor (e.g., a barometer, a hygrometer, a thermometer, a radiation detection sensor, a heat detection sensor, a gas detection sensor, etc.), and a chemical sensor (e.g., an electronic nose, a healthcare sensor, a biometric recognition sensor, etc.).
- the electronic device (20) disclosed in the present specification may utilize information sensed by at least two or more of these sensors in combination.
- the output unit (24) is for generating output related to vision, hearing, or tactile sensations, and may include at least one of a display unit, an audio output unit, a haptic module, and an optical output unit.
- the display unit may be formed as a layer structure with a touch sensor or formed as an integral part, thereby implementing a touch screen.
- This touch screen may function as a user input means that provides an input interface between the augmented reality electronic device (20) and the user, and at the same time, provide an output interface between the augmented reality electronic device (20) and the user.
- the interface unit (25) serves as a passageway between various types of external devices connected to the electronic device (20). Through the interface unit (25), the electronic device (20) can receive virtual reality or augmented reality content from an external device, and can perform mutual interaction by exchanging various input signals, sensing signals, and data.
- the interface unit (25) may include at least one of a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port for connecting a device equipped with an identification module, an audio I/O (Input/Output) port, a video I/O (Input/Output) port, and an earphone port.
- the memory (26) stores data that supports various functions of the electronic device (20).
- the memory (26) can store a plurality of application programs (or applications) that run on the electronic device (20), data for the operation of the electronic device (20), and commands. At least some of these application programs can be downloaded from an external server via wireless communication. In addition, at least some of these application programs can exist on the electronic device (20) from the time of shipment for basic functions of the electronic device (20) (e.g., call reception, call transmission, message reception, call transmission).
- control unit (27) In addition to operations related to the application program, the control unit (27) typically controls the overall operation of the electronic device (20).
- the control unit (27) can process signals, data, information, etc. input or output through the components discussed above.
- control unit (27) can control at least some of the components by driving the application program stored in the memory (26) to provide appropriate information to the user or process a function. Furthermore, the control unit (27) can operate at least two or more of the components included in the electronic device (20) in combination with each other to drive the application program.
- control unit (27) can detect the movement of the electronic device (20) or the user by using a gyroscope sensor, a gravity sensor, a motion sensor, etc. included in the sensing unit (23).
- control unit (27) can detect an object approaching the electronic device (20) or the user by using a proximity sensor, a light sensor, a magnetic sensor, an infrared sensor, an ultrasonic sensor, a light sensor, etc. included in the sensing unit (23).
- control unit (27) can also detect the movement of the user by using sensors provided in a controller that operates in conjunction with the electronic device (20).
- control unit (27) can perform operations (or functions) of the electronic device (20) using an application program stored in the memory (26).
- the power supply unit (28) receives external power or internal power under the control of the control unit (27) and supplies power to each component included in the electronic device (20).
- the power supply unit (28) includes a battery, and the battery may be provided in a built-in or replaceable form.
- At least some of the above components may operate in cooperation with each other to implement the operation, control, or control method of the electronic device according to various embodiments described below.
- the operation, control, or control method of the electronic device may be implemented on the electronic device by driving at least one application program stored in the memory (26).
- embodiments of the electronic device according to the present invention may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (personal digital assistants), a PMP (portable multimedia player), a navigation, a slate PC, a tablet PC, an ultrabook, and a wearable device.
- the wearable device may include a smart watch, a contact lens, VR/AR/MR Glass, and the like.
- FIG. 3 is a perspective view of an augmented reality electronic device according to an embodiment of the present invention.
- an electronic device may include a frame (100), a projector device (200), and a display unit (300).
- the electronic device may be provided as a glass type (smart glass).
- the glass type electronic device is configured to be worn on the head of the human body and may be provided with a frame (case, housing, etc.) (100) for this purpose.
- the frame (100) may be formed of a flexible material to facilitate wearing.
- the frame (100) is supported on the head and provides a space for mounting various components.
- electronic components such as a projector device (200), a user input unit (130), or an audio output unit (140) may be mounted on the frame (100).
- a lens covering at least one of the left and right eyes may be detachably mounted on the frame (100).
- the frame (100) may have a form of glasses worn on the face of the user's body as shown in the drawing, but is not necessarily limited thereto, and may also have a form such as goggles worn in close contact with the user's face.
- Such a frame (100) may include a front frame (110) having at least one opening, and a pair of side frames (120) that extend in the y direction (in FIG. 2) intersecting the front frame (110) and are parallel to each other.
- the frame (100) may have the same or different length (DI) in the x direction and length (LI) in the y direction.
- the project device (200) is provided to control various electronic components provided in an electronic device.
- the project device (200) may be used interchangeably with ‘optical output device’, ‘optical projector device’, ‘light irradiation device’, ‘optical device’, etc.
- the projector device (200) can generate an image or a video of a series of images that are displayed to the user.
- the projector device (200) can include an image source panel that generates an image and a plurality of lenses that diffuse and converge light generated from the image source panel.
- the project device (200) may be secured to either of the two side frames (120).
- the project device (200) may be secured to the inside or outside of either of the side frames (120), or may be integrally formed by being built into the inside of either of the side frames (120).
- the project device (200) may be secured to the front frame (110) or may be provided separately from the electronic device.
- the display unit (300) may be implemented in the form of a head mounted display (HMD).
- HMD form refers to a display method that is mounted on the head and directly shows an image in front of the user's eyes.
- the display unit (300) may be positioned to correspond to at least one of the left and right eyes so that the image can be directly provided in front of the user's eyes.
- the display unit (300) is positioned in a portion corresponding to the right eye so that the image can be output toward the user's right eye.
- it is not limited thereto and may be positioned for both the left and right eyes.
- the display unit (300) can allow the user to visually perceive the external environment while simultaneously allowing the user to see an image generated by the projector device (200).
- the display unit (300) can project an image onto the display area using a prism.
- the display unit (300) may be formed to be translucent so that the projected image and the general field of view in front (the range that the user sees through his eyes) can be viewed simultaneously.
- the display unit (300) may be translucent and may be formed of an optical member including glass.
- the display unit (300) may be inserted and fixed into an opening included in the front frame (110), or may be positioned on the back surface of the opening (i.e., between the opening and the user) and fixed to the front frame (110).
- the display unit (300) is positioned on the back surface of the opening and fixed to the front frame (110) as an example, but the display unit (300) may be positioned and fixed at various positions of the frame (100).
- the electronic device projects image light from the projector device (200) to one side of the display unit (300)
- the image light is emitted to the other side through the display unit (300), allowing the user to see the image generated from the projector device (200).
- the user can view the external environment through the opening of the frame (100) and at the same time view the image generated by the projector device (200). That is, the image output through the display unit (300) can be seen to overlap with the general field of view.
- the electronic device can provide augmented reality (AR) that superimposes a virtual image on a real image or background and shows it as a single image.
- AR augmented reality
- images generated from the external environment and the projector device (200) can be provided to the user with a time difference for a short period of time that is not recognized by the person.
- the external environment can be provided to the person in one section, and images from the projector device (200) can be provided to the person in another section.
- both overlap and time difference may be provided.
- the projector device may have a structure described below, or may be formed of a structure further including a waveguide or/and glass in the structure.
- the projector device may include a DLP (Digital Light Processing) projector or a projector device.
- the projector device may be expressed as a projector.
- the following display unit may be expressed as a light guide device.
- the light guide device according to the embodiment may correspond to the display unit included in the augmented reality electronic device according to the embodiment.
- Figure 4 is a schematic diagram of a light guide device according to an embodiment of the present invention.
- the light guide device (300) may include a first substrate (310), a first input diffractive element (320), a first transmission diffractive element (330), a first output diffractive element (340), and a cover (301).
- the light guide device (300) may include a second substrate (350), a second input diffractive element (360), a second transmission diffractive element (370), and a second output diffractive element (380).
- the light guide device (300) can change the path of light that is output from the projector device and can output the light to the outside again.
- the light guide device (300) can output the light to the outside so that it reaches the user's eyes.
- the light can be sequentially input to the first input diffraction element (320), the first transmission diffraction element (330), and the first output diffraction element (340) and output to the outside again.
- the direction of incidence of the light to the light guide device (300) can be a direction perpendicular to the first substrate (310) or a direction forming a certain angle with the direction perpendicular to the first substrate (310).
- the first substrate (310) can serve as a path for transmitting light.
- a first input diffractive element (320), a first transmission diffractive element (330), and a first output diffractive element (340) can be arranged on the first substrate (310).
- the light can be totally reflected inside the first substrate (310) and travel along the inside of the first substrate (310).
- the first substrate (310) can include a waveguide.
- the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340) can be arranged spaced apart from each other on the first substrate (310).
- the first substrate (310) may include a plurality of surfaces.
- the first substrate (310) may include a first surface and a second surface.
- the first surface may be a surface on which light is incident.
- the second surface may be a surface on which light is emitted.
- the second surface may be a surface spaced apart from the first surface.
- the first surface and the second surface may be parallel to each other.
- a first input diffraction element (320), a first transmission diffraction element (330), and a first output diffraction element (340) may be arranged on the first surface or the second surface.
- the first input diffraction element (320) can serve as a path through which light is incident.
- the first input diffraction element (320) can be placed on the first substrate (310).
- Light can be incident from the outside to the light guide device (300) through the first input diffraction element (320) and transmitted through the first substrate (310).
- the first input diffraction element (320) can change the path of light by diffracting the light.
- the first transmission diffraction element (330) can play a role in changing the path of light.
- the first transmission diffraction element (330) can be arranged on the first substrate (310).
- the first transmission diffraction element (330) can change the path of light incident through the first input diffraction element (320).
- the first transmission diffraction element (330) can change the path of light so that it is directed toward the first output diffraction element (340).
- the first transmission diffraction element (330) can change the path of light by diffracting the light.
- the first exit diffraction element (340) can serve as a path through which light is emitted.
- the first exit diffraction element (340) can be arranged on the first substrate (310). Light can be emitted to the outside of the light guide device (300) through the first exit diffraction element (340).
- the first exit diffraction element (340) can receive light whose path has been changed from the first transmission diffraction element (330) and emit it to the outside.
- the first exit diffraction element (340) can change the path of light and emit it to the outside.
- the first exit diffraction element (340) can change the path of light by diffracting the light.
- the second substrate (350) may be placed under the first substrate (310).
- the second substrate (350) may transmit light that has passed through the first substrate (310).
- a second input diffraction element (360), a second transmission diffraction element (370), and a second exit diffraction element (380) may be placed on the second substrate (350).
- the second input diffraction element (360), the second transmission diffraction element (370), and the second exit diffraction element (380) may be placed to overlap with the first input diffraction element (320), the first transmission diffraction element (330), and the first exit diffraction element (340) in the optical axis direction, respectively.
- the second input diffraction element (360) may diffract light that has passed through the first substrate (310) without being diffracted by the first input diffraction element (320).
- the second substrate (350) according to the embodiment may be placed on top of the first substrate (310).
- the first substrate (310) may be placed at the rearmost end of the light path among the plurality of substrates of the light guide device (300), and may be placed between the cover (301) and the first substrate (310) so that the first substrate (310) may transmit light that has passed through the second substrate (350).
- the cover (301) may be placed on the first substrate (310), the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340).
- the cover (301) may be placed adjacent to the projector (200) on the first substrate (310), the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340).
- Light may pass through the cover (301) and enter the first input diffractive element (320).
- the cover (390) may have an effect of protecting the interior of the light guide device (300).
- FIG. 5 is a drawing showing a grating pattern of a diffraction element of a light guide device according to an embodiment of the present invention.
- the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340) may each include a grating pattern in which a plurality of protrusions are repeatedly arranged.
- the plurality of protrusions may have a constant width, period, and height and may be arranged on the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340).
- the plurality of protrusions may protrude in the optical axis direction on the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340).
- the plurality of protrusions may be arranged spaced apart from each other in the vector direction of the pattern including the protrusions.
- the path of light may be changed differently after passing through the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340).
- the grating period of the diffractive element may be defined as the shortest distance between one side of a protrusion and one side of an adjacent protrusion.
- the grating period of the diffractive element may be the shortest distance between the same side surfaces of the protrusions.
- the first input diffractive element (320) may include a plurality of first protrusions (321).
- the grating period ( ⁇ IC ) of the first input diffractive element (320) may be the shortest distance between one side of the first protrusion (321) and one side of an adjacent first protrusion (321).
- the grating period ( ⁇ IC ) of the first input diffractive element (320) may be the shortest distance between the same side of adjacent first protrusions (321).
- the vector ( of the pattern of the first input diffractive element (320) ) means a direction perpendicular to the pattern direction of the first input diffraction element (320).
- the first transmission diffraction element (330) may include a plurality of second protrusions (331).
- the grating period ( ⁇ FG ) of the first transmission diffraction element (330) may be the shortest distance between one side of the second protrusion (331) and one side of the adjacent second protrusion (331).
- the grating period ( ⁇ FG ) of the first transmission diffraction element (330) may be the shortest distance between the same side surfaces of the adjacent second protrusions (331).
- the vector ( of the pattern of the first transmission diffraction element (330) ) means a direction perpendicular to the pattern direction of the first transmission diffraction element (330).
- the first diffractive element (340) may include a plurality of third protrusions (341).
- the grating period ( ⁇ OC ) of the first diffractive element (340) may be the shortest distance between one side of the third protrusion (341) and one side of an adjacent third protrusion (341).
- the grating period ( ⁇ OC ) of the first diffractive element (340) may be the shortest distance between the same side surfaces of adjacent third protrusions (341).
- the vector ( of the pattern of the first diffractive element (340) ) means a direction perpendicular to the pattern direction of the first diffraction element (340).
- FIGS. 6 to 10 are schematic diagrams of a first input diffraction element of a light guide device according to an embodiment of the present invention.
- the first input diffractive element (320) may include a plurality of first protrusions (321) protruding in the direction of the optical axis and a plurality of first thin films (322) arranged on the first substrate (310) and the first protrusions (321).
- a plurality of first protrusions (321) may protrude in the direction of the optical axis on the first input diffractive element (320).
- the plurality of first protrusions (321) may be arranged at a constant interval from each other in the first direction.
- the plurality of first protrusions (321) may have a constant width in the first direction.
- the plurality of first protrusions (321) may have a constant height in the direction of the optical axis.
- Each of the plurality of first protrusions (321) may include a top surface (S1), a first side surface (S2), and a second side surface (S3).
- the top surface (S1) may be arranged perpendicular to the optical axis direction.
- the first side surface (S2) and the second side surface (S3) may be spaced apart in the first direction.
- the first side surface (S2) and the second side surface (S3) may form a predetermined angle with the optical axis direction.
- the first side surface (S2) may form a first angle ( ⁇ a) with the optical axis direction.
- the first angle ( ⁇ a) may be greater than 0° and less than 90°.
- the second side surface (S3) may form a second angle ( ⁇ b) with the optical axis direction.
- the second angle ( ⁇ b) may be greater than 0° and less than 90°.
- the second angle ( ⁇ b) may be equal to or different from the first angle ( ⁇ a).
- the first side surface (S2) and the second side surface (S3) may be arranged parallel.
- the distance in the first direction between adjacent first side surfaces (S2) may be the first period ( ⁇ 1) of the first protrusion (321).
- the angle formed by the first side surface (S2) of the first protrusion (321) and the upper surface (S1) of the first protrusion (321) may be greater than the angle formed by the second side surface (S3) of the first protrusion (321) and the upper surface (S1).
- the first angle ( ⁇ a) and the second angle ( ⁇ b) may be 40° or less.
- the first period ( ⁇ 1) may be 300 nm to 1000 nm.
- the height (h) in the optical axis direction of the first protrusion may be less than 200 cos ⁇ a. By forming the height (h) in the optical axis direction of the first protrusion to be less than 200 cos ⁇ a, the diffraction efficiency of light may be significantly increased as the first thin film (322) is arranged.
- the height (h) in the optical axis direction of the first protrusion may be 20 nm to 200 nm.
- the first thin film (322) may be disposed on the first substrate (310) and the first protrusion (321). A plurality of first thin films (322) may be disposed at a predetermined interval from each other in the first direction.
- the first thin film (322) may be disposed on the first input diffraction element (320) to improve the diffraction efficiency of light incident on the first input diffraction element (320).
- the first thin film (322) may include a metal material.
- the first thin film (322) may include silver or aluminum.
- the first thin film (322) may include a plasmonic metasurface.
- the first thin film (322) is disposed on the first substrate (310) and the first protrusion (321), the light incident surface of the first input diffraction element (320) can be coated with a plasmonic metasurface, thereby increasing the diffraction efficiency of light at a specific angle and wavelength.
- the light guide device (300) includes a plurality of substrates, the first substrate (310) and the first input diffraction element (320) on which the first thin film (322) is disposed can be disposed at the lowest among the plurality of substrates of the light guide device (300). Since the first substrate (310), the first input diffraction element (320), and the first thin film (322) are positioned at the lowest, the diffraction efficiency of a specific wavelength band can be increased while maintaining the transmittance of light of other wavelength bands.
- the first thin film (322) may be arranged between the upper surface (S1) of the first protrusion (321), the first side surface (S2) and the plurality of first protrusions (321).
- the first thin film (322) may not be arranged on the second side surface (S3) of the first protrusion (321).
- the first thin film (322) may include a first sub-thin film (322a), a second sub-thin film (322b), and a third sub-thin film (322c).
- the first sub-thin film (322a) may be a portion disposed on the upper surface (S1) of the first protrusion (321).
- the first sub-thin film (322a) may be disposed perpendicular to the optical axis direction.
- the first sub-thin film (322a) may be disposed parallel to the first input diffraction element (320).
- the second sub-thin film (322b) may be a portion disposed between adjacent first protrusions (321).
- the second sub-thin film (322b) may be disposed on the upper surface of the first input diffraction element (320).
- the second sub-thin film (322b) may be disposed in an area of the upper surface of the first input diffraction element (320) where the first protrusion (321) is not disposed.
- the second sub-thin film (322b) may be arranged perpendicular to the optical axis direction.
- the second sub-thin film (322b) may be arranged parallel to the first input diffraction element (320).
- the third sub-thin film (322c) may be a portion arranged on the first side (S2) of the first protrusion (321).
- the third sub-thin film (322c) may form a certain angle with the optical axis direction.
- the third sub-thin film (322c) may be arranged between the first sub-thin film (322a) and the second sub-thin film (322b).
- the first thin film (322) may maintain high diffraction efficiency of light even at a wide angle by including the first sub-thin film (322a), the second sub-thin film (322b), and the third sub-thin film (322c).
- a part of the first sub-thin film (322a) may overlap a part of the second sub-thin film (322b) of the adjacent first thin film (322) in the optical axis direction.
- the first protrusion (321) may be arranged to be tilted at a certain angle toward the second side surface (S3). Accordingly, a part of the second sub-thin film (322b) may overlap a part of the upper surface (S1) and the second side surface (S2) of the adjacent first protrusion (3210) in the optical axis direction.
- a part of the second sub-thin film (322b) may overlap a part of the first sub-thin film (322a) of the adjacent first thin film (322) in the optical axis direction.
- the sum of the width in the first direction of the second sub-film (322b) and the width in the first direction of the first sub-film (322a) may be equal to the period ( ⁇ IC) of the first protrusion (321).
- the sum of the width in the first direction of the second sub-film (322b) and the width (d) in the first direction of the first protrusion (321) may be equal to the period ( ⁇ IC) of the first protrusion (321).
- the width in the first direction of the first sub-film (322a) may be equal to the width (d) in the first direction of the first protrusion (321).
- the third sub-thin film (322c) can form a certain angle with the first sub-thin film (322a) and the second sub-thin film (322b).
- the angle that the third sub-thin film (322c) forms with the first sub-thin film (322c) can be the same as the angle that the third sub-thin film (322c) forms with the second sub-thin film (322b).
- the angle that the third sub-thin film (322c) forms with the first sub-thin film (322a) and the second sub-thin film (322b) can be greater than 90 ⁇ .
- the angle that the third sub-thin film (322c) forms with the first sub-thin film (322a) and the second sub-thin film (322b) can be the same as the first angle ( ⁇ a).
- the thickness (w) of the first thin film (322) may be constant.
- the thickness (w) of the first thin film (322) may mean the width in the direction perpendicular to the surface in contact with the first thin film (322).
- the thicknesses of each of the first sub-thin film (322a), the second sub-thin film (322b), and the third sub-thin film (322c) may be the same. This may be the width in the optical axis direction of the first sub-thin film (322a).
- the thickness (w) in the optical axis direction of the first thin film (322) may be 20% to 60% of the height (h) in the optical axis direction of the first protrusion (321).
- the thickness (w) in the optical axis direction of the first thin film (322) By forming the thickness (w) in the optical axis direction of the first thin film (322) to be 20% to 60% of the height (h) in the optical axis direction of the first protrusion (321), the diffraction efficiency can be increased compared to the prior art even at a wide angle due to the plasmonic effect.
- the thickness (w) of the first thin film (322) may vary depending on the area of the first input diffraction element (320) when looking at the light guide device (300) in the optical axis direction.
- the distance in the first direction between adjacent first protrusions (321) may be greater than or equal to the width of the second sub-film (322b) in the first direction.
- the second sub-film (322b) may be positioned between the first side (S2) of the first protrusion (321) and the second side (S3) of the adjacent first protrusion (321). Accordingly, the width of the second sub-film (322b) in the first direction may be at most the distance in the first direction between adjacent first protrusions (321).
- the second sub-film (322b) may be spaced apart from the second side (S3) of the first protrusion (321) by a predetermined distance.
- the second sub-film (322b) may be spaced apart from the second side (S3) of the adjacent first protrusion (321) by a predetermined distance without coming into contact with the second side (S3) of the adjacent first protrusion (321).
- the width in the first direction of the second sub-thin film (322b) may be smaller than the distance in the first direction between adjacent first protrusions (321). Accordingly, a part of the upper surface of the first input diffraction element (320) may be exposed to the outside.
- the width in the first direction of the first sub-thin film (322a) may be larger than the width in the first direction of the second sub-thin film (322b).
- the first input diffractive element (320) may include a second thin film (322) disposed on the first input diffractive element (320) and the first protrusion (321).
- the second thin film (322) may include a first sub-thin film (322a) disposed on the first protrusion (321) and a second sub-thin film (322b) disposed on the first input diffraction element (320).
- the first sub-thin film (322a) and the second sub-thin film (322b) of the second thin film (322) may be disposed spaced apart from each other.
- the first sub-thin film (322a) may be disposed on the upper surface (S1) of the first protrusion (321).
- a plurality of first sub-thin films (322a) may be disposed spaced apart from each other by a predetermined interval in the first direction.
- the second sub-thin film (322b) may be disposed on the first input diffraction element (320).
- the second sub-thin film (322b) may be disposed between the first protrusion (321) and an adjacent first protrusion (321) on the first input diffraction element (320).
- a plurality of second sub-films (322b) may be arranged at a predetermined interval from each other in the first direction.
- the second film (322) may not be arranged on the first side (S2) and the second side (S3) of the first protrusion (321). (However, the second sub-film (322b) may be in contact with the thickness (w) of the second sub-film (322b).)
- the first sub-thin film (322a) and the second sub-thin film (322b) may not overlap each other in the first direction.
- the first sub-thin film (322a) and the second sub-thin film (322b) may partially overlap each other in the optical axis direction.
- the first sub-thin film (322a) may partially overlap one of the adjacent second sub-thin films (322b) in the optical axis direction.
- the first protrusion (321) may be arranged on the lower surface of the first input diffraction element (320).
- the first input diffraction element (320) may be arranged on the lower surface of the first substrate.
- Light may pass through the first substrate and be diffracted and reflected by the first input diffraction element (320).
- the first protrusion (321) may be arranged in a direction opposite to the direction in which light is incident.
- the first thin film (322) may be arranged in a direction opposite to the direction in which light is incident.
- FIG. 11a and FIG. 11b are graphs showing the diffraction efficiency of a light guide device according to an embodiment of the present invention.
- FIG. 11a shows the diffraction efficiency (E, %) according to the thickness (w, nm) of the first thin film when the wavelength of light is 532 nm, the period of the first protrusion is 415 nm, the fill factor is 60%, the height of the first protrusion is 100 nm, and the angle of the first protrusion is 30°.
- FIG. 11b shows the diffraction efficiency (E, %) according to the thickness (w, nm) of the first thin film when the wavelength of light is 532 nm, the period of the first protrusion is 415 nm, the fill factor is 60%, the height of the first protrusion is 150 nm, and the angle of the first protrusion is 30°.
- A shows the case of the shape of the first thin film according to the embodiment of FIG. 8
- B shows the case of the shape of the first thin film according to the embodiment of FIG. 9.
- FIG. 12 is a schematic diagram of a first input diffractive element of a light guide device according to another embodiment of the present invention.
- the first input diffractive element (320) may include a plurality of first protrusions (321) protruding in the direction of the optical axis and a first thin film (322) disposed on the first protrusions (321).
- a plurality of first protrusions (321) may protrude in the direction of the optical axis on the first input diffractive element (320).
- the plurality of first protrusions (321) may be arranged to be spaced apart from each other by a certain interval in the first direction.
- the first direction may mean the direction in which adjacent first protrusions (321) are spaced apart.
- the first direction may be perpendicular to the direction of the optical axis. In other words, the first direction may be a vector ( ) may be in the direction of the first projections (321).
- the plurality of first projections (321) may have a constant width (w) in the first direction.
- the plurality of first projections (321) may have a constant height (h) in the optical axis direction.
- the plurality of first projections (321) may have a constant period ( ⁇ IC).
- the period ( ⁇ IC) of the first projections (321) may mean the grating period of the first input diffractive element (320).
- the period ( ⁇ IC) of the first projections (321) may be the shortest distance between the same sides of adjacent first projections (321). That is, the period ( ⁇ IC) of the first projections (321) may be the separation distance in the first direction between the same side surfaces of adjacent first projections (321).
- the fill factor (F) of the first input diffractive element (320) may refer to the ratio of the first protrusion (321) filled when the first input diffractive element (320) is viewed in the direction of the optical axis.
- the first thin film (322) may be arranged on the first input diffractive element (320) and the first protrusion (321).
- the first thin film (322) may be arranged on the first input diffractive element (320) and the first protrusion (321) to cover the first input diffractive element (320) and the first protrusion (321).
- the first thin film (322) may be arranged to overlap the first input diffractive element (320) in the optical axis direction.
- the first thin film (322) may be in contact with both the upper surface and two side surfaces of the first protrusion (321).
- the first thin film (322) may also be in contact with an area of the upper surface of the first input diffractive element (320) where the first protrusion (321) is not arranged.
- the first thin film (322) may fill all of the spaces between the plurality of first protrusions (321).
- the first thin film (322) can cover the entire upper surface of the first input diffraction element (320).
- the first thin film (322) can include a metal thin film.
- the first thin film (322) can include Ag, Al, or Au.
- the first thin film (322) may have a constant height (H) in the optical axis direction.
- the height (H) of the first thin film (322) may be a width in the optical axis direction from the upper surface of the first input diffraction element (320) to the upper surface of the first thin film (322).
- the height (H) of the first thin film (322) may be greater than the height (h) of the first protrusion (321).
- the height (h) of the first protrusion (321) may be 40 nm to 100 nm.
- the height (h) of the first protrusion (321) may be 50 nm to 70 nm.
- the height (H) of the first thin film (322) may be 2 to 4 times the height (h) of the first protrusion (321).
- the diffraction efficiency of the light guide device may increase.
- the period ( ⁇ IC) of the pattern of the first input diffraction element (320) of the light guide device (300) according to the embodiment is 363 nm
- the height (h) of the first protrusion (321) is 50 nm
- the fill factor (F) is 50%
- the diffraction efficiency of the light may be 0.2%.
- the diffraction efficiency may increase by two times compared to when the first thin film (322) is not included. However, when the height (h) of the first protrusion (321) exceeds 40 nm to 100 nm, the diffraction efficiency may not increase or the increase may be insignificant.
- the period ( ⁇ IC) of the pattern of the first input diffractive element (320) is 363 nm
- the height (h) of the first protrusion (321) is 70 nm
- the fill factor (F) is 50%
- the diffraction efficiency of light may be 0.1933%. According to the embodiment, the diffraction efficiency may increase by about three times compared to a case where the first thin film (322) is not included.
- Figure 13 is a top view of a light guide device according to an embodiment of the present invention.
- the first input diffractive element (320) may include first to third regions (A1, A2, A3) arranged in a direction perpendicular to the optical axis direction.
- the first to third regions (A1, A2, A3) may be separated regions when the first input diffractive element (320) is viewed in the optical axis direction.
- the first to third regions (A1, A2, A3) may be arranged in a direction perpendicular to the optical axis direction.
- the second region (A2) may be arranged between the first region (A1) and the third region (A3).
- the widths (w) in the first direction of the first protrusions (321) arranged in the first to third regions (A1, A2, A3) may be different from each other.
- the widths in the first direction of the first protrusions (321) arranged in each region may be constant.
- the periods ( ⁇ IC) of the first protrusions (321) arranged in the first to third regions (A1, A2, A3) may be the same. Since the widths (w) of the first protrusions (321) arranged in the first to third regions (A1, A2, A3) are different and the periods ( ⁇ IC) are the same, the fill factor (F) of the first input diffractive element (320) may vary depending on the first to third regions (A1, A2, A3).
- the first to third regions (A1, A2, A3) can be arranged in the first direction.
- the first to third regions (A1, A2, A3) can be arranged in a direction in which adjacent first protrusions (321) are spaced apart. That is, the first to third regions (A1, A2, A3) can be arranged sequentially along the direction in which light propagates in the first input diffraction element (320).
- the first to third regions (A1, A2, A3) can be arranged in a vector ( ) can be sequentially arranged along the direction of the first region (A1) and the second region (A2) and the boundary between the second region (A2) and the third region (A3) can be perpendicular to the first direction.
- the first region (A1) can be the region furthest from the first transmission diffraction element (330)
- the third region (A3) can be the region closest to the first transmission diffraction element (330).
- the maximum widths in the first direction of the first to third regions (A1, A2, A3) may be the same. That is, the boundaries of the first to third regions (A1, A2, A3) may be arranged at positions that divide the diameter of the first input diffractive element (320) into three equal parts. As a result, when viewed in the direction of the optical axis, the center of the second region (A2) may overlap with the center of the first input diffractive element (320).
- the widths in the second direction of the first to third regions (A1, A2, A3) may be different.
- the second direction may be a direction perpendicular to the optical axis direction and the first direction.
- the first input diffractive element (320) may include a circular shape when viewed in the optical axis direction. Accordingly, the width in the second direction of the second region (A2) arranged between the first region (A1) and the third region (A3) may be the largest.
- the width in the second direction of the first region (A1) and the maximum width in the second direction of the third region (A3) may be the same.
- the widths in the second direction of the first region (A1) and the third region (A3) may increase as they become closer to the second region (A2).
- the ratio of the widths (w) in the first direction of the first protrusion (321) of the first region (A1), the first protrusion (3210) of the second region (A2), and the first protrusion (A3) of the third region (A3) may be 7:5:3.
- the fill factor (F) of the first region (A1) may be 70%
- the fill factor (F) of the second region (A2) may be 50%
- the fill factor (F) of the third region (A3) may be 30%.
- the dispersion of the light output efficiency according to the output region of the light guide device may be 0.0596.
- the fill factor (F) of the area (A3) is 30%, the dispersion of the light output efficiency according to the output area of the light guide device can be 0.0387.
- the first input diffractive element (320) includes the first area to the third area (A1, A2, A3), the dispersion of the light output efficiency according to the area can be reduced, and accordingly, the light output uniformity can be increased.
- the first input diffractive element (320) includes the first area to the third area (A1, A2, A3) distinguished according to the width of the first protrusion (321) and includes the first thin film (322), the light output uniformity can be increased while maintaining the diffraction efficiency of the light guide device.
- the fill factor (F) of the first region (A1) may be 30%, the fill factor (F) of the second region (A2) may be 50%, and the fill factor (F) of the third region (A3) may be 70%.
- the fill factor (F) of the first region (A1) may be 40%, the fill factor (F) of the second region (A2) may be 50%, and the fill factor (F) of the third region (A3) may be 60%.
- the fill factor (F) of the first region (A1) may be 60%, the fill factor (F) of the second region (A2) may be 50%, and the fill factor (F) of the third region (A3) may be 40%.
- FIG. 14 is a top view of a light guide device according to another embodiment of the present invention.
- the first to third regions (A1, A2, A3) may be arranged in a second direction.
- the second direction may be a direction perpendicular to the first direction and the optical axis direction.
- the first to third regions (A1, A2, A3) may be arranged perpendicular to the direction in which adjacent first protrusions (321) are spaced apart.
- the first to third regions (A1, A2, A3) may be arranged sequentially along a direction perpendicular to the direction in which light propagates in the first input diffraction element (320).
- the first to third regions (A1, A2, A3) may be arranged in a vector ( ) can be sequentially arranged along a direction perpendicular to the direction of the first region (A1) and the second region (A2) and a boundary surface between the second region (A2) and the third region (A3) can extend in the first direction.
- the first region (A1) can be a region furthest from the first diffraction element (340)
- the third region (A3) can be a region closest to the first diffraction element (340).
- the maximum widths in the second direction of the first to third regions (A1, A2, A3) may be the same. That is, the boundaries of the first to third regions (A1, A2, A3) may be arranged at positions that divide the diameter of the first input diffractive element (320) into three equal parts. As a result, when viewed in the direction of the optical axis, the center of the second region (A2) may overlap with the center of the first input diffractive element (320).
- the widths in the first direction of the first to third regions (A1, A2, A3) may be different.
- the first input diffractive element (320) may include a circular shape when viewed in the direction of the optical axis. Accordingly, the width in the first direction of the second region (A2) arranged between the first region (A1) and the third region (A3) may be the largest. In addition, the width in the first direction of the first region (A1) and the maximum width in the first direction of the third region (A3) may be the same. The widths in the first direction of the first region (A1) and the third region (A3) may increase as they become closer to the second region (A2).
- the ratio of the widths (w) in the first direction of the first protrusion (321) of the first region (A1), the first protrusion (3210) of the second region (A2), and the first protrusion (A3) of the third region (A3) may be 7:5:3.
- the fill factor (F) of the first region (A1) may be 70%
- the fill factor (F) of the second region (A2) may be 50%
- the fill factor (F) of the third region (A3) may be 30%.
- the dispersion of the light output efficiency according to the output region of the light guide device may be 0.0596.
- the fill factor (F) of the area (A3) is 30%, the dispersion of the light output efficiency according to the output area of the light guide device can be 0.0387.
- the first input diffractive element (320) includes the first area to the third area (A1, A2, A3), the dispersion of the light output efficiency according to the area can be reduced, and accordingly, the light output uniformity can be increased.
- the first input diffractive element (320) includes the first area to the third area (A1, A2, A3) distinguished according to the width of the first protrusion (321) and includes the first thin film (322), the light output uniformity can be increased while maintaining the diffraction efficiency of the light guide device.
- the vehicle system may include a vehicle, a passenger (driver), and an electronic device.
- the electronic device is described as a device separately provided in the vehicle, but the present invention is not limited thereto.
- the electronic device may be implemented as a part of the vehicle.
- a vehicle may include a body and various devices for moving the body (e.g., wheels, a driving device for driving the wheels, a starting device for starting the driving device, an engine for generating power and transmitting the generated power to the driving device, a steering device for controlling the direction of the vehicle, an accelerator for controlling the speed of the vehicle, etc.).
- the vehicle may include various electrical systems.
- the electrical system may include an engine control device for controlling the engine, a temperature control device for controlling the temperature inside the vehicle, a light control device for controlling the lights according to external conditions, etc.
- the vehicle may include a communication interface capable of communicating with an electronic device, and may include an additional processor for analyzing data transmitted through the communication interface and performing preset functions based on the analysis results.
- the processor may be implemented as, for example, the engine control unit or motor control unit described above.
- the communication interface may support at least one of various communication methods, such as CAN communication that supports data transmission and reception within the vehicle or wired communication via a cable connected to the electronic device.
- the vehicle may receive an image acquired by the electronic device or an analysis result for the image, and perform a designated function according to the received result.
- an electronic device may be connected to a camera module to acquire an image of a driver, analyze the acquired image, and then perform various set function processing (e.g., deceleration processing, turning on or off an emergency light, controlling a horn device, controlling vehicle vibration, controlling window opening and closing, etc.) based on the analysis result.
- various function processing may be additionally implemented.
- the driver as a person who can sit in the driver's seat and control the steering device, can be the subject of image capture by the electronic device.
- the electronic device acquires an image of the driver seated in the driver's seat as a representative example, but the present invention is not limited thereto.
- the monitoring system can be applied to acquire images of not only the driver but also the passenger seated in the passenger seat or other seats, and to perform adjustment of the image acquisition method according to various actions of the passenger.
- at least one electronic device can be arranged in the vehicle.
- a camera module and an electronic device can be arranged so as to acquire an image of the driver seated in the driver's seat that only supports driver monitoring.
- multiple electronic devices may be placed within the vehicle to enable image acquisition of the driver and passenger seats.
- the electronic device can receive image information about the driver's face through the camera module. Accordingly, the electronic device can determine whether the driver is drowsy, etc. in a predetermined manner and provide various feedbacks (e.g., alarms) corresponding thereto. For example, the electronic device can determine whether the driver is drowsy based on the user's eye track or the size or change in the size of the iris. In addition, the electronic device can receive image information about the driver's hands as well as the user's face from the camera module. Accordingly, the electronic device can easily determine the driver's hands-off state. In other words, a driver monitoring system having a hands-off monitoring function can be implemented. Accordingly, the driver's concentration state or whether the driver is drowsy can be easily determined based on various driver movements according to the driver's hands-off.
- various feedbacks e.g., alarms
- the camera module may be placed in a location within the vehicle where it is easy to capture images of passengers.
- it may be placed in various locations within the vehicle, such as the windshield (e.g., the location where the head-up display is placed) or the bottom of the windshield, the dashboard, the instrument panel, etc., so as to obtain images of a subject seated in the driver's seat.
- the camera module may be placed in a location that is difficult for passengers to easily recognize.
- a camera module connected to an electronic device may be placed at a predetermined location within the vehicle to receive image information about passengers other than the driver of the vehicle.
- the camera module may be placed on a rearview mirror (or room mirror) or the like to detect all passengers other than the driver. As a result, the camera module may generate an image of all passengers.
- the camera module can generate image information about other passengers in the vehicle other than the driver.
- the electronic device can receive image information including passengers other than the driver.
- a camera module may include a light source unit, a light guide device, a light receiving unit, and a control unit.
- the light source unit can output light by a control signal. Finally, the light output from the light source unit can be irradiated to an object. And the light irradiated to the object can be reflected and provided to the light receiving unit.
- the light source unit may include at least one light source. And at least one light source may emit light of a predetermined wavelength band or light having a predetermined center wavelength. In addition, the light source of the light source unit may emit light of a predetermined pattern according to a pre-designed algorithm. The light source unit may output light under the control of the control unit.
- output light or incident light may refer to light output from a light source and provided to an object
- input light or reflected light may refer to light output from a light source, reaches an object, is reflected from the object, and is input to a light receiving unit. That is, from the object's perspective, output light may be incident light, and input light may be reflected light.
- At least one light source of the light source unit can output light of a predetermined wavelength band.
- the wavelength of the light output from the light source can be infrared rays of 770 nm to 3000 nm.
- the wavelength of the light output from the light source can be visible light of 380 nm to 770 nm.
- the light source of the light source unit can emit light outside the wavelength range described above.
- the light source can irradiate light of a specific wavelength band so as not to be harmful to passengers such as the driver and passengers in the vehicle, as described above, or irradiate light of a specific energy or lower so as not to be harmful.
- the light source may include a light emitting diode (LED), an organic light emitting diode (OLED), a laser diode (LD), a vertical-cavity surface-emitting laser (VCSEL), a plasma lamp, a fluorescent lamp, a xenon lamp, a halogen lamp, a neon lamp, or the like.
- the light source may output a wavelength of about 800 nm to 1000 nm, for example, about 850 nm or about 940 nm.
- the light guide device can be arranged adjacent to the light source and the light receiving unit.
- the light guide device can guide light irradiated from the light source and transmit it to an object.
- the light guide device can guide light reflected from the object again and provide it to the light receiving unit.
- the light guide device can be configured to control the light and move it along a desired path.
- the light guide device can perform both transmitting light to the object and receiving reflected light.
- the light guide device can be configured to help light from the camera module accurately reach the sensor or guide it along a specific path so that optical information is accurately transmitted.
- These light guide devices can be made of materials such as glass, polymer, or silicon.
- the light guide devices can include various other light-guiding materials.
- the light guide device can transmit light in a desired direction by utilizing diffraction.
- the light guide device can include an optical element for determining the path of light in a substrate that is a waveguide.
- the optical element can include various elements that operate based on diffraction.
- the light guide device may include a diffractive element, which is a holographic optical element (HOE).
- the light guide device may include an input diffractive element, an input/output diffractive element, and an output diffractive element, as described below.
- the input diffractive element, the input/output diffractive element, and the output diffractive element may be formed of a holographic optical element.
- holographic optical elements diffract light (or light) using interference patterns generated by laser interference, and through this, light of a specific wavelength can be controlled or diffracted in a desired direction.
- Bragg’s Law is applied in this diffraction process, and the diffraction angle can be determined according to the wavelength of light and the structure of the holographic optical element.
- a holographic optical element can be composed of an interference pattern recorded on a transparent substrate.
- the transparent substrate is a waveguide and can be made of various materials such as glass, plastic, and polymer.
- the interference pattern of the holographic optical element can be precisely designed inside or on the surface of the substrate to guide light in a specific direction.
- the holographic optical element can be classified into a transmissive type in which light is diffracted while passing through and a reflective type in which light is diffracted while being reflected. Accordingly, the holographic optical element can change its position on the substrate. Light can be precisely controlled by such a holographic optical element to provide a high-resolution image.
- the holographic optical element can also support high-speed data transmission through wavelength separation and combination in optical communication.
- the holographic optical element can provide a miniaturized camera module because it is lighter and thinner than a conventional lens or mirror.
- the light receiving unit can receive light transmitted through the light guide device.
- the light receiving unit can include an image sensor.
- the image sensor can receive light reflected from an object. Accordingly, the image sensor can detect the light and convert it into an electrical signal. For example, the image sensor can convert the electrical signal to generate a digital image.
- the image sensor can include a CCD (Charge-Coupled Device), a CMOS (Complementary Metal-Oxide-Semiconductor), an InGaAs (Indium Gallium Arsenide) sensor, a HgCdTe (Mercury Cadmium Telluride) sensor, a microbolometer, and the like.
- the light receiving unit may also include an image sensor that receives light of various wavelength bands other than those described above or as examples.
- the light receiving unit may be positioned adjacent to the light guide device, just like the light source unit.
- additional lenses may be positioned between the light receiving unit and the light guide device. The same may be applied between the light source unit and the light guide device.
- the control unit can control the operation of the light source unit and the light receiving unit.
- the control unit can generate depth information based on the image generated by the light receiving unit, or transmit and receive image information with other electronic devices such as vehicles.
- This control unit can control the operation within the camera module, and can also communicate with the processor within the device such as an external electronic device such as a vehicle.
- the control unit may include a processor, a microcontroller (MCU), a field programmable gate array (FPGA), an application specific integrated circuit (ASIC), etc., and may also be implemented in the form of an application processor (AP) of various electronic devices.
- MCU microcontroller
- FPGA field programmable gate array
- ASIC application specific integrated circuit
- FIG. 15 is a drawing illustrating the configuration of a camera module according to an embodiment of the present invention.
- Figure 15a shows a view in which light incident from the outside enters the light receiving unit (500) through the light guide device (400), and Figure 15b shows a view in which light irradiated from the light source unit (600) is emitted to the outside through the light guide device (400).
- the light guide device (400) may include a cover (401), a first substrate (410), a first input diffraction element (420), a first transmission diffraction element (430), a first input/output diffraction element (440), and a first output diffraction element (450).
- the first input diffractive element (420), the first transmission diffractive element (430), the first input/output diffractive element (440), and the first output diffractive element (450) may be arranged on a first substrate (410) which is a waveguide.
- the first input diffractive element (420), the first transmission diffractive element (430), the first input/output diffractive element (440), and the first output diffractive element (450) may be either a transmissive type or a reflective type, and may be positioned on either one surface (e.g., an upper surface) or the other surface (e.g., a lower surface) of the first substrate (410).
- first input diffraction element (420), the first transmission diffraction element (430), the first input/output diffraction element (440), and the first output diffraction element (450) are diffraction elements as described above, and can be spaced apart from each other.
- the first input diffraction element (420) diffracts light provided from the light source unit (600) and guides it to the first substrate (410), and the light guided into the first substrate (410) can be provided to the first input/output diffraction element (440) through the first transmission diffraction element (430).
- the first input/output diffraction element (440) diffracts light guided from the first input diffraction element (420) to the first substrate (410) onto an object, and diffracts light reflected from the object and guides it into the substrate (410).
- the first output diffraction element (450) diffracts light reflected from an object and guided to the substrate (410) by the first input/output diffraction element (440) and guides or provides it to the light receiving unit (500). At this time, light diffracted by the first emitting diffraction element (450) and guided to the light receiving unit (500) may be incident on the light receiving unit (500) and converted into image information.
- the first transmission diffraction element (430) may not be included.
- the first input/output diffraction element (440) of FIG. 15A may include the first protrusion and the first thin film of FIG. 6.
- the first input diffraction element (420) of FIG. 15B may include the first protrusion and the first thin film of FIG. 6.
- the light guide device of the camera module according to the embodiment may include the first protrusion and the first thin film of FIG. 6 not only when light irradiated from the light source unit (600) is emitted to the outside through the light guide device (400), but also when light incident from the outside is incident to the light receiving unit (500) through the light guide device (400). Accordingly, a light guide device and a camera module that enable easier creation of images for passengers, etc. in a vehicle, etc., may be provided.
- the first input diffraction element of FIGS. 13 and 14 can be applied to the first input/output diffraction element (440) of FIG. 15a.
- the first input diffraction element of FIGS. 13 and 14 can be applied to the first input diffraction element (420) of FIG. 15b.
- the light guide device of the camera module according to the embodiment can include the first input diffraction element of FIG. 13 not only in the case where light irradiated from the light source unit (600) is emitted to the outside through the light guide device (400), but also in the case where light incident from the outside is incident to the light receiving unit (500) through the light guide device (400). Accordingly, a light guide device and a camera module can be provided in which image generation for passengers, etc. in a vehicle, etc. is more easily implemented.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
실시 예는 광 가이드 장치 및 이를 포함하는 전자 디바이스에 관한 것이다.The embodiment relates to a light guide device and an electronic device including the same.
가상현실(Virtual Reality, VR)은 컴퓨터 등을 사용한 인공적인 기술로 만들어낸 실제와 유사하지만 실제가 아닌 어떤 특정한 환경이나 상황 혹은 그 기술 자체를 말한다.Virtual Reality (VR) refers to a specific environment or situation, or the technology itself, that is similar to reality but not real, created using artificial technology such as computers.
증강현실(Augmented Reality, AR)은 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 기술을 말한다.Augmented Reality (AR) is a technology that synthesizes virtual objects or information into the real environment to make them appear as if they existed in the original environment.
혼합현실 (Mixed Reality, MR) 혹은 혼성현실 (Hybrid reality)은 가상 세계와 현실 세계를 합쳐서 새로운 환경이나 새로운 정보를 만들어 내는 것을 말한다. 특히, 실시간으로 현실과 가상에 존재하는 것 사이에서 실시간으로 상호작용할 수 있는 것을 말할 때 혼합현실이라 한다.Mixed reality (MR) or hybrid reality refers to the creation of a new environment or new information by combining the virtual world and the real world. In particular, it is called mixed reality when it refers to real-time interaction between things that exist in reality and virtual worlds.
이 때, 만들어진 가상의 환경이나 상황 등은 사용자의 오감을 자극하며 실제와 유사한 공간적, 시간적 체험을 하게 함으로써 현실과 상상의 경계를 자유롭게 드나들게 한다. 또한, 사용자는 이러한 환경에 단순히 몰입할 뿐만 아니라 실재하는 디바이스를 이용해 조작이나 명령을 가하는 등 이러한 환경 속에 구현된 것들과 상호작용이 가능하다.At this time, the created virtual environment or situation stimulates the user's five senses and allows them to freely move between reality and imagination by experiencing spatial and temporal experiences similar to reality. In addition, the user can interact with the things implemented in this environment by not only simply immersing himself in this environment, but also using real devices to operate or give commands.
최근, 이러한 기술분야에 사용되는 장비(gear, device)에 대한 연구가 활발히 이루어지고 있다. 다만, 이러한 장비에 대한 소형화와 광학 성능 개선에 대한 필요성이 대두되고 있다.Recently, research on the equipment (gear, device) used in these technical fields has been actively conducted. However, the need for miniaturization and improvement of optical performance of these equipment is emerging.
또한, 차량의 운전 중에 운전자로 인해 발생하는 교통 사고가 차량의 증가와 함께 크게 증가하고 있으며, 이러한 운전자로 인한 사고는 운전자의 신체 상태에 따라 발생율이 크게 증가하는 문제점이 존재한다.In addition, traffic accidents caused by drivers while driving are increasing significantly along with the increase in vehicles, and there is a problem that the occurrence rate of these driver-related accidents increases significantly depending on the physical condition of the driver.
특히, 최근에는 운전 중에 스마트폰의 사용 등에 따른 운전 부주위로 인한 사고도 크게 늘어나고 있다. 이러한 운전자의 운전 부주위 내지 졸음 운전 등으로 인한 교통 사고의 증가 문제로 인해 최근 자동차 제조사들은 차량의 운전 중에 운전자의 운전 집중 상태 내지 신체 상태를 감시하는 운전자 모니터링 시스템(DMS : Driver Monitoring System)을 차량에 탑재하고 있다.In particular, recently, accidents due to distracted driving, such as using smartphones while driving, have been increasing significantly. Due to the problem of increased traffic accidents caused by distracted driving or drowsy driving, automobile manufacturers have recently been installing driver monitoring systems (DMS: Driver Monitoring Systems) in their vehicles to monitor the driver's concentration and physical condition while driving.
DMS는 단순히 운전자의 핸들 조작 상태나, 운전시간을 고려한 핸들 조작 상태에 따라 운전자의 상태를 예측하여 운전자에게 경고음이나 경고 메시지를 통해 운전자의 경각심을 일으키는 수준으로 이루어지는 형태가 일반적이었으나, 최근에는 운전자가 설정한 속도에 맞춰 앞차와의 거리를 스스로 유지하며 주행하는 ACC(Adaptive Cruise Control), 카메라로 차선을 인식하여 차선을 유지하도록 하는 LKAS(Lane Keeping Assist System) 등과 같은 직접적으로 운전자의 운전을 보조하는 다양한 기능을 제공하는 지능형 운전자보조시스템(ADAS : Advanced Driver Assistance Systems)이 개발되면서 DMS 보다 적극적으로 운전자의 운전 집중 상태 내지 운전자의 졸음과 같은 신체 상태를 파악하기 위하여 운전자를 촬영하는 카메라를 이용하여 촬영된 영상을 통해 운전자의 신체 움직임을 감시하거나 운전자 눈꺼풀의 움직임에 감시하여 운전자의 운전 집중 상태 또는 운전자의 졸음 여부를 판단하고 위험을 회피하기 위하여 운전자에게 핸들 진동이나 경고음을 발생하거나 차량의 속도를 일정 속도 이하로 감속시키는 등 다양한 방법이 시행되고 있다.DMS was generally implemented in a form that simply predicted the driver's condition based on the driver's steering wheel operation status or the driving time, and alerted the driver with a warning sound or message. However, recently, with the development of advanced driver assistance systems (ADAS), which provide various functions that directly assist the driver's driving, such as ACC (Adaptive Cruise Control) that maintains the distance from the car in front at a speed set by the driver and drives, and LKAS (Lane Keeping Assist System) that recognizes the lane with a camera and helps maintain the lane, various methods are being implemented, such as using a camera to film the driver to actively determine the driver's driving concentration or physical condition, such as drowsiness, or monitoring the driver's physical movements through the captured video, or monitoring the movement of the driver's eyelids to determine the driver's driving concentration or drowsiness, and vibrating the steering wheel or generating a warning sound to the driver to avoid danger, or slowing down the vehicle to a certain speed or below.
한편, 위와 같은 DMS는 자동차의 자율주행 성능이 고도화에 됨에 따라 운전자의 핸들 파지를 반드시 요하지 않게 되어 운전자의 핸즈 오프(Hands off) 상태가 빈번하게 발생함에 따라 핸즈 오프 감시기능을 갖는 운전자 모니터링 시스템이 요구되고 있고, 이로 인해 운전자의 핸즈 오프에 따른 다양한 운전자의 움직임에 따른 운전 집중 상태 내지 운전자의 졸음 여부를 판단할 수 있는 고도화된 DMS가 요구되고 있는 실정이다.Meanwhile, as the autonomous driving performance of automobiles becomes more advanced, the driver's grip on the steering wheel is no longer necessarily required, and as the driver's hands-off state occurs more frequently, a driver monitoring system with a hands-off monitoring function is in demand. As a result, an advanced DMS that can determine the driver's concentration status or drowsiness based on the driver's various movements due to the driver's hands-off is in demand.
다만, 운전자 등이 본인을 촬영하거나 감시하는 것을 선호하지 않아, 운전자가 이러한 감시에 대한 인식을 느끼지 않는 기술에 대한 필요성도 증가하고 있다.However, as drivers and others do not prefer to have themselves filmed or monitored, the need for technology that does not make drivers aware of such surveillance is also increasing.
실시 예는 회절 효율이 증가한 광 가이드 장치 및 이를 포함하는 전자 디바이스를 제공한다.Embodiments provide a light guide device with increased diffraction efficiency and an electronic device including the same.
또한, 광 출력 균일성이 증가한 광 가이드 장치 및 이를 포함하는 전자 디바이스를 제공한다.In addition, a light guide device having increased light output uniformity and an electronic device including the same are provided.
실시예는 차량 등 내에서 탑승자 등에 대한 이미지 생성이 보다 용이하게 구현되는 광 가이드 장치 및 카메라 모듈을 제공한다.The embodiment provides a light guide device and a camera module that enable easier creation of images of passengers, etc., within a vehicle, etc.
실시 예에서 해결하고자 하는 과제는 이에 한정되는 것은 아니며, 아래에서 설명하는 과제의 해결수단이나 실시 형태로부터 파악될 수 있는 목적이나 효과도 포함된다고 할 것이다.The problem to be solved in the embodiment is not limited to this, and it can be said that the purpose or effect that can be understood from the solution or embodiment of the problem described below is also included.
실시예에 따른 광 가이드 장치는 제1 기판; 및 상기 제1 기판에 배치되고, 광이 순차적으로 입사되는 제1 입력 회절소자, 제1 전달 회절소자 및 제1 출사 회절소자를 포함하고, 상기 제1 입력 회절소자는 광축 방향으로 돌출된 복수의 제1 돌출부 및 상기 제1 기판과 상기 제1 돌출부 상에 배치되는 복수의 제1 박막을 포함하고, 상기 제1 돌출부는 상면, 제1 측면 및 제2 측면을 포함하고, 상기 제1 박막은 상기 제1 돌출부의 상면, 제1 측면 및 인접한 상기 복수의 제1 돌출부의 사이에 배치될 수 있다.An optical guide device according to an embodiment comprises: a first substrate; and a first input diffractive element, a first transmission diffractive element, and a first output diffractive element, which are arranged on the first substrate and onto which light is sequentially incident, wherein the first input diffractive element comprises a plurality of first protrusions protruding in the direction of an optical axis, and a plurality of first thin films arranged on the first substrate and the first protrusions, wherein the first protrusions include an upper surface, a first side surface, and a second side surface, and the first thin films can be arranged between the upper surface, the first side surface, and the adjacent plurality of first protrusions.
상기 복수의 제1 돌출부 및 상기 복수의 제1 박막은 각각 상기 광축 방향과 수직한 제1 방향으로 서로 일정 거리 이격되어 배치될 수 있다.The plurality of first protrusions and the plurality of first thin films may be arranged at a predetermined distance from each other in a first direction perpendicular to the optical axis direction.
상기 제1 박막은 상기 제1 돌출부의 상면에 배치되는 제1 서브 박막, 인접한 상기 복수의 제1 돌출부의 사이에 배치되는 제2 서브 박막 및 상기 제1 돌출부의 제1 측면에 배치되는 제3 서브 박막을 포함할 수 있다.The first thin film may include a first sub-thin film arranged on an upper surface of the first protrusion, a second sub-thin film arranged between the plurality of adjacent first protrusions, and a third sub-thin film arranged on a first side of the first protrusion.
상기 제1 측면 및 상기 제2 측면은 상기 제1 방향으로 이격되어 배치되고, 상기 제1 측면은 상기 광축 방향과 제1 각도를 형성하고, 상기 제2 측면은 상기 광축 방향과 제2 각도를 형성하며, 상기 제1 각도 및 상기 제2 각도는 동일할 수 있다.The first side and the second side are arranged spaced apart from each other in the first direction, the first side forms a first angle with the optical axis direction, the second side forms a second angle with the optical axis direction, and the first angle and the second angle can be the same.
상기 제1 돌출부의 상기 제1 측면과 상기 제1 돌출부의 상기 상면이 이루는 각도는 상기 제1 돌출부의 상기 제2 측면과 상기 상면이 이루는 각도보다 클 수 있다.The angle formed by the first side surface of the first protrusion and the upper surface of the first protrusion may be greater than the angle formed by the second side surface of the first protrusion and the upper surface.
인접한 상기 제1 돌출부 간의 상기 제1 방향으로 이격거리는 상기 제2 서브 박막의 상기 제1 방향으로 너비 보다 크거나 같을 수 있다.The distance between the adjacent first protrusions in the first direction may be greater than or equal to the width of the second sub-film in the first direction.
상기 제1 돌출부의 상기 광축 방향으로 높이는 200cosθ보다 작으며, 상기 θ는 상기 제1 각도일 수 있다.The height of the first protrusion in the optical axis direction is less than 200 cosθ, and θ may be the first angle.
상기 제2 서브 박막은 상기 제1 입력 회절소자의 상면에 배치될 수 있다.The second sub-film can be arranged on the upper surface of the first input diffraction element.
상기 제1 박막의 상기 광축 방향으로 두께는 상기 제1 돌출부의 상기 광축 방향으로 높이의 20% 내지 60%일 수 있다.The thickness of the first thin film in the optical axis direction may be 20% to 60% of the height of the first protrusion in the optical axis direction.
상기 제1 서브 박막의 상기 제1 방향으로 너비 및 상기 제2 서브 박막의 상기 제1 방향으로 너비의 합은 상기 제1 돌출부의 주기와 동일하며, 상기 제1 돌출부의 주기는 인접한 상기 제1 돌출부의 상기 제1 측면 간의 상기 제1 방향으로 거리일 수 있다.The sum of the width of the first sub-film in the first direction and the width of the second sub-film in the first direction is equal to the period of the first protrusion, and the period of the first protrusion can be the distance in the first direction between the first side surfaces of adjacent first protrusions.
상기 제2 서브 박막은 상기 제1 돌출부의 상기 제2 측면과 일정 거리 이격될 수 있다.The second sub-film can be spaced apart from the second side of the first protrusion by a certain distance.
상기 제3 서브 박막이 상기 제1 서브 박막 및 상기 제2 서브 박막과 이루는 각도는 90°보다 클 수 있다.The angle formed by the third sub-film with the first sub-film and the second sub-film may be greater than 90°.
실시예에 따른 광 가이드 장치는 제1 기판; 및 상기 제1 기판에 배치되고, 광이 순차적으로 입사되는 제1 입력 회절소자, 제1 전달 회절소자 및 제1 출사 회절소자를 포함하고, 상기 제1 입력 회절소자는 광축 방향으로 돌출된 복수의 제1 돌출부 및 상기 제1 입력 회절소자와 상기 제1 돌출부 상에 배치되는 제2 박막을 포함하고, 상기 제2 박막은 상기 제1 돌출부 상에 배치되는 제1 서브 박막 및 상기 제1 입력 회절소자 상에 배치되는 제2 서브 박막을 포함할 수 있다.An optical guide device according to an embodiment comprises: a first substrate; and a first input diffractive element, a first transmission diffractive element, and a first output diffractive element, which are arranged on the first substrate and onto which light is sequentially incident, wherein the first input diffractive element comprises a plurality of first protrusions protruding in the direction of an optical axis, and a second thin film arranged on the first input diffractive element and the first protrusions, and the second thin film may include a first sub-thin film arranged on the first protrusions and a second sub-thin film arranged on the first input diffractive element.
상기 제1 돌출부의 측면은 상기 광축 방향과 일정 각도를 형성하며, 상기 제1 서브 박막은 인접한 상기 제2 서브 박막 중 하나와 상기 광축 방향으로 일부 중첩될 수 있다.The side surface of the first protrusion forms a certain angle with the optical axis direction, and the first sub-film can partially overlap with one of the adjacent second sub-films in the optical axis direction.
상기 제1 서브 박막과 상기 제2 서브 박막은 상기 광축 방향과 수직한 제1 방향으로 중첩되지 않을 수 있다.The first sub-film and the second sub-film may not overlap in a first direction perpendicular to the optical axis direction.
상기 제1 박막은 플라즈모닉 메타표면(Plasmonic metasurface)일 수 있다.The above first thin film may be a plasmonic metasurface.
실시예에 따른 광 가이드 장치는 제1 기판; 및 상기 제1 기판에 배치되고, 광이 순차적으로 입사되는 제1 입력 회절소자, 제1 전달 회절소자 및 제1 출사 회절소자를 포함하고, 상기 제1 입력 회절소자는 광축 방향으로 돌출된 복수의 제1 돌출부 및 상기 제1 입력 회절소자와 상기 제1 돌출부 상에 배치되는 제1 박막을 포함하고, 상기 복수의 제1 돌출부는 상기 광축 방향과 수직한 제1 방향으로 이격되며, 상기 제1 입력 회절소자는 상기 광축 방향과 수직한 방향으로 배치되는 제1 영역 내지 제3 영역을 포함하고, 상기 제1 돌출부의 상기 제1 방향으로 너비는 상기 제1 영역 내지 상기 제3 영역에 따라 서로 상이할 수 있다.A light guide device according to an embodiment comprises: a first substrate; and a first input diffractive element, a first transmission diffractive element, and a first output diffractive element, which are arranged on the first substrate and onto which light is sequentially incident, wherein the first input diffractive element comprises a plurality of first protrusions protruding in an optical axis direction and a first thin film arranged on the first input diffractive element and the first protrusions, wherein the plurality of first protrusions are spaced apart in a first direction perpendicular to the optical axis direction, and the first input diffractive element comprises first to third regions arranged in a direction perpendicular to the optical axis direction, and a width of the first protrusion in the first direction may be different from each other according to the first to third regions.
상기 복수의 제1 돌출부는 상기 광축 방향과 수직한 제1 방향으로 서로 이격되어 나란하게 배치될 수 있다.The above plurality of first protrusions can be arranged in a parallel manner and spaced apart from each other in a first direction perpendicular to the optical axis direction.
상기 제1 영역 내지 상기 제3 영역의 상기 제1 돌출부의 주기는 동일할 수 있다.The periods of the first protrusions in the first region to the third region may be the same.
상기 제1 영역 내지 상기 제3 영역은 서로 상기 제1 방향으로 배치될 수 있다.The first region to the third region can be arranged relative to each other in the first direction.
상기 제1 영역은 상기 제1 전달 회절소자와 이격되고, 상기 제3 영역은 상기 제1 전달 회절소자와 인접하게 배치될 수 있다.The first region may be spaced apart from the first transmission diffraction element, and the third region may be arranged adjacent to the first transmission diffraction element.
상기 제1 영역 내지 상기 제3 영역의 상기 제1 방향으로 최대 너비는 동일할 수 있다.The maximum widths in the first direction of the first region to the third region may be the same.
상기 제1 영역의 제1 돌출부, 상기 제2 영역의 제1 돌출부 및 상기 제3 영역의 제1 돌출부의 상기 제1 방향으로 너비의 비율은 7:5:3일 수 있다.The ratio of the widths in the first direction of the first protrusion of the first region, the first protrusion of the second region, and the first protrusion of the third region may be 7:5:3.
상기 제1 영역 내지 상기 제3 영역은 서로 상기 광축 방향 및 상기 제1 방향과 수직한 제2 방향으로 배치될 수 있다.The first region to the third region can be arranged in a second direction perpendicular to the optical axis direction and the first direction.
상기 제1 영역은 상기 제1 출사 회절소자와 이격되고, 상기 제3 영역은 상기 제1 출사 회절소자와 인접하게 배치될 수 있다.The first region may be spaced apart from the first diffractive element, and the third region may be arranged adjacent to the first diffractive element.
상기 제1 영역 내지 상기 제3 영역의 상기 제2 방향으로 최대 너비는 동일하고, 상기 제2 영역의 상기 제1 방향으로 최대 너비는 상기 제1 영역 및 상기 제3 영역의 상기 제1 방향으로 최대 너비보다 클 수 있다.The maximum widths in the second direction of the first region to the third region may be the same, and the maximum width in the first direction of the second region may be greater than the maximum widths in the first direction of the first region and the third region.
상기 제1 영역의 필팩터(Fill Factor)는 상기 제2 영역의 필팩터보다 크고, 상기 제3 영역의 필팩터는 상기 제2 영역의 필팩터보다 작으며, 상기 필팩터는 상기 제1 돌출부의 주기에 대한 상기 제1 돌출부의 상기 제1 방향으로 너비의 비율일 수 있다.A fill factor of the first region may be greater than a fill factor of the second region, a fill factor of the third region may be less than a fill factor of the second region, and the fill factor may be a ratio of a width of the first protrusion in the first direction to a period of the first protrusion.
상기 제1 영역의 필팩터, 상기 제2 영역의 필팩터 및 상기 제3 영역의 필팩터의 비율은 7:5:3일 수 있다.The ratio of the fill factor of the first region, the fill factor of the second region, and the fill factor of the third region may be 7:5:3.
상기 제1 박막의 상기 광축 방향으로 높이는 상기 제1 돌출부의 상기 광축 방향으로 높이 2배 내지 4배이고, 상기 제1 박막의 상기 광축 방향으로 높이는 상기 제1 돌출부의 상면으로부터 상기 제1 박막의 상면까지의 상기 광축 방향으로 거리일 수 있다.The height in the optical axis direction of the first thin film may be 2 to 4 times the height in the optical axis direction of the first protrusion, and the height in the optical axis direction of the first thin film may be the distance in the optical axis direction from the upper surface of the first protrusion to the upper surface of the first thin film.
상기 제1 돌출부의 높이는 40nm 내지 100nm일 수 있다.The height of the first protrusion may be from 40 nm to 100 nm.
상기 제1 돌출부의 높이는 50nm 내지 70nm일 수 있다.The height of the first protrusion may be 50 nm to 70 nm.
상기 제2 영역의 면적은 상기 제1 영역 및 상기 제3 영역의 면적보다 크고, 상기 제1 영역 및 상기 제3 영역의 면적은 동일할 수 있다.The area of the second region is larger than the areas of the first region and the third region, and the areas of the first region and the third region may be equal.
실시 예에 따르면, 회절 효율이 증가한 광 가이드 장치 및 이를 포함하는 전자 디바이스를 제공할 수 있다.According to an embodiment, a light guide device with increased diffraction efficiency and an electronic device including the same can be provided.
또한, 광 출력 균일성이 증가한 광 가이드 장치 및 이를 포함하는 전자 디바이스를 제공할 수 있다.In addition, a light guide device with increased light output uniformity and an electronic device including the same can be provided.
또한, 차량 등 내에서 탑승자 등에 대한 이미지 생성이 보다 용이하게 구현되는 광 가이드 장치 및 카메라 모듈을 제공할 수 있다.In addition, a light guide device and a camera module can be provided that make it easier to create images of passengers, etc., within a vehicle.
본 발명의 다양하면서도 유익한 장점과 효과는 상술한 내용에 한정되지 않으며, 본 발명의 구체적인 실시형태를 설명하는 과정에서 보다 쉽게 이해될 수 있을 것이다.The various advantageous and beneficial advantages and effects of the present invention are not limited to the above-described contents, and will be more easily understood in the course of explaining specific embodiments of the present invention.
도 1은 AI 장치의 실시예를 나타내는 개념도이고,Figure 1 is a conceptual diagram illustrating an embodiment of an AI device.
도 2는 본 발명의 실시예에 따른 확장현실 전자 디바이스의 구성을 나타내는 블럭도이고,FIG. 2 is a block diagram showing the configuration of an extended reality electronic device according to an embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 증강현실 전자 디바이스의 사시도이고,FIG. 3 is a perspective view of an augmented reality electronic device according to an embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 광 가이드 장치의 모식도이고,Figure 4 is a schematic diagram of a light guide device according to an embodiment of the present invention.
도 5는 본 발명의 실시예에 따른 광 가이드 장치의 회절소자의 격자 패턴을 나타내는 도면이고,FIG. 5 is a drawing showing a grating pattern of a diffraction element of a light guide device according to an embodiment of the present invention.
도 6 내지 도 10은 본 발명의 실시예에 따른 광 가이드 장치의 제1 입력 회절소자의 모식도이고,Figures 6 to 10 are schematic diagrams of a first input diffraction element of a light guide device according to an embodiment of the present invention.
도 11a 및 도 11b는 본 발명의 실시예에 따른 광 가이드 장치의 회절 효율을 나타내는 그래프이고,FIG. 11a and FIG. 11b are graphs showing the diffraction efficiency of a light guide device according to an embodiment of the present invention.
도 12는 본 발명의 다른 실시예에 따른 광 가이드 장치의 제1 입력 회절소자의 모식도이고,FIG. 12 is a schematic diagram of a first input diffraction element of a light guide device according to another embodiment of the present invention.
도 13은 본 발명의 실시예에 따른 광 가이드 장치의 상면도이고,FIG. 13 is a top view of a light guide device according to an embodiment of the present invention.
도 14는 본 발명의 다른 실시예에 따른 광 가이드 장치의 상면도이고,FIG. 14 is a top view of a light guide device according to another embodiment of the present invention.
도 15는 본 발명의 실시예에 따른 카메라 모듈의 구성이 도시된 도면이다.FIG. 15 is a drawing illustrating the configuration of a camera module according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the embodiments described, but can be implemented in various different forms, and within the scope of the technical idea of the present invention, one or more of the components among the embodiments can be selectively combined or substituted for use.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention can be interpreted as having a meaning that can be generally understood by a person of ordinary skill in the technical field to which the present invention belongs, unless explicitly and specifically defined and described, and terms that are commonly used, such as terms defined in a dictionary, can be interpreted in consideration of the contextual meaning of the relevant technology.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.Additionally, the terms used in the embodiments of the present invention are for the purpose of describing the embodiments and are not intended to limit the present invention.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In this specification, the singular may also include the plural unless specifically stated otherwise in the phrase, and when it is described as "A and (or at least one) of B, C", it may include one or more of all combinations that can be combined with A, B, C.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.Additionally, in describing components of embodiments of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only intended to distinguish one component from another, and are not intended to limit the nature, order, or sequence of the component.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.And, when a component is described as being 'connected', 'coupled' or 'connected' to another component, it may include not only cases where the component is directly connected, coupled or connected to the other component, but also cases where the component is 'connected', 'coupled' or 'connected' by another component between the component and the other component.
또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.In addition, when described as being formed or arranged "above or below" each component, above or below includes not only the case where the two components are in direct contact with each other, but also the case where one or more other components are formed or arranged between the two components. In addition, when expressed as "above or below", it can include the meaning of the downward direction as well as the upward direction based on one component.
도 1은 AI 장치의 실시예를 나타내는 개념도이다.Figure 1 is a conceptual diagram illustrating an embodiment of an AI device.
도 1을 참조하면, AI 시스템은 AI 서버(16), 로봇(11), 자율주행 차량(12), XR 장치(13), 스마트폰(14) 또는 가전(15) 중에서 적어도 하나 이상이 클라우드 네트워크(10)와 연결된다. 여기서, AI 기술이 적용된 로봇(11), 자율주행 차량(12), XR 장치(13), 스마트폰(14) 또는 가전(15) 등을 AI 장치(11 내지 15)라 칭할 수 있다.Referring to FIG. 1, an AI system is connected to a cloud network (10) by at least one of an AI server (16), a robot (11), an autonomous vehicle (12), an XR device (13), a smartphone (14), or an appliance (15). Here, a robot (11), an autonomous vehicle (12), an XR device (13), a smartphone (14), or an appliance (15) to which AI technology is applied may be referred to as an AI device (11 to 15).
클라우드 네트워크(10)는 클라우드 컴퓨팅 인프라의 일부를 구성하거나 클라우드 컴퓨팅 인프라 안에 존재하는 네트워크를 의미할 수 있다. 여기서, 클라우드 네트워크(10)는 3G 네트워크, 4G 또는 LTE(Long Term Evolution) 네트워크 또는 5G 네트워크 등을 이용하여 구성될 수 있다.A cloud network (10) may mean a network that constitutes part of a cloud computing infrastructure or exists within a cloud computing infrastructure. Here, the cloud network (10) may be configured using a 3G network, a 4G or LTE (Long Term Evolution) network, a 5G network, etc.
즉, AI 시스템을 구성하는 각 장치들(11 내지 16)은 클라우드 네트워크(10)를 통해 서로 연결될 수 있다. 특히, 각 장치들(11 내지 16)은 기지국을 통해서 서로 통신할 수도 있지만, 기지국을 통하지 않고 직접 서로 통신할 수도 있다.That is, each device (11 to 16) constituting the AI system can be connected to each other through the cloud network (10). In particular, each device (11 to 16) can communicate with each other through a base station, but can also communicate with each other directly without going through a base station.
AI 서버(16)는 AI 프로세싱을 수행하는 서버와 빅 데이터에 대한 연산을 수행하는 서버를 포함할 수 있다.The AI server (16) may include a server that performs AI processing and a server that performs operations on big data.
AI 서버(16)는 AI 시스템을 구성하는 AI 장치들인 로봇(11), 자율주행 차량(12), XR 장치(13), 스마트폰(14) 또는 가전(15) 중에서 적어도 하나 이상과 클라우드 네트워크(10)를 통하여 연결되고, 연결된 AI 장치들(11 내지 15)의 AI 프로세싱을 적어도 일부를 도울 수 있다.The AI server (16) is connected to at least one of AI devices constituting the AI system, such as a robot (11), an autonomous vehicle (12), an XR device (13), a smartphone (14), or a home appliance (15), through a cloud network (10), and can assist at least part of the AI processing of the connected AI devices (11 to 15).
이 때, AI 서버(16)는 AI 장치(11 내지 15)를 대신하여 머신 러닝 알고리즘에 따라 인공 신경망을 학습시킬 수 있고, 학습 모델을 직접 저장하거나 AI 장치(11 내지 15)에 전송할 수 있다.At this time, the AI server (16) can train an artificial neural network according to a machine learning algorithm on behalf of the AI devices (11 to 15), and can directly store the learning model or transmit it to the AI devices (11 to 15).
이 때, AI 서버(16)는 AI 장치(11 내지 15)로부터 입력 데이터를 수신하고, 학습 모델을 이용하여 수신한 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성하여 AI 장치(11 내지 15)로 전송할 수 있다.At this time, the AI server (16) can receive input data from the AI devices (11 to 15), infer a result value for the received input data using the learning model, and generate a response or control command based on the inferred result value and transmit it to the AI devices (11 to 15).
또는, AI 장치(11 내지 15)는 직접 학습 모델을 이용하여 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수도 있다.Alternatively, the AI device (11 to 15) may infer a result value for input data using a direct learning model and generate a response or control command based on the inferred result value.
<AI+로봇><AI+Robot>
로봇(11)은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.Robots (11) can be implemented as guide robots, transport robots, cleaning robots, wearable robots, entertainment robots, pet robots, unmanned flying robots, etc. by applying AI technology.
로봇(11)은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.The robot (11) may include a robot control module for controlling movement, and the robot control module may mean a software module or a chip that implements the same as hardware.
로봇(11)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇(11)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.The robot (11) can obtain status information of the robot (11), detect (recognize) the surrounding environment and objects, generate map data, determine a movement path and driving plan, determine a response to user interaction, or determine an action using sensor information obtained from various types of sensors.
여기서, 로봇(11)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.Here, the robot (11) can use sensor information acquired from at least one sensor among lidar, radar, and camera to determine a movement path and driving plan.
로봇(11)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇(11)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇(11)에서 직접 학습되거나, AI 서버(16) 등의 외부 장치에서 학습된 것일 수 있다.The robot (11) can perform the above-described operations using a learning model composed of at least one artificial neural network. For example, the robot (11) can recognize the surrounding environment and objects using the learning model, and determine operations using the recognized surrounding environment information or object information. Here, the learning model can be learned directly in the robot (11) or learned from an external device such as an AI server (16).
이 때, 로봇(11)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(16) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.At this time, the robot (11) may perform an action by generating a result using a direct learning model, but may also transmit sensor information to an external device such as an AI server (16) and perform an action by receiving the result generated accordingly.
로봇(11)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 로봇(11)을 주행시킬 수 있다.The robot (11) can determine a movement path and driving plan using at least one of map data, object information detected from sensor information, or object information acquired from an external device, and control a driving unit to drive the robot (11) according to the determined movement path and driving plan.
맵 데이터에는 로봇(11)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.The map data may include object identification information for various objects placed in the space where the robot (11) moves. For example, the map data may include object identification information for fixed objects such as walls and doors, and movable objects such as flower pots and desks. In addition, the object identification information may include name, type, distance, location, etc.
또한, 로봇(11)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이 때, 로봇(11)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.In addition, the robot (11) can perform an action or drive by controlling the driving unit based on the user's control/interaction. At this time, the robot (11) can obtain the intention information of the interaction according to the user's action or voice utterance, and determine a response based on the obtained intention information to perform the action.
<AI+자율주행><AI+Autonomous Driving>
자율주행 차량(12)은 AI 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.Autonomous vehicles (12) can be implemented as mobile robots, vehicles, unmanned aerial vehicles, etc. by applying AI technology.
자율주행 차량(12)은 자율주행 기능을 제어하기 위한 자율주행 제어 모듈을 포함할 수 있고, 자율주행 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다. 자율주행 제어 모듈은 자율주행 차량(12)의 구성으로써 내부에 포함될 수도 있지만, 자율주행 차량(12)의 외부에 별도의 하드웨어로 구성되어 연결될 수도 있다.The autonomous vehicle (12) may include an autonomous driving control module for controlling autonomous driving functions, and the autonomous driving control module may mean a software module or a chip that implements the same as hardware. The autonomous driving control module may be included internally as a component of the autonomous vehicle (12), but may also be configured as separate hardware and connected to the outside of the autonomous vehicle (12).
자율주행 차량(12)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 자율주행 차량(12)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 동작을 결정할 수 있다.An autonomous vehicle (12) can obtain status information of the autonomous vehicle (12), detect (recognize) the surrounding environment and objects, generate map data, determine a movement path and driving plan, or determine an operation by using sensor information obtained from various types of sensors.
여기서, 자율주행 차량(12)은 이동 경로 및 주행 계획을 결정하기 위하여, 로봇(11)과 마찬가지로, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.Here, the autonomous vehicle (12) can use sensor information acquired from at least one sensor among lidar, radar, and camera, similar to the robot (11), to determine the movement path and driving plan.
특히, 자율주행 차량(12)은 시야가 가려지는 영역이나 일정 거리 이상의 영역에 대한 환경이나 객체는 외부 장치들로부터 센서 정보를 수신하여 인식하거나, 외부 장치들로부터 직접 인식된 정보를 수신할 수 있다.In particular, an autonomous vehicle (12) can recognize an environment or objects in an area where the field of vision is obscured or an area beyond a certain distance by receiving sensor information from external devices, or can receive information recognized directly from external devices.
자율주행 차량(12)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 자율주행 차량(12)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 주행 동선을 결정할 수 있다. 여기서, 학습 모델은 자율주행 차량(12)에서 직접 학습되거나, AI 서버(16) 등의 외부 장치에서 학습된 것일 수 있다.The autonomous vehicle (12) can perform the above-described operations using a learning model composed of at least one artificial neural network. For example, the autonomous vehicle (12) can recognize the surrounding environment and objects using the learning model, and determine the driving route using the recognized surrounding environment information or object information. Here, the learning model can be learned directly in the autonomous vehicle (12) or learned from an external device such as an AI server (16).
이 때, 자율주행 차량(12)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(16) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.At this time, the autonomous vehicle (12) may perform an operation by generating a result using a direct learning model, but may also perform an operation by transmitting sensor information to an external device such as an AI server (16) and receiving the result generated accordingly.
자율주행 차량(12)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 자율주행 차량(12)을 주행시킬 수 있다.An autonomous vehicle (12) can determine a movement path and driving plan by using at least one of map data, object information detected from sensor information, or object information acquired from an external device, and control a driving unit to drive the autonomous vehicle (12) according to the determined movement path and driving plan.
맵 데이터에는 자율주행 차량(12)이 주행하는 공간(예컨대, 도로)에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 가로등, 바위, 건물 등의 고정 객체들과 차량, 보행자 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.Map data may include object identification information for various objects placed in a space (e.g., a road) where an autonomous vehicle (12) runs. For example, map data may include object identification information for fixed objects such as streetlights, rocks, and buildings, and movable objects such as vehicles and pedestrians. In addition, object identification information may include name, type, distance, location, and the like.
또한, 자율주행 차량(12)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이 때, 자율주행 차량(12)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.In addition, the autonomous vehicle (12) can perform an action or drive by controlling the driving unit based on the user's control/interaction. At this time, the autonomous vehicle (12) can obtain the intention information of the interaction according to the user's action or voice utterance, and determine a response based on the obtained intention information to perform the action.
<AI+XR><AI+XR>
XR 장치(13)는 AI 기술이 적용되어, HMD(Head-Mount Display), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 휴대폰, 스마트 폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지, 차량, 고정형 로봇이나 이동형 로봇 등으로 구현될 수 있다.The XR device (13) can be implemented as an HMD (Head-Mount Display), a HUD (Head-Up Display) equipped in a vehicle, a television, a mobile phone, a smart phone, a computer, a wearable device, a home appliance, digital signage, a vehicle, a fixed robot or a mobile robot, etc. by applying AI technology.
XR 장치(13)는 다양한 센서들을 통해 또는 외부 장치로부터 획득한 3차원 포인트 클라우드 데이터 또는 이미지 데이터를 분석하여 3차원 포인트들에 대한 위치 데이터 및 속성 데이터를 생성함으로써 주변 공간 또는 현실 객체에 대한 정보를 획득하고, 출력할 XR 객체를 렌더링하여 출력할 수 있다. 예컨대, XR 장치(13)는 인식된 물체에 대한 추가 정보를 포함하는 XR 객체를 해당 인식된 물체에 대응시켜 출력할 수 있다.The XR device (13) can obtain information about surrounding space or real objects by analyzing 3D point cloud data or image data acquired through various sensors or from an external device to generate location data and attribute data for 3D points, and can render and output an XR object to be output. For example, the XR device (13) can output an XR object including additional information about a recognized object by corresponding it to the recognized object.
XR 장치(13)는 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, XR 장치(13)는 학습 모델을 이용하여 3차원 포인트 클라우드 데이터 또는 이미지 데이터에서 현실 객체를 인식할 수 있고, 인식한 현실 객체에 상응하는 정보를 제공할 수 있다. 여기서, 학습 모델은 XR 장치(13)에서 직접 학습되거나, AI 서버(16) 등의 외부 장치에서 학습된 것일 수 있다.The XR device (13) can perform the above-described operations using a learning model composed of at least one artificial neural network. For example, the XR device (13) can recognize a real object from 3D point cloud data or image data using the learning model, and provide information corresponding to the recognized real object. Here, the learning model can be learned directly in the XR device (13) or learned in an external device such as an AI server (16).
이 때, XR 장치(13)는 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(16) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.At this time, the XR device (13) may perform an operation by generating a result using a direct learning model, but may also transmit sensor information to an external device such as an AI server (16) and perform an operation by receiving the result generated accordingly.
<AI+로봇+자율주행><AI+Robot+Autonomous Driving>
로봇(11)은 AI 기술 및 자율주행 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.Robots (11) can be implemented as guide robots, transport robots, cleaning robots, wearable robots, entertainment robots, pet robots, unmanned flying robots, etc. by applying AI technology and autonomous driving technology.
AI 기술과 자율주행 기술이 적용된 로봇(11)은 자율주행 기능을 가진 로봇 자체나, 자율주행 차량(12)과 상호작용하는 로봇(11) 등을 의미할 수 있다.A robot (11) to which AI technology and autonomous driving technology are applied may refer to a robot itself with autonomous driving functions, or a robot (11) that interacts with an autonomous vehicle (12).
자율주행 기능을 가진 로봇(11)은 사용자의 제어 없이도 주어진 동선에 따라 스스로 움직이거나, 동선을 스스로 결정하여 움직이는 장치들을 통칭할 수 있다.A robot (11) with autonomous driving function can be a general term for devices that move on their own along a given path without user control or move by determining the path on their own.
자율주행 기능을 가진 로봇(11) 및 자율주행 차량(12)은 이동 경로 또는 주행 계획 중 하나 이상을 결정하기 위해 공통적인 센싱 방법을 사용할 수 있다. 예를 들어, 자율주행 기능을 가진 로봇(11) 및 자율주행 차량(12)은 라이다, 레이더, 카메라를 통해 센싱된 정보를 이용하여, 이동 경로 또는 주행 계획 중 하나 이상을 결정할 수 있다.A robot (11) with autonomous driving function and an autonomous vehicle (12) may use a common sensing method to determine one or more of a movement path or a driving plan. For example, a robot (11) with autonomous driving function and an autonomous vehicle (12) may use information sensed through a lidar, a radar, and a camera to determine one or more of a movement path or a driving plan.
자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(12)과 별개로 존재하면서, 자율주행 차량(12)의 내부 또는 외부에서 자율주행 기능에 연계되거나, 자율주행 차량(12)에 탑승한 사용자와 연계된 동작을 수행할 수 있다.A robot (11) interacting with an autonomous vehicle (12) may exist separately from the autonomous vehicle (12), and may be linked to autonomous driving functions inside or outside the autonomous vehicle (12) or perform actions linked to a user riding in the autonomous vehicle (12).
이 때, 자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(12)을 대신하여 센서 정보를 획득하여 자율주행 차량(12)에 제공하거나, 센서 정보를 획득하고 주변 환경 정보 또는 객체 정보를 생성하여 자율주행 차량(12)에 제공함으로써, 자율주행 차량(12)의 자율주행 기능을 제어하거나 보조할 수 있다.At this time, the robot (11) interacting with the autonomous vehicle (12) can control or assist the autonomous driving function of the autonomous vehicle (12) by acquiring sensor information on behalf of the autonomous vehicle (12) and providing it to the autonomous vehicle (12), or by acquiring sensor information and generating surrounding environment information or object information and providing it to the autonomous vehicle (12).
또는, 자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(12)에 탑승한 사용자를 모니터링하거나 사용자와의 상호작용을 통해 자율주행 차량(12)의 기능을 제어할 수 있다. 예컨대, 로봇(11)은 운전자가 졸음 상태인 경우로 판단되는 경우, 자율주행 차량(12)의 자율주행 기능을 활성화하거나 자율주행 차량(12)의 구동부의 제어를 보조할 수 있다. 여기서, 로봇(11)이 제어하는 자율주행 차량(12)의 기능에는 단순히 자율주행 기능 뿐만 아니라, 자율주행 차량(12)의 내부에 구비된 네비게이션 시스템이나 오디오 시스템에서 제공하는 기능도 포함될 수 있다.Alternatively, a robot (11) interacting with a self-driving vehicle (12) may monitor a user riding in the self-driving vehicle (12) or control the functions of the self-driving vehicle (12) through interaction with the user. For example, if the robot (11) determines that the driver is drowsy, it may activate the self-driving function of the self-driving vehicle (12) or assist in the control of the driving unit of the self-driving vehicle (12). Here, the functions of the self-driving vehicle (12) controlled by the robot (11) may include not only the self-driving function, but also functions provided by a navigation system or audio system equipped inside the self-driving vehicle (12).
또는, 자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(12)의 외부에서 자율주행 차량(12)에 정보를 제공하거나 기능을 보조할 수 있다. 예컨대, 로봇(11)은 스마트 신호등과 같이 자율주행 차량(12)에 신호 정보 등을 포함하는 교통 정보를 제공할 수도 있고, 전기 차량의 자동 전기 충전기와 같이 자율주행 차량(12)과 상호작용하여 충전구에 전기 충전기를 자동으로 연결할 수도 있다.Alternatively, a robot (11) interacting with an autonomous vehicle (12) may provide information to the autonomous vehicle (12) or assist functions from outside the autonomous vehicle (12). For example, the robot (11) may provide traffic information including signal information to the autonomous vehicle (12), such as a smart traffic light, or may interact with the autonomous vehicle (12) to automatically connect an electric charger to a charging port, such as an automatic electric charger for an electric vehicle.
<AI+로봇+XR><AI+Robot+XR>
로봇(11)은 AI 기술 및 XR 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇, 드론 등으로 구현될 수 있다.Robots (11) can be implemented as guide robots, transport robots, cleaning robots, wearable robots, entertainment robots, pet robots, unmanned flying robots, drones, etc. by applying AI technology and XR technology.
XR 기술이 적용된 로봇(11)은 XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇을 의미할 수 있다. 이 경우, 로봇(11)은 XR 장치(13)와 구분되며 서로 연동될 수 있다.A robot (11) to which XR technology is applied may refer to a robot that is the target of control/interaction within an XR image. In this case, the robot (11) is distinct from the XR device (13) and can be linked with each other.
XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇(11)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 로봇(11) 또는 XR 장치(13)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(13)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 로봇(11)은 XR 장치(13)를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.When a robot (11) that is the target of control/interaction within an XR image obtains sensor information from sensors including a camera, the robot (11) or the XR device (13) can generate an XR image based on the sensor information, and the XR device (13) can output the generated XR image. In addition, the robot (11) can operate based on a control signal input through the XR device (13) or a user's interaction.
예컨대, 사용자는 XR 장치(13) 등의 외부 장치를 통해 원격으로 연동된 로봇(11)의 시점에 상응하는 XR 영상을 확인할 수 있고, 상호작용을 통하여 로봇(11)의 자율주행 경로를 조정하거나, 동작 또는 주행을 제어하거나, 주변 객체의 정보를 확인할 수 있다.For example, a user can check an XR image corresponding to the viewpoint of a remotely connected robot (11) through an external device such as an XR device (13), and through interaction, adjust the autonomous driving path of the robot (11), control the operation or driving, or check information on surrounding objects.
<AI+자율주행+XR><AI+Autonomous Driving+XR>
자율주행 차량(12)은 AI 기술 및 XR 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.Autonomous vehicles (12) can be implemented as mobile robots, vehicles, unmanned aerial vehicles, etc. by applying AI technology and XR technology.
XR 기술이 적용된 자율주행 차량(12)은 XR 영상을 제공하는 수단을 구비한 자율주행 차량이나, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율주행 차량 등을 의미할 수 있다. 특히, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율주행 차량(12)은 XR 장치(13)와 구분되며 서로 연동될 수 있다.An autonomous vehicle (12) to which XR technology is applied may refer to an autonomous vehicle equipped with a means for providing XR images, an autonomous vehicle that is the subject of control/interaction within an XR image, etc. In particular, an autonomous vehicle (12) that is the subject of control/interaction within an XR image is distinct from an XR device (13) and can be linked with each other.
XR 영상을 제공하는 수단을 구비한 자율주행 차량(12)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하고, 획득한 센서 정보에 기초하여 생성된 XR 영상을 출력할 수 있다. 예컨대, 자율주행 차량(12)은 HUD를 구비하여 XR 영상을 출력함으로써, 탑승자에게 현실 객체 또는 화면 속의 객체에 대응되는 XR 객체를 제공할 수 있다.An autonomous vehicle (12) equipped with a means for providing XR images can obtain sensor information from sensors including cameras and output XR images generated based on the obtained sensor information. For example, the autonomous vehicle (12) can provide passengers with XR objects corresponding to real objects or objects on the screen by having a HUD to output XR images.
이 때, XR 객체가 HUD에 출력되는 경우에는 XR 객체의 적어도 일부가 탑승자의 시선이 향하는 실제 객체에 오버랩되도록 출력될 수 있다. 반면, XR 객체가 자율주행 차량(12)의 내부에 구비되는 디스플레이에 출력되는 경우에는 XR 객체의 적어도 일부가 화면 속의 객체에 오버랩되도록 출력될 수 있다. 예컨대, 자율주행 차량(12)은 차로, 타 차량, 신호등, 교통 표지판, 이륜차, 보행자, 건물 등과 같은 객체와 대응되는 XR 객체들을 출력할 수 있다.At this time, when the XR object is output to the HUD, at least a part of the XR object may be output so as to overlap with an actual object toward which the passenger's gaze is directed. On the other hand, when the XR object is output to a display provided inside the autonomous vehicle (12), at least a part of the XR object may be output so as to overlap with an object in the screen. For example, the autonomous vehicle (12) may output XR objects corresponding to objects such as a road, another vehicle, a traffic light, a traffic sign, a two-wheeled vehicle, a pedestrian, a building, etc.
XR 영상 내에서의 제어/상호작용의 대상이 되는 자율주행 차량(12)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 자율주행 차량(12) 또는 XR 장치(13)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(13)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 자율주행 차량(12)은 XR 장치(13) 등의 외부 장치를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.When an autonomous vehicle (12) that is the target of control/interaction within an XR image obtains sensor information from sensors including a camera, the autonomous vehicle (12) or the XR device (13) can generate an XR image based on the sensor information, and the XR device (13) can output the generated XR image. In addition, the autonomous vehicle (12) can operate based on a control signal input through an external device such as the XR device (13) or a user's interaction.
[확장현실 기술][Augmented Reality Technology]
확장현실(XR: eXtended Reality)은 가상현실(VR: Virtual Reality), 증강현실(AR: Augmented Reality), 혼합현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다.Extended reality (XR) is a general term for virtual reality (VR), augmented reality (AR), and mixed reality (MR). VR technology provides real-world objects and backgrounds only as CG images, AR technology provides virtual CG images on top of images of real objects, and MR technology is a computer graphics technology that mixes and combines virtual objects in the real world.
MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나, AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.MR technology is similar to AR technology in that it shows real objects and virtual objects together. However, there is a difference in that while AR technology uses virtual objects to complement real objects, MR technology uses virtual and real objects with equal characteristics.
XR 기술은 HMD(Head-Mount Display), HUD(Head-Up Display), 휴대폰, 태블릿 PC, 랩탑, 데스크탑, TV, 디지털 사이니지 등에 적용될 수 있고, XR 기술이 적용된 장치를 XR 장치(XR Device)라 칭할 수 있다.XR technology can be applied to HMD (Head-Mount Display), HUD (Head-Up Display), mobile phones, tablet PCs, laptops, desktops, TVs, digital signage, etc., and devices to which XR technology is applied can be called XR devices.
이하에서는 본 발명의 실시예에 따른 확장현실을 제공하는 전자 디바이스에 대해 설명하기로 한다. 특히, 증강현실에 적용되는 프로젝트 장치 및 이를 포함한 전자 디바이스에 대해 자세히 설명한다.Hereinafter, an electronic device providing augmented reality according to an embodiment of the present invention will be described. In particular, a projector applied to augmented reality and an electronic device including the same will be described in detail.
도 2는 본 발명의 실시예에 따른 확장현실 전자 디바이스의 구성을 나타내는 블럭도이다.FIG. 2 is a block diagram showing the configuration of an extended reality electronic device according to an embodiment of the present invention.
도 2를 참조하면, 확장현실 전자 디바이스(20)는 무선 통신부(21), 입력부(22), 센싱부(23), 출력부(24), 인터페이스부(25), 메모리(26), 제어부(27) 및 전원 공급부(28) 등을 포함할 수 있다. 도 1에 도시된 구성요소들은 전자 디바이스(20)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 전자 디바이스(20)는 위에서 열거된 구성요소들 보다 많거나, 적은 구성요소들을 가질 수 있다.Referring to FIG. 2, the extended reality electronic device (20) may include a wireless communication unit (21), an input unit (22), a sensing unit (23), an output unit (24), an interface unit (25), a memory (26), a control unit (27), and a power supply unit (28). The components illustrated in FIG. 1 are not essential for implementing the electronic device (20), and thus, the electronic device (20) described in this specification may have more or fewer components than the components listed above.
보다 구체적으로, 위 구성요소들 중 무선 통신부(21)는, 전자 디바이스(20)와 무선 통신 시스템 사이, 전자 디바이스(20)와 다른 전자 디바이스 사이, 또는 전자 디바이스(20)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(21)는, 전자 디바이스(20)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, among the above components, the wireless communication unit (21) may include one or more modules that enable wireless communication between the electronic device (20) and a wireless communication system, between the electronic device (20) and another electronic device, or between the electronic device (20) and an external server. In addition, the wireless communication unit (21) may include one or more modules that connect the electronic device (20) to one or more networks.
이러한 무선 통신부(21)는, 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.This wireless communication unit (21) may include at least one of a broadcast reception module, a mobile communication module, a wireless Internet module, a short-range communication module, and a location information module.
입력부(22)는, 영상 신호 입력을 위한 카메라 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(22)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit (22) may include a camera or a video input unit for inputting a video signal, a microphone or an audio input unit for inputting an audio signal, and a user input unit (e.g., a touch key, a mechanical key, etc.) for receiving information from a user. Voice data or image data collected by the input unit (22) may be analyzed and processed into a user's control command.
센싱부(23)는 전자 디바이스(20) 내 정보, 전자 디바이스(20)를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다.The sensing unit (23) may include one or more sensors for sensing at least one of information within the electronic device (20), information about the surrounding environment surrounding the electronic device (20), and user information.
예를 들어, 센싱부(23)는 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 촬영수단), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 전자 디바이스(20)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.For example, the sensing unit (23) may include at least one of a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, a G-sensor, a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor (IR sensor), a finger scan sensor, an ultrasonic sensor, an optical sensor (e.g., a photographing device), a microphone, a battery gauge, an environmental sensor (e.g., a barometer, a hygrometer, a thermometer, a radiation detection sensor, a heat detection sensor, a gas detection sensor, etc.), and a chemical sensor (e.g., an electronic nose, a healthcare sensor, a biometric recognition sensor, etc.). Meanwhile, the electronic device (20) disclosed in the present specification may utilize information sensed by at least two or more of these sensors in combination.
출력부(24)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부, 음향 출력부, 햅틱 모듈, 광 출력부 중 적어도 하나를 포함할 수 있다. 디스플레이부는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 증강현실 전자 디바이스(20)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력수단으로써 기능함과 동시에, 증강현실 전자 디바이스(20)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit (24) is for generating output related to vision, hearing, or tactile sensations, and may include at least one of a display unit, an audio output unit, a haptic module, and an optical output unit. The display unit may be formed as a layer structure with a touch sensor or formed as an integral part, thereby implementing a touch screen. This touch screen may function as a user input means that provides an input interface between the augmented reality electronic device (20) and the user, and at the same time, provide an output interface between the augmented reality electronic device (20) and the user.
인터페이스부(25)는 전자 디바이스(20)에 연결되는 다양한 종류의 외부장치와의 통로 역할을 수행한다. 인터페이스부(25)를 통해 전자 디바이스(20)는 외부장치로부터 가상현실 또는 증강현실 컨텐츠를 제공받을 수 있고, 다양한 입력 신호, 센싱 신호, 데이터를 주고받음으로써, 상호 인터랙션을 수행할 수 있다.The interface unit (25) serves as a passageway between various types of external devices connected to the electronic device (20). Through the interface unit (25), the electronic device (20) can receive virtual reality or augmented reality content from an external device, and can perform mutual interaction by exchanging various input signals, sensing signals, and data.
예를 들어, 인터페이스부(25)는 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다.For example, the interface unit (25) may include at least one of a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port for connecting a device equipped with an identification module, an audio I/O (Input/Output) port, a video I/O (Input/Output) port, and an earphone port.
또한, 메모리(26)는 전자 디바이스(20)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(26)는 전자 디바이스(20)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 전자 디바이스(20)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 전자 디바이스(20)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 전자 디바이스(20)상에 존재할 수 있다.In addition, the memory (26) stores data that supports various functions of the electronic device (20). The memory (26) can store a plurality of application programs (or applications) that run on the electronic device (20), data for the operation of the electronic device (20), and commands. At least some of these application programs can be downloaded from an external server via wireless communication. In addition, at least some of these application programs can exist on the electronic device (20) from the time of shipment for basic functions of the electronic device (20) (e.g., call reception, call transmission, message reception, call transmission).
제어부(27)는 응용 프로그램과 관련된 동작 외에도, 통상적으로 전자 디바이스(20)의 전반적인 동작을 제어한다. 제어부(27)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리할 수 있다.In addition to operations related to the application program, the control unit (27) typically controls the overall operation of the electronic device (20). The control unit (27) can process signals, data, information, etc. input or output through the components discussed above.
또한, 제어부(27)는 메모리(26)에 저장된 응용 프로그램을 구동함으로써 구성요소들 중 적어도 일부를 제어하여 사여 사용자에게 적절한 정보를 제공하거나 기능을 처리할 수 있다. 나아가, 제어부(27)는 응용 프로그램의 구동을 위하여 전자 디바이스(20)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the control unit (27) can control at least some of the components by driving the application program stored in the memory (26) to provide appropriate information to the user or process a function. Furthermore, the control unit (27) can operate at least two or more of the components included in the electronic device (20) in combination with each other to drive the application program.
또한, 제어부(27)는 센싱부(23)에 포함된 자이로스코프 센서, 중력 센서, 모션 센서 등을 이용하여 전자 디바이스(20)나 사용자의 움직임을 감지할 수 있다. 또는 제어부(27)는 센싱부(23)에 포함된 근접센서, 조도센서, 자기센서, 적외선 센서, 초음파 센서, 광 센서 등을 이용하여 전자 디바이스(20)나 사용자 주변으로 다가오는 대상체를 감지할 수도 있다. 그 밖에도, 제어부(27)는 전자 디바이스(20)와 연동하여 동작하는 컨트롤러에 구비된 센서들을 통해서도 사용자의 움직임을 감지할 수 있다.In addition, the control unit (27) can detect the movement of the electronic device (20) or the user by using a gyroscope sensor, a gravity sensor, a motion sensor, etc. included in the sensing unit (23). Alternatively, the control unit (27) can detect an object approaching the electronic device (20) or the user by using a proximity sensor, a light sensor, a magnetic sensor, an infrared sensor, an ultrasonic sensor, a light sensor, etc. included in the sensing unit (23). In addition, the control unit (27) can also detect the movement of the user by using sensors provided in a controller that operates in conjunction with the electronic device (20).
또한, 제어부(27)는 메모리(26)에 저장된 응용 프로그램을 이용하여 전자 디바이스(20)의 동작(또는 기능)을 수행할 수 있다.Additionally, the control unit (27) can perform operations (or functions) of the electronic device (20) using an application program stored in the memory (26).
전원 공급부(28)는 제어부(27)의 제어 하에서, 외부의 전원 또는 내부의 전원을 인가받아 전자 디바이스(20)에 포함된 각 구성요소들에 전원을 공급한다. 전원 공급부(28)는 배터리를 포함하며, 배터리는 내장형 또는 교체가능한 형태로 마련될 수 있다.The power supply unit (28) receives external power or internal power under the control of the control unit (27) and supplies power to each component included in the electronic device (20). The power supply unit (28) includes a battery, and the battery may be provided in a built-in or replaceable form.
위 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시예들에 따른 전자 디바이스의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 전자 디바이스의 동작, 제어, 또는 제어방법은 메모리(26)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 전자 디바이스 상에서 구현될 수 있다.At least some of the above components may operate in cooperation with each other to implement the operation, control, or control method of the electronic device according to various embodiments described below. In addition, the operation, control, or control method of the electronic device may be implemented on the electronic device by driving at least one application program stored in the memory (26).
이하, 본 발명의 일 예로서 설명되는 전자 디바이스는 HMD(Head Mounted Display)에 적용되는 실시예를 기준으로 설명한다. 그러나 본 발명에 따른 전자 디바이스의 실시예에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 및 웨어러블 디바이스(wearable device) 등이 포함될 수 있다. 웨어러블 디바이스에는 HMD 이외에도 워치형 단말기(smart watch)와 컨택트 렌즈(Contact lens), VR/AR/MR Glass 등이 포함될 수 있다.Hereinafter, an electronic device described as an example of the present invention will be described based on an embodiment applied to an HMD (Head Mounted Display). However, embodiments of the electronic device according to the present invention may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (personal digital assistants), a PMP (portable multimedia player), a navigation, a slate PC, a tablet PC, an ultrabook, and a wearable device. In addition to an HMD, the wearable device may include a smart watch, a contact lens, VR/AR/MR Glass, and the like.
도 3은 본 발명의 실시예에 따른 증강현실 전자 디바이스의 사시도이다.FIG. 3 is a perspective view of an augmented reality electronic device according to an embodiment of the present invention.
도 3에 도시된 바와 같이, 본 발명의 실시예에 따른 전자 디바이스는 프레임(100), 프로젝트 장치(200) 및 디스플레이부(300)를 포함할 수 있다.As illustrated in FIG. 3, an electronic device according to an embodiment of the present invention may include a frame (100), a projector device (200), and a display unit (300).
전자 디바이스는 글라스 타입(smart glass)으로 마련될 수 있다. 글라스 타입의 전자 디바이스는 인체의 두부에 착용 가능하도록 구성되며, 이를 위한 프레임(케이스, 하우징 등)(100)을 구비할 수 있다. 프레임(100)은 착용이 용이하도록 플렉서블 재질로 형성될 수 있다.The electronic device may be provided as a glass type (smart glass). The glass type electronic device is configured to be worn on the head of the human body and may be provided with a frame (case, housing, etc.) (100) for this purpose. The frame (100) may be formed of a flexible material to facilitate wearing.
프레임(100)은 두부에 지지되며, 각종 부품들이 장착되는 공간을 마련한다. 도시된 바와 같이, 프레임(100)에는 프로젝트 장치(200), 사용자 입력부(130) 또는 음향 출력부(140) 등과 같은 전자부품이 장착될 수 있다. 또한, 프레임(100)에는 좌안 및 우안 중 적어도 하나를 덮는 렌즈가 착탈 가능하게 장착될 수 있다.The frame (100) is supported on the head and provides a space for mounting various components. As illustrated, electronic components such as a projector device (200), a user input unit (130), or an audio output unit (140) may be mounted on the frame (100). In addition, a lens covering at least one of the left and right eyes may be detachably mounted on the frame (100).
프레임(100)은 도면에 도시된 바와 같이, 사용자의 신체 중 안면에 착용되는 안경 형태를 가질 수 있으나, 이에 반드시 한정되는 것은 아니고, 사용자의 안면에 밀착되어 착용되는 고글 등의 형태를 가질 수도 있다.The frame (100) may have a form of glasses worn on the face of the user's body as shown in the drawing, but is not necessarily limited thereto, and may also have a form such as goggles worn in close contact with the user's face.
이와 같은 프레임(100)은 적어도 하나의 개구부를 구비하는 전면 프레임(110)과, 전면 프레임(110)과 교차하는 y 방향(도 2에서)으로 연장되어 서로 나란한 한 쌍의 측면 프레임(120)을 포함할 수 있다.Such a frame (100) may include a front frame (110) having at least one opening, and a pair of side frames (120) that extend in the y direction (in FIG. 2) intersecting the front frame (110) and are parallel to each other.
프레임(100)은 x 방향으로 길이(DI)와 y 방향으로 길이(LI)가 동일 또는 상이할 수 있다.The frame (100) may have the same or different length (DI) in the x direction and length (LI) in the y direction.
프로젝트 장치(200)는 전자 디바이스에 구비되는 각종 전자부품을 제어하도록 마련된다. 프로젝트 장치(200)는 ‘광 출력 장치’, ‘광 프로젝트 장치’, ‘광 조사 장치’, ‘광학 장치’ 등과 혼용될 수 있다.The project device (200) is provided to control various electronic components provided in an electronic device. The project device (200) may be used interchangeably with ‘optical output device’, ‘optical projector device’, ‘light irradiation device’, ‘optical device’, etc.
프로젝트 장치(200)는 사용자에게 보여지는 이미지 또는 이미지가 연속되는 영상을 생성할 수 있다. 프로젝트 장치(200)는 이미지를 발생시키는 이미지 소스 패널과 이미지 소스 패널에서 발생된 빛을 확산 및 수렴하는 복수의 렌즈 등을 포함할 수 있다.The projector device (200) can generate an image or a video of a series of images that are displayed to the user. The projector device (200) can include an image source panel that generates an image and a plurality of lenses that diffuse and converge light generated from the image source panel.
프로젝트 장치(200)는 두 측면 프레임(120) 중 어느 하나의 측면 프레임(120)에 고정될 수 있다. 예를 들어, 프로젝트 장치(200)는 어느 하나의 측면 프레임(120) 내측 또는 외측에 고정되거나, 어느 하나의 측면 프레임(120)의 내부에 내장되어 일체로 형성될 수 있다. 또는 프로젝트 장치(200)가 전면 프레임(110)에 고정되거나 전자 디바이스와 별도로 마련될 수도 있다.The project device (200) may be secured to either of the two side frames (120). For example, the project device (200) may be secured to the inside or outside of either of the side frames (120), or may be integrally formed by being built into the inside of either of the side frames (120). Alternatively, the project device (200) may be secured to the front frame (110) or may be provided separately from the electronic device.
디스플레이부(300)는 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 구현될 수 있다. HMD 형태란, 두부에 장착되어, 사용자의 눈 앞에 직접 영상을 보여주는 디스플레이 방식을 말한다. 사용자가 전자 디바이스를 착용하였을 때, 사용자의 눈 앞에 직접 영상을 제공할 수 있도록, 디스플레이부(300)는 좌안 및 우안 중 적어도 하나에 대응되게 배치될 수 있다. 본 도면에서는, 사용자의 우안을 향하여 영상을 출력할 수 있도록, 디스플레이부(300)가 우안에 대응되는 부분에 위치한 것을 예시하고 있다. 다만, 상술한 바와 같이 이에 한정되는 것은 아니며 좌안 우안에 모두 배치될 수도 있다. The display unit (300) may be implemented in the form of a head mounted display (HMD). The HMD form refers to a display method that is mounted on the head and directly shows an image in front of the user's eyes. When the user wears the electronic device, the display unit (300) may be positioned to correspond to at least one of the left and right eyes so that the image can be directly provided in front of the user's eyes. In this drawing, the display unit (300) is positioned in a portion corresponding to the right eye so that the image can be output toward the user's right eye. However, as described above, it is not limited thereto and may be positioned for both the left and right eyes.
디스플레이부(300)는 사용자가 외부 환경을 시각적으로 인지하면서, 동시에 프로젝트 장치(200)에서 생성된 이미지가 사용자에게 보이도록 할 수 있다. 예를 들어, 디스플레이부(300)는 프리즘을 이용하여 디스플레이 영역에 이미지를 투사할 수 있다.The display unit (300) can allow the user to visually perceive the external environment while simultaneously allowing the user to see an image generated by the projector device (200). For example, the display unit (300) can project an image onto the display area using a prism.
그리고 디스플레이부(300)는 투사된 이미지와 전방의 일반 시야(사용자가 눈을 통하여 바라보는 범위)가 동시에 보이도록 하기 위해 투광성으로 형성될 수 있다. 예를 들어, 디스플레이부(300)는 반투명일 수 있으며, 글라스(Glass)를 포함하는 광학 부재로 형성될 수 있다.And the display unit (300) may be formed to be translucent so that the projected image and the general field of view in front (the range that the user sees through his eyes) can be viewed simultaneously. For example, the display unit (300) may be translucent and may be formed of an optical member including glass.
그리고 디스플레이부(300)는 전면 프레임(110)에 포함된 개구부에 삽입되어 고정되거나, 개부구의 배면[즉 개구부와 사용자 사이]에 위치하여, 전면 프레임(110)에 고정될 수 있다. 도면에는 디스플레이부(300)가 개구부의 배면에 위치하여, 전면 프레임(110)에 고정된 경우를 일 예로 도시하였지만, 이와 달리 디스플레이부(300)는 프레임(100)의 다양한 위치에 배치 및 고정될 수 있다.And the display unit (300) may be inserted and fixed into an opening included in the front frame (110), or may be positioned on the back surface of the opening (i.e., between the opening and the user) and fixed to the front frame (110). In the drawing, the display unit (300) is positioned on the back surface of the opening and fixed to the front frame (110) as an example, but the display unit (300) may be positioned and fixed at various positions of the frame (100).
전자 디바이스는 도 2에 도시된 바와 같이, 프로젝트 장치(200)에서 이미지에 대한 이미지 광을 디스플레이부(300)의 일측으로 입사시키면, 이미지광이 디스플레이부(300)를 통하여 타측으로 출사되어, 프로젝트 장치(200)에서 생성된 이미지를 사용자에게 보이도록 할 수 있다.As illustrated in FIG. 2, when the electronic device projects image light from the projector device (200) to one side of the display unit (300), the image light is emitted to the other side through the display unit (300), allowing the user to see the image generated from the projector device (200).
이에 따라, 사용자는 프레임(100)의 개구부를 통하여 외부 환경을 보면서 동시에 프로젝트 장치(200)에서 생성된 이미지를 함께 볼 수 있게 된다. 즉, 디스플레이부(300)를 통하여 출력되는 영상은 일반 시야와 오버랩(overlap)되어 보일 수 있다. 전자 디바이스는 이러한 디스플레이 특성을 이용하여 현실의 이미지나 배경에 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 증강현실(Augmented Reality, AR)을 제공할 수 있다.Accordingly, the user can view the external environment through the opening of the frame (100) and at the same time view the image generated by the projector device (200). That is, the image output through the display unit (300) can be seen to overlap with the general field of view. By utilizing these display characteristics, the electronic device can provide augmented reality (AR) that superimposes a virtual image on a real image or background and shows it as a single image.
나아가, 이러한 구동 이외에 사람이 인식하지 못하는 짧은 시간 동안 외부 환경과 프로젝트 장치(200)에서 생성된 이미지가 시간차로 사용자에게 제공될 수 있다. 예컨대, 하나의 프레임 내에서 일 구간에서는 외부 환경이 사람에게 제공되고, 다른 구간에서는 프로젝트 장치(200)로부터의 영상이 사람에게 제공될 수 있다.Furthermore, in addition to these drives, images generated from the external environment and the projector device (200) can be provided to the user with a time difference for a short period of time that is not recognized by the person. For example, in one frame, the external environment can be provided to the person in one section, and images from the projector device (200) can be provided to the person in another section.
또는, 오버랩과 시간차가 모두 제공될 수도 있다.Alternatively, both overlap and time difference may be provided.
또한, 실시예에 따른 프로젝트 장치는 후술하는 구조를 갖거나, 해당 구조에 도파관 또는/및 글래스를 더포함한 구조로 이루어질 수도 있다. 또한, 프로젝트 장치는 DLP(Digital Light Processing) 프로젝터 또는 프로젝트 장치를 포함할 수 있다. 이하 프로젝트 장치는 프로젝터로 표현될 수 있다.In addition, the projector device according to the embodiment may have a structure described below, or may be formed of a structure further including a waveguide or/and glass in the structure. In addition, the projector device may include a DLP (Digital Light Processing) projector or a projector device. Hereinafter, the projector device may be expressed as a projector.
이하 디스플레이부는 광 가이드 장치로 표현될 수 있다. 실시예에 따른 광 가이드 장치는 상기 실시예에 따른 증강현실 전자 디바이스에 포함되는 디스플레이부에 대응될 수 있다.The following display unit may be expressed as a light guide device. The light guide device according to the embodiment may correspond to the display unit included in the augmented reality electronic device according to the embodiment.
도 4는 본 발명의 실시예에 따른 광 가이드 장치의 모식도이다.Figure 4 is a schematic diagram of a light guide device according to an embodiment of the present invention.
도 4를 참조하면, 실시예에 따른 광 가이드 장치(300)는 제1 기판(310), 제1 입력 회절소자(320), 제1 전달 회절소자(330), 제1 출사 회절소자(340) 그리고 커버(301)를 포함할 수 있다. 또한, 광 가이드 장치(300)는 제2 기판(350), 제2 입력 회절소자(360), 제2 전달 회절소자(370) 및 제2 출사 회절소자(380)를 포함할 수 있다.Referring to FIG. 4, the light guide device (300) according to the embodiment may include a first substrate (310), a first input diffractive element (320), a first transmission diffractive element (330), a first output diffractive element (340), and a cover (301). In addition, the light guide device (300) may include a second substrate (350), a second input diffractive element (360), a second transmission diffractive element (370), and a second output diffractive element (380).
광 가이드 장치(300)는 프로젝트 장치에서 출력되어 입사한 광의 경로를 변경하여 다시 광을 외부로 출력할 수 있다. 광 가이드 장치(300)는 광을 외부로 출력하여 사용자의 눈에 도달하게 할 수 있다. 광은 제1 입력 회절소자(320), 제1 전달 회절소자(330), 제1 출사 회절소자(340)로 순차적으로 입사하여 외부로 다시 출력될 수 있다. 광의 광 가이드 장치(300)로의 입사 방향은 제1 기판(310)과 수직한 방향이거나 제1 기판(310)과 수직한 방향과 일정 각도를 이루는 방향일 수 있다.The light guide device (300) can change the path of light that is output from the projector device and can output the light to the outside again. The light guide device (300) can output the light to the outside so that it reaches the user's eyes. The light can be sequentially input to the first input diffraction element (320), the first transmission diffraction element (330), and the first output diffraction element (340) and output to the outside again. The direction of incidence of the light to the light guide device (300) can be a direction perpendicular to the first substrate (310) or a direction forming a certain angle with the direction perpendicular to the first substrate (310).
제1 기판(310)은 광을 전달하는 경로의 역할을 할 수 있다. 제1 기판(310) 상에 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340)가 배치될 수 있다. 광은 제1 기판(310)의 내부를 전반사하여 제1 기판(310)의 내부를 따라 이동할 수 있다. 제1 기판(310)은 도파관을 포함할 수 있다. 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340)는 제1 기판(310) 상에 서로 이격되어 배치될 수 있다.The first substrate (310) can serve as a path for transmitting light. A first input diffractive element (320), a first transmission diffractive element (330), and a first output diffractive element (340) can be arranged on the first substrate (310). The light can be totally reflected inside the first substrate (310) and travel along the inside of the first substrate (310). The first substrate (310) can include a waveguide. The first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340) can be arranged spaced apart from each other on the first substrate (310).
제1 기판(310)은 복수의 면을 포함할 수 있다. 제1 기판(310)은 제1 면과 제2 면을 포함할 수 있다. 제1 면은 광이 입사하는 면일 수 있다. 또한, 제2 면은 광이 출사하는 면일 수 있다. 제2 면은 제1 면과 이격된 면일 수 있다. 제1 면과 제2 면은 서로 나란할 수 있다. 제1 면 또는 제2 면 상에 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340)가 배치될 수 있다.The first substrate (310) may include a plurality of surfaces. The first substrate (310) may include a first surface and a second surface. The first surface may be a surface on which light is incident. In addition, the second surface may be a surface on which light is emitted. The second surface may be a surface spaced apart from the first surface. The first surface and the second surface may be parallel to each other. A first input diffraction element (320), a first transmission diffraction element (330), and a first output diffraction element (340) may be arranged on the first surface or the second surface.
제1 입력 회절소자(320)는 광이 입사하는 경로의 역할을 할 수 있다. 제1 입력 회절소자(320)는 제1 기판(310) 상에 배치될 수 있다. 광은 외부에서 제1 입력 회절소자(320)를 통해 광 가이드 장치(300)로 입사하여 제1 기판(310)을 통해 전달될 수 있다. 제1 입력 회절소자(320)는 광을 회절 시킴으로써 광의 경로를 변경할 수 있다.The first input diffraction element (320) can serve as a path through which light is incident. The first input diffraction element (320) can be placed on the first substrate (310). Light can be incident from the outside to the light guide device (300) through the first input diffraction element (320) and transmitted through the first substrate (310). The first input diffraction element (320) can change the path of light by diffracting the light.
제1 전달 회절소자(330)는 광의 경로를 변경하는 역할을 할 수 있다. 제1 전달 회절소자(330)는 제1 기판(310) 상에 배치될 수 있다. 제1 전달 회절소자(330)는 제1 입력 회절소자(320)를 통하여 입사한 광의 경로를 변경할 수 있다. 제1 전달 회절소자(330)는 광의 경로를 변경하여 제1 출사 회절소자(340)를 향하도록 하게 할 수 있다. 제1 전달 회절소자(330)는 광을 회절 시킴으로써 광의 경로를 변경할 수 있다.The first transmission diffraction element (330) can play a role in changing the path of light. The first transmission diffraction element (330) can be arranged on the first substrate (310). The first transmission diffraction element (330) can change the path of light incident through the first input diffraction element (320). The first transmission diffraction element (330) can change the path of light so that it is directed toward the first output diffraction element (340). The first transmission diffraction element (330) can change the path of light by diffracting the light.
제1 출사 회절소자(340)는 광이 출사하는 경로의 역할을 할 수 있다. 제1 출사 회절소자(340)는 제1 기판(310) 상에 배치될 수 있다. 광은 제1 출사 회절소자(340)를 통해 광 가이드 장치(300)의 외부로 출사할 수 있다. 제1 출사 회절소자(340)는 제1 전달 회절소자(330)로부터 경로가 변경된 광을 전달받아 외부로 출사하게 할 수 있다. 제1 출사 회절소자(340)는 광의 경로를 변경하여 외부로 출사할 수 있다. 제1 출사 회절소자(340)는 광을 회절 시킴으로써 광의 경로를 변경할 수 있다.The first exit diffraction element (340) can serve as a path through which light is emitted. The first exit diffraction element (340) can be arranged on the first substrate (310). Light can be emitted to the outside of the light guide device (300) through the first exit diffraction element (340). The first exit diffraction element (340) can receive light whose path has been changed from the first transmission diffraction element (330) and emit it to the outside. The first exit diffraction element (340) can change the path of light and emit it to the outside. The first exit diffraction element (340) can change the path of light by diffracting the light.
제2 기판(350)은 제1 기판(310)의 하단에 배치될 수 있다. 제2 기판(350)은 제1 기판(310)을 통과한 광을 전달할 수 있다. 제2 기판(350) 상에 제2 입력 회절소자(360), 제2 전달 회절소자(370) 및 제2 출사 회절소자(380)가 배치될 수 있다. 제2 입력 회절소자(360), 제2 전달 회절소자(370) 및 제2 출사 회절소자(380)는 각각 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340)와 광축 방향으로 중첩되도록 배치될 수 있다. 제2 입력 회절소자(360)는 제1 입력 회절소자(320)에 회절되지않고 제1 기판(310)을 통과한 광을 회절시킬 수 있다. 또한, 실시예에 따른 제2 기판(350)은 제1 기판(310)의 상단에 배치될 수 있다. (미도시) 이 경우 제1 기판(310)은 광 가이드 장치(300)의 복수의 기판 중 광 경로상 가장 후단에 배치될 수 있고, 커버(301)와 제1 기판(310)의 사이에 배치되어 제1 기판(310)이 제2 기판(350)을 통과한 광을 전달할 수 있다. The second substrate (350) may be placed under the first substrate (310). The second substrate (350) may transmit light that has passed through the first substrate (310). A second input diffraction element (360), a second transmission diffraction element (370), and a second exit diffraction element (380) may be placed on the second substrate (350). The second input diffraction element (360), the second transmission diffraction element (370), and the second exit diffraction element (380) may be placed to overlap with the first input diffraction element (320), the first transmission diffraction element (330), and the first exit diffraction element (340) in the optical axis direction, respectively. The second input diffraction element (360) may diffract light that has passed through the first substrate (310) without being diffracted by the first input diffraction element (320). In addition, the second substrate (350) according to the embodiment may be placed on top of the first substrate (310). (Not shown) In this case, the first substrate (310) may be placed at the rearmost end of the light path among the plurality of substrates of the light guide device (300), and may be placed between the cover (301) and the first substrate (310) so that the first substrate (310) may transmit light that has passed through the second substrate (350).
커버(301)는 제1 기판(310), 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340) 상에 배치될 수 있다. 커버(301)는 제1 기판(310), 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340) 상에 프로젝터(200)와 인접하게 배치될 수 있다. 광은 커버(301)를 통과하여 제1 입력 회절소자(320)에 입사할 수 있다. 커버(390)는 광 가이드 장치(300)의 내부를 보호하는 효과를 가질 수 있다.The cover (301) may be placed on the first substrate (310), the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340). The cover (301) may be placed adjacent to the projector (200) on the first substrate (310), the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340). Light may pass through the cover (301) and enter the first input diffractive element (320). The cover (390) may have an effect of protecting the interior of the light guide device (300).
도 5는 본 발명의 실시예에 따른 광 가이드 장치의 회절소자의 격자 패턴을 나타내는 도면이다.FIG. 5 is a drawing showing a grating pattern of a diffraction element of a light guide device according to an embodiment of the present invention.
도 4 및 5를 참조하면, 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340)는 각각 복수의 돌출부가 반복하여 배치되는 격자 패턴을 포함할 수 있다. 복수의 돌출부는 일정한 너비, 주기, 높이를 가지며 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340) 상에 배치될 수 있다. 복수의 돌출부는 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340) 상에 광축 방향으로 돌출될 수 있다. 복수의 돌출부는 돌출부가 포함된 패턴의 벡터 방향으로 이격되어 배치될 수 있다. 복수의 돌출부의 너비, 주기, 높이에 따라 제1 입력 회절소자(320), 제1 전달 회절소자(330) 및 제1 출사 회절소자(340)를 통과한 후 광의 경로가 서로 다르게 변경될 수 있다. 회절소자의 격자 주기는 돌출부의 일면과 인접한 돌출부의 일면 간의 최단 거리로 정의될 수 있다. 회절소자의 격자 주기는 돌출부의 동일한 측면 간의 최단 거리일 수 있다.Referring to FIGS. 4 and 5, the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340) may each include a grating pattern in which a plurality of protrusions are repeatedly arranged. The plurality of protrusions may have a constant width, period, and height and may be arranged on the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340). The plurality of protrusions may protrude in the optical axis direction on the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340). The plurality of protrusions may be arranged spaced apart from each other in the vector direction of the pattern including the protrusions. Depending on the width, period, and height of the plurality of protrusions, the path of light may be changed differently after passing through the first input diffractive element (320), the first transmission diffractive element (330), and the first output diffractive element (340). The grating period of the diffractive element may be defined as the shortest distance between one side of a protrusion and one side of an adjacent protrusion. The grating period of the diffractive element may be the shortest distance between the same side surfaces of the protrusions.
제1 입력 회절소자(320)는 복수의 제1 돌출부(321)를 포함할 수 있다. 제1 입력 회절소자(320)의 격자 주기(λIC)는 제1 돌출부(321)의 일면과 인접한 제1 돌출부(321)의 일면 간의 최단 거리일 수 있다. 또한, 제1 입력 회절소자(320)의 격자 주기(λIC)는 인접한 제1 돌출부(321)의 동일한 측면 간의 최단 거리일 수 있다. 제1 입력 회절소자(320)의 패턴의 벡터()는 제1 입력 회절소자(320)의 패턴 방향과 수직한 방향을 의미한다.The first input diffractive element (320) may include a plurality of first protrusions (321). The grating period (λ IC ) of the first input diffractive element (320) may be the shortest distance between one side of the first protrusion (321) and one side of an adjacent first protrusion (321). In addition, the grating period (λ IC ) of the first input diffractive element (320) may be the shortest distance between the same side of adjacent first protrusions (321). The vector ( of the pattern of the first input diffractive element (320) ) means a direction perpendicular to the pattern direction of the first input diffraction element (320).
제1 전달 회절소자(330)는 복수의 제2 돌출부(331)를 포함할 수 있다. 제1 전달 회절소자(330)의 격자 주기(λFG)는 제2 돌출부(331)의 일면과 인접한 제2 돌출부(331)의 일면 간의 최단 거리일 수 있다. 또한, 제1 전달 회절소자(330)의 격자 주기(λFG)는 인접한 제2 돌출부(331)의 동일한 측면 간의 최단 거리일 수 있다. 제1 전달 회절소자(330)의 패턴의 벡터()는 제1 전달 회절소자(330)의 패턴 방향과 수직한 방향을 의미한다.The first transmission diffraction element (330) may include a plurality of second protrusions (331). The grating period (λ FG ) of the first transmission diffraction element (330) may be the shortest distance between one side of the second protrusion (331) and one side of the adjacent second protrusion (331). In addition, the grating period (λ FG ) of the first transmission diffraction element (330) may be the shortest distance between the same side surfaces of the adjacent second protrusions (331). The vector ( of the pattern of the first transmission diffraction element (330) ) means a direction perpendicular to the pattern direction of the first transmission diffraction element (330).
제1 출사 회절소자(340)는 복수의 제3 돌출부(341)를 포함할 수 있다. 제1 출사 회절소자(340)의 격자 주기(λOC)는 제3 돌출부(341)의 일면과 인접한 제3 돌출부(341)의 일면 간의 최단 거리일 수 있다. 또한, 제1 출사 회절소자(340)의 격자 주기(λOC)는 인접한 제3 돌출부(341)의 동일한 측면 간의 최단 거리일 수 있다. 제1 출사 회절소자(340)의 패턴의 벡터()는 제1 출사 회절소자(340)의 패턴 방향과 수직한 방향을 의미한다.The first diffractive element (340) may include a plurality of third protrusions (341). The grating period (λ OC ) of the first diffractive element (340) may be the shortest distance between one side of the third protrusion (341) and one side of an adjacent third protrusion (341). In addition, the grating period (λ OC ) of the first diffractive element (340) may be the shortest distance between the same side surfaces of adjacent third protrusions (341). The vector ( of the pattern of the first diffractive element (340) ) means a direction perpendicular to the pattern direction of the first diffraction element (340).
도 6 내지 도 10은 본 발명의 실시예에 따른 광 가이드 장치의 제1 입력 회절소자의 모식도이다.FIGS. 6 to 10 are schematic diagrams of a first input diffraction element of a light guide device according to an embodiment of the present invention.
도 6을 참조하면, 제1 입력 회절소자(320)는 광축 방향으로 돌출된 복수의 제1 돌출부(321) 및 제1 기판(310)과 제1 돌출부(321) 상에 배치되는 복수의 제1 박막(322)을 포함할 수 있다.Referring to FIG. 6, the first input diffractive element (320) may include a plurality of first protrusions (321) protruding in the direction of the optical axis and a plurality of first thin films (322) arranged on the first substrate (310) and the first protrusions (321).
복수의 제1 돌출부(321)는 제1 입력 회절소자(320) 상에 광축 방향으로 돌출될 수 있다. 복수의 제1 돌출부(321)는 서로 제1 방향으로 일정 간격 이격되어 배치될 수 있다. 복수의 제1 돌출부(321)는 제1 방향으로 일정한 너비를 가질 수 있다. 또한, 복수의 제1 돌출부(321)는 광축 방향으로 일정한 높이를 가질 수 있다.A plurality of first protrusions (321) may protrude in the direction of the optical axis on the first input diffractive element (320). The plurality of first protrusions (321) may be arranged at a constant interval from each other in the first direction. The plurality of first protrusions (321) may have a constant width in the first direction. In addition, the plurality of first protrusions (321) may have a constant height in the direction of the optical axis.
복수의 제1 돌출부(321)는 각각 상면(S1), 제1 측면(S2) 및 제2 측면(S3)을 포함할 수 있다. 상면(S1)은 광축 방향과 수직하게 배치될 수 있다. 제1 측면(S2) 및 제2 측면(S3)은 제1 방향으로 이격될 수 있다. 제1 측면(S2) 및 제2 측면(S3)은 광축 방향과 일정 각도를 형성할 수 있다. 제1 측면(S2)은 광축 방향과 제1 각도(θa)를 형성할 수 있다. 제1 각도(θa)는 0°보다 크고 90°보다 작을 수 있다. 또한, 제2 측면(S3)은 광축 방향과 제2 각도(θb)를 형성할 수 있다. 제2 각도(θb)는 0° 보다 크고 90°보다 작을 수 있다. 제2 각도(θb)는 제1 각도(θa)와 동일하거나 상이할 수 있다. 제1 각도(θa)와 제2 각도(θb)가 동일한 경우 제1 측면(S2) 및 제2 측면(S3)은 나란하게 배치될 수 있다. 인접한 제1 측면(S2) 간의 제1 방향으로 이격 거리가 제1 돌출부(321)의 제1 주기(λ1)일 수 있다. 제1 돌출부(321)의 제1 측면(S2)과 제1 돌출부(321)의 상면(S1)이 이루는 각도는 제1 돌출부(321)의 제2 측면(S3)과 상면(S1)이 이루는 각도보다 클 수 있다. 제1 각도(θa) 및 제2 각도(θb)는 40˚ 이하일 수 있다. 또한, 제1 주기(λ1)는 300nm 내지 1000nm일 수 있다.Each of the plurality of first protrusions (321) may include a top surface (S1), a first side surface (S2), and a second side surface (S3). The top surface (S1) may be arranged perpendicular to the optical axis direction. The first side surface (S2) and the second side surface (S3) may be spaced apart in the first direction. The first side surface (S2) and the second side surface (S3) may form a predetermined angle with the optical axis direction. The first side surface (S2) may form a first angle (θa) with the optical axis direction. The first angle (θa) may be greater than 0° and less than 90°. In addition, the second side surface (S3) may form a second angle (θb) with the optical axis direction. The second angle (θb) may be greater than 0° and less than 90°. The second angle (θb) may be equal to or different from the first angle (θa). When the first angle (θa) and the second angle (θb) are the same, the first side surface (S2) and the second side surface (S3) may be arranged parallel. The distance in the first direction between adjacent first side surfaces (S2) may be the first period (λ1) of the first protrusion (321). The angle formed by the first side surface (S2) of the first protrusion (321) and the upper surface (S1) of the first protrusion (321) may be greater than the angle formed by the second side surface (S3) of the first protrusion (321) and the upper surface (S1). The first angle (θa) and the second angle (θb) may be 40° or less. In addition, the first period (λ1) may be 300 nm to 1000 nm.
제1 돌출부의 광축 방향으로 높이(h)는 200cosθa보다 작을 수 있다. 제1 돌출부의 광축 방향으로 높이(h)를 200cosθa보다 작게 형성함으로써 제1 박막(322)이 배치됨에 따라 광의 회절 효율을 크게 증가시킬 수 있다. 제1 돌출부의 광축 방향으로 높이(h)는 20nm 내지 200nm일 수 있다.The height (h) in the optical axis direction of the first protrusion may be less than 200 cosθa. By forming the height (h) in the optical axis direction of the first protrusion to be less than 200 cosθa, the diffraction efficiency of light may be significantly increased as the first thin film (322) is arranged. The height (h) in the optical axis direction of the first protrusion may be 20 nm to 200 nm.
제1 박막(322)은 제1 기판(310)과 제1 돌출부(321) 상에 배치될 수 있다. 복수의 제1 박막(322)은 서로 제1 방향으로 일정 간격 이격되어 배치될 수 있다. 제1 박막(322)은 제1 입력 회절소자(320) 상에 배치되어 제1 입력 회절소자(320)에 입사되는 광의 회절효율을 향상시킬 수 있다. 제1 박막(322)은 금속 재질을 포함할 수 있다. 예를 들어, 제1 박막(322)은 은 또는 알루미늄을 포함할 수 있다. 제1 박막(322)은 플라즈모닉 메타표면(Plasmonic metasurface)을 포함할 수 있다. 제1 박막(322)이 제1 기판(310)과 제1 돌출부(321) 상에 배치됨으로써 제1 입력 회절소자(320)의 광의 입사면을 플라즈모닉 메타표면으로 코팅할 수 있고, 그에 따라 특정 각도 및 파장에서 광의 회절 효율을 증가시킬 수 있다. 광 가이드 장치(300)가 복수의 기판을 포함하는 경우 제1 박막(322)이 배치되는 제1 기판(310) 및 제1 입력 회절소자(320)는 광 가이드 장치(300)의 복수의 기판 중 가장 하단에 배치될 수 있다. 제1 기판(310), 제1 입력 회절소자(320) 및 제1 박막(322)이 가장 하단에 위치함으로써 다른 파장 대역의 광의 투과율을 유지하면서 특정 파장 대역의 회절 효율을 증가시킬 수 있다.The first thin film (322) may be disposed on the first substrate (310) and the first protrusion (321). A plurality of first thin films (322) may be disposed at a predetermined interval from each other in the first direction. The first thin film (322) may be disposed on the first input diffraction element (320) to improve the diffraction efficiency of light incident on the first input diffraction element (320). The first thin film (322) may include a metal material. For example, the first thin film (322) may include silver or aluminum. The first thin film (322) may include a plasmonic metasurface. Since the first thin film (322) is disposed on the first substrate (310) and the first protrusion (321), the light incident surface of the first input diffraction element (320) can be coated with a plasmonic metasurface, thereby increasing the diffraction efficiency of light at a specific angle and wavelength. When the light guide device (300) includes a plurality of substrates, the first substrate (310) and the first input diffraction element (320) on which the first thin film (322) is disposed can be disposed at the lowest among the plurality of substrates of the light guide device (300). Since the first substrate (310), the first input diffraction element (320), and the first thin film (322) are positioned at the lowest, the diffraction efficiency of a specific wavelength band can be increased while maintaining the transmittance of light of other wavelength bands.
제1 박막(322)은 제1 돌출부(321)의 상면(S1), 제1 측면(S2) 및 복수의 제1 돌출부(321)의 사이에 배치될 수 있다. 제1 박막(322)은 제1 돌출부(321)의 제2 측면(S3)에는 배치되지 않을 수 있다. The first thin film (322) may be arranged between the upper surface (S1) of the first protrusion (321), the first side surface (S2) and the plurality of first protrusions (321). The first thin film (322) may not be arranged on the second side surface (S3) of the first protrusion (321).
제1 박막(322)은 제1 서브 박막(322a), 제2 서브 박막(322b) 및 제3 서브 박막(322c)을 포함할 수 있다. 제1 서브 박막(322a)은 제1 돌출부(321)의 상면(S1)에 배치되는 부분일 수 있다. 제1 서브 박막(322a)은 광축 방향과 수직하게 배치될 수 있다. 제1 서브 박막(322a)은 제1 입력 회절소자(320)와 나란하게 배치될 수 있다. 제2 서브 박막(322b)은 인접한 제1 돌출부(321)의 사이에 배치되는 부분일 수 있다. 제2 서브 박막(322b)은 제1 입력 회절소자(320)의 상면에 배치될 수 있다. 제2 서브 박막(322b)은 제1 입력 회절소자(320)의 상면 중 제1 돌출부(321)가 배치되지 않는 영역에 배치될 수 있다. 제2 서브 박막(322b)은 광축 방향과 수직하게 배치될 수 있다. 제2 서브 박막(322b)은 제1 입력 회절소자(320)와 나란하게 배치될 수 있다. 제3 서브 박막(322c)은 제1 돌출부(321)의 제1 측면(S2)에 배치되는 부분일 수 있다. 제3 서브 박막(322c)은 광축 방향과 일정 각도를 형성할 수 있다. 제3 서브 박막(322c)은 제1 서브 박막(322a)과 제2 서브 박막(322b)의 사이에 배치될 수 있다. 제1 박막(322)은 제1 서브 박막(322a), 제2 서브 박막(322b) 및 제3 서브 박막(322c)을 포함함으로써 광각에서도 광의 높은 회절 효율을 유지할 수 있다.The first thin film (322) may include a first sub-thin film (322a), a second sub-thin film (322b), and a third sub-thin film (322c). The first sub-thin film (322a) may be a portion disposed on the upper surface (S1) of the first protrusion (321). The first sub-thin film (322a) may be disposed perpendicular to the optical axis direction. The first sub-thin film (322a) may be disposed parallel to the first input diffraction element (320). The second sub-thin film (322b) may be a portion disposed between adjacent first protrusions (321). The second sub-thin film (322b) may be disposed on the upper surface of the first input diffraction element (320). The second sub-thin film (322b) may be disposed in an area of the upper surface of the first input diffraction element (320) where the first protrusion (321) is not disposed. The second sub-thin film (322b) may be arranged perpendicular to the optical axis direction. The second sub-thin film (322b) may be arranged parallel to the first input diffraction element (320). The third sub-thin film (322c) may be a portion arranged on the first side (S2) of the first protrusion (321). The third sub-thin film (322c) may form a certain angle with the optical axis direction. The third sub-thin film (322c) may be arranged between the first sub-thin film (322a) and the second sub-thin film (322b). The first thin film (322) may maintain high diffraction efficiency of light even at a wide angle by including the first sub-thin film (322a), the second sub-thin film (322b), and the third sub-thin film (322c).
제1 서브 박막(322a)의 일부는 인접한 제1 박막(322)의 제2 서브 박막(322b)의 일부와 광축 방향으로 중첩될 수 있다. 제1 돌출부(321)는 제2 측면(S3) 측으로 일정 각도 기울어져 배치될 수 있다. 그에 따라 제2 서브 박막(322b)의 일부는 인접한 제1 돌출부(3210의 상면(S1) 및 제2 측면(S2)의 일부와 광축 방향으로 중첩될 수 있다. 또한, 제2 서브 박막(322b)의 일부는 인접한 제1 박막(322)의 제1 서브 박막(322a)과 광축 방향으로 중첩될 수 있다.A part of the first sub-thin film (322a) may overlap a part of the second sub-thin film (322b) of the adjacent first thin film (322) in the optical axis direction. The first protrusion (321) may be arranged to be tilted at a certain angle toward the second side surface (S3). Accordingly, a part of the second sub-thin film (322b) may overlap a part of the upper surface (S1) and the second side surface (S2) of the adjacent first protrusion (3210) in the optical axis direction. In addition, a part of the second sub-thin film (322b) may overlap a part of the first sub-thin film (322a) of the adjacent first thin film (322) in the optical axis direction.
제2 서브 박막(322b)의 제1 방향으로 너비와 제1 서브 박막(322a)의 제1 방향으로 너비의 합은 제1 돌출부(321)의 주기(λIC)와 동일할 수 있다. 또한, 제2 서브 박막(322b)의 제1 방향으로 너비와 제1 돌출부(321)의 제1 방향으로 너비(d)의 합은 제1 돌출부(321)의 주기(λIC)와 동일할 수 있다. 제1 서브 박막(322a)의 제1 방향으로 너비는 제1 돌출부(321)의 제1 방향으로 너비(d)와 동일할 수 있다.The sum of the width in the first direction of the second sub-film (322b) and the width in the first direction of the first sub-film (322a) may be equal to the period (λIC) of the first protrusion (321). In addition, the sum of the width in the first direction of the second sub-film (322b) and the width (d) in the first direction of the first protrusion (321) may be equal to the period (λIC) of the first protrusion (321). The width in the first direction of the first sub-film (322a) may be equal to the width (d) in the first direction of the first protrusion (321).
제3 서브 박막(322c)은 제1 서브 박막(322a) 및 제2 서브 박막(322b)과 일정 각도를 형성할 수 있다. 제3 서브 박막(322c)이 제1 서브 박막(322c)과 이루는 각도는 제3 서브 박막(322c)이 제2 서브 박막(322b)과 이루는 각도와 동일할 수 있다. 제3 서브 박막(322c)이 제1 서브 박막(322a) 및 제2 서브 박막(322b)과 이루는 각도는 90˚보다 클 수 있다. 또한, 제3 서브 박막(322c)이 제1 서브 박막(322a) 및 제2 서브 박막(322b)과 이루는 각도는 제1 각도(θa)와 동일할 수 있다.The third sub-thin film (322c) can form a certain angle with the first sub-thin film (322a) and the second sub-thin film (322b). The angle that the third sub-thin film (322c) forms with the first sub-thin film (322c) can be the same as the angle that the third sub-thin film (322c) forms with the second sub-thin film (322b). The angle that the third sub-thin film (322c) forms with the first sub-thin film (322a) and the second sub-thin film (322b) can be greater than 90˚. In addition, the angle that the third sub-thin film (322c) forms with the first sub-thin film (322a) and the second sub-thin film (322b) can be the same as the first angle (θa).
제1 박막(322)의 두께(w)는 일정할 수 있다. 제1 박막(322)의 두께(w)는 제1 박막(322)과 접촉하는 면과 수직한 방향으로 너비를 의미할 수 있다. 제1 서브 박막(322a), 제2 서브 박막(322b) 및 제3 서브 박막(322c)의 각각의 두께는 동일할 수 있다. 이는 제1 서브 박막(322a)의 광축 방향으로 너비일 수 있다. 제1 박막(322)의 광축 방향으로 두께(w)는 제1 돌출부(321)의 광축 방향으로 높이(h)의 20% 내지 60%일 수 있다. 제1 박막(322)의 광축 방향으로 두께(w)를 제1 돌출부(321)의 광축 방향으로 높이(h)의 20% 내지 60%로 형성함으로써 플라즈모닉 효과에 따라 광각에서도 종래에 비해 회절 효율을 증대할 수 있다. 다만 제1 박막(322)의 두께(w)는 광 가이드 장치(300)를 광축 방향으로 바라보았을 때 제1 입력 회절소자(320)의 영역에 따라 상이할 수 있다. The thickness (w) of the first thin film (322) may be constant. The thickness (w) of the first thin film (322) may mean the width in the direction perpendicular to the surface in contact with the first thin film (322). The thicknesses of each of the first sub-thin film (322a), the second sub-thin film (322b), and the third sub-thin film (322c) may be the same. This may be the width in the optical axis direction of the first sub-thin film (322a). The thickness (w) in the optical axis direction of the first thin film (322) may be 20% to 60% of the height (h) in the optical axis direction of the first protrusion (321). By forming the thickness (w) in the optical axis direction of the first thin film (322) to be 20% to 60% of the height (h) in the optical axis direction of the first protrusion (321), the diffraction efficiency can be increased compared to the prior art even at a wide angle due to the plasmonic effect. However, the thickness (w) of the first thin film (322) may vary depending on the area of the first input diffraction element (320) when looking at the light guide device (300) in the optical axis direction.
도 7을 참조하면, 인접한 제1 돌출부(321) 간의 제1 방향으로 이격거리는 제2 서브 박막(322b)의 제1 방향으로 너비 보다 크거나 같을 수 있다. 제2 서브 박막(322b)은 제1 돌출부(321)의 제1 측면(S2)과 인접한 제1 돌출부(321)의 제2 측면(S3)의 사이에 배치될 수 있다. 그에 따라 제2 서브 박막(322b)의 제1 방향으로 너비는 최대 인접한 제1 돌출부(321) 간의 제1 방향으로 이격거리일 수 있다. 또한, 제2 서브 박막(322b)은 제1 돌출부(321)의 제2 측면(S3)과 일정 거리 이격될 수 있다. 제2 서브 박막(322b)은 인접한 제1 돌출부(321)의 제2 측면(S3)과 접촉하지 않고 일정거리 이격될 수 있다. 이 경우 제2 서브 박막(322b)의 제1 방향으로 너비는 인접한 제1 돌출부(321) 간의 제1 방향으로 이격거리보다 작을 수 있다. 그에 따라 제1 입력 회절소자(320)의 상면의 일부는 외부로 드러날 수 있다. 또한, 제1 서브 박막(322a)의 제1 방향으로 너비는 제2 서브 박막(322b)의 제1 방향으로 너비보다 클 수 있다.Referring to FIG. 7, the distance in the first direction between adjacent first protrusions (321) may be greater than or equal to the width of the second sub-film (322b) in the first direction. The second sub-film (322b) may be positioned between the first side (S2) of the first protrusion (321) and the second side (S3) of the adjacent first protrusion (321). Accordingly, the width of the second sub-film (322b) in the first direction may be at most the distance in the first direction between adjacent first protrusions (321). In addition, the second sub-film (322b) may be spaced apart from the second side (S3) of the first protrusion (321) by a predetermined distance. The second sub-film (322b) may be spaced apart from the second side (S3) of the adjacent first protrusion (321) by a predetermined distance without coming into contact with the second side (S3) of the adjacent first protrusion (321). In this case, the width in the first direction of the second sub-thin film (322b) may be smaller than the distance in the first direction between adjacent first protrusions (321). Accordingly, a part of the upper surface of the first input diffraction element (320) may be exposed to the outside. In addition, the width in the first direction of the first sub-thin film (322a) may be larger than the width in the first direction of the second sub-thin film (322b).
도 8을 참조하면, 제1 입력 회절소자(320)는 제1 입력 회절소자(320)와 제1 돌출부(321) 상에 배치되는 제2 박막(322)을 포함할 수 있다.Referring to FIG. 8, the first input diffractive element (320) may include a second thin film (322) disposed on the first input diffractive element (320) and the first protrusion (321).
제2 박막(322)은 제1 돌출부(321) 상에 배치되는 제1 서브 박막(322a) 및 제1 입력 회절소자(320) 상에 배치되는 제2 서브 박막(322b)을 포함할 수 있다. 제2 박막(322)의 제1 서브 박막(322a) 및 제2 서브 박막(322b)은 서로 이격되어 배치될 수 있다. 제1 서브 박막(322a)은 제1 돌출부(321)의 상면(S1)에 배치될 수 있다. 복수의 제1 서브 박막(322a)은 서로 제1 방향으로 일정 간격 이격되어 배치될 수 있다. 제2 서브 박막(322b)은 제1 입력 회절소자(320) 상에 배치될 수 있다. 제2 서브 박막(322b)은 제1 입력 회절소자(320) 상에 제1 돌출부(321)와 인접한 제1 돌출부(321) 사이에 배치될 수 있다. 복수의 제2 서브 박막(322b)은 서로 제1 방향으로 일정 간격 이격되어 배치될 수 있다. 제1 돌출부(321)의 제1 측면(S2) 및 제2 측면(S3)에는 제2 박막(322)이 배치되지 않을 수 있다. (다만, 제2 서브 박막(322b)의 두께(w)만큼 접촉할 수 있다.)The second thin film (322) may include a first sub-thin film (322a) disposed on the first protrusion (321) and a second sub-thin film (322b) disposed on the first input diffraction element (320). The first sub-thin film (322a) and the second sub-thin film (322b) of the second thin film (322) may be disposed spaced apart from each other. The first sub-thin film (322a) may be disposed on the upper surface (S1) of the first protrusion (321). A plurality of first sub-thin films (322a) may be disposed spaced apart from each other by a predetermined interval in the first direction. The second sub-thin film (322b) may be disposed on the first input diffraction element (320). The second sub-thin film (322b) may be disposed between the first protrusion (321) and an adjacent first protrusion (321) on the first input diffraction element (320). A plurality of second sub-films (322b) may be arranged at a predetermined interval from each other in the first direction. The second film (322) may not be arranged on the first side (S2) and the second side (S3) of the first protrusion (321). (However, the second sub-film (322b) may be in contact with the thickness (w) of the second sub-film (322b).)
제1 서브 박막(322a) 및 제2 서브 박막(322b)은 서로 제1 방향으로 중첩되지 않을 수 있다. 또한, 제1 서브 박막(322a) 및 제2 서브 박막(322b)은 광축 방향으로 일부 중첩될 수 있다. 제1 서브 박막(322a)은 인접한 제2 서브 박막(322b) 중 하나와 광축 방향으로 일부 중첩될 수 있다.The first sub-thin film (322a) and the second sub-thin film (322b) may not overlap each other in the first direction. In addition, the first sub-thin film (322a) and the second sub-thin film (322b) may partially overlap each other in the optical axis direction. The first sub-thin film (322a) may partially overlap one of the adjacent second sub-thin films (322b) in the optical axis direction.
도 9 및 도 10을 참조하면, 제1 돌출부(321)는 제1 입력 회절소자(320)의 하면 상에 배치될 수 있다. 이 경우 제1 입력 회절소자(320)는 제1 기판의 하면 상에 배치될 수 있다. 광은 제1 기판을 통과하여 제1 입력 회절소자(320)에 회절되어 반사될 수 있다. 제1 돌출부(321)는 광이 입사하는 방향과 반대 방향으로 돌출될 수 있다. 또한, 제1 박막(322)은 광이 입사하는 방향과 반대 방향에 배치될 수 있다.Referring to FIGS. 9 and 10, the first protrusion (321) may be arranged on the lower surface of the first input diffraction element (320). In this case, the first input diffraction element (320) may be arranged on the lower surface of the first substrate. Light may pass through the first substrate and be diffracted and reflected by the first input diffraction element (320). The first protrusion (321) may be arranged in a direction opposite to the direction in which light is incident. In addition, the first thin film (322) may be arranged in a direction opposite to the direction in which light is incident.
도 11a 및 도 11b는 본 발명의 실시예에 따른 광 가이드 장치의 회절 효율을 나타내는 그래프이다.FIG. 11a and FIG. 11b are graphs showing the diffraction efficiency of a light guide device according to an embodiment of the present invention.
도 11a는 광의 파장이 532nm이고, 제1 돌출부의 주기가 415nm이고, 필 팩터(Fill Factor)가 60%이고, 제1 돌출부의 높이가 100nm이고, 제1 돌출부의 각도가 30˚인 경우의 제1 박막의 두께(w, nm)에 따른 회절 효율(E, %)를 나타낸다. 또한, 도 11b는 광의 파장이 532nm이고, 제1 돌출부의 주기가 415nm이고, 필 팩터(Fill Factor)가 60%이고, 제1 돌출부의 높이가 150nm이고, 제1 돌출부의 각도가 30˚인 경우의 제1 박막의 두께(w, nm)에 따른 회절 효율(E, %)를 나타낸다. A는 도 8의 실시예에 따른 제1 박막의 형태의 경우이고, B는 도 9의 실시예에 따른 제1 박막의 형태의 경우를 나타낸다. 도 11a 및 도 11b를 참조하면, 제1 돌출부의 높이가 200cosθa (θa는 제1 돌출부의 각도)보다 작을 때 제1 박막의 두께가 제1 돌출부의 높이의 20% 내지 60%인 경우의 회절 효율이 증가할 수 있다.FIG. 11a shows the diffraction efficiency (E, %) according to the thickness (w, nm) of the first thin film when the wavelength of light is 532 nm, the period of the first protrusion is 415 nm, the fill factor is 60%, the height of the first protrusion is 100 nm, and the angle of the first protrusion is 30°. In addition, FIG. 11b shows the diffraction efficiency (E, %) according to the thickness (w, nm) of the first thin film when the wavelength of light is 532 nm, the period of the first protrusion is 415 nm, the fill factor is 60%, the height of the first protrusion is 150 nm, and the angle of the first protrusion is 30°. A shows the case of the shape of the first thin film according to the embodiment of FIG. 8, and B shows the case of the shape of the first thin film according to the embodiment of FIG. 9. Referring to FIGS. 11a and 11b, when the height of the first protrusion is less than 200 cosθa (θa is the angle of the first protrusion), the diffraction efficiency can increase when the thickness of the first thin film is 20% to 60% of the height of the first protrusion.
도 12는 본 발명의 다른 실시예에 따른 광 가이드 장치의 제1 입력 회절소자의 모식도이다.FIG. 12 is a schematic diagram of a first input diffractive element of a light guide device according to another embodiment of the present invention.
도 12를 참조하면, 제1 입력 회절소자(320)는 광축 방향으로 돌출된 복수의 제1 돌출부(321)와 제1 돌출부(321) 상에 배치되는 제1 박막(322)을 포함할 수 있다.Referring to FIG. 12, the first input diffractive element (320) may include a plurality of first protrusions (321) protruding in the direction of the optical axis and a first thin film (322) disposed on the first protrusions (321).
복수의 제1 돌출부(321)는 제1 입력 회절소자(320) 상에 광축 방향으로 돌출될 수 있다. 복수의 제1 돌출부(321)는 서로 제1 방향으로 일정 간격 이격되어 배치될 수 있다. 제1 방향은 인접한 제1 돌출부(321)가 이격된 방향을 의미할 수 있다. 제1 방향은 광축 방향과 수직할 수 있다. 즉 제1 방향은 제1 입력 회절소자(320)의 패턴의 벡터()의 방향일 수 있다. 복수의 제1 돌출부(321)는 제1 방향으로 일정한 너비(w)를 가질 수 있다. 또한, 복수의 제1 돌출부(321)는 광축 방향으로 일정한 높이(h)를 가질 수 있다. 또한, 복수의 제1 돌출부(321)는 일정한 주기(λIC)를 가질 수 있다. 제1 돌출부(321)의 주기(λIC)는 제1 입력 회절소자(320)의 격자 주기를 의미할 수 있다. 제1 돌출부(321)의 주기(λIC)는 인접한 제1 돌출부(321)의 동일한 일면 간의 최단 거리일 수 있다. 즉 제1 돌출부(321)의 주기(λIC)는 인접한 제1 돌출부(321)의 동일한 측면 간의 제1 방향으로 이격 거리일 수 있다. 이 경우 제1 입력 회절소자(320)의 필팩터(Fill Factor)(F, %)는 F = w/λIC*100 일 수 있다. 제1 입력 회절소자(320)의 필팩터(F)는 제1 입력 회절소자(320)를 광축 방향으로 보았을 때 제1 돌출부(321)가 채워진 비율을 의미할 수 있다. A plurality of first protrusions (321) may protrude in the direction of the optical axis on the first input diffractive element (320). The plurality of first protrusions (321) may be arranged to be spaced apart from each other by a certain interval in the first direction. The first direction may mean the direction in which adjacent first protrusions (321) are spaced apart. The first direction may be perpendicular to the direction of the optical axis. In other words, the first direction may be a vector ( ) may be in the direction of the first projections (321). The plurality of first projections (321) may have a constant width (w) in the first direction. In addition, the plurality of first projections (321) may have a constant height (h) in the optical axis direction. In addition, the plurality of first projections (321) may have a constant period (λIC). The period (λIC) of the first projections (321) may mean the grating period of the first input diffractive element (320). The period (λIC) of the first projections (321) may be the shortest distance between the same sides of adjacent first projections (321). That is, the period (λIC) of the first projections (321) may be the separation distance in the first direction between the same side surfaces of adjacent first projections (321). In this case, the fill factor (F, %) of the first input diffractive element (320) may be F = w/λIC*100. The fill factor (F) of the first input diffractive element (320) may refer to the ratio of the first protrusion (321) filled when the first input diffractive element (320) is viewed in the direction of the optical axis.
제1 박막(322)은 제1 입력 회절소자(320)와 제1 돌출부(321) 상에 배치될 수 있다. 제1 박막(322)은 제1 입력 회절소자(320)와 제1 돌출부(321) 상에 배치되어 제1 입력 회절소자(320)와 제1 돌출부(321)를 커버할 수 있다. 제1 박막(322)은 제1 입력 회절소자(320)와 광축 방향으로 중첩되도록 배치될 수 있다. 제1 박막(322)은 제1 돌출부(321)의 상면과 두 측면과 모두 접촉할 수 있다. 또한, 제1 박막(322)은 제1 입력 회절소자(320)의 상면 중 제1 돌출부(321)가 배치되지 않는 영역과도 접촉할 수 있다. 제1 박막(322)은 복수의 제1 돌출부(321)의 사이 공간을 모두 채울 수 있다. 제1 박막(322)은 제1 입력 회절소자(320)의 상면을 모두 커버할 수 있다. 제1 박막(322)은 금속 박막을 포함할 수 있다. 제1 박막(322)은 Ag, Al, Au을 포함할 수 있다.The first thin film (322) may be arranged on the first input diffractive element (320) and the first protrusion (321). The first thin film (322) may be arranged on the first input diffractive element (320) and the first protrusion (321) to cover the first input diffractive element (320) and the first protrusion (321). The first thin film (322) may be arranged to overlap the first input diffractive element (320) in the optical axis direction. The first thin film (322) may be in contact with both the upper surface and two side surfaces of the first protrusion (321). In addition, the first thin film (322) may also be in contact with an area of the upper surface of the first input diffractive element (320) where the first protrusion (321) is not arranged. The first thin film (322) may fill all of the spaces between the plurality of first protrusions (321). The first thin film (322) can cover the entire upper surface of the first input diffraction element (320). The first thin film (322) can include a metal thin film. The first thin film (322) can include Ag, Al, or Au.
제1 박막(322)은 광축 방향으로 일정한 높이(H)를 가질 수 있다. 제1 박막(322)의 높이(H)는 제1 입력 회절소자(320)의 상면에서 제1 박막(322)의 상면까지의 광축 방향으로 너비일 수 있다. 제1 박막(322)의 높이(H)는 제1 돌출부(321)의 높이(h)보다 클 수 있다. 제1 돌출부(321)의 높이(h)는 40nm 내지 100nm일 수 있다. 바람직하게는 제1 돌출부(321)의 높이(h)는 50nm 내지 70nm일 수 있다. 제1 박막(322)의 높이(H)는 제1 돌출부(321)의 높이(h)의 2배 내지 4배일 수 있다. 제1 박막(322)의 높이(H)가 제1 돌출부(321)의 높이(h)의 2배 내지 4배인 경우 광 가이드 장치의 회절 효율이 증가할 수 있다. 실시예에 따른 광 가이드 장치(300)의 제1 입력 회절소자(320)의 패턴의 주기(λIC)가 363nm이고, 제1 돌출부(321)의 높이(h)가 50nm이고, 필팩터(F)가 50%인 경우 광의 회절 효율은 0.2%일 수 있다. 실시예에 따르면 제1 박막(322)을 포함하지 않는 경우에 비해 회절효율이 2배 증가할 수 있다. 다만, 제1 돌출부(321)의 높이(h)가 40nm 내지 100nm를 벗어날 경우 회절효율이 증가하지 않거나 증가 폭이 미비할 수 있다. 다른 실시예의 경우 제1 입력 회절소자(320)의 패턴의 주기(λIC)가 363nm이고, 제1 돌출부(321)의 높이(h)가 70nm이고, 필팩터(F)가 50%인 경우 광의 회절 효율은 01933 %일 수 있다. 실시예에 따르면 제1 박막(322)을 포함하지 않는 경우에 비해 회절효율이 약 3배 증가할 수 있다.The first thin film (322) may have a constant height (H) in the optical axis direction. The height (H) of the first thin film (322) may be a width in the optical axis direction from the upper surface of the first input diffraction element (320) to the upper surface of the first thin film (322). The height (H) of the first thin film (322) may be greater than the height (h) of the first protrusion (321). The height (h) of the first protrusion (321) may be 40 nm to 100 nm. Preferably, the height (h) of the first protrusion (321) may be 50 nm to 70 nm. The height (H) of the first thin film (322) may be 2 to 4 times the height (h) of the first protrusion (321). When the height (H) of the first thin film (322) is 2 to 4 times the height (h) of the first protrusion (321), the diffraction efficiency of the light guide device may increase. When the period (λIC) of the pattern of the first input diffraction element (320) of the light guide device (300) according to the embodiment is 363 nm, the height (h) of the first protrusion (321) is 50 nm, and the fill factor (F) is 50%, the diffraction efficiency of the light may be 0.2%. According to the embodiment, the diffraction efficiency may increase by two times compared to when the first thin film (322) is not included. However, when the height (h) of the first protrusion (321) exceeds 40 nm to 100 nm, the diffraction efficiency may not increase or the increase may be insignificant. In another embodiment, when the period (λIC) of the pattern of the first input diffractive element (320) is 363 nm, the height (h) of the first protrusion (321) is 70 nm, and the fill factor (F) is 50%, the diffraction efficiency of light may be 0.1933%. According to the embodiment, the diffraction efficiency may increase by about three times compared to a case where the first thin film (322) is not included.
도 13은 본 발명의 실시예에 따른 광 가이드 장치의 상면도이다.Figure 13 is a top view of a light guide device according to an embodiment of the present invention.
도 13을 참조하면, 제1 입력 회절소자(320)는 광축 방향과 수직한 방향으로 배치되는 제1 영역 내지 제3 영역(A1, A2, A3)을 포함할 수 있다. 제1 영역 내지 제3 영역(A1, A2, A3)은 제1 입력 회절소자(320)를 광축 방향으로 보았을 때 분리된 영역일 수 있다. 제1 영역 내지 제3 영역(A1, A2, A3)은 광축 방향과 수직한 방향으로 배치될 수 있다. 제2 영역(A2)은 제1 영역(A1)과 제3 영역(A3)의 사이에 배치될 수 있다.Referring to FIG. 13, the first input diffractive element (320) may include first to third regions (A1, A2, A3) arranged in a direction perpendicular to the optical axis direction. The first to third regions (A1, A2, A3) may be separated regions when the first input diffractive element (320) is viewed in the optical axis direction. The first to third regions (A1, A2, A3) may be arranged in a direction perpendicular to the optical axis direction. The second region (A2) may be arranged between the first region (A1) and the third region (A3).
제1 영역 내지 제3 영역(A1, A2, A3)에 배치된 제1 돌출부(321)의 제1 방향으로 너비(w)는 서로 상이할 수 있다. 각각의 영역에 배치된 제1 돌출부(321)의 제1 방향으로 너비는 일정할 수 있다. 또한, 제1 영역 내지 제3 영역(A1, A2, A3)에 배치된 제1 돌출부(321)의 주기(λIC)는 동일할 수 있다. 제1 영역 내지 제3 영역(A1, A2, A3)에 배치된 제1 돌출부(321)의 너비(w)가 상이하고, 주기(λIC)가 동일하므로 제1 입력 회절소자(320)의 필팩터(F)는 제1 영역 내지 제3 영역(A1, A2, A3)에 따라 달라질 수 있다.The widths (w) in the first direction of the first protrusions (321) arranged in the first to third regions (A1, A2, A3) may be different from each other. The widths in the first direction of the first protrusions (321) arranged in each region may be constant. In addition, the periods (λIC) of the first protrusions (321) arranged in the first to third regions (A1, A2, A3) may be the same. Since the widths (w) of the first protrusions (321) arranged in the first to third regions (A1, A2, A3) are different and the periods (λIC) are the same, the fill factor (F) of the first input diffractive element (320) may vary depending on the first to third regions (A1, A2, A3).
제1 영역 내지 제3 영역(A1, A2, A3)은 제1 방향으로 배치될 수 있다. 제1 영역 내지 제3 영역(A1, A2, A3)은 인접한 제1 돌출부(321)가 이격된 방향으로 배치될 수 있다. 즉 제1 영역 내지 제3 영역(A1, A2, A3)은 제1 입력 회절소자(320)에서 광이 진행하는 방향을 따라 순차적으로 배치될 수 있다. 제1 영역 내지 제3 영역(A1, A2, A3)은 제1 입력 회절소자(320)의 패턴의 벡터()의 방향을 따라 순차적으로 배치될 수 있다. 제1 영역(A1)과 제2 영역(A2)의 경계면과 제2 영역(A2)과 제3 영역(A3)의 경계면은 제1 방향과 수직할 수 있다. 제1 영역(A1)은 제1 전달 회절소자(330)와 가장 이격된 영역일 수 있고, 제3 영역(A3)은 제1 전달 회절소자(330)와 가장 인접한 영역일 수 있다.The first to third regions (A1, A2, A3) can be arranged in the first direction. The first to third regions (A1, A2, A3) can be arranged in a direction in which adjacent first protrusions (321) are spaced apart. That is, the first to third regions (A1, A2, A3) can be arranged sequentially along the direction in which light propagates in the first input diffraction element (320). The first to third regions (A1, A2, A3) can be arranged in a vector ( ) can be sequentially arranged along the direction of the first region (A1) and the second region (A2) and the boundary between the second region (A2) and the third region (A3) can be perpendicular to the first direction. The first region (A1) can be the region furthest from the first transmission diffraction element (330), and the third region (A3) can be the region closest to the first transmission diffraction element (330).
제1 영역 내지 제3 영역(A1, A2, A3)의 제1 방향으로 최대 너비는 동일할 수 있다. 즉 제1 영역 내지 제3 영역(A1, A2, A3)의 경계면은 제1 입력 회절소자(320)의 지름을 3등분한 위치에 배치될 수 있다. 결국 광축 방향으로 보았을 때 제2 영역(A2)의 중심은 제1 입력 회절소자(320)의 중심과 중첩될 수 있다.The maximum widths in the first direction of the first to third regions (A1, A2, A3) may be the same. That is, the boundaries of the first to third regions (A1, A2, A3) may be arranged at positions that divide the diameter of the first input diffractive element (320) into three equal parts. As a result, when viewed in the direction of the optical axis, the center of the second region (A2) may overlap with the center of the first input diffractive element (320).
제1 영역 내지 제3 영역(A1, A2, A3)의 제2 방향으로 너비는 상이할 수 있다. 제2 방향은 광축 방향 및 제1 방향과 수직한 방향일 수 있다. 제1 입력 회절소자(320)는 광축 방향으로 보았을 때 원 형태를 포함할 수 있다. 그에 따라 제1 영역(A1)과 제3 영역(A3)의 사이에 배치된 제2 영역(A2)의 제2 방향으로 너비가 가장 클 수 있다. 또한, 제1 영역(A1)의 제2 방향으로 너비와 제3 영역(A3)의 제2 방향으로 최대 너비는 동일할 수 있다. 제1 영역(A1) 및 제3 영역(A3)의 제2 방향으로 너비는 제2 영역(A2)과 인접할수록 증가할 수 있다.The widths in the second direction of the first to third regions (A1, A2, A3) may be different. The second direction may be a direction perpendicular to the optical axis direction and the first direction. The first input diffractive element (320) may include a circular shape when viewed in the optical axis direction. Accordingly, the width in the second direction of the second region (A2) arranged between the first region (A1) and the third region (A3) may be the largest. In addition, the width in the second direction of the first region (A1) and the maximum width in the second direction of the third region (A3) may be the same. The widths in the second direction of the first region (A1) and the third region (A3) may increase as they become closer to the second region (A2).
실시예에 따른 제1 영역(A1)의 제1 돌출부(321), 제2 영역(A2)의 제1 돌출부(3210 및 제3 영역(A3)의 제1 돌출부(A3)의 제1 방향으로 너비(w)의 비율은 7:5:3일 수 있다. 또한, 제1 영역(A1)의 필팩터(F)는 70%이고, 제2 영역(A2)의 필팩터(F)는 50%이고, 제3 영역(A3)의 필팩터(F)는 30%일 수 있다. 제1 입력 회절소자(320)를 제1 영역 내지 제3 영역(A1, A2, A3)으로 분리하지 않는 경우 광 가이드 장치의 출력 영역에 따른 광 출력 효율의 분산은 0.0596일 수 있다. 하지만 제1 영역(A1)의 필팩터(F)를 70%, 제2 영역(A2)의 필팩터(F)를 50%, 제3 영역(A3)의 필팩터(F)를 30%으로 하는 경우 광 가이드 장치의 출력 영역에 따른 광 출력 효율의 분산은 0.0387일 수 있다. 제1 입력 회절소자(320)가 제1 영역 내지 제3 영역(A1, A2, A3)을 포함하는 경우 영역에 따른 광 출력 효율의 분산이 감소할 수 있고 그에 따라 광 출력 균일성이 증가할 수 있다. 따라서, 제1 입력 회절소자(320)가 제1 돌출부(321)의 너비에 따라 구별된 제1 영역 내지 제3 영역(A1, A2, A3)을 포함하고, 제1 박막(322)을 포함하는 경우 광 가이드 장치의 회절 효율을 유지하면서 광 출력 균일성을 증가시킬 수 있다.According to the embodiment, the ratio of the widths (w) in the first direction of the first protrusion (321) of the first region (A1), the first protrusion (3210) of the second region (A2), and the first protrusion (A3) of the third region (A3) may be 7:5:3. In addition, the fill factor (F) of the first region (A1) may be 70%, the fill factor (F) of the second region (A2) may be 50%, and the fill factor (F) of the third region (A3) may be 30%. When the first input diffraction element (320) is not divided into the first region to the third region (A1, A2, A3), the dispersion of the light output efficiency according to the output region of the light guide device may be 0.0596. However, when the fill factor (F) of the first region (A1) is 70%, the fill factor (F) of the second region (A2) is 50%, and the fill factor (F) of the third region (A3) is 30%, the dispersion of the light output efficiency according to the output region of the light guide device may be 0.0596. When the fill factor (F) of the area (A3) is 30%, the dispersion of the light output efficiency according to the output area of the light guide device can be 0.0387. When the first input diffractive element (320) includes the first area to the third area (A1, A2, A3), the dispersion of the light output efficiency according to the area can be reduced, and accordingly, the light output uniformity can be increased. Therefore, when the first input diffractive element (320) includes the first area to the third area (A1, A2, A3) distinguished according to the width of the first protrusion (321) and includes the first thin film (322), the light output uniformity can be increased while maintaining the diffraction efficiency of the light guide device.
다른 실시예에 따른 제1 영역(A1)의 필팩터(F)는 30%이고, 제2 영역(A2)의 필팩터(F)는 50%이고, 제3 영역(A3)의 필팩터(F)는 70%일 수 있다. 또한, 다른 실시예에 따른 제1 영역(A1)의 필팩터(F)는 40%이고, 제2 영역(A2)의 필팩터(F)는 50%이고, 제3 영역(A3)의 필팩터(F)는 60%일 수 있다. 또한, 다른 실시예에 따른 제1 영역(A1)의 필팩터(F)는 60%이고, 제2 영역(A2)의 필팩터(F)는 50%이고, 제3 영역(A3)의 필팩터(F)는 40%일 수 있다.In another embodiment, the fill factor (F) of the first region (A1) may be 30%, the fill factor (F) of the second region (A2) may be 50%, and the fill factor (F) of the third region (A3) may be 70%. In addition, the fill factor (F) of the first region (A1) may be 40%, the fill factor (F) of the second region (A2) may be 50%, and the fill factor (F) of the third region (A3) may be 60%. In addition, in another embodiment, the fill factor (F) of the first region (A1) may be 60%, the fill factor (F) of the second region (A2) may be 50%, and the fill factor (F) of the third region (A3) may be 40%.
도 14는 본 발명의 다른 실시예에 따른 광 가이드 장치의 상면도이다.FIG. 14 is a top view of a light guide device according to another embodiment of the present invention.
도 14를 참조하면, 제1 영역 내지 제3 영역(A1, A2, A3)은 제2 방향으로 배치될 수 있다. 제2 방향은 제1 방향 및 광축 방향과 수직한 방향일 수 있다. 제1 영역 내지 제3 영역(A1, A2, A3)은 인접한 제1 돌출부(321)가 이격된 방향과 수직으로 배치될 수 있다. 즉 제1 영역 내지 제3 영역(A1, A2, A3)은 제1 입력 회절소자(320)에서 광이 진행하는 방향과 수직한 방향을 따라 순차적으로 배치될 수 있다. 제1 영역 내지 제3 영역(A1, A2, A3)은 제1 입력 회절소자(320)의 패턴의 벡터()의 방향과 수직한 방향을 따라 순차적으로 배치될 수 있다. 제1 영역(A1)과 제2 영역(A2)의 경계면과 제2 영역(A2)과 제3 영역(A3)의 경계면은 제1 방향으로 연장될 수 있다. 제1 영역(A1)은 제1 출사 회절소자(340)와 가장 이격된 영역일 수 있고, 제3 영역(A3)은 제1 출사 회절소자(340)와 가장 인접한 영역일 수 있다.Referring to FIG. 14, the first to third regions (A1, A2, A3) may be arranged in a second direction. The second direction may be a direction perpendicular to the first direction and the optical axis direction. The first to third regions (A1, A2, A3) may be arranged perpendicular to the direction in which adjacent first protrusions (321) are spaced apart. In other words, the first to third regions (A1, A2, A3) may be arranged sequentially along a direction perpendicular to the direction in which light propagates in the first input diffraction element (320). The first to third regions (A1, A2, A3) may be arranged in a vector ( ) can be sequentially arranged along a direction perpendicular to the direction of the first region (A1) and the second region (A2) and a boundary surface between the second region (A2) and the third region (A3) can extend in the first direction. The first region (A1) can be a region furthest from the first diffraction element (340), and the third region (A3) can be a region closest to the first diffraction element (340).
제1 영역 내지 제3 영역(A1, A2, A3)의 제2 방향으로 최대 너비는 동일할 수 있다. 즉 제1 영역 내지 제3 영역(A1, A2, A3)의 경계면은 제1 입력 회절소자(320)의 지름을 3등분한 위치에 배치될 수 있다. 결국 광축 방향으로 보았을 때 제2 영역(A2)의 중심은 제1 입력 회절소자(320)의 중심과 중첩될 수 있다.The maximum widths in the second direction of the first to third regions (A1, A2, A3) may be the same. That is, the boundaries of the first to third regions (A1, A2, A3) may be arranged at positions that divide the diameter of the first input diffractive element (320) into three equal parts. As a result, when viewed in the direction of the optical axis, the center of the second region (A2) may overlap with the center of the first input diffractive element (320).
제1 영역 내지 제3 영역(A1, A2, A3)의 제1 방향으로 너비는 상이할 수 있다. 제1 입력 회절소자(320)는 광축 방향으로 보았을 때 원 형태를 포함할 수 있다. 그에 따라 제1 영역(A1)과 제3 영역(A3)의 사이에 배치된 제2 영역(A2)의 제1 방향으로 너비가 가장 클 수 있다. 또한, 제1 영역(A1)의 제1 방향으로 너비와 제3 영역(A3)의 제1 방향으로 최대 너비는 동일할 수 있다. 제1 영역(A1) 및 제3 영역(A3)의 제1 방향으로 너비는 제2 영역(A2)과 인접할수록 증가할 수 있다.The widths in the first direction of the first to third regions (A1, A2, A3) may be different. The first input diffractive element (320) may include a circular shape when viewed in the direction of the optical axis. Accordingly, the width in the first direction of the second region (A2) arranged between the first region (A1) and the third region (A3) may be the largest. In addition, the width in the first direction of the first region (A1) and the maximum width in the first direction of the third region (A3) may be the same. The widths in the first direction of the first region (A1) and the third region (A3) may increase as they become closer to the second region (A2).
실시예에 따른 제1 영역(A1)의 제1 돌출부(321), 제2 영역(A2)의 제1 돌출부(3210 및 제3 영역(A3)의 제1 돌출부(A3)의 제1 방향으로 너비(w)의 비율은 7:5:3일 수 있다. 또한, 제1 영역(A1)의 필팩터(F)는 70%이고, 제2 영역(A2)의 필팩터(F)는 50%이고, 제3 영역(A3)의 필팩터(F)는 30%일 수 있다. 제1 입력 회절소자(320)를 제1 영역 내지 제3 영역(A1, A2, A3)으로 분리하지 않는 경우 광 가이드 장치의 출력 영역에 따른 광 출력 효율의 분산은 0.0596일 수 있다. 하지만 제1 영역(A1)의 필팩터(F)를 70%, 제2 영역(A2)의 필팩터(F)를 50%, 제3 영역(A3)의 필팩터(F)를 30%으로 하는 경우 광 가이드 장치의 출력 영역에 따른 광 출력 효율의 분산은 0.0387일 수 있다. 제1 입력 회절소자(320)가 제1 영역 내지 제3 영역(A1, A2, A3)을 포함하는 경우 영역에 따른 광 출력 효율의 분산이 감소할 수 있고 그에 따라 광 출력 균일성이 증가할 수 있다. 따라서, 제1 입력 회절소자(320)가 제1 돌출부(321)의 너비에 따라 구별된 제1 영역 내지 제3 영역(A1, A2, A3)을 포함하고, 제1 박막(322)을 포함하는 경우 광 가이드 장치의 회절 효율을 유지하면서 광 출력 균일성을 증가시킬 수 있다.According to the embodiment, the ratio of the widths (w) in the first direction of the first protrusion (321) of the first region (A1), the first protrusion (3210) of the second region (A2), and the first protrusion (A3) of the third region (A3) may be 7:5:3. In addition, the fill factor (F) of the first region (A1) may be 70%, the fill factor (F) of the second region (A2) may be 50%, and the fill factor (F) of the third region (A3) may be 30%. When the first input diffraction element (320) is not divided into the first region to the third region (A1, A2, A3), the dispersion of the light output efficiency according to the output region of the light guide device may be 0.0596. However, when the fill factor (F) of the first region (A1) is 70%, the fill factor (F) of the second region (A2) is 50%, and the fill factor (F) of the third region (A3) is 30%, the dispersion of the light output efficiency according to the output region of the light guide device may be 0.0596. When the fill factor (F) of the area (A3) is 30%, the dispersion of the light output efficiency according to the output area of the light guide device can be 0.0387. When the first input diffractive element (320) includes the first area to the third area (A1, A2, A3), the dispersion of the light output efficiency according to the area can be reduced, and accordingly, the light output uniformity can be increased. Therefore, when the first input diffractive element (320) includes the first area to the third area (A1, A2, A3) distinguished according to the width of the first protrusion (321) and includes the first thin film (322), the light output uniformity can be increased while maintaining the diffraction efficiency of the light guide device.
실시 예에 따른 차량 시스템(또는 환경)은 차량, 탑승자(운전자), 전자 장치를 포함할 수 있다. 이하 설명에서는 전자 장치가 차량 내에 별도로 구비되는 장치로서 설명하지만, 본 발명이 이에 한정되는 것은 아니다. 예컨대, 전자 장치는 차량의 일부 구성으로 구현될 수도 있다.The vehicle system (or environment) according to the embodiment may include a vehicle, a passenger (driver), and an electronic device. In the following description, the electronic device is described as a device separately provided in the vehicle, but the present invention is not limited thereto. For example, the electronic device may be implemented as a part of the vehicle.
차량은 차체 및 차체 이동을 위한 다양한 장치(예로, 바퀴, 바퀴 구동을 위한 구동 장치, 구동 장치 시동을 위한 시동 장치, 동력을 생성하고 생성된 동력을 구동 장치에 전달하는 엔진, 차량의 방향을 조절하는 조향 장치, 차량의 속도를 조절하는 가속 장치 등)을 포함할 수 있다. 또한, 차량은 다양한 전장 시스템을 포함할 수 있다. 예컨대, 전장 시스템은 엔진을 제어하는 엔진 제어 장치, 차량 내 온도를 조절하는 온도 조절 장치, 외부 상황에 따라 라이트를 조절하는 라이트 조절 장치 등을 포함할 수 있다.A vehicle may include a body and various devices for moving the body (e.g., wheels, a driving device for driving the wheels, a starting device for starting the driving device, an engine for generating power and transmitting the generated power to the driving device, a steering device for controlling the direction of the vehicle, an accelerator for controlling the speed of the vehicle, etc.). In addition, the vehicle may include various electrical systems. For example, the electrical system may include an engine control device for controlling the engine, a temperature control device for controlling the temperature inside the vehicle, a light control device for controlling the lights according to external conditions, etc.
특히, 차량은 전자 장치와 통신할 수 있는 통신 인터페이스를 포함하고, 통신 인터페이스를 통해 전달된 데이터에 대한 분석 및 분석 결과에 따라 사전 설정된 기능을 수행하는 추가적인 프로세서를 포함할 수 있다. In particular, the vehicle may include a communication interface capable of communicating with an electronic device, and may include an additional processor for analyzing data transmitted through the communication interface and performing preset functions based on the analysis results.
프로세서는 예컨대, 상술한 엔진 제어 장치 또는 모터 컨트롤 유닛 등으로 구현될 수 있다. 통신 인터페이스는 차량 내 데이터 송수신을 지원하는 CAN 통신 또는 전자 장치와 연결된 케이블을 통한 유선 통신 등 다양한 통신 방식 중 적어도 하나의 통신 방식을 지원할 수 있다. 한 예로서, 차량은 전자 장치 획득한 이미지 또는 이미지에 대한 분석 결과를 수신하고, 수신된 결과에 따른 지정된 기능을 수행할 수 있다.The processor may be implemented as, for example, the engine control unit or motor control unit described above. The communication interface may support at least one of various communication methods, such as CAN communication that supports data transmission and reception within the vehicle or wired communication via a cable connected to the electronic device. As an example, the vehicle may receive an image acquired by the electronic device or an analysis result for the image, and perform a designated function according to the received result.
실시예에 따르면, 전자 장치가 카메라 모듈과 연결되어 운전자에 대한 이미지 획득을 수행하고, 획득된 이미지에 대한 분석을 수행한 후 분석 결과에 따라 다양한 설정된 기능 처리(예: 감속 처리, 비상등 턴-온 또는 턴-오프, 경적 장치 제어, 차량 진동 제어, 창문 개폐 제어 등)를 수행하게 할 수 있다. 또한, 이러한 기능 처리 이외에 다양한 기능 처리가 더 추가적으로 구현될 수 있다. According to an embodiment, an electronic device may be connected to a camera module to acquire an image of a driver, analyze the acquired image, and then perform various set function processing (e.g., deceleration processing, turning on or off an emergency light, controlling a horn device, controlling vehicle vibration, controlling window opening and closing, etc.) based on the analysis result. In addition to such function processing, various function processing may be additionally implemented.
그리고 운전자는 운전석에 착석하여 조향 장치를 조절할 수 있는 인원으로서, 전자 장치에 의한 영상 촬영의 대상이 될 수 있다. 본 발명에서는, 전자 장치가 운전석에 착석한 운전자에 대한 이미지를 획득하는 것을 대표적인 예로서 설명하지만, 본 발명이 이에 한정되는 것은 아니다. 예컨대, 모니터링 시스템은 운전자 뿐만 아니라, 보조석 또는 기타 좌석에 착석한 동승자에 대한 영상을 획득하고, 동승자의 다양한 행동에 따른 이미지 획득 방식의 조절을 수행하는데 적용될 수도 있다. 이와 관련하여, 차량에는 적어도 하나의 전자 장치가 배치될 수 있다. 예컨대, 운전자 모니터링만을 지원하는 운전석에 착석한 운전자에 대한 이미지를 획득할 수 있도록 카메라 모듈과 전자 장치가 배치될 수 있다. And the driver, as a person who can sit in the driver's seat and control the steering device, can be the subject of image capture by the electronic device. In the present invention, the electronic device acquires an image of the driver seated in the driver's seat as a representative example, but the present invention is not limited thereto. For example, the monitoring system can be applied to acquire images of not only the driver but also the passenger seated in the passenger seat or other seats, and to perform adjustment of the image acquisition method according to various actions of the passenger. In this regard, at least one electronic device can be arranged in the vehicle. For example, a camera module and an electronic device can be arranged so as to acquire an image of the driver seated in the driver's seat that only supports driver monitoring.
또는, 운전자 및 동승자에 대한 모니터링 기능을 지원하는 경우, 운전석 및 동승 좌석들에 대한 이미지 획득이 가능하도록 복수개의 전자 장치가 차량 내에 배치될 수도 있다.Alternatively, if monitoring capabilities for the driver and passengers are supported, multiple electronic devices may be placed within the vehicle to enable image acquisition of the driver and passenger seats.
전자 장치는 카메라 모듈에 의해 운전자의 얼굴에 대한 이미지 정보를 수신할 수 있다. 이에, 전자 장치는 소정의 방식으로 운전자의 졸음 등을 판단하여 그에 대응하는 다양한 피드백(예, 알람)을 제공할 수 있다. 예컨대, 전자 장치는 사용자의 아이 트랙이나 홍채 크기 또는 크기 변화 등을 기반으로 운전자의 졸음 여부를 판단할 수 있다. 또한, 전자 장치는 사용자의 얼굴 뿐만 아니라, 운전자의 손에 대한 이미지 정보를 카메라 모듈로부터 수신할 수 있다. 이에, 전자 장치는 운전자의 핸즈 오프(Hands off) 상태를 용이하게 판단할 수 있다. 다시 말해, 핸즈 오프 감시기능을 갖는 운전자 모니터링 시스템이 구현될 수 있다. 이로 인해, 운전자의 핸즈 오프에 따른 다양한 운전자의 움직임을 기반으로 운전 집중 상태 내지 운전자의 졸음 여부가 용이하게 판단될 수 있다.The electronic device can receive image information about the driver's face through the camera module. Accordingly, the electronic device can determine whether the driver is drowsy, etc. in a predetermined manner and provide various feedbacks (e.g., alarms) corresponding thereto. For example, the electronic device can determine whether the driver is drowsy based on the user's eye track or the size or change in the size of the iris. In addition, the electronic device can receive image information about the driver's hands as well as the user's face from the camera module. Accordingly, the electronic device can easily determine the driver's hands-off state. In other words, a driver monitoring system having a hands-off monitoring function can be implemented. Accordingly, the driver's concentration state or whether the driver is drowsy can be easily determined based on various driver movements according to the driver's hands-off.
카메라 모듈은 차량 내에서 탑승자를 용이하게 촬영가능한 위치에 배치될 수 있다. 예를 들어, 운전석에 착석한 피사체에 대한 이미지를 획득할 수 있도록 차량의 특정 위치 예컨대, 전면 유리(예: Head-up display 배치 위치) 또는 전면 유리 하단, 대시 보드, 계기판 등 다양한 위치에 배치될 수 있다. 나아가, 카메라 모듈은 탑승자가 용이하게 인식하기 어려운 위치에 배치될 수도 있다.The camera module may be placed in a location within the vehicle where it is easy to capture images of passengers. For example, it may be placed in various locations within the vehicle, such as the windshield (e.g., the location where the head-up display is placed) or the bottom of the windshield, the dashboard, the instrument panel, etc., so as to obtain images of a subject seated in the driver's seat. Furthermore, the camera module may be placed in a location that is difficult for passengers to easily recognize.
또한, 전자 장치와 연결된 카메라 모듈은 차량 내의 소정의 위치에 배치되어, 차량의 운전자 이외 탑승자에 대한 이미지 정보를 수신할 수 있다. 예컨대, 카메라 모듈은 적어도 하나 이상일 수 있으며, 운전자 이외의 탑승자 전원에 대한 감지를 위해 백미러(또는 룸미러) 등에 위치할 수 있다. 이로써, 카메라 모듈은 탑승자 전체에 대한 이미지를 생성할 수 있다.In addition, a camera module connected to an electronic device may be placed at a predetermined location within the vehicle to receive image information about passengers other than the driver of the vehicle. For example, there may be at least one camera module, and the camera module may be placed on a rearview mirror (or room mirror) or the like to detect all passengers other than the driver. As a result, the camera module may generate an image of all passengers.
이로써, 카메라 모듈은 차량 내에 운전자 이외의 다른 탑승자에 대한 이미지 정보를 생성할 수 있다. 그리고 전자 장치는 운전자 이외의 탑승자를 포함한 이미지 정보를 수신할 수 있다. 이러한 구성에 의하여, 운전자 뿐만 아니라 다른 탑승자에 대한 모니터링 시스템이 용이하게 구현될 수 있다.In this way, the camera module can generate image information about other passengers in the vehicle other than the driver. And the electronic device can receive image information including passengers other than the driver. With this configuration, a monitoring system for other passengers as well as the driver can be easily implemented.
실시예에 따른 카메라 모듈은 광원부, 광 가이드 장치, 수광부 및 제어부를 포함할 수 있다.A camera module according to an embodiment may include a light source unit, a light guide device, a light receiving unit, and a control unit.
먼저, 광원부는 제어 신호에 의해 광을 출력할 수 있다. 최종적으로 광원부에서 출력된 광은 객체로 조사될 수 있다. 그리고 객체에 조사된 광은 반사되어, 수광부로 제공될 수 있다. First, the light source unit can output light by a control signal. Finally, the light output from the light source unit can be irradiated to an object. And the light irradiated to the object can be reflected and provided to the light receiving unit.
광원부는 적어도 하나의 광원을 포함할 수 있다. 그리고 적어도 하나의 광원은 소정의 파장대역의 광 또는 소정의 중심 파장을 갖는 광을 출사할 수 있다. 또한, 광원부의 광원은 미리 설계된 알고리즘에 의하여 소정의 패턴의 광을 출사할 수 있다. 이러한 광원부는 제어부의 제어에 의하여 광을 출력할 수 있다. The light source unit may include at least one light source. And at least one light source may emit light of a predetermined wavelength band or light having a predetermined center wavelength. In addition, the light source of the light source unit may emit light of a predetermined pattern according to a pre-designed algorithm. The light source unit may output light under the control of the control unit.
이하에서 출력광 또는 입사광은 광원부로부터 출력되어 객체에 제공되는 광을 의미하고, 입력광 또는 반사광은 광원부로부터 출력되어 객체에 도달한 후 객체로부터 반사되어 수광부로 입력되는 광을 의미할 수 있다. 즉, 객체의 입장에서 출력광은 입사광이 될 수 있고, 입력광은 반사광이 될 수 있다. Hereinafter, output light or incident light may refer to light output from a light source and provided to an object, and input light or reflected light may refer to light output from a light source, reaches an object, is reflected from the object, and is input to a light receiving unit. That is, from the object's perspective, output light may be incident light, and input light may be reflected light.
광원부의 적어도 하나의 광원은 소정의 파장 대역의 광을 출력할 수 있다. 예컨대, 광원으로부터 출력되는 광의 파장은 770nm 내지 3000nm인 적외선일 수 있다. 또한, 광원으로부터 출력되는 광의 파장은 380nm 내지 770 nm인 가시광선일 수 있다. 나아가, 광원부의 광원은 전술한 파장 범위 이외의 광을 출사할 수도 있다. 특히, 광원은 전술한 바와 같이 차량 내에서 운전자, 동승자 등 탑승자에 유해하지 않도록 특정 파장 대역의 광을 조사하거나, 유해하지 않도록 특정 에너지 이하의 광을 조사할 수 있다. At least one light source of the light source unit can output light of a predetermined wavelength band. For example, the wavelength of the light output from the light source can be infrared rays of 770 nm to 3000 nm. In addition, the wavelength of the light output from the light source can be visible light of 380 nm to 770 nm. Furthermore, the light source of the light source unit can emit light outside the wavelength range described above. In particular, the light source can irradiate light of a specific wavelength band so as not to be harmful to passengers such as the driver and passengers in the vehicle, as described above, or irradiate light of a specific energy or lower so as not to be harmful.
광원은 발광 다이오드(LED, Light Emitting Diode), 유기 발광 다이오드(OLED, Organic Light Emitting Diode), 레이저 다이오드(LD, Laser Diode), 수직 공진기 표면 발광 레이저(VCSEL, Vertical-Cavity Surface-Emitting Laser), 플라스마 램프, 형광등(Fluorescent Lamp), 크세논 램프(Xenon Lamp), 할로겐 램프(Halogen Lamp), 네온 램프(Neon Lamp) 등을 포함할 수 있다. 약 800nm 내지 1000nm인 파장, 예를 들어 약 850nm 또는 약 940nm 파장을 출력할 수 있다.The light source may include a light emitting diode (LED), an organic light emitting diode (OLED), a laser diode (LD), a vertical-cavity surface-emitting laser (VCSEL), a plasma lamp, a fluorescent lamp, a xenon lamp, a halogen lamp, a neon lamp, or the like. The light source may output a wavelength of about 800 nm to 1000 nm, for example, about 850 nm or about 940 nm.
광 가이드 장치는 광원부 및 수광부와 인접하게 배치될 수 있다. 광 가이드 장치는 광원부로부터 조사된 광을 가이드하여, 객체로 전달할 수 있다. 그리고 광 가이드 장치는 객체로부터 반사된 광을 다시 가이드하여 수광부로 제공할 수 있다. 이처럼, 광 가이드 장치는 광을 제어하고 원하는 경로로 이동 시키도록 구성될 수 있다. 다시 말해, 광 가이드 장치는 객체에 대해 광을 전달하고 반사된 광에 대한 수광을 모두 수행할 수 있다. 이에, 광 가이드 장치는 카메라 모듈에서 광이 센서로 정확하게 도달하거나, 특정 경로로 유도하여 광학적 정보가 정확하게 전달되도록 도와주도록 구성될 수 있다.The light guide device can be arranged adjacent to the light source and the light receiving unit. The light guide device can guide light irradiated from the light source and transmit it to an object. In addition, the light guide device can guide light reflected from the object again and provide it to the light receiving unit. In this way, the light guide device can be configured to control the light and move it along a desired path. In other words, the light guide device can perform both transmitting light to the object and receiving reflected light. Accordingly, the light guide device can be configured to help light from the camera module accurately reach the sensor or guide it along a specific path so that optical information is accurately transmitted.
이러한 광 가이드 장치는 유리, 폴리머, 또는 실리콘 등과 같은 재질로 이루어질 수 있다. 광 가이드 장치는 이외의 다양한 광 가이딩이 가능한 재질을 포함할 수 있다. These light guide devices can be made of materials such as glass, polymer, or silicon. The light guide devices can include various other light-guiding materials.
그리고 광 가이드 장치는 회절을 이용하여 광을 원하는 방향으로 전송할 수 있다. 이에, 광 가이드 장치는 도파관인 기판에 광의 경로를 결정하기 위한 광학 요소를 포함할 수 있다. 광학 요소는 회절을 기반으로 동작하는 다양한 요소를 포함할 수 있다.And the light guide device can transmit light in a desired direction by utilizing diffraction. Accordingly, the light guide device can include an optical element for determining the path of light in a substrate that is a waveguide. The optical element can include various elements that operate based on diffraction.
실시예로, 광 가이드 장치는 홀로그래픽 광학 소자(Holographic Optical Element, HOE)인 회절 소자를 포함할 수 있다. 광 가이드 장치는 후술하는 바와 같이 입력 회절 소자, 입출력 회절 소자, 출력 회절 소자를 포함할 수 있다. 예컨대, 입력 회절 소자, 입출력 회절 소자, 출력 회절 소자는 홀로그래픽 광학 소자로 이루어질 수 있다. As an example, the light guide device may include a diffractive element, which is a holographic optical element (HOE). The light guide device may include an input diffractive element, an input/output diffractive element, and an output diffractive element, as described below. For example, the input diffractive element, the input/output diffractive element, and the output diffractive element may be formed of a holographic optical element.
그리고 홀로그래픽 광학 소자는 레이저 간섭을 통해 생성된 간섭 패턴을 사용하여 광(또는 빛)을 회절시키고, 이를 통해 특정 파장의 광을 제어하거나 원하는 방향으로 회절시킬 수 있다. 이러한 회절 과정에서 브래그의 법칙(Bragg’s Law)이 적용되며, 회절 각도는 광의 파장과 홀로그래픽 광학 소자의 구조에 따라 결정될 수 있다.And holographic optical elements diffract light (or light) using interference patterns generated by laser interference, and through this, light of a specific wavelength can be controlled or diffracted in a desired direction. Bragg’s Law is applied in this diffraction process, and the diffraction angle can be determined according to the wavelength of light and the structure of the holographic optical element.
홀로그래픽 광학 소자는 투명한 기판 위에 기록된 간섭 패턴으로 구성될 수 있다. 투명한 기판은 전술한 바와 같이 도파관으로, 유리, 플라스틱, 폴리머 등 다양한 재료로 이루어질 수 있다. 홀로그래픽 광학 소자의 간섭 패턴은 기판 내부나 표면에 정밀하게 설계되어 광을 특정 방향으로 유도할 수 있다. 그리고 홀로그래픽 광학 소자는 광이 통과하면서 회절하는 투과형과 광이 반사되면서 회절하는 반사형으로 구분될 수 있다. 이에, 홀로그래픽 광학 소자는 기판에서 위치가 변할 수 있다. 이러한 홀로그래픽 광학 소자에 의해 광이 정밀하게 제어되어 고해상도 이미지가 제공될 수 있다. 또한, 홀로그래픽 광학 소자는 광학 통신에서도 파장 분리와 결합을 통해 고속 데이터 전송을 지원할 수도 있다. 또한, 홀로그래픽 광학 소자가 기존의 렌즈나 거울보다 가볍고 얇아 소형화된 카메라 모듈을 제공할 수 있다. 광 가이드 장치에서 회절 소자인 입력 회절 소자, 입출력 회절 소자, 출력 회절 소자에 대한 자세한 설명은 후술한다. A holographic optical element can be composed of an interference pattern recorded on a transparent substrate. As described above, the transparent substrate is a waveguide and can be made of various materials such as glass, plastic, and polymer. The interference pattern of the holographic optical element can be precisely designed inside or on the surface of the substrate to guide light in a specific direction. In addition, the holographic optical element can be classified into a transmissive type in which light is diffracted while passing through and a reflective type in which light is diffracted while being reflected. Accordingly, the holographic optical element can change its position on the substrate. Light can be precisely controlled by such a holographic optical element to provide a high-resolution image. In addition, the holographic optical element can also support high-speed data transmission through wavelength separation and combination in optical communication. In addition, the holographic optical element can provide a miniaturized camera module because it is lighter and thinner than a conventional lens or mirror. A detailed description of the input diffraction element, the input/output diffraction element, and the output diffraction element, which are diffraction elements in the light guide device, will be described later.
수광부는 광 가이드 장치를 통해 전달된 광을 수신할 수 있다. 수광부는 이미지 센서를 포함할 수 있다. 이미지 센서는 객체로부터 반사된 광을 수신할 수 있다. 이에, 이미지 센서는 광을 감지하여 이를 전기 신호로 변환할 수 있다. 예컨대, 이미지 센서는 전기 신호를 변환하여 디지털 이미지를 생성할 수 있다. 이미지 센서는 CCD(Charge-Coupled Device), CMOS(Complementary Metal-Oxide-Semiconductor), InGaAs(Indium Gallium Arsenide) 센서, HgCdTe(Mercury Cadmium Telluride) 센서, 마이크로볼로미터(Microbolometer) 등을 포함할 수 있다. 수광부는 전술한 내용 또는 예시 이외의 다양한 파장 대역의 광을 수신하는 이미지 센서를 포함할 수도 있다.The light receiving unit can receive light transmitted through the light guide device. The light receiving unit can include an image sensor. The image sensor can receive light reflected from an object. Accordingly, the image sensor can detect the light and convert it into an electrical signal. For example, the image sensor can convert the electrical signal to generate a digital image. The image sensor can include a CCD (Charge-Coupled Device), a CMOS (Complementary Metal-Oxide-Semiconductor), an InGaAs (Indium Gallium Arsenide) sensor, a HgCdTe (Mercury Cadmium Telluride) sensor, a microbolometer, and the like. The light receiving unit may also include an image sensor that receives light of various wavelength bands other than those described above or as examples.
수광부도 광원부와 마찬가지로 광 가이드 장치에 인접하게 위치할 수 있다. 또는 수광부와 광 가이드 장치 사이에 추가적인 렌즈가 더 배치될 수도 있다. 이는 광원부와 광 가이드 장치 사이에도 동일하게 적용될 수 있다.The light receiving unit may be positioned adjacent to the light guide device, just like the light source unit. Alternatively, additional lenses may be positioned between the light receiving unit and the light guide device. The same may be applied between the light source unit and the light guide device.
제어부는 광원부와 수광부의 구동을 제어할 수 있다. 그리고 제어부는 수광부에서 생성된 이미지를 기반으로 깊이 정보를 생성하거나, 차량 등의 다른 전자 장치와 이미지 정보를 송수신할 수 있다. 이러한 제어부는 카메라 모듈 내의 동작을 제어할 수 있으며, 외부의 차량 등의 전자 장치 등의 디바이스 내 프로세서 등과도 통신할 수 있다.The control unit can control the operation of the light source unit and the light receiving unit. In addition, the control unit can generate depth information based on the image generated by the light receiving unit, or transmit and receive image information with other electronic devices such as vehicles. This control unit can control the operation within the camera module, and can also communicate with the processor within the device such as an external electronic device such as a vehicle.
제어부는 프로세서, 마이크로 컨트롤러(MCU), FPGA(Field Programmable Gate Array), ASIC(Application Specific Integrated Circuit) 등을 포함할 수 있으며, 이외에도 다양한 전자 기기의 어플리케이션 프로세서(Application Processor, AP)의 형태로 구현될 수 있다.The control unit may include a processor, a microcontroller (MCU), a field programmable gate array (FPGA), an application specific integrated circuit (ASIC), etc., and may also be implemented in the form of an application processor (AP) of various electronic devices.
도 15는 본 발명의 실시예에 따른 카메라 모듈의 구성이 도시된 도면이다.FIG. 15 is a drawing illustrating the configuration of a camera module according to an embodiment of the present invention.
도 15a는 외부에서 입사한 광이 광 가이드 장치(400)를 통해 수광부(500)에 입사하는 모습을 나타내고, 도 15b는 광원부(600)에서 조사한 광이 광 가이드 장치(400)를 통해 외부에 출사되는 모습을 나타낸다.Figure 15a shows a view in which light incident from the outside enters the light receiving unit (500) through the light guide device (400), and Figure 15b shows a view in which light irradiated from the light source unit (600) is emitted to the outside through the light guide device (400).
도 15를 참조하면, 광 가이드 장치(400)는 커버(401), 제1 기판(410), 제1 입력 회절소자(420), 제1 전달 회절소자(430), 제1 입출력 회절소자(440) 및 제1 출사 회절소자(450)를 포함할 수 있다.Referring to FIG. 15, the light guide device (400) may include a cover (401), a first substrate (410), a first input diffraction element (420), a first transmission diffraction element (430), a first input/output diffraction element (440), and a first output diffraction element (450).
제1 입력 회절소자(420), 제1 전달 회절소자(430), 제1 입출력 회절소자(440) 및 제1 출사 회절소자(450)는 도파관인 제1 기판(410)에 배치될 수 있다. 제1 입력 회절소자(420), 제1 전달 회절소자(430), 제1 입출력 회절소자(440) 및 제1 출사 회절소자(450)는 투광형 및 반사형 중 어느 하나에 해당하며, 제1 기판(410)에서 일면(예, 상면) 및 타면(예, 하면) 중 어느 하나에 위치할 수 있다.The first input diffractive element (420), the first transmission diffractive element (430), the first input/output diffractive element (440), and the first output diffractive element (450) may be arranged on a first substrate (410) which is a waveguide. The first input diffractive element (420), the first transmission diffractive element (430), the first input/output diffractive element (440), and the first output diffractive element (450) may be either a transmissive type or a reflective type, and may be positioned on either one surface (e.g., an upper surface) or the other surface (e.g., a lower surface) of the first substrate (410).
그리고 제1 입력 회절소자(420), 제1 전달 회절소자(430), 제1 입출력 회절소자(440) 및 제1 출사 회절소자(450)는 전술한 바와 같이 회절 소자이며, 서로 이격 배치될 수 있다.And the first input diffraction element (420), the first transmission diffraction element (430), the first input/output diffraction element (440), and the first output diffraction element (450) are diffraction elements as described above, and can be spaced apart from each other.
제1 입력 회절소자(420)는 광원부(600)로부터 제공된 광을 회절하여 제1 기판(410)으로 가이딩하고, 제1 기판(410) 내로 가이딩된 광은 제1 전달 회절소자(430)를 통해 제1 입출력 회절소자(440)로 제공될 수 있다. 제1 입출력 회절소자(440)는 제1 입력 회절소자(420)에서 제1 기판(410)으로 가이딩된 광을 객체로 회절하고, 객체에서 반사된 광을 회절하여 기판(410) 내로 가이딩할 수 있다. 제1 출사 회절소자(450)는 객체에서 반사되어 제1 입출력 회절소자(440)에 의해 기판(410)으로 가이딩된 광을 회절하여 수광부(500)로 가이딩하거나 제공할 수 있다. 이 때, 제1 출사 회절소자(450)에서 회절되어 수광부(500)로 가이딩된 광은 수광부(500)로 입사되어, 이미지 정보로 변환될 수 있다. 다른 실시예에 따른 광 가이드 장치의 경우 제1 전달 회절소자(430)를 포함하지 않을 수 있다.The first input diffraction element (420) diffracts light provided from the light source unit (600) and guides it to the first substrate (410), and the light guided into the first substrate (410) can be provided to the first input/output diffraction element (440) through the first transmission diffraction element (430). The first input/output diffraction element (440) diffracts light guided from the first input diffraction element (420) to the first substrate (410) onto an object, and diffracts light reflected from the object and guides it into the substrate (410). The first output diffraction element (450) diffracts light reflected from an object and guided to the substrate (410) by the first input/output diffraction element (440) and guides or provides it to the light receiving unit (500). At this time, light diffracted by the first emitting diffraction element (450) and guided to the light receiving unit (500) may be incident on the light receiving unit (500) and converted into image information. In the case of a light guide device according to another embodiment, the first transmission diffraction element (430) may not be included.
도 15a의 제1 입출력 회절소자(440)는 도 6의 제1 돌출부 및 제1 박막을 포함할 수 있다. 또한, 도 15b의 제1 입력 회절소자(420)는 도 6의 제1 돌출부 및 제1 박막을 포함할 수 있다. 결국 실시예에 따른 카메라 모듈의 광 가이드 장치는 광원부(600)에서 조사한 광이 광 가이드 장치(400)를 통해 외부에 출사하는 경우뿐만 아니라 외부에서 입사한 광이 광 가이드 장치(400)를 통해 수광부(500)에 입사하는 경우에도 도 6의 제1 돌출부 및 제1 박막을 포함할 수 있다. 그에 따라 차량 등 내에서 탑승자 등에 대한 이미지 생성이 보다 용이하게 구현되는 광 가이드 장치 및 카메라 모듈을 제공할 수 있다.The first input/output diffraction element (440) of FIG. 15A may include the first protrusion and the first thin film of FIG. 6. In addition, the first input diffraction element (420) of FIG. 15B may include the first protrusion and the first thin film of FIG. 6. Ultimately, the light guide device of the camera module according to the embodiment may include the first protrusion and the first thin film of FIG. 6 not only when light irradiated from the light source unit (600) is emitted to the outside through the light guide device (400), but also when light incident from the outside is incident to the light receiving unit (500) through the light guide device (400). Accordingly, a light guide device and a camera module that enable easier creation of images for passengers, etc. in a vehicle, etc., may be provided.
또한, 도 13 및 14의 제1 입력 회절소자는 도 15a의 제1 입출력 회절소자(440)에 적용될 수 있다. 또한, 도 13 및 14의 제1 입력 회절소자는 도 15b의 제1 입력 회절소자(420)에 적용될 수 있다. 결국 실시예에 따른 카메라 모듈의 광 가이드 장치는 광원부(600)에서 조사한 광이 광 가이드 장치(400)를 통해 외부에 출사하는 경우뿐만 아니라 외부에서 입사한 광이 광 가이드 장치(400)를 통해 수광부(500)에 입사하는 경우에도 도 13의 제1 입력 회절소자를 포함할 수 있다. 그에 따라 차량 등 내에서 탑승자 등에 대한 이미지 생성이 보다 용이하게 구현되는 광 가이드 장치 및 카메라 모듈을 제공할 수 있다.In addition, the first input diffraction element of FIGS. 13 and 14 can be applied to the first input/output diffraction element (440) of FIG. 15a. In addition, the first input diffraction element of FIGS. 13 and 14 can be applied to the first input diffraction element (420) of FIG. 15b. Ultimately, the light guide device of the camera module according to the embodiment can include the first input diffraction element of FIG. 13 not only in the case where light irradiated from the light source unit (600) is emitted to the outside through the light guide device (400), but also in the case where light incident from the outside is incident to the light receiving unit (500) through the light guide device (400). Accordingly, a light guide device and a camera module can be provided in which image generation for passengers, etc. in a vehicle, etc. is more easily implemented.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Although the above has been described with reference to examples, these are merely examples and do not limit the present invention. Those skilled in the art will appreciate that various modifications and applications not exemplified above are possible without departing from the essential characteristics of the present invention. For example, each component specifically shown in the examples can be modified and implemented. In addition, differences related to such modifications and applications should be interpreted as being included in the scope of the present invention defined in the appended claims.
Claims (10)
Applications Claiming Priority (6)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR20230149974 | 2023-11-02 | ||
| KR10-2023-0149974 | 2023-11-02 | ||
| KR10-2024-0132824 | 2024-09-30 | ||
| KR10-2024-0132835 | 2024-09-30 | ||
| KR1020240132835A KR20250064582A (en) | 2023-11-02 | 2024-09-30 | Light guide device and electronic device including the same |
| KR20240132824 | 2024-09-30 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025095721A1 true WO2025095721A1 (en) | 2025-05-08 |
Family
ID=95581255
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2024/017141 Pending WO2025095721A1 (en) | 2023-11-02 | 2024-11-04 | Light guide device and electronic device including same |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025095721A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009032698A (en) * | 2008-08-21 | 2009-02-12 | Konica Minolta Opto Inc | Illumination optical system |
| JP4549019B2 (en) * | 2000-12-07 | 2010-09-22 | サイマー, インコーポレイテッド | Protective film for replicated diffraction gratings |
| US20200158495A1 (en) * | 2018-11-15 | 2020-05-21 | Applied Materials, Inc. | System and method for detecting etch depth of angled surface relief gratings |
| US20210080635A1 (en) * | 2017-04-18 | 2021-03-18 | Magic Leap, Inc. | Waveguides having reflective layers formed by reflective flowable materials |
| KR102486664B1 (en) * | 2018-03-14 | 2023-01-10 | 주식회사 엘지화학 | Module of diffractive light guide plate |
-
2024
- 2024-11-04 WO PCT/KR2024/017141 patent/WO2025095721A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4549019B2 (en) * | 2000-12-07 | 2010-09-22 | サイマー, インコーポレイテッド | Protective film for replicated diffraction gratings |
| JP2009032698A (en) * | 2008-08-21 | 2009-02-12 | Konica Minolta Opto Inc | Illumination optical system |
| US20210080635A1 (en) * | 2017-04-18 | 2021-03-18 | Magic Leap, Inc. | Waveguides having reflective layers formed by reflective flowable materials |
| KR102486664B1 (en) * | 2018-03-14 | 2023-01-10 | 주식회사 엘지화학 | Module of diffractive light guide plate |
| US20200158495A1 (en) * | 2018-11-15 | 2020-05-21 | Applied Materials, Inc. | System and method for detecting etch depth of angled surface relief gratings |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2022102954A1 (en) | Wearable electronic device including display | |
| WO2020189866A1 (en) | Head-wearable electronic device | |
| WO2021040117A1 (en) | Electronic device | |
| WO2020138640A1 (en) | Electronic device | |
| WO2022065722A1 (en) | Electronic device and method for displaying notification about external object | |
| WO2022092517A1 (en) | Wearable electronic device comprising display, method for controlling display, and system comprising wearable electronic device and case | |
| WO2021040076A1 (en) | Electronic device | |
| WO2021040107A1 (en) | Ar device and method for controlling same | |
| WO2021040082A1 (en) | Electronic device | |
| WO2021040116A1 (en) | Electronic device | |
| WO2018066962A1 (en) | Smart eyeglasses | |
| WO2021049693A1 (en) | Electronic device | |
| WO2020138636A1 (en) | Electronic device | |
| WO2021049694A1 (en) | Electronic device | |
| WO2025095721A1 (en) | Light guide device and electronic device including same | |
| WO2025095720A1 (en) | Optical guide device and electronic device including same | |
| WO2021033790A1 (en) | Electronic device | |
| WO2025206869A1 (en) | Projector device and electronic device comprising same | |
| WO2025127562A1 (en) | Projector device and electronic device comprising same | |
| WO2026010208A1 (en) | Projector device and electronic device comprising same | |
| WO2025095728A1 (en) | Light guide device and electronic device including same | |
| WO2026019127A1 (en) | Light guide device and electronic device including same | |
| WO2021025190A1 (en) | Electronic device and method for manufacturing same | |
| WO2025089814A1 (en) | Projector device and electronic device including same | |
| WO2025009688A1 (en) | Electronic device and method for providing notification information based on gaze of user |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24886391 Country of ref document: EP Kind code of ref document: A1 |