[go: up one dir, main page]

KR20230075091A - Extended Reality Virtual Content Provision System for Interworking with Weather Data and Metaverse - Google Patents

Extended Reality Virtual Content Provision System for Interworking with Weather Data and Metaverse Download PDF

Info

Publication number
KR20230075091A
KR20230075091A KR1020210161333A KR20210161333A KR20230075091A KR 20230075091 A KR20230075091 A KR 20230075091A KR 1020210161333 A KR1020210161333 A KR 1020210161333A KR 20210161333 A KR20210161333 A KR 20210161333A KR 20230075091 A KR20230075091 A KR 20230075091A
Authority
KR
South Korea
Prior art keywords
user
data
motion
weather
metaverse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020210161333A
Other languages
Korean (ko)
Other versions
KR102592521B1 (en
Inventor
김기성
김선아
Original Assignee
주식회사 바이오브레인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 바이오브레인 filed Critical 주식회사 바이오브레인
Priority to KR1020210161333A priority Critical patent/KR102592521B1/en
Publication of KR20230075091A publication Critical patent/KR20230075091A/en
Application granted granted Critical
Publication of KR102592521B1 publication Critical patent/KR102592521B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/25Bioelectric electrodes therefor
    • A61B5/279Bioelectric electrodes therefor specially adapted for particular uses
    • A61B5/28Bioelectric electrodes therefor specially adapted for particular uses for electrocardiography [ECG]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Business, Economics & Management (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Economics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Strategic Management (AREA)
  • Social Psychology (AREA)
  • Cardiology (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 기상 데이터와 메타버스를 연동하여 가상공간 내에서 실시간으로 기상상황을 관측할 수 있고, 메타버스 서비스를 이용하는 동안 사용자의 생체데이터를 감지하여 건강 이상과 스트레스 증가 여부를 모니터링 할 수 있는 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템에 관한 것이다.
상기의 과제를 해결하기 위한 본 발명에 따른 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템은, 실시간으로 기상 관측 데이터가 전송되는 기상 데이터 수신부; 사용자의 동작을 감지하는 동작 감지부; 사용자의 체온과 심전도를 측정하는 생체데이터 측정부; 상기 기상 데이터 수신부를 통해 수신되는 기상 관측 데이터를 확장현실 공간 내의 기상 데이터에 동기화시키는 데이터 동기화부; 및 상기 동작 감지부를 통해 감지되는 사용자의 동작과 확장현실 공간 내의 아바타의 동작을 동기화시키는 동작 동기화부; 및 상기 데이터 동기화부와 상기 동작 동기화부를 통해 동기화된 정보를 상기 확장현실 공간상에 실시간으로 출력하는 가상 콘텐츠 출력부를 포함하고, 상기 사용자는, 상기 확장현실 공간상에서 지역을 선택한 다음, 로드뷰, 버드뷰, 항공뷰 및 위성뷰 모드 중 어느 하나의 1인칭 뷰 모드를 선택하여 실시간으로 기상을 관측 및 예측하도록 구성되는 것을 특징으로 한다.
In the present invention, weather conditions can be observed in real time in a virtual space by linking weather data with the metaverse, and the user's biometric data can be detected while using the metaverse service to monitor health abnormalities and stress increase. It is about an extended reality virtual content providing system for linking data and metaverse.
A system for providing extended reality virtual content for linking weather data and metaverse according to the present invention for solving the above problems includes: a weather data receiving unit for transmitting weather observation data in real time; a motion detection unit that senses a user's motion; a biometric data measuring unit that measures the user's body temperature and electrocardiogram; a data synchronization unit that synchronizes weather observation data received through the weather data receiver with weather data in an augmented reality space; and a motion synchronizing unit for synchronizing the motion of the user detected through the motion sensor with the motion of the avatar in the augmented reality space. and a virtual content output unit outputting information synchronized through the data synchronization unit and the motion synchronization unit on the augmented reality space in real time, wherein the user selects a region on the augmented reality space, and then selects a road view and a bird view. It is characterized in that it is configured to observe and predict the weather in real time by selecting any one of the first-person view modes among view, aerial view, and satellite view modes.

Description

기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템{Extended Reality Virtual Content Provision System for Interworking with Weather Data and Metaverse}Extended Reality Virtual Content Provision System for Interworking with Weather Data and Metaverse}

본 발명은 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템에 관한 것으로, 더욱 상세하게는 메타버스 가상공간 내에서 다양한 서비스를 이용할 수 있도록 다양한 가상 콘텐츠를 제공하는 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템에 관한 것이다.The present invention relates to a system for providing extended reality virtual contents for linking weather data and metaverse, and more particularly, linking weather data and metaverse to provide various virtual contents so that various services can be used in a metaverse virtual space. It relates to an extended reality virtual content providing system for

확장현실 기술(extended reality, XR)이란, 가상현실 기술(VR)과 증강현실 기술(AR)을 아우르는 혼합현실(MR)을 총 망라하는 기술을 의미하는 것으로, 최근에는 확장현실 기술을 이용하여 현실세계와 같은 3차원 가상세계를 구축(metaverse, 메타버스)하고, 이를 다양한 분야에 서비스하는 기술에 대한 연구가 활발하게 진행되고 있다.Extended reality technology (XR) refers to a technology that encompasses mixed reality (MR), which includes virtual reality technology (VR) and augmented reality technology (AR). Research on technologies for constructing a 3D virtual world like the world (metaverse) and servicing it in various fields is being actively conducted.

이러한 예로는 등록특허공보 제1923723호의 사용자 간 상호작용이 가능한 메타버스 공간을 제공하기 위한 메타버스 클라이언트 단말(이하 '특허문헌'이라 한다)이 개시되어 있다.As an example of this, a metaverse client terminal (hereinafter referred to as 'patent document') for providing a metaverse space capable of interaction between users of Patent Registration No. 1923723 is disclosed.

그러나 상기 특허문헌에 개시된 메타버스 클라이언트 단말은, 센서에 의해 획득된 제1 사용자의 움직임에 대한 센싱 데이터를 수집하는 센싱 데이터 수집부; 상기 센싱 데이터에 기초하여 상기 제1 사용자의 운동 상태를 결정하고, 상기 결정된 제1 사용자의 운동 상태에 대한 상태 정보 데이터를 생성하는 운동 상태 결정부; 상기 제1 사용자의 상태 정보 데이터를 메타버스(Metaverse) 서버로 전송하고, 상기 메타버스 서버로부터 메타 버스 공간을 구성하기 위한 메타버스 정보 데이터와 상기 제1 사용자와 서로 다른 공간에 위치하는 제2 사용자에 대한 상태 정보 데이터를 수신하는 서버 인터페이스부; 및 상기 수신된 메타버스 정보 데이터를 이용하여 메타버스 공간을 생성하고, 상기 제1 및 제2 사용자의 상태 정보 데이터에 기초하여 상기 제1 사용자의 움직임과 연동하여 움직이는 제1 아바타(Avatar)와 상기 제2 사용자의 움직임과 연동하여 움직이는 제2 아바타를 각각 생성하며, 상기 메타버스 공간에 상기 제1 및 제2 아바타를 반영하여 상기 제1 사용자에게 제공하는 메타버스 공간 제공부를 포함하고, 상기 메타버스 서버는 상기 제1 사용자 및 상기 제2 사용자가 서로 다른 메타버스 공간에 접속해 있을 경우, 상기 제1 사용자의 상태 정보 데이터를 상기 제2 사용자가 접속한 메타버스 공간에 상응하도록 변경하여 상기 제2 사용자에게 제공하고, 상기 제2 사용자의 상태 정보 데이터를 상기 제1 사용자가 접속한 메타버스 공간에 상응하도록 변경하여 상기 제1 사용자에게 제공하는 것으로 이루어진다.However, the metaverse client terminal disclosed in the patent document, the sensing data collection unit for collecting the sensing data for the movement of the first user obtained by the sensor; an exercise state determiner configured to determine an exercise state of the first user based on the sensing data and to generate state information data for the determined exercise state of the first user; Transmitting the state information data of the first user to a metaverse server, and metaverse information data for constructing a metaverse space from the metaverse server and a second user located in a different space from the first user a server interface unit for receiving state information data about; And a first avatar (Avatar) that creates a metaverse space using the received metaverse information data, and moves in conjunction with the movement of the first user based on the state information data of the first and second users, and the A metaverse space providing unit for generating a second avatar that moves in conjunction with the movement of a second user, reflecting the first and second avatars in the metaverse space and providing the first user with the metaverse space; When the first user and the second user access different metaverse spaces, the server changes the state information data of the first user to correspond to the metaverse space accessed by the second user, and the second user It is provided to the user, and the state information data of the second user is changed to correspond to the metaverse space accessed by the first user and provided to the first user.

상기 특허문헌에 개시된 메타버스 클라이언트 단말은 사용자의 운동 상태만을 검출하여 메타버스 공간상의 아바타(캐릭터)의 동작과 연동시키기 때문에 사용자가 메타버스 서비스를 장시간 이용함에 따른 건강 악화 등을 인지하기가 어려운 문제가 있다.Since the metaverse client terminal disclosed in the patent document detects only the user's exercise state and interlocks with the motion of the avatar (character) in the metaverse space, it is difficult for the user to recognize deterioration in health due to long-term use of the metaverse service. there is

따라서 메타버스를 서비스를 이용하는 동안 사용자의 건강을 실시간으로 모니터링할 수 있는 확장현실 가상 콘텐츠 제공 시스템의 개발이 요구된다.Therefore, it is required to develop an extended reality virtual content providing system that can monitor the user's health in real time while using the metaverse service.

KR 10-1923723 B1 (2018. 11. 23.)KR 10-1923723 B1 (2018. 11. 23.) KR 10-2317223 B1 (2021. 10. 19.)KR 10-2317223 B1 (2021. 10. 19.) KR 10-2013-0131179 A (2013. 12. 03.)KR 10-2013-0131179 A (2013. 12. 03.) KR 10-2012-0003588 A (2012. 01. 11.)KR 10-2012-0003588 A (2012. 01. 11.)

본 발명은 상기와 같은 종래의 메타버스 콘텐츠 제공 시스템이 가지는 문제점을 해결하기 위해 안출된 것으로, 본 발명이 해결하고자 하는 과제는 기상 데이터와 메타버스를 연동하여 가상공간 내에서 실시간으로 기상상황을 관측할 수 있고, 메타버스 서비스를 이용하는 동안 사용자의 생체데이터를 감지하여 건강 이상과 스트레스 증가 여부를 모니터링할 수 있는 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템을 제공하는 것이다.The present invention was made to solve the problems of the conventional metaverse content providing system as described above, and the problem to be solved by the present invention is to observe weather conditions in real time in virtual space by linking weather data and metaverse It is to provide an extended reality virtual content providing system for interlocking weather data and metaverse that can monitor health abnormalities and stress increase by detecting user's biometric data while using metaverse service.

상기의 과제를 해결하기 위한 본 발명에 따른 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템은, 실시간으로 기상 관측 데이터가 전송되는 기상 데이터 수신부; 사용자의 동작을 감지하는 동작 감지부; 사용자의 체온과 심전도를 측정하는 생체데이터 측정부; 상기 기상 데이터 수신부를 통해 수신되는 기상 관측 데이터를 확장현실 공간 내의 기상 데이터에 동기화시키는 데이터 동기화부; 및 상기 동작 감지부를 통해 감지되는 사용자의 동작과 확장현실 공간 내의 아바타의 동작을 동기화시키는 동작 동기화부; 및 상기 데이터 동기화부와 상기 동작 동기화부를 통해 동기화된 정보를 상기 확장현실 공간상에 실시간으로 출력하는 가상 콘텐츠 출력부를 포함하고, 상기 사용자는, 상기 확장현실 공간상에서 지역을 선택한 다음, 로드뷰, 버드뷰, 항공뷰 및 위성뷰 모드 중 어느 하나의 1인칭 뷰 모드를 선택하여 실시간으로 기상을 관측 및 예측하도록 구성되는 것을 특징으로 한다.A system for providing extended reality virtual content for linking weather data and metaverse according to the present invention for solving the above problems includes: a weather data receiving unit for transmitting weather observation data in real time; a motion detection unit that senses a user's motion; a biometric data measuring unit that measures the user's body temperature and electrocardiogram; a data synchronization unit that synchronizes weather observation data received through the weather data receiver with weather data in an augmented reality space; and a motion synchronizing unit for synchronizing the motion of the user detected through the motion sensor with the motion of the avatar in the augmented reality space. and a virtual content output unit for outputting information synchronized through the data synchronization unit and the motion synchronization unit on the augmented reality space in real time, wherein the user selects a region on the augmented reality space, and then selects a road view and a bird view. It is characterized in that it is configured to observe and predict the weather in real time by selecting any one of the first-person view modes among view, aerial view, and satellite view modes.

그리고 본 발명은 상기 가상 콘텐츠 출력부가 상기 동작 감지부에서 감지되는 사용자의 손동작에 의해 상기 확장현실 공간상의 고도, 위치 및 방향이 전환되도록 구성되는 것을 또 다른 특징으로 한다.Further, the present invention is characterized in that the virtual content output unit is configured to change an altitude, position, and direction in the augmented reality space by a user's hand motion detected by the motion sensor.

또한, 본 발명은 상기 가상 콘텐츠 출력부가 상기 동작 감지부를 통해 사용자의 양손이 머리위로 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상의 고도가 상승되도록 하고, 상기 동작 감지부를 통해 사용자의 양손이 양발 쪽으로 근접하여 내려진 것으로 판단되는 경우에는 상기 확장현실 공간상의 고도가 하강되도록 하며, 상기 동작 감지부를 통해 사용자의 양손이 사용자의 앞을 향하여 지면과 평행하게 들어 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상에서 전진되도록 하고, 상기 동작 감지부를 통해 사용자의 양손이 사용자의 뒤쪽으로 향하여 이동한 것으로 판단되는 경우에는 상기 확장현실 공간상에서 후진되도록 하며, 상기 동작 감지부를 통해 사용자의 왼손이 사용자의 왼쪽 측면으로 평행하게 들어 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상에서 왼쪽 방향으로 회전되도록 하고, 상기 동작 감지부를 통해 사용자의 오른손이 사용자의 오른쪽 측면으로 평행하게 들어 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상에서 오른쪽 방향으로 회전되도록 제어하는 것을 또 다른 특징으로 한다.In addition, in the present invention, when the virtual content output unit determines through the motion sensor that both hands of the user are raised above the head, the altitude in the augmented reality space is increased, and the user's both hands move toward both feet through the motion sensor. When it is determined that it is lowered in close proximity, the altitude on the expanded reality space is lowered, and when it is determined that both hands of the user are lifted parallel to the ground toward the front of the user through the motion sensor, in the expanded reality space forward, and when it is determined through the motion detector that the user's both hands move toward the user's back, the user moves backward in the expanded reality space, and the user's left hand moves parallel to the user's left side through the motion detector. When it is determined that it is lifted, it is rotated in the left direction in the expanded reality space, and when it is determined that the user's right hand is lifted in parallel to the user's right side through the motion sensor, it is rotated in the right side in the expanded reality space. Another feature is to control to rotate in the direction.

이에 더해 본 발명은 상기 동작 감지부에 사용자의 음성 명령을 수신하는 음성 수신부가 더 구비되는 것을 또 다른 특징으로 한다.In addition, another feature of the present invention is that a voice receiver for receiving a user's voice command to the motion sensor is further provided.

그리고 본 발명은 상기 가상 콘텐츠 출력부가 상기 확장현실 공간상에 상기 생체데이터 측정부에서 측정되는 사용자의 체온과 심전도 정보가 출력되도록 하고, 상기 심전도 정보의 변화에 기초하여 사용자의 스트레스 수치를 추정하여 출력하는 것을 또 다른 특징으로 한다.In the present invention, the virtual content output unit outputs the user's body temperature and electrocardiogram information measured by the biometric data measurement unit on the augmented reality space, and estimates and outputs the user's stress level based on changes in the electrocardiogram information. to do is another feature.

본 발명에 따르면, 사용자가 실시간 기상 데이터에 기초하여 확장현실 공간상에 입체적으로 구현되는 기상 상태를 이용하여 더욱 정확하게 기상 관측 및 예측을 할 수 있는 장점이 있다.According to the present invention, there is an advantage in that a user can more accurately observe and predict weather by using a weather condition implemented in three dimensions on an augmented reality space based on real-time weather data.

그리고 사용자의 생체데이터를 이용하여 건강 상태가 실시간으로 모니터링되므로 사용자의 건강 이상에 따른 체계적인 관리와 대응이 가능한 장점이 있다.In addition, since the user's health status is monitored in real time using the user's biometric data, systematic management and response to the user's health abnormality is possible.

도 1은 본 발명에 따른 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템의 예를 보인 구성도.1 is a configuration diagram showing an example of a system for providing augmented reality virtual content for linking weather data and metaverse according to the present invention.

이하에서는 본 발명의 바람직한 실시예를 도시한 첨부도면에 따라 상세하게 설명한다.Hereinafter, it will be described in detail according to the accompanying drawings showing a preferred embodiment of the present invention.

본 발명은 기상 데이터와 메타버스를 연동하여 가상공간 내에서 실시간으로 기상상황을 관측할 수 있고, 메타버스 서비스를 이용하는 동안 사용자의 생체데이터를 감지하여 건강 이상과 스트레스 증가 여부를 모니터링 할 수 있는 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템을 제공하고자 하는 것으로, 이러한 본 발명은 도 1에 도시된 바와 같이 기상 데이터 수신부(10), 동작 감지부(20), 생체데이터 측정부(30), 데이터 동기화부(40), 동작 동기화부(50) 및 가상 콘텐츠 출력부(60)를 포함한다.In the present invention, weather conditions can be observed in real time in a virtual space by linking weather data with the metaverse, and the user's biometric data can be detected while using the metaverse service to monitor health abnormalities and stress increase. It is intended to provide an extended reality virtual content providing system for linking data and metaverse, and the present invention, as shown in FIG. ), a data synchronization unit 40, an operation synchronization unit 50, and a virtual content output unit 60.

기상 데이터 수신부(10)는 위성을 통한 관측을 통해 실시간으로 측정되는 기상 데이터를 수신하는 것으로, 이때 기상 데이터 수신부(10)는 기상청 내의 기존 시스템과 유선 또는 무선으로 연결되어 기상 데이터가 실시간으로 수신되도록 구성될 수 있다.The weather data receiving unit 10 receives weather data measured in real time through observation through satellites. At this time, the weather data receiving unit 10 is connected to an existing system in the Korea Meteorological Administration by wire or wireless to receive weather data in real time. can be configured.

동작 감지부(20)는 확장현실 가상 콘텐츠 제공 시스템을 이용하는 사용자의 동작을 감지하고, 이를 통해 후술되는 가상 콘텐츠 출력부(60)에서 출력되는 아바타(캐릭터)와 연동하여 제어하기 위한 구성이다.The motion detection unit 20 is a component for detecting a user's motion using the augmented reality virtual content providing system and controlling the motion in conjunction with an avatar (character) output from the virtual content output unit 60 to be described later.

이러한 동작 감지부(20)는 사용자가 관절 부위에 복수 개의 센서가 장착된 옷을 입고, 카메라를 통해 사용자를 촬영하는 모션캡쳐 방식으로 동작을 감지하도록 구성되거나, 또는 사용자의 손목, 발목, 허리, 머리 등에 착용 가능하게 구성되는 탄성밴드(도시하지 않음)를 이용하여 각 부위의 탄성밴드에 설치되는 센서를 통해 각도 및 속도 변화 등을 측정하여 사용자의 동작이 감지되도록 구성될 수 있다.The motion detecting unit 20 is configured to detect a motion by a motion capture method in which a user wears clothes having a plurality of sensors mounted on a joint and photographs the user through a camera, or the user's wrist, ankle, waist, Using an elastic band (not shown) configured to be worn on the head, etc., the user's motion may be detected by measuring angle and speed changes through sensors installed on the elastic band at each part.

위와 같이 탄성밴드를 통해 사용자의 동작이 감지되는 경우에는, 사용자의 키 등에 따른 관절의 운동범위를 미리 확인하여 사용자의 동작을 확실하게 감지할 수 있도록 위치 정렬 및 보정 과정을 포함할 수 있다.As described above, when the user's motion is sensed through the elastic band, a position alignment and correction process may be included to reliably detect the user's motion by checking the motion range of the joint according to the user's key in advance.

또한, 초기 접속시 위치 정렬 및 보정 과정을 통해 관절의 운동범위가 측정된 데이터가 사용자별로 저장되어, 이후 접속시에는 사용자를 선택하는 것만으로 위치 정렬 및 보정 과정을 생략할 수 있도록 구성될 수 있다.In addition, data obtained by measuring the range of motion of a joint through a position alignment and correction process at the time of initial access is stored for each user, so that the position alignment and correction process can be omitted by simply selecting a user during subsequent access. .

이에 더해 동작 감지부(20)에는 마이크 등을 통해 사용자의 음성 명령을 수신하는 음성 수신부(21)가 더 구비되고, 이러한 음성 수신부(21)를 통해 입력되는 사용자의 음성 명령을 통해 확장현실 공간을 더욱 쉽고 빠르게 이용할 수 있도록 구성될 수 있다.In addition, the motion detector 20 further includes a voice receiver 21 that receives a user's voice command through a microphone, etc., and controls the extended reality space through the user's voice command input through the voice receiver 21. It can be configured to make it easier and faster to use.

이때 음성 명령의 예로는, 시작, 종료, 이동, 정지, 빠르게, 느리게, 맵 호출, 맵 이동, 뷰 모드 전환, 로드뷰, 버드뷰, 항공뷰 및 위성뷰 등이 포함될 수 있고, 필요시 사용자가 음성 명령을 추가 및 편집할 수 있도록 구성될 수 있다.At this time, examples of voice commands may include start, end, move, stop, fast, slow, map call, map move, view mode switch, road view, bird view, aerial view and satellite view. It can be configured to add and edit voice commands.

생체데이터 측정부(30)는 확장현실 가상 콘텐츠 제공 시스템을 이용하는 사용자의 체온과 심전도를 측정하고, 측정된 정보를 후술되는 가상 콘텐츠 출력부(60)로 전달하는 구성이다.The biometric data measurement unit 30 is a component that measures the body temperature and electrocardiogram of the user using the augmented reality virtual content providing system and transmits the measured information to the virtual content output unit 60 to be described later.

이러한 생체데이터 측정부(30)는 사용자의 체온을 감지하기 위한 온도센서(적외선 센서)와 심전도 센서를 포함하여 구성될 수 있다.The biometric data measurement unit 30 may include a temperature sensor (infrared ray sensor) and an electrocardiogram sensor for detecting the user's body temperature.

데이터 동기화부(40)는 기상 데이터 수신부(10)를 통해 수신되는 기상 관측 데이터와 확장현실 공간 내의 맵 데이터 중 기상 데이터를 실시간으로 동기화시키는 구성이다.The data synchronization unit 40 is a component that synchronizes weather observation data received through the weather data receiving unit 10 with weather data among map data in the augmented reality space in real time.

이러한 데이터 동기화부(40)는 기상 관측 데이터를 확장현실 공간 내의 기상 데이터와 매칭하여 확장현실 공간 내의 기상 상태를 구현하고, 이를 통해 실제의 기상 상태와 동일한 환경의 확장현실 공간에서 다양한 방향으로 기상을 관측 및 예측할 수 있게 된다.The data synchronizer 40 matches weather observation data with weather data in the expanded reality space to implement weather conditions in the expanded reality space, and through this, weather conditions in various directions in the expanded reality space of the same environment as the actual weather conditions. can be observed and predicted.

이때 기상 관측 데이터에는 구름의 크기, 모양 및 속도 정보와, 공기 중의 습도와 미세먼지량 정보 및 풍향 정보가 포함될 수 있다.In this case, the meteorological observation data may include cloud size, shape, and speed information, air humidity, fine dust amount information, and wind direction information.

동작 동기화부(50)는 동작 감지부(20)를 통해 감지되는 사용자의 동작과 확장현실 공간 내의 아바타의 동작을 동기화시키는 구성이다.The motion synchronization unit 50 is a component that synchronizes the motion of the user detected through the motion sensor 20 with the motion of the avatar in the augmented reality space.

이러한 동작 동기화부(50)는 동작 감지부(20)의 초기 설정에 의해 사용자의 신체 크기에 따른 관절의 운동 범위가 서로 일치하도록 설정되므로, 사용자의 동작과 아바타의 동작이 쉽게 일치되게 된다.Since the motion synchronizing unit 50 is set so that the movement ranges of joints according to the user's body size match each other by the initial setting of the motion sensing unit 20, the user's motion and the avatar's motion are easily matched.

가상 콘텐츠 출력부(60)는 데이터 동기화부(40)와 동작 동기화부(50)에서 각각 동기화된 데이터(정보)를 3D 콘텐츠로 구현된 확장현실 공간상에 실시간으로 출력하는 구성이다.The virtual content output unit 60 is a component that outputs data (information) synchronized by the data synchronization unit 40 and the motion synchronization unit 50 in real time on an augmented reality space implemented as 3D content.

이러한 가상 콘텐츠 출력부(60)를 통해 출력되는 데이터는 사용자가 착용한 안경 형태의 글라스 장비 등으로 전송되고, 이를 통해 사용자가 확장현실 공간상에서 입체적인 정보 획득과 활동이 가능하게 된다.Data output through the virtual content output unit 60 is transmitted to glasses-type glasses worn by the user, and through this, it is possible for the user to obtain three-dimensional information and perform activities in the augmented reality space.

한편, 가상 콘텐츠 출력부(60)는 동작 감지부(20)에서 감지되는 사용자의 특정 동작에 의해 미리 설정된 동작을 수행하게 되는데, 이러한 예로는 동작 감지부(20)에서 감지되는 사용자의 손동작에 의해 상기 확장현실 공간상의 고도, 위치 및 방향이 전환되도록 구성될 수 있다.On the other hand, the virtual content output unit 60 performs a preset operation according to a user's specific motion detected by the motion detection unit 20, for example, by a user's hand motion detected by the motion detection unit 20. Altitude, location, and direction in the augmented reality space may be configured to be changed.

사용자의 손동작에 대한 더욱 상세한 예로는, 사용자의 양손이 머리위로 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상의 고도가 상승되도록 하고, 사용자의 양손이 양발 쪽으로 근접하여 내려진 것으로 판단되는 경우에는 상기 확장현실 공간상의 고도가 하강되도록 제어될 수 있다.As a more detailed example of the user's hand gesture, when it is determined that the user's hands are raised above the head, the altitude in the expanded reality space is raised, and when it is determined that the user's hands are lowered in close proximity to both feet, the extension is performed. An altitude in real space may be controlled to decrease.

그리고 사용자의 양손이 사용자의 앞을 향하여 지면과 평행하게 들어 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상에서 전진되도록 하고, 사용자의 양손이 사용자의 뒤쪽으로 향하여 이동한 것으로 판단되는 경우에는 상기 확장현실 공간상에서 후진되도록 제어될 수 있다.And when it is determined that both hands of the user are lifted in parallel with the ground toward the front of the user, they are moved forward in the extended reality space, and when it is determined that both hands of the user are moved toward the back of the user, the extended reality It can be controlled to move backward in space.

또한, 사용자의 왼손이 사용자의 왼쪽 측면으로 평행하게 들어 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상에서 왼쪽 방향으로 회전되도록 하고, 사용자의 오른손이 사용자의 오른쪽 측면으로 평행하게 들어 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상에서 오른쪽 방향으로 회전되도록 제어될 수 있다.In addition, when it is determined that the user's left hand is lifted in parallel to the user's left side, it is rotated in the left direction in the augmented reality space, and the user's right hand is determined to be lifted in parallel to the user's right side In this case, it may be controlled to rotate in the right direction in the augmented reality space.

한편, 사용자는 사람, 새 및 비행기 등으로 구성되는 아바타 중에서 어느 하나를 선택하여 확장현실 공간을 이용하도록 구성될 수 있다.Meanwhile, the user may be configured to use the augmented reality space by selecting any one of avatars composed of people, birds, airplanes, and the like.

이때 아바타로 사람이 선택되면 사용자의 움직임에 맞추어 아바타가 확장현실 공간을 이동하도록 구성될 수 있고, 아바타로 새 또는 비행기가 선택되면 사용자가 고도, 방향, 속도 등을 손동작만으로 조절해가면서 확장현실 공간을 자유 비행하도록 구성될 수 있다.At this time, if a person is selected as the avatar, the avatar can be configured to move in the expanded reality space according to the user's movement, and if a bird or airplane is selected as the avatar, the user adjusts the altitude, direction, speed, etc. with only hand gestures in the expanded reality space. It can be configured to free fly.

이에 더해 가상 콘텐츠 출력부(60)에서는 사용자가 가상 콘텐츠 제공 시스템을 이용하는 동안 생체데이터 측정부(30)를 통해 실시간 측정되는 사용자의 체온과 심박수 정보가 확장현실 공간상에 함께 출력되도록 하고, 이와 동시에 모니터링되는 사용자의 체온과 심박수 정보가 설정된 기준값보다 높거나 낮은 경우에는 사용자의 건강 이상 여부로 판단하여 해당 내용을 사용자가 인지할 수 있도록 안내하도록 구성될 수 있다.In addition, the virtual content output unit 60 outputs the user's body temperature and heart rate information measured in real time through the biometric data measurement unit 30 while the user uses the virtual content providing system on the augmented reality space, and at the same time When the monitored user's body temperature and heart rate information are higher or lower than the set reference value, the user's health condition may be determined and the information may be guided so that the user can recognize the corresponding information.

이때 심전도 정보의 변화에 기초하여 사용자의 스트레스 수치가 추정되고, 이렇게 추정된 스트레스 수치가 출력됨과 동시에 스트레스 수치가 설정된 기준 수치보다 높은 경우에는 확장현실 가상 콘텐츠 제공 시스템을 종료하고 충분한 휴식을 취할 수 있도록 권고 메시지를 출력하게 된다.At this time, based on the change in the electrocardiogram information, the user's stress level is estimated, and the estimated stress level is output, and at the same time, if the stress level is higher than the set reference level, the extended reality virtual content providing system is terminated so that the user can take a sufficient rest. A warning message is output.

여기서 사용자가 출력되는 확장현실 가상 콘텐츠 제공 시스템의 종료 권고를 무시하고 지속적으로 확장현실 공간에서 활동하는 경우에는 스트레스 수치가 정상 수치(기준 수치)가 될 때까지 아바타 등의 조작을 소정 시간 동안 자동 조작 모드로 전환하여 사용자가 확장현실 공간 내에서 아바타를 조작하는 데에서 오는 피로감을 줄이고, 이를 통해 스트레스 수치가 정상 수치를 유지할 수 있도록 지속적으로 관리되도록 한다.Here, if the user ignores the recommendation to terminate the augmented reality virtual content providing system output and continuously works in the augmented reality space, the avatar is automatically operated for a predetermined period of time until the stress level becomes a normal value (standard value). By switching to the mode, the user reduces the fatigue from manipulating the avatar in the augmented reality space, and through this, the stress level is continuously managed to maintain a normal level.

또한, 동작 감지부(20)를 통해 사용자가 소정 시간 동안 누운 자세, 엎드린 자세 및 앉은 자세가 지속되는 경우에는 확장현실 가상 콘텐츠 제공 시스템을 자동으로 종료하고, 종료 전 사용자의 생체데이터를 이용하여 건강 이상 등으로 판단되는 경우에는 119 등을 포함하는 긴급 연락망을 통해 위급 상황이 신속하게 전달되도록 구성될 수 있다.In addition, when the user continues to lie down, face down, and sit for a predetermined period of time through the motion detector 20, the augmented reality virtual content providing system is automatically terminated, and the user's biometric data is used before termination to maintain health. If it is determined to be abnormal, etc., the emergency situation may be quickly transmitted through an emergency contact network including 119 and the like.

한편, 위에서는 상기 사용자가 사람, 새 및 비행기 등의 아바타 중에서 선택되어 해당 아바타에 맞추어 확장현실 공간을 활동하도록 구성되는 것으로만 설명되었으나, 이와 달리 사용자가 1인칭 시점으로 확장현실 공간을 활동하도록 구성된 다음, 사용자가 선택한 지역을 로드뷰, 버드뷰, 항공뷰 및 위성뷰 모드 중 어느 하나의 1인칭 뷰 모드로 접속하여 실시간으로 기상을 관측 및 예측하도록 변경되어 구성될 수 있다.On the other hand, in the above, it has been described that the user is selected from among avatars such as people, birds, and airplanes and is configured to activate the expanded reality space according to the avatar, but unlike this, the user is configured to activate the expanded reality space from a first-person perspective. Next, it may be changed and configured to observe and predict the weather in real time by accessing a region selected by the user in a first-person view mode of any one of road view, bird view, aerial view, and satellite view modes.

이렇게 1인칭 시점으로 확장현실 공간을 활동하도록 구성될 때에는, 사용자의 동작이 동작 감지부(20)를 통해 감지되어 사용자의 시점 변화에 따라 아바타의 몸, 팔, 다리, 손 등이 선택적으로 노출될 수 있고, 이렇게 노출되는 몸, 팔, 다리, 손 등은 동작 감지부(20)를 통해 감지되는 사용자의 동작과 연동되어 움직이도록 구성될 수 있다.When the user's motion is sensed through the motion detector 20, the body, arms, legs, hands, etc. of the avatar are selectively exposed according to the change in the user's point of view. The exposed body, arms, legs, hands, etc. may be configured to move in conjunction with the user's motion detected through the motion sensor 20 .

또한, 1인칭 시점으로 인해 사용자의 신체가 상시 노출되지 않더라도 동작 감지부(20)를 통해 사용자의 동작을 실시간으로 감지하여 사용자의 손동작 등에 의해 확장현실 공간의 고도 변화, 이동 및 정지와 방향 전환 등을 동일하게 수행하도록 구성될 수 있다.In addition, even if the user's body is not always exposed due to the first-person view, the user's motion is detected in real time through the motion sensor 20, and the user's hand motion changes the height of the augmented reality space, moves, stops, changes direction, etc. It can be configured to do the same.

이상 설명한 바와 같이 본 발명은 사용자가 실시간 기상 데이터에 기초하여 확장현실 공간상에 입체적으로 구현되는 기상 상태를 이용하여 더욱 정확하게 기상 관측 및 예측을 할 수 있고, 사용자의 생체데이터를 이용하여 건강 상태가 실시간으로 모니터링되므로 사용자의 건강 이상에 따른 체계적인 관리와 대응이 가능하게 된다.As described above, according to the present invention, the user can more accurately observe and predict the weather using the weather conditions implemented in three dimensions on the augmented reality space based on real-time weather data, and the user's health status can be checked using the user's biometric data. Since it is monitored in real time, it is possible to systematically manage and respond to the user's health problems.

위에서는 설명의 편의를 위해 바람직한 실시예를 도시한 도면과 도면에 나타난 구성에 도면부호와 명칭을 부여하여 설명하였으나, 이는 본 발명에 따른 하나의 실시예로서 도면상에 나타난 형상과 부여된 명칭에 국한되어 그 권리범위가 해석되어서는 안 될 것이며, 발명의 설명으로부터 예측 가능한 다양한 형상으로의 변경과 동일한 작용을 하는 구성으로의 단순 치환은 통상의 기술자가 용이하게 실시하기 위해 변경 가능한 범위 내에 있음은 지극히 자명하다고 볼 것이다.In the above, reference numerals and names have been given to the drawings showing preferred embodiments and the components shown in the drawings for convenience of explanation, but this is an embodiment according to the present invention, which corresponds to the shape shown on the drawings and the given name. The scope of the right should not be construed as being limited, and the change to various shapes predictable from the description of the invention and the simple substitution with a configuration that has the same action are within the range of change to be easily performed by those skilled in the art. You will find it extremely self-evident.

10: 기상 데이터 수신부 20: 동작 감지부
21: 음성 수신부 30: 생체데이터 측정부
40: 데이터 동기화부 50: 동작 동기화부
60: 가상 콘텐츠 출력부
10: weather data receiver 20: motion detector
21: voice receiving unit 30: biometric data measuring unit
40: data synchronization unit 50: motion synchronization unit
60: virtual content output unit

Claims (3)

실시간으로 기상 관측 데이터가 전송되는 기상 데이터 수신부(10);
사용자의 동작을 감지하는 동작 감지부(20);
사용자의 체온과 심전도를 측정하는 생체데이터 측정부(30);
상기 기상 데이터 수신부(10)를 통해 수신되는 기상 관측 데이터를 확장현실 공간 내의 기상 데이터에 동기화시키는 데이터 동기화부(40); 및
상기 동작 감지부(20)를 통해 감지되는 사용자의 동작과 확장현실 공간 내의 아바타의 동작을 동기화시키는 동작 동기화부(50); 및
상기 데이터 동기화부(40)와 상기 동작 동기화부(50)를 통해 동기화된 정보를 상기 확장현실 공간상에 실시간으로 출력하는 가상 콘텐츠 출력부(60);
를 포함하고,
상기 사용자는,
상기 확장현실 공간상에서 로드뷰, 버드뷰, 항공뷰 및 위성뷰 모드 중 어느 하나의 1인칭 뷰 모드를 선택하여 실시간으로 기상을 관측 및 예측하도록 구성되는 것을 특징으로 하는 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템.
a weather data receiving unit 10 that transmits weather observation data in real time;
a motion detector 20 that senses a user's motion;
a biometric data measuring unit 30 that measures the user's body temperature and electrocardiogram;
a data synchronization unit 40 that synchronizes weather observation data received through the weather data receiving unit 10 with weather data in an augmented reality space; and
a motion synchronization unit 50 that synchronizes the motion of the user detected by the motion sensor 20 with the motion of the avatar in the augmented reality space; and
a virtual content output unit 60 that outputs information synchronized through the data synchronization unit 40 and the motion synchronization unit 50 on the augmented reality space in real time;
including,
The user,
For linking weather data and metaverse, characterized in that it is configured to observe and predict weather in real time by selecting any one of the first-person view modes among road view, bird view, aerial view and satellite view modes in the expanded reality space. Extended reality virtual content provision system.
청구항 1에 있어서,
상기 가상 콘텐츠 출력부(60)는,
상기 동작 감지부(20)에서 감지되는 사용자의 손동작에 의해 상기 확장현실 공간상의 고도, 위치 및 방향이 전환되도록 구성되는 것을 특징으로 하는 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템.
The method of claim 1,
The virtual content output unit 60,
An extended reality virtual content providing system for linking weather data and metaverse, characterized in that the altitude, position and direction on the expanded reality space are switched by the user's hand motion detected by the motion sensor 20.
청구항 1에 있어서,
상기 가상 콘텐츠 출력부(60)는,
상기 확장현실 공간상에 상기 생체데이터 측정부(30)에서 측정되는 사용자의 체온과 심전도 정보가 출력되도록 하고, 상기 심전도 정보의 변화에 기초하여 사용자의 스트레스 수치를 추정하여 출력하는 것을 특징으로 하는 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템.
The method of claim 1,
The virtual content output unit 60,
Characterized in that the user's body temperature and electrocardiogram information measured by the biometric data measurement unit 30 are output on the augmented reality space, and the user's stress level is estimated and output based on the change in the electrocardiogram information Extended reality virtual content provision system for linking data and metaverse.
KR1020210161333A 2021-11-22 2021-11-22 Extended Reality Virtual Content Provision System for Interworking with Weather Data and Metaverse Active KR102592521B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210161333A KR102592521B1 (en) 2021-11-22 2021-11-22 Extended Reality Virtual Content Provision System for Interworking with Weather Data and Metaverse

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210161333A KR102592521B1 (en) 2021-11-22 2021-11-22 Extended Reality Virtual Content Provision System for Interworking with Weather Data and Metaverse

Publications (2)

Publication Number Publication Date
KR20230075091A true KR20230075091A (en) 2023-05-31
KR102592521B1 KR102592521B1 (en) 2023-10-23

Family

ID=86543178

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210161333A Active KR102592521B1 (en) 2021-11-22 2021-11-22 Extended Reality Virtual Content Provision System for Interworking with Weather Data and Metaverse

Country Status (1)

Country Link
KR (1) KR102592521B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20250090517A (en) 2023-12-13 2025-06-20 (주)일주지앤에스 System for realistic Mixed Reality education and collaboration solution support and method thereof

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080310707A1 (en) * 2007-06-15 2008-12-18 Microsoft Corporation Virtual reality enhancement using real world data
KR20120003588A (en) 2010-07-05 2012-01-11 한국전자통신연구원 Healthcare system with metaverse interworking function and method
WO2012011665A2 (en) * 2010-07-20 2012-01-26 삼성전자주식회사 Apparatus and method for manipulating a virtual world by utilizing biometric information
KR20130131179A (en) 2012-05-23 2013-12-03 대전보건대학 산학협력단 Cyber model house system using metaverse
KR20140036555A (en) * 2012-09-17 2014-03-26 한국전자통신연구원 Metaverse client terminal and method for providing metaverse space for user interaction
KR20140114181A (en) * 2013-03-18 2014-09-26 세종대학교산학협력단 Method and Apparatus for Stress Analysis and Estimation based on Electrocardiogram Signal
KR102317223B1 (en) 2021-08-31 2021-10-26 주식회사 에스에이엠지엔터테인먼트 System and method for implementing metaverse using biometric data

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080310707A1 (en) * 2007-06-15 2008-12-18 Microsoft Corporation Virtual reality enhancement using real world data
KR20120003588A (en) 2010-07-05 2012-01-11 한국전자통신연구원 Healthcare system with metaverse interworking function and method
WO2012011665A2 (en) * 2010-07-20 2012-01-26 삼성전자주식회사 Apparatus and method for manipulating a virtual world by utilizing biometric information
KR20130131179A (en) 2012-05-23 2013-12-03 대전보건대학 산학협력단 Cyber model house system using metaverse
KR20140036555A (en) * 2012-09-17 2014-03-26 한국전자통신연구원 Metaverse client terminal and method for providing metaverse space for user interaction
KR101923723B1 (en) 2012-09-17 2018-11-29 한국전자통신연구원 Metaverse client terminal and method for providing metaverse space for user interaction
KR20140114181A (en) * 2013-03-18 2014-09-26 세종대학교산학협력단 Method and Apparatus for Stress Analysis and Estimation based on Electrocardiogram Signal
KR102317223B1 (en) 2021-08-31 2021-10-26 주식회사 에스에이엠지엔터테인먼트 System and method for implementing metaverse using biometric data

Also Published As

Publication number Publication date
KR102592521B1 (en) 2023-10-23

Similar Documents

Publication Publication Date Title
US20220153412A1 (en) Control method, control system, and smart glasses for first person view unmanned aerial vehicle flight
KR102700830B1 (en) Method and electronic device for controlling unmanned aerial vehicle
CN104104862B (en) Image processing apparatus and image processing method
EP2915025B1 (en) Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing
WO2019105190A1 (en) Augmented reality scene implementation method, apparatus, device, and storage medium
CN106125903B (en) Multi-person interaction system and method
EP3553739B1 (en) Image recognition system and image recognition method
WO2016173099A1 (en) Method and system for controlling walking in virtual reality based on inertial sensor
US20220317462A1 (en) Information processing apparatus, information processing method, and program
US20210233325A1 (en) Video synthesis device, video synthesis method and recording medium
JP2009087026A (en) Video display device
CN109358754B (en) Mixed reality head-mounted display system
WO2014141504A1 (en) Three-dimensional user interface device and three-dimensional operation processing method
CN105446474A (en) Wearable intelligent device, interaction method of wearable intelligent device and wearable intelligent device system
CN106303448A (en) Aerial Images processing method, unmanned plane, wear display device and system
JP2021010101A (en) Remote work support system
EP3358444A1 (en) Method and device for determining position of virtual object in virtual space
KR20200019389A (en) User device, method and server for providing virtual fitting service
KR102592521B1 (en) Extended Reality Virtual Content Provision System for Interworking with Weather Data and Metaverse
CN106707267B (en) A wireless signal-based space positioning method, system and VR equipment
JP2014164374A (en) Information display system, information terminal, server device, control method of information terminal, control method of server device, and program
CN109613980A (en) VR game information processing system and processing method
KR102694193B1 (en) Control device and control method for controlling a real IoT device in a virtual environment
CN109643182B (en) Information processing method and device, cloud processing equipment and computer program product
JP2007506164A (en) Method and apparatus for controlling a virtual reality graphics system using interactive technology

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20211122

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20230405

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20231016

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20231018

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20231018

End annual number: 3

Start annual number: 1

PG1601 Publication of registration