KR20230075091A - Extended Reality Virtual Content Provision System for Interworking with Weather Data and Metaverse - Google Patents
Extended Reality Virtual Content Provision System for Interworking with Weather Data and Metaverse Download PDFInfo
- Publication number
- KR20230075091A KR20230075091A KR1020210161333A KR20210161333A KR20230075091A KR 20230075091 A KR20230075091 A KR 20230075091A KR 1020210161333 A KR1020210161333 A KR 1020210161333A KR 20210161333 A KR20210161333 A KR 20210161333A KR 20230075091 A KR20230075091 A KR 20230075091A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- data
- motion
- weather
- metaverse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/01—Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/25—Bioelectric electrodes therefor
- A61B5/279—Bioelectric electrodes therefor specially adapted for particular uses
- A61B5/28—Bioelectric electrodes therefor specially adapted for particular uses for electrocardiography [ECG]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Business, Economics & Management (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Theoretical Computer Science (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Tourism & Hospitality (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Economics (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- General Business, Economics & Management (AREA)
- Educational Technology (AREA)
- Strategic Management (AREA)
- Social Psychology (AREA)
- Cardiology (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 기상 데이터와 메타버스를 연동하여 가상공간 내에서 실시간으로 기상상황을 관측할 수 있고, 메타버스 서비스를 이용하는 동안 사용자의 생체데이터를 감지하여 건강 이상과 스트레스 증가 여부를 모니터링 할 수 있는 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템에 관한 것이다.
상기의 과제를 해결하기 위한 본 발명에 따른 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템은, 실시간으로 기상 관측 데이터가 전송되는 기상 데이터 수신부; 사용자의 동작을 감지하는 동작 감지부; 사용자의 체온과 심전도를 측정하는 생체데이터 측정부; 상기 기상 데이터 수신부를 통해 수신되는 기상 관측 데이터를 확장현실 공간 내의 기상 데이터에 동기화시키는 데이터 동기화부; 및 상기 동작 감지부를 통해 감지되는 사용자의 동작과 확장현실 공간 내의 아바타의 동작을 동기화시키는 동작 동기화부; 및 상기 데이터 동기화부와 상기 동작 동기화부를 통해 동기화된 정보를 상기 확장현실 공간상에 실시간으로 출력하는 가상 콘텐츠 출력부를 포함하고, 상기 사용자는, 상기 확장현실 공간상에서 지역을 선택한 다음, 로드뷰, 버드뷰, 항공뷰 및 위성뷰 모드 중 어느 하나의 1인칭 뷰 모드를 선택하여 실시간으로 기상을 관측 및 예측하도록 구성되는 것을 특징으로 한다.In the present invention, weather conditions can be observed in real time in a virtual space by linking weather data with the metaverse, and the user's biometric data can be detected while using the metaverse service to monitor health abnormalities and stress increase. It is about an extended reality virtual content providing system for linking data and metaverse.
A system for providing extended reality virtual content for linking weather data and metaverse according to the present invention for solving the above problems includes: a weather data receiving unit for transmitting weather observation data in real time; a motion detection unit that senses a user's motion; a biometric data measuring unit that measures the user's body temperature and electrocardiogram; a data synchronization unit that synchronizes weather observation data received through the weather data receiver with weather data in an augmented reality space; and a motion synchronizing unit for synchronizing the motion of the user detected through the motion sensor with the motion of the avatar in the augmented reality space. and a virtual content output unit outputting information synchronized through the data synchronization unit and the motion synchronization unit on the augmented reality space in real time, wherein the user selects a region on the augmented reality space, and then selects a road view and a bird view. It is characterized in that it is configured to observe and predict the weather in real time by selecting any one of the first-person view modes among view, aerial view, and satellite view modes.
Description
본 발명은 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템에 관한 것으로, 더욱 상세하게는 메타버스 가상공간 내에서 다양한 서비스를 이용할 수 있도록 다양한 가상 콘텐츠를 제공하는 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템에 관한 것이다.The present invention relates to a system for providing extended reality virtual contents for linking weather data and metaverse, and more particularly, linking weather data and metaverse to provide various virtual contents so that various services can be used in a metaverse virtual space. It relates to an extended reality virtual content providing system for
확장현실 기술(extended reality, XR)이란, 가상현실 기술(VR)과 증강현실 기술(AR)을 아우르는 혼합현실(MR)을 총 망라하는 기술을 의미하는 것으로, 최근에는 확장현실 기술을 이용하여 현실세계와 같은 3차원 가상세계를 구축(metaverse, 메타버스)하고, 이를 다양한 분야에 서비스하는 기술에 대한 연구가 활발하게 진행되고 있다.Extended reality technology (XR) refers to a technology that encompasses mixed reality (MR), which includes virtual reality technology (VR) and augmented reality technology (AR). Research on technologies for constructing a 3D virtual world like the world (metaverse) and servicing it in various fields is being actively conducted.
이러한 예로는 등록특허공보 제1923723호의 사용자 간 상호작용이 가능한 메타버스 공간을 제공하기 위한 메타버스 클라이언트 단말(이하 '특허문헌'이라 한다)이 개시되어 있다.As an example of this, a metaverse client terminal (hereinafter referred to as 'patent document') for providing a metaverse space capable of interaction between users of Patent Registration No. 1923723 is disclosed.
그러나 상기 특허문헌에 개시된 메타버스 클라이언트 단말은, 센서에 의해 획득된 제1 사용자의 움직임에 대한 센싱 데이터를 수집하는 센싱 데이터 수집부; 상기 센싱 데이터에 기초하여 상기 제1 사용자의 운동 상태를 결정하고, 상기 결정된 제1 사용자의 운동 상태에 대한 상태 정보 데이터를 생성하는 운동 상태 결정부; 상기 제1 사용자의 상태 정보 데이터를 메타버스(Metaverse) 서버로 전송하고, 상기 메타버스 서버로부터 메타 버스 공간을 구성하기 위한 메타버스 정보 데이터와 상기 제1 사용자와 서로 다른 공간에 위치하는 제2 사용자에 대한 상태 정보 데이터를 수신하는 서버 인터페이스부; 및 상기 수신된 메타버스 정보 데이터를 이용하여 메타버스 공간을 생성하고, 상기 제1 및 제2 사용자의 상태 정보 데이터에 기초하여 상기 제1 사용자의 움직임과 연동하여 움직이는 제1 아바타(Avatar)와 상기 제2 사용자의 움직임과 연동하여 움직이는 제2 아바타를 각각 생성하며, 상기 메타버스 공간에 상기 제1 및 제2 아바타를 반영하여 상기 제1 사용자에게 제공하는 메타버스 공간 제공부를 포함하고, 상기 메타버스 서버는 상기 제1 사용자 및 상기 제2 사용자가 서로 다른 메타버스 공간에 접속해 있을 경우, 상기 제1 사용자의 상태 정보 데이터를 상기 제2 사용자가 접속한 메타버스 공간에 상응하도록 변경하여 상기 제2 사용자에게 제공하고, 상기 제2 사용자의 상태 정보 데이터를 상기 제1 사용자가 접속한 메타버스 공간에 상응하도록 변경하여 상기 제1 사용자에게 제공하는 것으로 이루어진다.However, the metaverse client terminal disclosed in the patent document, the sensing data collection unit for collecting the sensing data for the movement of the first user obtained by the sensor; an exercise state determiner configured to determine an exercise state of the first user based on the sensing data and to generate state information data for the determined exercise state of the first user; Transmitting the state information data of the first user to a metaverse server, and metaverse information data for constructing a metaverse space from the metaverse server and a second user located in a different space from the first user a server interface unit for receiving state information data about; And a first avatar (Avatar) that creates a metaverse space using the received metaverse information data, and moves in conjunction with the movement of the first user based on the state information data of the first and second users, and the A metaverse space providing unit for generating a second avatar that moves in conjunction with the movement of a second user, reflecting the first and second avatars in the metaverse space and providing the first user with the metaverse space; When the first user and the second user access different metaverse spaces, the server changes the state information data of the first user to correspond to the metaverse space accessed by the second user, and the second user It is provided to the user, and the state information data of the second user is changed to correspond to the metaverse space accessed by the first user and provided to the first user.
상기 특허문헌에 개시된 메타버스 클라이언트 단말은 사용자의 운동 상태만을 검출하여 메타버스 공간상의 아바타(캐릭터)의 동작과 연동시키기 때문에 사용자가 메타버스 서비스를 장시간 이용함에 따른 건강 악화 등을 인지하기가 어려운 문제가 있다.Since the metaverse client terminal disclosed in the patent document detects only the user's exercise state and interlocks with the motion of the avatar (character) in the metaverse space, it is difficult for the user to recognize deterioration in health due to long-term use of the metaverse service. there is
따라서 메타버스를 서비스를 이용하는 동안 사용자의 건강을 실시간으로 모니터링할 수 있는 확장현실 가상 콘텐츠 제공 시스템의 개발이 요구된다.Therefore, it is required to develop an extended reality virtual content providing system that can monitor the user's health in real time while using the metaverse service.
본 발명은 상기와 같은 종래의 메타버스 콘텐츠 제공 시스템이 가지는 문제점을 해결하기 위해 안출된 것으로, 본 발명이 해결하고자 하는 과제는 기상 데이터와 메타버스를 연동하여 가상공간 내에서 실시간으로 기상상황을 관측할 수 있고, 메타버스 서비스를 이용하는 동안 사용자의 생체데이터를 감지하여 건강 이상과 스트레스 증가 여부를 모니터링할 수 있는 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템을 제공하는 것이다.The present invention was made to solve the problems of the conventional metaverse content providing system as described above, and the problem to be solved by the present invention is to observe weather conditions in real time in virtual space by linking weather data and metaverse It is to provide an extended reality virtual content providing system for interlocking weather data and metaverse that can monitor health abnormalities and stress increase by detecting user's biometric data while using metaverse service.
상기의 과제를 해결하기 위한 본 발명에 따른 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템은, 실시간으로 기상 관측 데이터가 전송되는 기상 데이터 수신부; 사용자의 동작을 감지하는 동작 감지부; 사용자의 체온과 심전도를 측정하는 생체데이터 측정부; 상기 기상 데이터 수신부를 통해 수신되는 기상 관측 데이터를 확장현실 공간 내의 기상 데이터에 동기화시키는 데이터 동기화부; 및 상기 동작 감지부를 통해 감지되는 사용자의 동작과 확장현실 공간 내의 아바타의 동작을 동기화시키는 동작 동기화부; 및 상기 데이터 동기화부와 상기 동작 동기화부를 통해 동기화된 정보를 상기 확장현실 공간상에 실시간으로 출력하는 가상 콘텐츠 출력부를 포함하고, 상기 사용자는, 상기 확장현실 공간상에서 지역을 선택한 다음, 로드뷰, 버드뷰, 항공뷰 및 위성뷰 모드 중 어느 하나의 1인칭 뷰 모드를 선택하여 실시간으로 기상을 관측 및 예측하도록 구성되는 것을 특징으로 한다.A system for providing extended reality virtual content for linking weather data and metaverse according to the present invention for solving the above problems includes: a weather data receiving unit for transmitting weather observation data in real time; a motion detection unit that senses a user's motion; a biometric data measuring unit that measures the user's body temperature and electrocardiogram; a data synchronization unit that synchronizes weather observation data received through the weather data receiver with weather data in an augmented reality space; and a motion synchronizing unit for synchronizing the motion of the user detected through the motion sensor with the motion of the avatar in the augmented reality space. and a virtual content output unit for outputting information synchronized through the data synchronization unit and the motion synchronization unit on the augmented reality space in real time, wherein the user selects a region on the augmented reality space, and then selects a road view and a bird view. It is characterized in that it is configured to observe and predict the weather in real time by selecting any one of the first-person view modes among view, aerial view, and satellite view modes.
그리고 본 발명은 상기 가상 콘텐츠 출력부가 상기 동작 감지부에서 감지되는 사용자의 손동작에 의해 상기 확장현실 공간상의 고도, 위치 및 방향이 전환되도록 구성되는 것을 또 다른 특징으로 한다.Further, the present invention is characterized in that the virtual content output unit is configured to change an altitude, position, and direction in the augmented reality space by a user's hand motion detected by the motion sensor.
또한, 본 발명은 상기 가상 콘텐츠 출력부가 상기 동작 감지부를 통해 사용자의 양손이 머리위로 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상의 고도가 상승되도록 하고, 상기 동작 감지부를 통해 사용자의 양손이 양발 쪽으로 근접하여 내려진 것으로 판단되는 경우에는 상기 확장현실 공간상의 고도가 하강되도록 하며, 상기 동작 감지부를 통해 사용자의 양손이 사용자의 앞을 향하여 지면과 평행하게 들어 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상에서 전진되도록 하고, 상기 동작 감지부를 통해 사용자의 양손이 사용자의 뒤쪽으로 향하여 이동한 것으로 판단되는 경우에는 상기 확장현실 공간상에서 후진되도록 하며, 상기 동작 감지부를 통해 사용자의 왼손이 사용자의 왼쪽 측면으로 평행하게 들어 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상에서 왼쪽 방향으로 회전되도록 하고, 상기 동작 감지부를 통해 사용자의 오른손이 사용자의 오른쪽 측면으로 평행하게 들어 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상에서 오른쪽 방향으로 회전되도록 제어하는 것을 또 다른 특징으로 한다.In addition, in the present invention, when the virtual content output unit determines through the motion sensor that both hands of the user are raised above the head, the altitude in the augmented reality space is increased, and the user's both hands move toward both feet through the motion sensor. When it is determined that it is lowered in close proximity, the altitude on the expanded reality space is lowered, and when it is determined that both hands of the user are lifted parallel to the ground toward the front of the user through the motion sensor, in the expanded reality space forward, and when it is determined through the motion detector that the user's both hands move toward the user's back, the user moves backward in the expanded reality space, and the user's left hand moves parallel to the user's left side through the motion detector. When it is determined that it is lifted, it is rotated in the left direction in the expanded reality space, and when it is determined that the user's right hand is lifted in parallel to the user's right side through the motion sensor, it is rotated in the right side in the expanded reality space. Another feature is to control to rotate in the direction.
이에 더해 본 발명은 상기 동작 감지부에 사용자의 음성 명령을 수신하는 음성 수신부가 더 구비되는 것을 또 다른 특징으로 한다.In addition, another feature of the present invention is that a voice receiver for receiving a user's voice command to the motion sensor is further provided.
그리고 본 발명은 상기 가상 콘텐츠 출력부가 상기 확장현실 공간상에 상기 생체데이터 측정부에서 측정되는 사용자의 체온과 심전도 정보가 출력되도록 하고, 상기 심전도 정보의 변화에 기초하여 사용자의 스트레스 수치를 추정하여 출력하는 것을 또 다른 특징으로 한다.In the present invention, the virtual content output unit outputs the user's body temperature and electrocardiogram information measured by the biometric data measurement unit on the augmented reality space, and estimates and outputs the user's stress level based on changes in the electrocardiogram information. to do is another feature.
본 발명에 따르면, 사용자가 실시간 기상 데이터에 기초하여 확장현실 공간상에 입체적으로 구현되는 기상 상태를 이용하여 더욱 정확하게 기상 관측 및 예측을 할 수 있는 장점이 있다.According to the present invention, there is an advantage in that a user can more accurately observe and predict weather by using a weather condition implemented in three dimensions on an augmented reality space based on real-time weather data.
그리고 사용자의 생체데이터를 이용하여 건강 상태가 실시간으로 모니터링되므로 사용자의 건강 이상에 따른 체계적인 관리와 대응이 가능한 장점이 있다.In addition, since the user's health status is monitored in real time using the user's biometric data, systematic management and response to the user's health abnormality is possible.
도 1은 본 발명에 따른 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템의 예를 보인 구성도.1 is a configuration diagram showing an example of a system for providing augmented reality virtual content for linking weather data and metaverse according to the present invention.
이하에서는 본 발명의 바람직한 실시예를 도시한 첨부도면에 따라 상세하게 설명한다.Hereinafter, it will be described in detail according to the accompanying drawings showing a preferred embodiment of the present invention.
본 발명은 기상 데이터와 메타버스를 연동하여 가상공간 내에서 실시간으로 기상상황을 관측할 수 있고, 메타버스 서비스를 이용하는 동안 사용자의 생체데이터를 감지하여 건강 이상과 스트레스 증가 여부를 모니터링 할 수 있는 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템을 제공하고자 하는 것으로, 이러한 본 발명은 도 1에 도시된 바와 같이 기상 데이터 수신부(10), 동작 감지부(20), 생체데이터 측정부(30), 데이터 동기화부(40), 동작 동기화부(50) 및 가상 콘텐츠 출력부(60)를 포함한다.In the present invention, weather conditions can be observed in real time in a virtual space by linking weather data with the metaverse, and the user's biometric data can be detected while using the metaverse service to monitor health abnormalities and stress increase. It is intended to provide an extended reality virtual content providing system for linking data and metaverse, and the present invention, as shown in FIG. ), a
기상 데이터 수신부(10)는 위성을 통한 관측을 통해 실시간으로 측정되는 기상 데이터를 수신하는 것으로, 이때 기상 데이터 수신부(10)는 기상청 내의 기존 시스템과 유선 또는 무선으로 연결되어 기상 데이터가 실시간으로 수신되도록 구성될 수 있다.The weather
동작 감지부(20)는 확장현실 가상 콘텐츠 제공 시스템을 이용하는 사용자의 동작을 감지하고, 이를 통해 후술되는 가상 콘텐츠 출력부(60)에서 출력되는 아바타(캐릭터)와 연동하여 제어하기 위한 구성이다.The
이러한 동작 감지부(20)는 사용자가 관절 부위에 복수 개의 센서가 장착된 옷을 입고, 카메라를 통해 사용자를 촬영하는 모션캡쳐 방식으로 동작을 감지하도록 구성되거나, 또는 사용자의 손목, 발목, 허리, 머리 등에 착용 가능하게 구성되는 탄성밴드(도시하지 않음)를 이용하여 각 부위의 탄성밴드에 설치되는 센서를 통해 각도 및 속도 변화 등을 측정하여 사용자의 동작이 감지되도록 구성될 수 있다.The
위와 같이 탄성밴드를 통해 사용자의 동작이 감지되는 경우에는, 사용자의 키 등에 따른 관절의 운동범위를 미리 확인하여 사용자의 동작을 확실하게 감지할 수 있도록 위치 정렬 및 보정 과정을 포함할 수 있다.As described above, when the user's motion is sensed through the elastic band, a position alignment and correction process may be included to reliably detect the user's motion by checking the motion range of the joint according to the user's key in advance.
또한, 초기 접속시 위치 정렬 및 보정 과정을 통해 관절의 운동범위가 측정된 데이터가 사용자별로 저장되어, 이후 접속시에는 사용자를 선택하는 것만으로 위치 정렬 및 보정 과정을 생략할 수 있도록 구성될 수 있다.In addition, data obtained by measuring the range of motion of a joint through a position alignment and correction process at the time of initial access is stored for each user, so that the position alignment and correction process can be omitted by simply selecting a user during subsequent access. .
이에 더해 동작 감지부(20)에는 마이크 등을 통해 사용자의 음성 명령을 수신하는 음성 수신부(21)가 더 구비되고, 이러한 음성 수신부(21)를 통해 입력되는 사용자의 음성 명령을 통해 확장현실 공간을 더욱 쉽고 빠르게 이용할 수 있도록 구성될 수 있다.In addition, the
이때 음성 명령의 예로는, 시작, 종료, 이동, 정지, 빠르게, 느리게, 맵 호출, 맵 이동, 뷰 모드 전환, 로드뷰, 버드뷰, 항공뷰 및 위성뷰 등이 포함될 수 있고, 필요시 사용자가 음성 명령을 추가 및 편집할 수 있도록 구성될 수 있다.At this time, examples of voice commands may include start, end, move, stop, fast, slow, map call, map move, view mode switch, road view, bird view, aerial view and satellite view. It can be configured to add and edit voice commands.
생체데이터 측정부(30)는 확장현실 가상 콘텐츠 제공 시스템을 이용하는 사용자의 체온과 심전도를 측정하고, 측정된 정보를 후술되는 가상 콘텐츠 출력부(60)로 전달하는 구성이다.The biometric
이러한 생체데이터 측정부(30)는 사용자의 체온을 감지하기 위한 온도센서(적외선 센서)와 심전도 센서를 포함하여 구성될 수 있다.The biometric
데이터 동기화부(40)는 기상 데이터 수신부(10)를 통해 수신되는 기상 관측 데이터와 확장현실 공간 내의 맵 데이터 중 기상 데이터를 실시간으로 동기화시키는 구성이다.The
이러한 데이터 동기화부(40)는 기상 관측 데이터를 확장현실 공간 내의 기상 데이터와 매칭하여 확장현실 공간 내의 기상 상태를 구현하고, 이를 통해 실제의 기상 상태와 동일한 환경의 확장현실 공간에서 다양한 방향으로 기상을 관측 및 예측할 수 있게 된다.The data synchronizer 40 matches weather observation data with weather data in the expanded reality space to implement weather conditions in the expanded reality space, and through this, weather conditions in various directions in the expanded reality space of the same environment as the actual weather conditions. can be observed and predicted.
이때 기상 관측 데이터에는 구름의 크기, 모양 및 속도 정보와, 공기 중의 습도와 미세먼지량 정보 및 풍향 정보가 포함될 수 있다.In this case, the meteorological observation data may include cloud size, shape, and speed information, air humidity, fine dust amount information, and wind direction information.
동작 동기화부(50)는 동작 감지부(20)를 통해 감지되는 사용자의 동작과 확장현실 공간 내의 아바타의 동작을 동기화시키는 구성이다.The
이러한 동작 동기화부(50)는 동작 감지부(20)의 초기 설정에 의해 사용자의 신체 크기에 따른 관절의 운동 범위가 서로 일치하도록 설정되므로, 사용자의 동작과 아바타의 동작이 쉽게 일치되게 된다.Since the
가상 콘텐츠 출력부(60)는 데이터 동기화부(40)와 동작 동기화부(50)에서 각각 동기화된 데이터(정보)를 3D 콘텐츠로 구현된 확장현실 공간상에 실시간으로 출력하는 구성이다.The virtual
이러한 가상 콘텐츠 출력부(60)를 통해 출력되는 데이터는 사용자가 착용한 안경 형태의 글라스 장비 등으로 전송되고, 이를 통해 사용자가 확장현실 공간상에서 입체적인 정보 획득과 활동이 가능하게 된다.Data output through the virtual
한편, 가상 콘텐츠 출력부(60)는 동작 감지부(20)에서 감지되는 사용자의 특정 동작에 의해 미리 설정된 동작을 수행하게 되는데, 이러한 예로는 동작 감지부(20)에서 감지되는 사용자의 손동작에 의해 상기 확장현실 공간상의 고도, 위치 및 방향이 전환되도록 구성될 수 있다.On the other hand, the virtual
사용자의 손동작에 대한 더욱 상세한 예로는, 사용자의 양손이 머리위로 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상의 고도가 상승되도록 하고, 사용자의 양손이 양발 쪽으로 근접하여 내려진 것으로 판단되는 경우에는 상기 확장현실 공간상의 고도가 하강되도록 제어될 수 있다.As a more detailed example of the user's hand gesture, when it is determined that the user's hands are raised above the head, the altitude in the expanded reality space is raised, and when it is determined that the user's hands are lowered in close proximity to both feet, the extension is performed. An altitude in real space may be controlled to decrease.
그리고 사용자의 양손이 사용자의 앞을 향하여 지면과 평행하게 들어 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상에서 전진되도록 하고, 사용자의 양손이 사용자의 뒤쪽으로 향하여 이동한 것으로 판단되는 경우에는 상기 확장현실 공간상에서 후진되도록 제어될 수 있다.And when it is determined that both hands of the user are lifted in parallel with the ground toward the front of the user, they are moved forward in the extended reality space, and when it is determined that both hands of the user are moved toward the back of the user, the extended reality It can be controlled to move backward in space.
또한, 사용자의 왼손이 사용자의 왼쪽 측면으로 평행하게 들어 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상에서 왼쪽 방향으로 회전되도록 하고, 사용자의 오른손이 사용자의 오른쪽 측면으로 평행하게 들어 올려진 것으로 판단되는 경우에는 상기 확장현실 공간상에서 오른쪽 방향으로 회전되도록 제어될 수 있다.In addition, when it is determined that the user's left hand is lifted in parallel to the user's left side, it is rotated in the left direction in the augmented reality space, and the user's right hand is determined to be lifted in parallel to the user's right side In this case, it may be controlled to rotate in the right direction in the augmented reality space.
한편, 사용자는 사람, 새 및 비행기 등으로 구성되는 아바타 중에서 어느 하나를 선택하여 확장현실 공간을 이용하도록 구성될 수 있다.Meanwhile, the user may be configured to use the augmented reality space by selecting any one of avatars composed of people, birds, airplanes, and the like.
이때 아바타로 사람이 선택되면 사용자의 움직임에 맞추어 아바타가 확장현실 공간을 이동하도록 구성될 수 있고, 아바타로 새 또는 비행기가 선택되면 사용자가 고도, 방향, 속도 등을 손동작만으로 조절해가면서 확장현실 공간을 자유 비행하도록 구성될 수 있다.At this time, if a person is selected as the avatar, the avatar can be configured to move in the expanded reality space according to the user's movement, and if a bird or airplane is selected as the avatar, the user adjusts the altitude, direction, speed, etc. with only hand gestures in the expanded reality space. It can be configured to free fly.
이에 더해 가상 콘텐츠 출력부(60)에서는 사용자가 가상 콘텐츠 제공 시스템을 이용하는 동안 생체데이터 측정부(30)를 통해 실시간 측정되는 사용자의 체온과 심박수 정보가 확장현실 공간상에 함께 출력되도록 하고, 이와 동시에 모니터링되는 사용자의 체온과 심박수 정보가 설정된 기준값보다 높거나 낮은 경우에는 사용자의 건강 이상 여부로 판단하여 해당 내용을 사용자가 인지할 수 있도록 안내하도록 구성될 수 있다.In addition, the virtual
이때 심전도 정보의 변화에 기초하여 사용자의 스트레스 수치가 추정되고, 이렇게 추정된 스트레스 수치가 출력됨과 동시에 스트레스 수치가 설정된 기준 수치보다 높은 경우에는 확장현실 가상 콘텐츠 제공 시스템을 종료하고 충분한 휴식을 취할 수 있도록 권고 메시지를 출력하게 된다.At this time, based on the change in the electrocardiogram information, the user's stress level is estimated, and the estimated stress level is output, and at the same time, if the stress level is higher than the set reference level, the extended reality virtual content providing system is terminated so that the user can take a sufficient rest. A warning message is output.
여기서 사용자가 출력되는 확장현실 가상 콘텐츠 제공 시스템의 종료 권고를 무시하고 지속적으로 확장현실 공간에서 활동하는 경우에는 스트레스 수치가 정상 수치(기준 수치)가 될 때까지 아바타 등의 조작을 소정 시간 동안 자동 조작 모드로 전환하여 사용자가 확장현실 공간 내에서 아바타를 조작하는 데에서 오는 피로감을 줄이고, 이를 통해 스트레스 수치가 정상 수치를 유지할 수 있도록 지속적으로 관리되도록 한다.Here, if the user ignores the recommendation to terminate the augmented reality virtual content providing system output and continuously works in the augmented reality space, the avatar is automatically operated for a predetermined period of time until the stress level becomes a normal value (standard value). By switching to the mode, the user reduces the fatigue from manipulating the avatar in the augmented reality space, and through this, the stress level is continuously managed to maintain a normal level.
또한, 동작 감지부(20)를 통해 사용자가 소정 시간 동안 누운 자세, 엎드린 자세 및 앉은 자세가 지속되는 경우에는 확장현실 가상 콘텐츠 제공 시스템을 자동으로 종료하고, 종료 전 사용자의 생체데이터를 이용하여 건강 이상 등으로 판단되는 경우에는 119 등을 포함하는 긴급 연락망을 통해 위급 상황이 신속하게 전달되도록 구성될 수 있다.In addition, when the user continues to lie down, face down, and sit for a predetermined period of time through the
한편, 위에서는 상기 사용자가 사람, 새 및 비행기 등의 아바타 중에서 선택되어 해당 아바타에 맞추어 확장현실 공간을 활동하도록 구성되는 것으로만 설명되었으나, 이와 달리 사용자가 1인칭 시점으로 확장현실 공간을 활동하도록 구성된 다음, 사용자가 선택한 지역을 로드뷰, 버드뷰, 항공뷰 및 위성뷰 모드 중 어느 하나의 1인칭 뷰 모드로 접속하여 실시간으로 기상을 관측 및 예측하도록 변경되어 구성될 수 있다.On the other hand, in the above, it has been described that the user is selected from among avatars such as people, birds, and airplanes and is configured to activate the expanded reality space according to the avatar, but unlike this, the user is configured to activate the expanded reality space from a first-person perspective. Next, it may be changed and configured to observe and predict the weather in real time by accessing a region selected by the user in a first-person view mode of any one of road view, bird view, aerial view, and satellite view modes.
이렇게 1인칭 시점으로 확장현실 공간을 활동하도록 구성될 때에는, 사용자의 동작이 동작 감지부(20)를 통해 감지되어 사용자의 시점 변화에 따라 아바타의 몸, 팔, 다리, 손 등이 선택적으로 노출될 수 있고, 이렇게 노출되는 몸, 팔, 다리, 손 등은 동작 감지부(20)를 통해 감지되는 사용자의 동작과 연동되어 움직이도록 구성될 수 있다.When the user's motion is sensed through the
또한, 1인칭 시점으로 인해 사용자의 신체가 상시 노출되지 않더라도 동작 감지부(20)를 통해 사용자의 동작을 실시간으로 감지하여 사용자의 손동작 등에 의해 확장현실 공간의 고도 변화, 이동 및 정지와 방향 전환 등을 동일하게 수행하도록 구성될 수 있다.In addition, even if the user's body is not always exposed due to the first-person view, the user's motion is detected in real time through the
이상 설명한 바와 같이 본 발명은 사용자가 실시간 기상 데이터에 기초하여 확장현실 공간상에 입체적으로 구현되는 기상 상태를 이용하여 더욱 정확하게 기상 관측 및 예측을 할 수 있고, 사용자의 생체데이터를 이용하여 건강 상태가 실시간으로 모니터링되므로 사용자의 건강 이상에 따른 체계적인 관리와 대응이 가능하게 된다.As described above, according to the present invention, the user can more accurately observe and predict the weather using the weather conditions implemented in three dimensions on the augmented reality space based on real-time weather data, and the user's health status can be checked using the user's biometric data. Since it is monitored in real time, it is possible to systematically manage and respond to the user's health problems.
위에서는 설명의 편의를 위해 바람직한 실시예를 도시한 도면과 도면에 나타난 구성에 도면부호와 명칭을 부여하여 설명하였으나, 이는 본 발명에 따른 하나의 실시예로서 도면상에 나타난 형상과 부여된 명칭에 국한되어 그 권리범위가 해석되어서는 안 될 것이며, 발명의 설명으로부터 예측 가능한 다양한 형상으로의 변경과 동일한 작용을 하는 구성으로의 단순 치환은 통상의 기술자가 용이하게 실시하기 위해 변경 가능한 범위 내에 있음은 지극히 자명하다고 볼 것이다.In the above, reference numerals and names have been given to the drawings showing preferred embodiments and the components shown in the drawings for convenience of explanation, but this is an embodiment according to the present invention, which corresponds to the shape shown on the drawings and the given name. The scope of the right should not be construed as being limited, and the change to various shapes predictable from the description of the invention and the simple substitution with a configuration that has the same action are within the range of change to be easily performed by those skilled in the art. You will find it extremely self-evident.
10: 기상 데이터 수신부
20: 동작 감지부
21: 음성 수신부
30: 생체데이터 측정부
40: 데이터 동기화부
50: 동작 동기화부
60: 가상 콘텐츠 출력부10: weather data receiver 20: motion detector
21: voice receiving unit 30: biometric data measuring unit
40: data synchronization unit 50: motion synchronization unit
60: virtual content output unit
Claims (3)
사용자의 동작을 감지하는 동작 감지부(20);
사용자의 체온과 심전도를 측정하는 생체데이터 측정부(30);
상기 기상 데이터 수신부(10)를 통해 수신되는 기상 관측 데이터를 확장현실 공간 내의 기상 데이터에 동기화시키는 데이터 동기화부(40); 및
상기 동작 감지부(20)를 통해 감지되는 사용자의 동작과 확장현실 공간 내의 아바타의 동작을 동기화시키는 동작 동기화부(50); 및
상기 데이터 동기화부(40)와 상기 동작 동기화부(50)를 통해 동기화된 정보를 상기 확장현실 공간상에 실시간으로 출력하는 가상 콘텐츠 출력부(60);
를 포함하고,
상기 사용자는,
상기 확장현실 공간상에서 로드뷰, 버드뷰, 항공뷰 및 위성뷰 모드 중 어느 하나의 1인칭 뷰 모드를 선택하여 실시간으로 기상을 관측 및 예측하도록 구성되는 것을 특징으로 하는 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템.
a weather data receiving unit 10 that transmits weather observation data in real time;
a motion detector 20 that senses a user's motion;
a biometric data measuring unit 30 that measures the user's body temperature and electrocardiogram;
a data synchronization unit 40 that synchronizes weather observation data received through the weather data receiving unit 10 with weather data in an augmented reality space; and
a motion synchronization unit 50 that synchronizes the motion of the user detected by the motion sensor 20 with the motion of the avatar in the augmented reality space; and
a virtual content output unit 60 that outputs information synchronized through the data synchronization unit 40 and the motion synchronization unit 50 on the augmented reality space in real time;
including,
The user,
For linking weather data and metaverse, characterized in that it is configured to observe and predict weather in real time by selecting any one of the first-person view modes among road view, bird view, aerial view and satellite view modes in the expanded reality space. Extended reality virtual content provision system.
상기 가상 콘텐츠 출력부(60)는,
상기 동작 감지부(20)에서 감지되는 사용자의 손동작에 의해 상기 확장현실 공간상의 고도, 위치 및 방향이 전환되도록 구성되는 것을 특징으로 하는 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템.
The method of claim 1,
The virtual content output unit 60,
An extended reality virtual content providing system for linking weather data and metaverse, characterized in that the altitude, position and direction on the expanded reality space are switched by the user's hand motion detected by the motion sensor 20.
상기 가상 콘텐츠 출력부(60)는,
상기 확장현실 공간상에 상기 생체데이터 측정부(30)에서 측정되는 사용자의 체온과 심전도 정보가 출력되도록 하고, 상기 심전도 정보의 변화에 기초하여 사용자의 스트레스 수치를 추정하여 출력하는 것을 특징으로 하는 기상 데이터와 메타버스 연동을 위한 확장현실 가상 콘텐츠 제공 시스템.The method of claim 1,
The virtual content output unit 60,
Characterized in that the user's body temperature and electrocardiogram information measured by the biometric data measurement unit 30 are output on the augmented reality space, and the user's stress level is estimated and output based on the change in the electrocardiogram information Extended reality virtual content provision system for linking data and metaverse.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020210161333A KR102592521B1 (en) | 2021-11-22 | 2021-11-22 | Extended Reality Virtual Content Provision System for Interworking with Weather Data and Metaverse |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020210161333A KR102592521B1 (en) | 2021-11-22 | 2021-11-22 | Extended Reality Virtual Content Provision System for Interworking with Weather Data and Metaverse |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20230075091A true KR20230075091A (en) | 2023-05-31 |
| KR102592521B1 KR102592521B1 (en) | 2023-10-23 |
Family
ID=86543178
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020210161333A Active KR102592521B1 (en) | 2021-11-22 | 2021-11-22 | Extended Reality Virtual Content Provision System for Interworking with Weather Data and Metaverse |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102592521B1 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20250090517A (en) | 2023-12-13 | 2025-06-20 | (주)일주지앤에스 | System for realistic Mixed Reality education and collaboration solution support and method thereof |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20080310707A1 (en) * | 2007-06-15 | 2008-12-18 | Microsoft Corporation | Virtual reality enhancement using real world data |
| KR20120003588A (en) | 2010-07-05 | 2012-01-11 | 한국전자통신연구원 | Healthcare system with metaverse interworking function and method |
| WO2012011665A2 (en) * | 2010-07-20 | 2012-01-26 | 삼성전자주식회사 | Apparatus and method for manipulating a virtual world by utilizing biometric information |
| KR20130131179A (en) | 2012-05-23 | 2013-12-03 | 대전보건대학 산학협력단 | Cyber model house system using metaverse |
| KR20140036555A (en) * | 2012-09-17 | 2014-03-26 | 한국전자통신연구원 | Metaverse client terminal and method for providing metaverse space for user interaction |
| KR20140114181A (en) * | 2013-03-18 | 2014-09-26 | 세종대학교산학협력단 | Method and Apparatus for Stress Analysis and Estimation based on Electrocardiogram Signal |
| KR102317223B1 (en) | 2021-08-31 | 2021-10-26 | 주식회사 에스에이엠지엔터테인먼트 | System and method for implementing metaverse using biometric data |
-
2021
- 2021-11-22 KR KR1020210161333A patent/KR102592521B1/en active Active
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20080310707A1 (en) * | 2007-06-15 | 2008-12-18 | Microsoft Corporation | Virtual reality enhancement using real world data |
| KR20120003588A (en) | 2010-07-05 | 2012-01-11 | 한국전자통신연구원 | Healthcare system with metaverse interworking function and method |
| WO2012011665A2 (en) * | 2010-07-20 | 2012-01-26 | 삼성전자주식회사 | Apparatus and method for manipulating a virtual world by utilizing biometric information |
| KR20130131179A (en) | 2012-05-23 | 2013-12-03 | 대전보건대학 산학협력단 | Cyber model house system using metaverse |
| KR20140036555A (en) * | 2012-09-17 | 2014-03-26 | 한국전자통신연구원 | Metaverse client terminal and method for providing metaverse space for user interaction |
| KR101923723B1 (en) | 2012-09-17 | 2018-11-29 | 한국전자통신연구원 | Metaverse client terminal and method for providing metaverse space for user interaction |
| KR20140114181A (en) * | 2013-03-18 | 2014-09-26 | 세종대학교산학협력단 | Method and Apparatus for Stress Analysis and Estimation based on Electrocardiogram Signal |
| KR102317223B1 (en) | 2021-08-31 | 2021-10-26 | 주식회사 에스에이엠지엔터테인먼트 | System and method for implementing metaverse using biometric data |
Also Published As
| Publication number | Publication date |
|---|---|
| KR102592521B1 (en) | 2023-10-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20220153412A1 (en) | Control method, control system, and smart glasses for first person view unmanned aerial vehicle flight | |
| KR102700830B1 (en) | Method and electronic device for controlling unmanned aerial vehicle | |
| CN104104862B (en) | Image processing apparatus and image processing method | |
| EP2915025B1 (en) | Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing | |
| WO2019105190A1 (en) | Augmented reality scene implementation method, apparatus, device, and storage medium | |
| CN106125903B (en) | Multi-person interaction system and method | |
| EP3553739B1 (en) | Image recognition system and image recognition method | |
| WO2016173099A1 (en) | Method and system for controlling walking in virtual reality based on inertial sensor | |
| US20220317462A1 (en) | Information processing apparatus, information processing method, and program | |
| US20210233325A1 (en) | Video synthesis device, video synthesis method and recording medium | |
| JP2009087026A (en) | Video display device | |
| CN109358754B (en) | Mixed reality head-mounted display system | |
| WO2014141504A1 (en) | Three-dimensional user interface device and three-dimensional operation processing method | |
| CN105446474A (en) | Wearable intelligent device, interaction method of wearable intelligent device and wearable intelligent device system | |
| CN106303448A (en) | Aerial Images processing method, unmanned plane, wear display device and system | |
| JP2021010101A (en) | Remote work support system | |
| EP3358444A1 (en) | Method and device for determining position of virtual object in virtual space | |
| KR20200019389A (en) | User device, method and server for providing virtual fitting service | |
| KR102592521B1 (en) | Extended Reality Virtual Content Provision System for Interworking with Weather Data and Metaverse | |
| CN106707267B (en) | A wireless signal-based space positioning method, system and VR equipment | |
| JP2014164374A (en) | Information display system, information terminal, server device, control method of information terminal, control method of server device, and program | |
| CN109613980A (en) | VR game information processing system and processing method | |
| KR102694193B1 (en) | Control device and control method for controlling a real IoT device in a virtual environment | |
| CN109643182B (en) | Information processing method and device, cloud processing equipment and computer program product | |
| JP2007506164A (en) | Method and apparatus for controlling a virtual reality graphics system using interactive technology |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20211122 |
|
| PA0201 | Request for examination | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230405 Patent event code: PE09021S01D |
|
| PG1501 | Laying open of application | ||
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20231016 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20231018 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20231018 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration |