KR102767908B1 - Method and apparatus for providing spatial information using digital twin based images - Google Patents
Method and apparatus for providing spatial information using digital twin based images Download PDFInfo
- Publication number
- KR102767908B1 KR102767908B1 KR1020240070349A KR20240070349A KR102767908B1 KR 102767908 B1 KR102767908 B1 KR 102767908B1 KR 1020240070349 A KR1020240070349 A KR 1020240070349A KR 20240070349 A KR20240070349 A KR 20240070349A KR 102767908 B1 KR102767908 B1 KR 102767908B1
- Authority
- KR
- South Korea
- Prior art keywords
- video
- point
- map
- spatial information
- playback
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/787—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/74—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/80—Information retrieval; Database structures therefor; File system structures therefor of semi-structured data, e.g. markup language structured data such as SGML, XML or HTML
- G06F16/84—Mapping; Conversion
- G06F16/86—Mapping to a database
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/904—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/907—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/909—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Library & Information Science (AREA)
- Human Computer Interaction (AREA)
- Remote Sensing (AREA)
- Instructional Devices (AREA)
Abstract
디지털트윈공간 기반 동영상을 이용한 공간정보 서비스 제공 방법 및 그 장치가 개시된다. 공간정보 제공장치는 지도 내 동영상 촬영 경로의 시점 및 종점을 동영상의 시작위치 및 종료위치와 각각 맵핑한 맵핑데이터를 저장하고, 지도에서 동영상 촬영 경로 내 선택위치를 입력받으면, 맵핑데이터를 참조하여 선택위치에 해당하는 동영상의 재생시점을 파악하고, 동영상의 재생시점의 프레임을 표시한다.A method for providing spatial information service using a digital twin space-based video and a device therefor are disclosed. The spatial information providing device stores mapping data in which the starting point and the ending point of a video shooting route within a map are mapped to the starting point and the ending point of the video, respectively, and when a selected position within the video shooting route is input on the map, the device identifies the playback point of the video corresponding to the selected position by referring to the mapping data and displays the frame of the playback point of the video.
Description
본 발명의 실시 예는 건물이나 거리 등의 공간정보를 제공하는 방법 및 그 장치에 관한 것으로, 보다 상세하게는 디지털트윈공간 기반 동영상을 이용한 공간정보 서비스 제공 방법 및 그 장치에 관한 것이다.An embodiment of the present invention relates to a method for providing spatial information of a building or street, and a device therefor, and more specifically, to a method for providing spatial information service using a digital twin space-based video and a device therefor.
지도와 함께 지도 내 각 위치의 사진을 제공하는 거리뷰 서비스가 존재한다. 거리뷰를 만들기 위해서는 라이다(LiDAR)를 이용하여 공간을 촬영한 후 이미지에 각 촬영지점의 GPS 좌표를 맵핑시켜야 한다. 따라서 기존의 거리뷰 생성에는 고가의 라이다 및 GPS 측정 장치가 필요하고, 촬영 후보정 작업에 많은 시간과 비용이 소요되는 단점이 있다. There is a street view service that provides photos of each location on the map along with the map. In order to create a street view, you need to photograph the space using LiDAR and then map the GPS coordinates of each shooting location to the image. Therefore, the existing street view creation requires expensive LiDAR and GPS measuring devices, and there is a disadvantage in that it takes a lot of time and money for the post-shooting editing work.
본 발명의 실시 예가 이루고자 하는 기술적 과제는, 고가의 장비없이 동영상 촬영으로 디지털트윈공간 기반 동영상을 생성하고 이를 이용하여 공간정보를 제공할 수 있는 방법 및 그 장치를 제공하는 데 있다.The technical problem to be achieved by an embodiment of the present invention is to provide a method and device for generating a digital twin space-based video by shooting a video without expensive equipment and providing spatial information using the same.
상기의 기술적 과제를 달성하기 위한, 본 발명의 실시 예에 따른 공간정보 제공 방법의 일 예는, 지도 내 동영상 촬영 경로의 시점 및 종점을 동영상의 시작위치 및 종료위치와 각각 맵핑한 맵핑데이터를 저장하는 단계; 및 상기 지도에서 상기 동영상 촬영 경로 내 선택위치를 입력받으면, 상기 맵핑데이터를 참조하여 상기 선택위치에 해당하는 동영상의 재생시점을 파악하는 단계; 및 상기 동영상의 재생시점의 프레임을 표시하는 단계;를 포함한다.In order to achieve the above technical task, an example of a method for providing spatial information according to an embodiment of the present invention includes the steps of: storing mapping data in which a starting point and an ending point of a video shooting route within a map are mapped to a starting point and an ending point of the video, respectively; and, when a selected point within the video shooting route is input on the map, identifying a playback point of the video corresponding to the selected point by referring to the mapping data; and, displaying a frame of the playback point of the video.
상기의 기술적 과제를 달성하기 위한, 본 발명의 실시 예에 따른 공간저오 제공 장치의 일 예는, 지도 내 동영상 촬영 경로의 시점 및 종점을 동영상의 시작위치 및 종료위치와 각각 맵핑한 맵핑데이터를 저장하는 맵핑부; 상기 지도에서 상기 동영상 촬영 경로 내 선택위치를 입력받으면, 상기 맵핑데이터를 참조하여 상기 선택위치에 해당하는 동영상의 재생시점을 파악하는 재생시점파악부; 및 상기 동영상의 재생시점의 프레임을 표시하는 표시부;를 포함한다.In order to achieve the above technical task, an example of a space-time providing device according to an embodiment of the present invention includes: a mapping unit that stores mapping data in which a starting point and an ending point of a video shooting route within a map are mapped to a starting point and an ending point of the video, respectively; a playback point identification unit that, when a selected point within the video shooting route is input on the map, identifies a playback point of the video corresponding to the selected point by referring to the mapping data; and a display unit that displays a frame of the playback point of the video.
본 발명의 실시 예에 따르면, 동영상과 지도를 맵핑하여 거리뷰를 제공할 수 있다. 지도와 맵핑된 동영상은 디지털트윈공간처럼 활용되거나 GIS(Geographic Information System) 데이터로 사용될 수 있다. 다른 실시 예로, 실외뿐만 아니라 실내 공간에서의 거리뷰를 제공할 수 있으며 실내와 실외 사이를 오갈 때 끊김없는 연속 거리뷰를 제공할 수 있다. According to an embodiment of the present invention, a street view can be provided by mapping a video and a map. The video mapped with the map can be utilized as a digital twin space or used as GIS (Geographic Information System) data. In another embodiment, a street view can be provided in an indoor space as well as an outdoor space, and a continuous street view without interruption can be provided when moving between indoors and outdoors.
도 1은 본 발명의 실시 예에 따른 공간정보 제공장치의 일 예를 도시한 도면,
도 2는 본 발명의 실시 예에 따른 공간정보 제공방법의 일 예를 도시한 흐름도,
도 3은 본 발명의 실시 예에 따른 맵핑데이터를 생성하는 방법의 일 예를 도시한 도면,
도 4는 본 발명의 실시 예에 따른 동영상 재생시점을 파악하는 방법의 일 예를 도시한 도면,
도 5는 본 발명의 실시 예에 따른 복수의 맵핑데이터가 존재하는 예를 도시한 도면,
도 6 및 도 7은 본 발명의 실시 예에 따른 건물 내 동영상을 표시하는 방법의 일 예를 도시한 도면,
도 8은 본 발명의 실시 예에 따른 동영상 재생 중 주소정보를 맵핑하여 표시하는 방법의 일 예를 도시한 도면, 그리고,
도 9는 본 발명의 실시 예에 따른 공간정보 제공장치의 일 예의 구성을 도시한 도면이다.Figure 1 is a drawing showing an example of a spatial information providing device according to an embodiment of the present invention.
Figure 2 is a flow chart illustrating an example of a method for providing spatial information according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating an example of a method for generating mapping data according to an embodiment of the present invention.
FIG. 4 is a drawing illustrating an example of a method for determining a video playback time according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating an example in which multiple mapping data exist according to an embodiment of the present invention.
FIG. 6 and FIG. 7 are diagrams illustrating an example of a method for displaying a video in a building according to an embodiment of the present invention.
FIG. 8 is a drawing illustrating an example of a method for mapping and displaying address information during video playback according to an embodiment of the present invention, and
FIG. 9 is a diagram illustrating the configuration of an example of a spatial information providing device according to an embodiment of the present invention.
이하에서, 첨부된 도면들을 참조하여 본 발명의 실시 예에 따른 디지털트윈공간 기반 동영상을 이용한 공간정보 제공방법 및 그 장치에 대하여 상세히 살펴본다.Hereinafter, a method for providing spatial information using a digital twin space-based video according to an embodiment of the present invention and a device therefor will be described in detail with reference to the attached drawings.
도 1은 본 발명의 실시 예에 따른 공간정보 제공장치의 일 예를 도시한 도면이다.FIG. 1 is a drawing illustrating an example of a spatial information providing device according to an embodiment of the present invention.
도 1을 참조하면, 공간정보 제공장치(100)는 지도와 동영상 사이의 관계를 나타내는 맵핑데이터(110)를 기반으로 지도와 동영상을 맵핑하여 표시한다.Referring to FIG. 1, a spatial information providing device (100) displays a map and a video by mapping them based on mapping data (110) indicating a relationship between the map and the video.
동영상은 카메라를 통해 촬영한 영상이다. 일 실시 예로, 동영상은 360도 카메라를 촬영된 영상일 수 있다. 또한, 동영상은 일반 거리뷰처럼 실외의 거리를 이동하면서 촬영한 영상이거나 건물 내 각층을 이동하면서 촬영한 영상 또는 건물 내 각종 구조물을 촬영한 영상일 수 있다.A video is a video shot by a camera. In one embodiment, the video may be a video shot by a 360-degree camera. In addition, the video may be a video shot while moving along an outdoor street like a general street view, a video shot while moving through each floor of a building, or a video shot of various structures within a building.
지도는 2차원 지도 또는 3차원 지도일 수 있다. 다만 이하의 실시 예에서는 2차원 지도를 기반으로 설명한다. 지도는 지도 내 각 지점이나 건물 또는 거리 등의 위치를 나타내는 GPS(Global Positioning System) 정보 또는 위경도 정보를 포함할 수 있다. The map may be a two-dimensional map or a three-dimensional map. However, the following examples will be described based on a two-dimensional map. The map may include GPS (Global Positioning System) information or latitude/longitude information indicating the location of each point, building, or street within the map.
공간정보 제공장치(100)는 지도와 동영상을 각 화면(120,130)에 표시할 수 있다. 예를 들어, 공간정보 제공장치(100)는 화면1(120)에 지도를 표시하고, 화면2(130)에 동영상을 표시할 수 있다. 화면1(120)과 화면2(130)는 서로 다른 디스플레이에서 표시되거나 하나의 디스플레이에서 화면을 분할하여 표시될 수 있다. 다른 실시 예로, 공간정보 제공장치(100)는 화면1(120)과 화면2(130)의 크기를 다양하게 조정 가능하다. 또 다른 실시 예로, 공간정보 제공장치(100)는 화면1(120) 또는 화면2(130) 중 어느 하나만을 선택적으로 표시할 수도 있다.The spatial information providing device (100) can display a map and a video on each screen (120, 130). For example, the spatial information providing device (100) can display a map on screen 1 (120) and a video on screen 2 (130). Screen 1 (120) and screen 2 (130) can be displayed on different displays or can be displayed by splitting the screens on one display. In another embodiment, the spatial information providing device (100) can adjust the sizes of screen 1 (120) and screen 2 (130) in various ways. In another embodiment, the spatial information providing device (100) can selectively display only one of screen 1 (120) or screen 2 (130).
공간정보 제공장치(100)는 지도 내 특정 위치에 해당하는 동영상 프레임을 검색하여 표시할 수 있다. 또는 공간정보 제공장치(100)는 지도 내 일정 구간에 해당하는 복수의 동영상 프레임을 연속하여 재생할 수 있다. 이를 위하여 지도의 각 지점과 동영상의 각 재생시점 사이의 관계를 정의한 맵핑데이터(110)가 필요하다. 맵핑데이터의 생성 방법에 대해서는 도 3에서 다시 살펴본다. The spatial information providing device (100) can search for and display a video frame corresponding to a specific location in the map. Or, the spatial information providing device (100) can continuously play a plurality of video frames corresponding to a certain section in the map. To this end, mapping data (110) that defines the relationship between each point on the map and each playback point of the video is required. The method of generating the mapping data will be examined again in FIG. 3.
도 2는 본 발명의 실시 예에 따른 공간정보 제공방법의 일 예를 도시한 흐름도이다.FIG. 2 is a flowchart illustrating an example of a method for providing spatial information according to an embodiment of the present invention.
도 2를 참조하면, 공간정보 제공장치(100)는 지도와 동영상 사이의 관계를 맵핑한 맵핑데이터(110)를 생성한다(S200). 예를 들어, 공간정보 제공장치(100)는 지도 내 동영상 촬영 경로의 시점 및 종점을 동영상의 시작위치 및 종료위치와 각각 맵핑한 맵핑데이터를 생성하여 저장한다. 여기서, 동영상 촬영 경로는 사용자가 동영상을 촬영하면서 이동한 경로를 의미한다. 맵핑데이터(110)를 생성하는 방법의 일 예가 도 3에 도시되어 있다.Referring to FIG. 2, the spatial information providing device (100) generates mapping data (110) that maps the relationship between the map and the video (S200). For example, the spatial information providing device (100) generates and stores mapping data that maps the starting point and the ending point of the video shooting path within the map to the starting position and the ending position of the video, respectively. Here, the video shooting path means the path that the user moved while shooting the video. An example of a method for generating mapping data (110) is illustrated in FIG. 3.
공간정보 제공장치(100)는 지도에서 동영상 촬영 경로 내 선택위치를 입력받으면, 맵핑데이터(110)를 참조하여 선택위치에 해당하는 동영상의 재생시점을 파악한다(S210). 재생시점을 파악하는 구체적인 방법의 예가 도 4에 도시되어 있다. 다른 실시 예로, 서로 다른 지역에서 촬영된 복수의 동영상이 존재하는 경우에는 복수의 동영상과 복수의 동영상 촬영 경로가 존재하고, 복수의 맵핑데이터가 존재한다. 복수의 맵핑데이터가 존재하는 경우에 동영상 재생시점을 파악하는 방법에 대해서는 도 5에서 다시 살펴본다.When the spatial information providing device (100) receives a selection location within a video shooting route on a map, it identifies the playback time of the video corresponding to the selection location by referring to the mapping data (110) (S210). An example of a specific method for identifying the playback time is illustrated in FIG. 4. In another embodiment, when there are multiple videos shot in different areas, there are multiple videos and multiple video shooting routes, and there are multiple mapping data. The method for identifying the video playback time when there are multiple mapping data will be examined again in FIG. 5.
공간정보 제공장치(100)는 파악된 재생시점의 동영상 프레임을 표시한다(S220). 일 실시 예로, 공간정보 제공장치(100)는 파악된 재생시점에 해당하는 하나의 동영상 프레임(예를 들어, 정지영상)을 표시할 수 있다. 다른 실시 예로, 공간정보 제공장치(100)는 파악된 재생시점의 전후의 일정 개수의 동영상 프레임들(예를 들어, 1초 구간의 동영상)을 연속하여 표시할 수 있다. 또 다른 실시 예로, 공간정보 제공장치(100)가 표시하는 동영상 프레임은 건물 내의 각 층 또는 건물 내 구조물을 촬영한 영상일 수 있다. 건물 등의 구조물 내 동영상을 표시하는 방법에 대해서는 도 6 및 도 7에서 다시 살펴본다.The spatial information providing device (100) displays a video frame of the identified playback point (S220). As an example, the spatial information providing device (100) may display one video frame (e.g., a still image) corresponding to the identified playback point. As another example, the spatial information providing device (100) may sequentially display a certain number of video frames (e.g., a 1-second video section) before and after the identified playback point. As another example, the video frame displayed by the spatial information providing device (100) may be a video captured of each floor in a building or a structure in a building. A method of displaying a video inside a structure such as a building will be discussed again with reference to FIGS. 6 and 7.
도 3은 본 발명의 실시 예에 따른 맵핑데이터를 생성하는 방법의 일 예를 도시한 도면이다.FIG. 3 is a diagram illustrating an example of a method for generating mapping data according to an embodiment of the present invention.
도 3을 참조하면, 공간정보 제공장치(100)는 동영상(310)을 촬영한 지역의 지도(300)를 로딩하여 표시한다. 예를 들어, 공간정보 제공장치(100)는 도 1의 화면1(120)에 지도를 표시한다. 공간정보 제공장치(100)는 사용자로부터 지도(300) 내 동영상 촬영 경로(320)를 입력받는다. 카메라를 이용하여 S 지점부터 E 지점까지 이동하면서 거리를 촬영하였다면, 사용자는 지도(300)에서 S 지점부터 E 지점까지를 동영상 촬영 경로(320)로 표시한다. 공간정보 제공장치(100)는 사용자가 지도(300)에서 동영상 촬영 경로(320)를 표시할 수 있는 다양한 종류의 화면 인터페이스를 제공할 수 있다. 본 실시 예는 동영상 촬영 경로가 건물 외부의 거리인 경우를 도시하고 있으나, 실시 예에 따라 동영상 촬영 경로는 건물 내의 이동 경로이거나, 또는 건물 안과 밖으로 이어지는 경로일 수 있다. 이 외에도 동영상 촬영 경로는 동영상을 촬영하는 이동 경로에 따라 다양한 형태로 표시될 수 있다. Referring to FIG. 3, the spatial information providing device (100) loads and displays a map (300) of an area where a video (310) was shot. For example, the spatial information providing device (100) displays a map on screen 1 (120) of FIG. 1. The spatial information providing device (100) receives a video shooting route (320) in the map (300) from the user. If the distance was shot while moving from point S to point E using a camera, the user displays the distance from point S to point E as a video shooting route (320) on the map (300). The spatial information providing device (100) may provide various types of screen interfaces through which the user may display the video shooting route (320) on the map (300). The present embodiment illustrates a case where the video shooting route is a street outside a building, but depending on the embodiment, the video shooting route may be a moving route within a building or a route connecting the inside and the outside of the building. In addition to this, the video shooting path can be displayed in various forms depending on the movement path while shooting the video.
공간정보 제공장치(100)는 동영상 촬영 경로(320)의 시점(S) 및 종점(E)을 각각 동영상(310)의 시작위치(ts) 및 종료위치(te)에 맵핑한 맵핑데이터(110)를 생성한다. 예를 들어, 맵핑데이터(110)는 (S,ts), (E,te)와 같이 지도의 각 지점과 동영상(310)의 각 재생시점을 쌍으로 포함하는 데이터셋으로 구성할 수 있다. 맵핑데이터(110)에 저장되는 지도(300)의 각 지점의 정보는 GPS 정보이거나 위경도 정보 또는 지도 내 각 지점을 구분할 수 있는 정보 등 다양한 형태일 수 있으며, 특정 형태로 한정되는 것은 아니다. 동영상 촬영 때 동영상 촬영 경로(320)를 이동하는 시간이 일정하다면 맵핑데이터(110)는 (S,ts), (E,te)의 데이터로만 구성될 수 있다. 맵핑데이터(110)는 텍스트 파일 형태로 구현될 수 있다. The spatial information providing device (100) generates mapping data (110) that maps the starting point (S) and the ending point (E) of the video shooting path (320) to the starting position (t s ) and the ending position (t e ) of the video (310), respectively. For example, the mapping data (110) may be configured as a dataset that includes each point of the map and each playback point of the video (310) as a pair, such as (S,t s ) and (E,t e ). The information of each point of the map (300) stored in the mapping data (110) may be in various forms, such as GPS information, latitude and longitude information, or information that can distinguish each point in the map, and is not limited to a specific form. If the time taken to move along the video shooting path (320) when shooting a video is constant, the mapping data (110) may be configured only with data of (S,ts) and (E,te). The mapping data (110) may be implemented in the form of a text file.
다른 실시 예로, 지도(300)와 동영상(310) 사이의 보다 정밀한 맵핑을 위하여 공간정보 제공장치(100)는 동영상 촬영 경로(320) 내 복수의 중간지점(P1,P2,PN)과 동영상(310) 내 복수의 중간 재생시점(t1,t2,tN) 사이의 관계를 더 포함하는 맵핑데이터(110)를 생성할 수 있다. 예를 들어, 공간정보 제공장치(100)는 동영상 촬영 경로(320) 내 복수의 중간지점(P1,P2,PN)에 해당하는 동영상(310)의 중간 재생시점(t1,t2,tN)을 파악하고, 중간지점(P1,P2,PN)과 중간 재생시점(t1,t2,tN)의 쌍으로 구성되는 맵핑데이터(110)를 생성할 수 있다. 즉, 맵핑데이터(110)는 (S,ts), (E,te)와 함께 (P1,t1), (P2,t2),..., (PN,tN)을 포함할 수 있다. In another embodiment, for more precise mapping between the map (300) and the video (310), the spatial information providing device (100) may generate mapping data (110) that further includes relationships between a plurality of intermediate points (P 1 , P 2 , P N ) within the video shooting path (320) and a plurality of intermediate playback points (t 1 , t 2 , t N ) within the video (310). For example, the spatial information providing device (100) may identify intermediate playback points (t 1 , t 2 , t N ) of the video (310) corresponding to a plurality of intermediate points (P 1 , P 2 , P N ) within the video shooting path (320), and generate mapping data (110) composed of pairs of intermediate points (P 1 , P 2 , P N ) and intermediate playback points (t 1 , t 2 , t N ). That is, the mapping data (110) may include (P 1 ,t 1 ), (P 2 ,t 2 ),..., (P N ,t N ) along with (S,t s ), (E,t e ).
중간지점(P1,P2,PN)과 중간 재생시점(t1,t2,tN)의 쌍은 사용자에 의해 만들어질 수 있다. 예를 들어, 공간정보 제공장치(100)는 도 1의 화면1(120)에 지도를 표시하고 화면2(130)에 동영상을 표시한다. 사용자는 화면2(130)를 통해 동영상을 재생하면서 특정 재생시점(t1,t2,tN)을 선택하고, 화면1(120)의 지도에서 특정 재생시점(t1,t2,tN)에 해당하는 중간지점(P1,P2,PN)을 선택한다. 공간정보 제공장치(100)는 화면1(120)에서 선택된 중간지점(P1,P2,PN)과 화면2(130)에서 선택된 재생시점(t1,t2,tN)을 각각 맵핑하여 맵핑데이터(110)를 생성하고 저장한다. 이 외에도 동영상(310)의 복수의 재생시점과 지도(300) 내 동영상 촬영 지점을 맵핑하는 다양한 방법이 본 실시 예에 적용될 수 있다. 맵핑데이터(110)를 통해 동영상은 지도의 공간좌표(즉, 지도 내 각 지점)와 맵핑되므로 동영상을 디지털트윈으로 활용할 수 있다. 즉, 디지털트윈 기반 동영상의 생성이 가능하다. A pair of intermediate points (P 1 , P 2 , P N ) and intermediate playback points (t 1 , t 2 , t N ) can be created by the user. For example, the spatial information providing device (100) displays a map on screen 1 (120) of FIG. 1 and displays a video on screen 2 (130). The user selects a specific playback point (t 1 , t 2 , t N ) while playing the video through screen 2 (130), and selects an intermediate point (P 1 , P 2 , P N ) corresponding to the specific playback point (t 1 , t 2 , t N ) on the map of screen 1 (120). The spatial information providing device (100) generates and stores mapping data (110) by mapping the midpoints (P 1 , P 2 , P N ) selected on screen 1 (120) and the playback points (t 1 , t 2 , t N ) selected on screen 2 (130), respectively. In addition, various methods of mapping multiple playback points of a video (310) and video shooting points within a map (300) may be applied to this embodiment. Since the video is mapped to the spatial coordinates of the map (i.e., each point within the map) through the mapping data (110), the video can be utilized as a digital twin. In other words, the creation of a digital twin-based video is possible.
도 4는 본 발명의 실시 예에 따른 동영상 재생시점을 파악하는 방법의 일 예를 도시한 도면이다.FIG. 4 is a drawing illustrating an example of a method for determining a video playback time according to an embodiment of the present invention.
도 4를 참조하면, 공간정보 제공장치(100)는 동영상 촬영 경로(도 3의 320) 내 선택위치(420)를 입력받는다. 예를 들어, 사용자는 P1과 P2 지점 사이의 특정 지점을 클릭하여 선택위치(420)를 입력할 수 있다. 일 실시 예로, 공간정보 제공장치(100)는 동영상 촬영 경로(320)를 지도에 중첩하여 표시하고, 표시된 촬영 경로(320) 상에서 특정 지점을 선택위치(420)로 입력받을 수 있다.Referring to FIG. 4, the spatial information providing device (100) receives a selection location (420) within a video shooting path (320 of FIG. 3). For example, a user may input a selection location (420) by clicking a specific point between points P 1 and P 2. In one embodiment, the spatial information providing device (100) may display the video shooting path (320) by overlaying it on a map, and receive a specific point on the displayed shooting path (320) as a selection location (420).
공간정보 제공장치(100)는 선택위치(420)를 기준으로 인접한 중간지점을 파악한다. 예를 들어, 선택위치(420)가 지도의 동영상 촬영 경로(320) 내 P1과 P2 사이에 위치하면, 공간정보 제공장치(100)는 맵핑데이터(110)를 참조하여 인접 중간지점으로 P1 및 P2를 파악한다. 또한 공간정보 제공장치(100)는 인접 중간지점에 각각 해당하는 동영상 재생시점(t1,t2)을 맵핑데이터(110)를 이용하여 파악한다. The spatial information providing device (100) identifies adjacent intermediate points based on the selected location (420). For example, if the selected location (420) is located between P 1 and P 2 within the video shooting path (320) of the map, the spatial information providing device (100) identifies P 1 and P 2 as adjacent intermediate points by referring to the mapping data (110). In addition, the spatial information providing device (100) identifies the video playback time points (t 1 , t 2 ) corresponding to each adjacent intermediate point by using the mapping data (110).
공간정보 제공장치(100)는 P1과 P2 사이의 거리(410)(즉, P2-P1)와 P1(또는 P2)과 선택위치(420) 사이의 거리(즉, L-P1)의 비율(즉, (L-P1)/(P2-P1))을 파악한다. 다시 말해, 공간정보 제공장치(100)는 P1과 P2 사이에서 선택위치(420)의 상대적 위치를 파악한다. The spatial information providing device (100) determines the ratio (i.e., (LP 1 )/(P 2 -P 1 )) of the distance (410) between P 1 and P 2 (i.e., P 2 -P 1 ) and the distance (i.e., LP 1 ) between P 1 (or P 2 ) and the selected location (420). In other words, the spatial information providing device (100) determines the relative position of the selected location (420) between P 1 and P 2 .
공간정보 제공장치(100)는 선택위치(420)의 거리 비율(즉, 상대적 위치)를 t1~t2 구간의 동영상(400)에 적용하여 선택위치(420)에 해당하는 재생시점(430)을 파악한다. 다시 말해, 공간정보 제공장치(100)는 P1~P2 간격(410)에 해당하는 t1~t2 구간의 동영상(400)에 거리 비율을 곱하여(즉, tL=(t2-t1)*{(L-P1)/(P2-P1)}) 재생시점(430)을 구할 수 있다.The spatial information providing device (100) applies the distance ratio (i.e., relative position) of the selected position (420) to the video (400) in the section t 1 to t 2 to determine the playback time (430) corresponding to the selected position (420). In other words, the spatial information providing device (100) can obtain the playback time (430) by multiplying the video (400) in the section t 1 to t 2 corresponding to the interval P 1 to P 2 (410) by the distance ratio (i.e., t L = (t 2 -t 1 )*{(LP 1 )/(P 2 -P 1 )}).
다른 실시 예로, 공간정보 제공장치(100)는 선택위치(420)에 대한 동영상의 재생시점(430)이 파악되면, 지도의 이전 위치에 해당하는 동영상의 이전 재생시점부터 현 선택위치(430)에 해당하는 현 재생시점(430)까지의 동영상을 연속하여 재생할 수 있다. 예를 들어, 이전 위치가 P1 지점이었다면, 공간정보 제공장치(100)는 P1에 해당하는 동영상의 t1 시점부터 선택위치(420)에 해당하는 tL 시점까지의 동영상을 연속하여 재생할 수 있다. 즉, 사용자가 지도 상의 특정 거리의 거리뷰를 볼 때 두 지점 사이의 거리의 모습을 자연스러운 동영상으로 표시할 수 있다.In another embodiment, when the playback time (430) of the video for the selected location (420) is identified, the spatial information providing device (100) can continuously play the video from the previous playback time of the video corresponding to the previous location of the map to the current playback time (430) corresponding to the current selected location (430). For example, if the previous location was point P 1 , the spatial information providing device (100) can continuously play the video from the time point t 1 of the video corresponding to P 1 to the time point t L corresponding to the selected location (420). That is, when a user views a street view of a specific street on the map, the distance between two points can be displayed as a natural video.
또 다른 실시 예로, 공간정보 제공장치(100)는 기 정의된 이동 거리(예를 들어, 5m 등)를 나타내는 이동 명령을 입력받으면 해당 이동 거리만큼 이동한 위치를 지도에 현 위치(즉, 선택위치)로 표시하고, 그 선택위치에 해당하는 동영상 재생시점을 본 실시 예를 통해 파악할 수 있다. 예를 들어, 마우스의 왼쪽 버튼을 이동 명령 버튼으로 정의하여 사용할 수 있다. 이 외에도 지도 내에서 이동명령을 입력받는 다양한 사용자 인터페이스가 본 실시 예에 적용될 수 있다.In another embodiment, when the spatial information providing device (100) receives a movement command indicating a predefined movement distance (e.g., 5 m, etc.), it displays the location moved by the corresponding movement distance as the current location (i.e., the selected location) on the map, and the video playback time corresponding to the selected location can be identified through this embodiment. For example, the left button of the mouse can be defined as a movement command button and used. In addition, various user interfaces for receiving movement commands within the map can be applied to this embodiment.
또 다른 실시 예로, 사용자는 동영상 표시 화면 내에서 이동 명령을 입력할 수 있다. 예를 들어, 도 1의 화면2(130)의 동영상 표시 화면 내에서 사용자가 특정 위치(예를 들어, 화면 내 상측 부분)을 클릭하면, 공간정보 제공장치(100)는 기 정의된 이동 거리를 이동하는 동작을 수행할 수 있다. 공간정보 제공장치(100)는 지도에 해당 이동 거리만큼 이동한 위치를 현 위치(즉, 선택위치)로 표시하고, 그 선택위치에 해당하는 동영상의 재생시점을 파악하여 표시할 수 있다.In another embodiment, the user may input a movement command within the video display screen. For example, if the user clicks a specific location (e.g., the upper part of the screen) within the video display screen of screen 2 (130) of Fig. 1, the spatial information providing device (100) may perform an operation of moving a predefined movement distance. The spatial information providing device (100) may display a location moved by the corresponding movement distance on the map as the current location (i.e., the selected location) and may identify and display the playback time of the video corresponding to the selected location.
도 5는 본 발명의 실시 예에 따른 복수의 맵핑데이터가 존재하는 예를 도시한 도면이다.FIG. 5 is a diagram illustrating an example in which there are multiple mapping data according to an embodiment of the present invention.
도 5를 참조하면, 지도 내 다양한 지역 또는 건물 내 각 층 등을 촬영한 복수의 동영상 파일이 존재할 수 있다. 공간정보 제공장치(100)는 각 동영상(520)과 각 동영상 촬영 경로(500)를 맵핑한 맵핑데이터(510)를 생성한다. 예를 들어, 공간정보 제공장치(100)는 제1 동영상과 지도 내 제1 동영상 촬영 경로를 맵핑한 제1 맵핑데이터를 생성하고, 제2 동영상과 지도 내 제2 동영상 촬영 경로를 맵핑한 제2 맵핑데이터를 생성하고, 제N 동영상과 지도 내 제N 동영상 촬영 경로를 맵핑한 제N 맵핑데이터를 생성할 수 있다.Referring to FIG. 5, there may be multiple video files that film various areas in a map or each floor in a building. The spatial information providing device (100) generates mapping data (510) that maps each video (520) and each video shooting path (500). For example, the spatial information providing device (100) may generate first mapping data that maps a first video and the first video shooting path in the map, generate second mapping data that maps a second video and the second video shooting path in the map, and generate Nth mapping data that maps an Nth video and the Nth video shooting path in the map.
지도에서 사용자가 특정 위치를 클릭하면, 공간정보 제공장치(100)는 사용자가 선택한 위치(즉, 선택위치)가 어느 동영상 촬영 경로 내 존재하는지 파악한다. 공간정보 제공장치(100)는 선택위치가 존재하는 동영상 촬영 경로와 맵핑된 맵핑데이터를 로딩한다. 예를 들어, 사용자의 선택위치가 제2 동영상 촬영 경로 내 위치이면, 공간정보 제공장치(100)는 제2 동영상 촬영 경로와 맵핑된 제2 맵핑데이터를 로딩한다. When a user clicks on a specific location on a map, the spatial information providing device (100) determines within which video shooting path the location selected by the user (i.e., the selected location) exists. The spatial information providing device (100) loads mapping data mapped with the video shooting path where the selected location exists. For example, if the user's selected location is within a second video shooting path, the spatial information providing device (100) loads second mapping data mapped with the second video shooting path.
공간정보 제공장치(100)는 로딩한 맵핑데이터를 기반으로 도 4의 방법을 통해 동영상 재생시점을 파악한다. 예를 들어, 제2 맵핑데이터가 로딩되면, 공간정보 제공장치(100)는 제2 맵핑데이터를 기반으로 선택위치에 해당하는 제2 동영상의 재생시점을 파악한다. The spatial information providing device (100) determines the video playback time using the method of Fig. 4 based on the loaded mapping data. For example, when the second mapping data is loaded, the spatial information providing device (100) determines the playback time of the second video corresponding to the selected location based on the second mapping data.
도 6 및 도 7은 본 발명의 실시 예에 따른 건물 내 동영상을 표시하는 방법의 일 예를 도시한 도면이다.FIGS. 6 and 7 are drawings illustrating an example of a method for displaying a video inside a building according to an embodiment of the present invention.
도 6을 참조하면, 동영상 촬영 경로(620)는 건물(610) 밖에서 건물(610) 안으로 이어져 있을 수 있다. 맵핑데이터(110)는 동영상 촬영 경로(620)의 복수의 지점과 동영상의 복수의 재생시점을 도 2의 방법을 통해 맵핑한 데이터를 포함한다. Referring to FIG. 6, the video shooting path (620) may extend from outside the building (610) to inside the building (610). The mapping data (110) includes data that maps multiple points of the video shooting path (620) and multiple playback points of the video using the method of FIG. 2.
사용자가 지도(600)에서 건물(610) 내의 특정 지점을 선택위치(630)로 클릭하면, 공간정보 제공장치(100)는 선택위치(630)에 해당하는 동영상 재생시점을 맵핑데이터(110)를 통해 파악하고 해당 재생시점의 프레임을 표시한다. 동영상 촬영 경로(620)가 건물 안과 밖에 연속으로 이어져 있으므로, 건물 안과 건물 밖의 거리뷰는 끊김없이 연속하여 표시될 수 있다. When a user clicks a specific point within a building (610) on a map (600) as a selection location (630), the spatial information providing device (100) identifies a video playback time corresponding to the selection location (630) through mapping data (110) and displays a frame of the corresponding playback time. Since the video shooting path (620) is continuously connected inside and outside the building, street views inside and outside the building can be displayed continuously without interruption.
도 7을 참조하면, 건물(610) 내의 거리뷰를 제공할 때, 공간정보 제공장치(100)는 건물 내 구조물 리스트(700)를 제공할 수 있다. 구조물 리스트 내 구조물은 비상대피로, 소방시설물 등 실시 예에 따라 다양하게 정의될 수 있다. 사용자가 구조물 리스트(700)에서 특정 구조물을 선택하면, 공간정보 제공장치(100)는 해당 구조물과 맵핑하여 저장된 구조물 동영상(710)을 재생할 수 있다. 예를 들어, 구조물 리스트(700)에서 비상 계단을 선택하면, 공간정보 제공장치(100)는 비상 계단을 촬영한 구조물 동영상(710)과, 해당 비상 계단의 위치를 지도(600)에 함께 표시할 수 있다.Referring to FIG. 7, when providing a street view within a building (610), the spatial information providing device (100) can provide a structure list (700) within the building. The structures within the structure list can be defined in various ways depending on the embodiment, such as an emergency escape route, a firefighting facility, etc. When a user selects a specific structure from the structure list (700), the spatial information providing device (100) can play a structure video (710) that is mapped and stored with the structure. For example, when an emergency staircase is selected from the structure list (700), the spatial information providing device (100) can display a structure video (710) that captures the emergency staircase and the location of the emergency staircase together on a map (600).
또 다른 실시 예로, 공간정보 제공장치(100)는 건물 내 층 리스트를 제공할 수 있다. 예를 들어, 사용자가 층 리스트에서 5층을 선택하면, 공간정보 제공장치(100)는 5층의 동영상 촬영 경로에 해당하는 맵핑데이터와 동영상을 로딩한다. 공간정보 제공장치(100)는 5층의 맵핑데이터 기반으로 지도와 동영상을 맵핑하여 표시할 수 있다. 즉, 본 실시 예는 건물 내 다양한 층의 거리뷰를 제공할 수 있다. In another embodiment, the spatial information providing device (100) can provide a list of floors within a building. For example, if a user selects the 5th floor from the list of floors, the spatial information providing device (100) loads mapping data and a video corresponding to the video shooting path of the 5th floor. The spatial information providing device (100) can map and display a map and a video based on the mapping data of the 5th floor. In other words, the present embodiment can provide a street view of various floors within a building.
도 8은 본 발명의 실시 예에 따른 동영상 재생 중 주소정보를 맵핑하여 표시하는 방법의 일 예를 도시한 도면이다.FIG. 8 is a drawing illustrating an example of a method for mapping and displaying address information during video playback according to an embodiment of the present invention.
도 8을 참조하면, 공간정보 제공장치(100)는 지도 기반으로 동영상의 프레임(800)을 표시할 때 주소정보(810,812)를 중첩하여 표시할 수 있다. 지도는 각 건물이나 거리의 주소정보를 포함한다. 공간정보 제공장치(100)는 지도의 선택위치에 해당하는 동영상 프레임(800)을 표시할 때 해당 선택위치 또는 그 주변의 주소정보를 지도를 통해 파악할 수 있다. 공간정보 제공장치(100)는 지도에서 파악된 주소정보를 동영상 프레임(800)의 표시화면에 중첩하여 표시할 수 있다.Referring to FIG. 8, the spatial information providing device (100) can display address information (810, 812) by overlapping it when displaying a frame (800) of a video based on a map. The map includes address information of each building or street. When displaying a video frame (800) corresponding to a selected location on the map, the spatial information providing device (100) can identify address information of the selected location or its surroundings through the map. The spatial information providing device (100) can display the address information identified from the map by overlapping it on the display screen of the video frame (800).
도 9는 본 발명의 실시 예에 따른 공간정보 제공장치의 일 예의 구성을 도시한 도면이다.FIG. 9 is a diagram illustrating the configuration of an example of a spatial information providing device according to an embodiment of the present invention.
도 9를 참조하면, 공간정보 제공장치(100)는 맵핑부(900), 재생시점파악부(910) 및 표시부(920)를 포함한다. 일 실시 예로, 공간정보 제공장치(100)는 메모리, 프로세서 및 입출력장치를 포함하는 컴퓨팅장치로 구현될 수 있다. 이 경우에 각 구성은 소프트웨어(프로그램)로 구현되어 메모리에 탑재된 후 프로세서에 의해 수행될 수 있다.Referring to Fig. 9, the spatial information providing device (100) includes a mapping unit (900), a playback time determination unit (910), and a display unit (920). As an example, the spatial information providing device (100) may be implemented as a computing device including a memory, a processor, and an input/output device. In this case, each configuration may be implemented as software (program) and loaded into the memory, and then executed by the processor.
맵핑부(900)는 지도 내 동영상 촬영 경로의 시점 및 종점을 동영상의 시작위치 및 종료위치와 각각 맵핑한 맵핑데이터(110)를 저장한다. 맵핑데이터(110)를 생성하는 방법의 예가 도 3에 도시되어 있다. 또한 복수의 동영상에 대한 복수의 동영상 촬영 경로를 지도와 맵핑하여 복수의 맵핑데이터를 생성하는 예가 도 5에 도시되어 있다. The mapping unit (900) stores mapping data (110) that maps the starting and ending points of the video shooting route within the map to the starting and ending positions of the video, respectively. An example of a method for generating mapping data (110) is illustrated in FIG. 3. In addition, an example of generating multiple mapping data by mapping multiple video shooting routes for multiple videos to a map is illustrated in FIG. 5.
재생시점파악부(910)는 지도에서 동영상 촬영 경로 내 선택위치를 입력받으면, 맵핑데이터를 참조하여 선택위치에 해당하는 동영상의 재생시점을 파악한다. 재생시점을 파악하는 방법의 일 예가 도 5에 도시되어 있다. 일 실시 예로, 지도 표시 화면 또는 동영상 표시 화면을 통해 이동명령을 입력받으면, 재생시점파악부(910)는 이동명령에 해당하는 이동 거리만큼 이동한 위치를 선택위치로 파악하고, 그 선택위치에 해당하는 동영상의 재생시점을 파악할 수 있다. 다른 실시 예로, 재생시점파악부(910)는 건물 내 특정 층을 선택받으면 해당 층에 해당하는 동영상 및 맵핑데이터를 로딩한 후 해당 층의 선택위치에 해당하는 동영상 재생시점을 파악할 수 있다.When a selection location within a video shooting route on a map is input, the playback point identification unit (910) identifies the playback point of the video corresponding to the selected location by referring to mapping data. An example of a method for identifying the playback point is illustrated in FIG. 5. In one embodiment, when a movement command is input through a map display screen or a video display screen, the playback point identification unit (910) identifies a location moved by a movement distance corresponding to the movement command as the selection location, and can identify the playback point of the video corresponding to the selected location. In another embodiment, when a specific floor in a building is selected, the playback point identification unit (910) loads the video and mapping data corresponding to the corresponding floor, and can identify the video playback point corresponding to the selected location on the corresponding floor.
표시부(920)는 동영상의 재생시점의 프레임을 표시한다. 표시부는 도 1과 같이 두 개의 화면에 지도와 동영상을 각각 표시할 수 있다. 다른 실시 예로, 표시부(920)는 도 8과 같이 동영상 프레임을 표시할 때 주소 정보를 함께 중첩하여 표시할 수 있다. The display unit (920) displays a frame at the playback point of the video. The display unit can display a map and a video on two screens, as shown in Fig. 1. In another embodiment, the display unit (920) can display address information by overlapping it when displaying a video frame, as shown in Fig. 8.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be implemented as a computer-readable program code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices that store data that can be read by a computer system. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. In addition, the computer-readable recording medium can be distributed to computer systems connected to a network, so that the computer-readable code can be stored and executed in a distributed manner.
이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described with reference to preferred embodiments thereof. Those skilled in the art will appreciate that the present invention may be implemented in modified forms without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative rather than a restrictive perspective. The scope of the present invention is indicated by the claims, not the foregoing description, and all differences within the scope equivalent thereto should be interpreted as being included in the present invention.
Claims (10)
지도 내 동영상 촬영 경로의 시점 및 종점을 동영상의 시작위치 및 종료위치와 각각 맵핑한 맵핑데이터를 저장하는 단계; 및
상기 지도에서 상기 동영상 촬영 경로 내 선택위치를 입력받으면, 상기 맵핑데이터를 참조하여 상기 선택위치에 해당하는 동영상의 재생시점을 파악하는 단계; 및
상기 동영상의 재생시점의 프레임을 표시하는 단계;를 포함하고,
상기 맵핑데이터를 저장하는 단계는,
상기 지도와 상기 동영상을 제1 화면 및 제2 화면에 각각 표시하는 단계;
사용자로부터 상기 제1 화면에 표시된 지도에서 상기 동영상 촬영 경로를 입력받는 단계;
상기 제1 화면에 표시된 상기 동영상 촬영 경로의 시점 및 종점과 상기 제2 화면에 표시된 동영상의 시작위치 및 종료위치를 포함하는 맵핑데이터를 생성하는 단계;
상기 제2 화면에서 상기 동영상을 재생하면서 적어도 하나 이상의 중간 재생시점을 사용자로부터 선택받고, 상기 제1 화면에서 상기 적어도 하나 이상의 중간 재생시점과 맵핑할 적어도 하나 이상의 중간지점을 사용자로부터 선택받은 후, 상기 적어도 하나 이상의 중간 재생시점과 상기 적어도 하나 이상의 중간지점을 쌍으로 포함하는 맵핑데이터를 생성하는 단계;를 포함하는 것을 특징으로 하는 공간정보 제공방법.In a spatial information providing method performed by a spatial information providing device,
A step of storing mapping data that maps the starting and ending points of the video shooting route within the map to the starting and ending positions of the video, respectively; and
A step of determining the playback time of the video corresponding to the selected location by referring to the mapping data when a selected location within the video shooting route is input on the above map; and
A step of displaying a frame at the playback time of the above video is included;
The step of saving the above mapping data is:
A step of displaying the above map and the above video on the first screen and the second screen, respectively;
A step of receiving input from the user of the video shooting route on the map displayed on the first screen;
A step of generating mapping data including the starting point and end point of the video shooting path displayed on the first screen and the starting position and end position of the video displayed on the second screen;
A method for providing spatial information, comprising: a step of: receiving a user's selection of at least one intermediate playback point while playing the video on the second screen; receiving a user's selection of at least one intermediate point to be mapped to the at least one intermediate playback point on the first screen; and generating mapping data including a pair of the at least one intermediate playback point and the at least one intermediate point.
상기 동영상 촬영 경로의 전체 길이에서 상기 시점 또는 상기 종점으로부터 상기 선택위치까지의 거리의 비율을 파악하는 단계; 및
상기 동영상의 전체 재생 시간에 상기 비율을 적용하여 상기 재생시점을 파악하는 단계;를 포함하는 것을 특징으로 하는 공간정보 제공방법.In the first paragraph, the step of determining the playback time is,
A step of determining the ratio of the distance from the starting point or the end point to the selected location in the entire length of the video shooting path; and
A method for providing spatial information, characterized by comprising: a step of determining the playback time by applying the ratio to the total playback time of the video;
상기 맵핑데이터를 저장하는 단계는,
상기 동영상 촬영 경로 내 복수의 중간지점에 해당하는 복수의 동영상 재생시점을 상기 복수의 중간지점과 맵핑하여 저장하는 단계;를 포함하고,
상기 재생시점을 파악하는 단계는,
상기 복수의 중간지점 중 상기 선택위치에 인접한 중간지점을 파악하는 단계;
상기 인접한 중간지점으로부터 상기 선택위치까지의 거리 비율을 파악하는 단계; 및
상기 인접한 중간지점에 해당하는 동영상의 재생시점에 상기 거리 비율을 적용하여 재생시점을 파악하는 단계;를 포함하는 것을 특징으로 하는 공간정보 제공방법.In paragraph 1,
The step of saving the above mapping data is:
A step of storing a plurality of video playback points corresponding to a plurality of intermediate points within the video shooting path by mapping them to the plurality of intermediate points;
The steps to determine the above playback point are:
A step of identifying an intermediate point adjacent to the selected position among the plurality of intermediate points;
A step of determining the distance ratio from the adjacent intermediate point to the selected location; and
A method for providing spatial information, characterized by comprising: a step of determining a playback point by applying the distance ratio to the playback point of a video corresponding to the adjacent intermediate point;
상기 맵핑데이터를 저장하는 단계는,
복수의 동영상을 복수의 동영상 촬영 경로와 맵핑한 복수의 맵핑데이터를 저장하는 단계;를 포함하고,
상기 재생시점을 파악하는 단계는,
상기 선택위치가 속한 동영상 촬영 경로에 해당하는 맵핑데이터를 로딩하는 단계;를 포함하는 것을 특징으로 하는 공간정보 제공방법.In paragraph 1,
The step of saving the above mapping data is:
A step of storing a plurality of mapping data that maps a plurality of videos to a plurality of video shooting paths; comprising;
The steps to determine the above playback point are:
A method for providing spatial information, characterized by comprising: a step of loading mapping data corresponding to a video shooting path to which the above-mentioned selected location belongs.
상기 동영상 촬영 경로는 건물 내의 경로이고,
상기 동영상은 상기 건물 내에서 촬영한 영상인 것을 특징으로 하는 공간정보 제공방법.In paragraph 1,
The above video shooting path is inside the building.
A method for providing spatial information, characterized in that the above video is a video shot inside the above building.
상기 선택위치가 상기 지도 내 건물이면 구조물 리스트를 표시하는 단계; 및
상기 구조물 리스트에서 선택된 구조물에 해당하는 동영상을 재생하는 단계;를 포함하는 것을 특징으로 하는 공간정보 제공방법.In the first paragraph, the step of determining the playback time is,
A step of displaying a list of structures if the above-mentioned selected location is a building within the above-mentioned map; and
A method for providing spatial information, characterized by comprising: a step of playing a video corresponding to a structure selected from the above structure list.
상기 지도 내 주소정보를 상기 프레임에 중첩하여 표시하는 단계;를 포함하는 것을 특징으로 하는 공간정보 제공방법.In the first paragraph, the step of indicating,
A method for providing spatial information, characterized by including a step of displaying address information within the above map by overlapping it on the frame.
상기 프레임을 표시한 화면에서 이동 명령을 수신하면 기 정의된 이동 거리에 해당하는 프레임을 재생하고, 상기 지도에 이동한 위치를 표시하는 단계;를 포함하는 것을 특징으로 하는 공간정보 제공방법.In the first paragraph, the step of indicating,
A method for providing spatial information, characterized by comprising: a step of playing a frame corresponding to a predefined movement distance and displaying the moved location on the map when a movement command is received on a screen displaying the above frame.
상기 지도에서 상기 동영상 촬영 경로 내 선택위치를 입력받으면, 상기 맵핑데이터를 참조하여 상기 선택위치에 해당하는 동영상의 재생시점을 파악하는 재생시점파악부; 및
상기 동영상의 재생시점의 프레임을 표시하는 표시부;를 포함하고,
상기 맵핑부는, 상기 지도와 상기 동영상을 제1 화면 및 제2 화면에 각각 표시하고, 사용자로부터 상기 제1 화면에 표시된 지도에서 상기 동영상 촬영 경로를 입력받고, 상기 제1 화면에 표시된 상기 동영상 촬영 경로의 시점 및 종점과 상기 제2 화면에 표시된 동영상의 시작위치 및 종료위치를 포함하는 맵핑데이터를 생성하고, 상기 제2 화면에서 상기 동영상을 재생하면서 적어도 하나 이상의 중간 재생시점을 사용자로부터 선택받고, 상기 제1 화면에서 상기 적어도 하나 이상의 중간 재생시점과 맵핑할 적어도 하나 이상의 중간지점을 사용자로부터 선택받은 후, 상기 적어도 하나 이상의 중간 재생시점과 상기 적어도 하나 이상의 중간지점을 쌍으로 포함하는 맵핑데이터를 생성하는 것을 특징으로 하는 공간정보 제공장치.A mapping unit that stores mapping data that maps the starting and ending points of a video shooting route within a map to the starting and ending positions of the video, respectively;
When a selection location within the video shooting route on the above map is input, a playback point identification unit that identifies the playback point of the video corresponding to the selection location by referring to the mapping data; and
Including a display section that displays a frame at the playback time of the above video;
The above mapping unit displays the map and the video on the first screen and the second screen, respectively, and receives from the user a video shooting route on the map displayed on the first screen, generates mapping data including a start point and an end point of the video shooting route displayed on the first screen and a start position and an end position of the video displayed on the second screen, receives from the user at least one or more intermediate playback points while playing the video on the second screen, receives from the user at least one or more intermediate points to be mapped to the at least one or more intermediate playback points on the first screen, and then generates mapping data including a pair of the at least one or more intermediate playback points and the at least one or more intermediate points.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020240070349A KR102767908B1 (en) | 2024-05-29 | 2024-05-29 | Method and apparatus for providing spatial information using digital twin based images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020240070349A KR102767908B1 (en) | 2024-05-29 | 2024-05-29 | Method and apparatus for providing spatial information using digital twin based images |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102767908B1 true KR102767908B1 (en) | 2025-02-18 |
Family
ID=94825582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020240070349A Active KR102767908B1 (en) | 2024-05-29 | 2024-05-29 | Method and apparatus for providing spatial information using digital twin based images |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102767908B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN120107866A (en) * | 2025-05-06 | 2025-06-06 | 山东飞鸢空间信息科技有限公司 | A GIS digital twin scene construction method based on video mapping |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090132316A (en) * | 2008-06-20 | 2009-12-30 | 주식회사 케이티 | Video-based spatial information construction system and method |
KR20100004268A (en) * | 2008-07-03 | 2010-01-13 | 팅크웨어(주) | Method and apparatus for playing moving picture using position information in navigation servcie |
KR20150002015A (en) * | 2013-06-28 | 2015-01-07 | 주식회사 코아로직 | Apparatus and method for displaying blackbox video |
KR101603227B1 (en) * | 2014-10-24 | 2016-03-15 | 트라이콤텍 주식회사 | Information providing method for indoor area by using the immersive media's video data based on 360 degree |
KR102107189B1 (en) * | 2019-01-09 | 2020-05-28 | 주식회사 열림정보기술 | System and method for maintenance history and state management of facilities of subway station onto 3D screen |
KR102560340B1 (en) * | 2022-09-27 | 2023-07-27 | (주)더퍼스트아이씨티 | Facility 3D map production system based on digital twin |
KR20240007011A (en) * | 2022-07-07 | 2024-01-16 | (주)백금티앤에이 | A recording system for image and site about drive and A recording method for image and site about drive |
-
2024
- 2024-05-29 KR KR1020240070349A patent/KR102767908B1/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090132316A (en) * | 2008-06-20 | 2009-12-30 | 주식회사 케이티 | Video-based spatial information construction system and method |
KR20100004268A (en) * | 2008-07-03 | 2010-01-13 | 팅크웨어(주) | Method and apparatus for playing moving picture using position information in navigation servcie |
KR20150002015A (en) * | 2013-06-28 | 2015-01-07 | 주식회사 코아로직 | Apparatus and method for displaying blackbox video |
KR101603227B1 (en) * | 2014-10-24 | 2016-03-15 | 트라이콤텍 주식회사 | Information providing method for indoor area by using the immersive media's video data based on 360 degree |
KR102107189B1 (en) * | 2019-01-09 | 2020-05-28 | 주식회사 열림정보기술 | System and method for maintenance history and state management of facilities of subway station onto 3D screen |
KR20240007011A (en) * | 2022-07-07 | 2024-01-16 | (주)백금티앤에이 | A recording system for image and site about drive and A recording method for image and site about drive |
KR102560340B1 (en) * | 2022-09-27 | 2023-07-27 | (주)더퍼스트아이씨티 | Facility 3D map production system based on digital twin |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN120107866A (en) * | 2025-05-06 | 2025-06-06 | 山东飞鸢空间信息科技有限公司 | A GIS digital twin scene construction method based on video mapping |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7110592B2 (en) | Image recording apparatus, image reproducing apparatus and methods therefor | |
US11238652B2 (en) | Presenting integrated building information using building models | |
US9454848B2 (en) | Image enhancement using a multi-dimensional model | |
US20080147325A1 (en) | Method and system for providing augmented reality | |
JP4637889B2 (en) | Virtual space broadcasting device | |
US8831380B2 (en) | Viewing media in the context of street-level images | |
US9367942B2 (en) | Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation | |
JP6180647B2 (en) | Indoor map construction apparatus and method using cloud points | |
KR102767908B1 (en) | Method and apparatus for providing spatial information using digital twin based images | |
KR100489890B1 (en) | Apparatus and Method to Provide Stereo Video or/and Detailed Information of Geographic Objects | |
CN109657172A (en) | Preview picture method, apparatus, equipment and storage medium | |
CN108197619A (en) | A kind of localization method based on signboard image, device, equipment and storage medium | |
US20120262552A1 (en) | City scene video sharing on digital maps | |
JP6985777B1 (en) | Educational service provision methods and equipment using satellite images of artificial intelligence infrastructure | |
US20210098026A1 (en) | Providing context aware video searching | |
US20110214085A1 (en) | Method of user display associated with displaying registered images | |
US9135338B2 (en) | Systems and methods for efficient feature based image and video analysis | |
JP2018029239A (en) | Portable electronic device and program for taking/managing photo | |
WO2025066431A1 (en) | Movement track playback method and apparatus, electronic device and storage medium | |
JP4376340B2 (en) | Curve slider device | |
KR101059601B1 (en) | Method and apparatus for making interactive virtual movie | |
CN111985035A (en) | BIM-based achievement display method and device for campus reduction system and storage medium | |
CN112577488B (en) | Navigation route determining method, navigation route determining device, computer equipment and storage medium | |
CN117710709B (en) | Data acquisition method, device, equipment and storage medium for shadow show | |
KR102805512B1 (en) | Method and apparatus for providing three dimensional digital twin contents in which two dimensional image associated with a specific location is disposed on a corresponding location in the three dimensional digital twin contents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20240529 |
|
PA0201 | Request for examination |
Patent event code: PA02011R01I Patent event date: 20240529 Comment text: Patent Application |
|
PA0302 | Request for accelerated examination |
Patent event date: 20240603 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination |
|
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20240717 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20250121 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20250210 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20250211 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |