[go: up one dir, main page]

KR102249380B1 - System for generating spatial information of CCTV device using reference image information - Google Patents

System for generating spatial information of CCTV device using reference image information Download PDF

Info

Publication number
KR102249380B1
KR102249380B1 KR1020190158146A KR20190158146A KR102249380B1 KR 102249380 B1 KR102249380 B1 KR 102249380B1 KR 1020190158146 A KR1020190158146 A KR 1020190158146A KR 20190158146 A KR20190158146 A KR 20190158146A KR 102249380 B1 KR102249380 B1 KR 102249380B1
Authority
KR
South Korea
Prior art keywords
data
information
cctv
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020190158146A
Other languages
Korean (ko)
Other versions
KR102249380B9 (en
Inventor
박일석
홍승환
최윤조
Original Assignee
주식회사 스트리스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스트리스 filed Critical 주식회사 스트리스
Priority to KR1020190158146A priority Critical patent/KR102249380B1/en
Application granted granted Critical
Publication of KR102249380B1 publication Critical patent/KR102249380B1/en
Publication of KR102249380B9 publication Critical patent/KR102249380B9/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)

Abstract

A spatial information generation system of a CCTV apparatus using reference image information comprises: a reference image database unit which stores reference image data in link with reference geometry information including reference position data and first external geometry data having first posture data defining a view direction set in generating a reference image; a search and selection unit which obtains CCTV geometry information including second external geometry data with at least two dimensional position data in relation to the image data obtained from the CCTV apparatus and which searches for and selects the image data that can be matched with the reference image data by referring to at least the reference position data and the two dimensional position data; a matching unit which mutually matches the reference image data with the selected image data; a geometric transformation unit which generates correction CCTV geometry information including position data for correction with higher accuracy than the two dimensional position data by geometrically transforming the CCTV geometric information of the selected image data by means of geometric transformation modeling referring to the reference image data; and an image information generating unit which generates CCTV image information from the image data of the CCTV apparatus based on the correction CCTV geometry and matching information. The present invention can transform the image data, obtained by the CCTV apparatus, into spatial information with convenience and high precision.

Description

기준 영상 정보를 이용한 CCTV 장치의 공간 정보 생성 시스템{System for generating spatial information of CCTV device using reference image information}System for generating spatial information of CCTV device using reference image information

본 발명은 기준 데이터로서 기 저장된 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 생성 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for generating spatial information of a CCTV device using pre-stored reference image information as reference data.

통신기술, 인프라 기술 및 카메라 기술의 발전으로 CCTV는 많은 장소에 설치되어 사용되고 있으며, 국가 정부, 지자체에서도 CCTV를 교통관리용, 재난재해 대비용, 방범용 등 다양한 목적으로 설치하여 활용하고 있다. With the development of communication technology, infrastructure technology, and camera technology, CCTV has been installed and used in many places, and the national government and local governments are also installing and using CCTV for various purposes such as traffic management, disaster preparedness, and crime prevention.

이에 다량의 CCTV가 많은 지역에 설치되어 사용되고 있으며, CCTV의 주소 정보 또는 경위도 정보들을 함께 관리하여 해당 위치에서의 상황을 모니터링할 수 있다.Accordingly, a large number of CCTVs are installed and used in many areas, and the situation at the corresponding location can be monitored by managing CCTV address information or longitude and latitude information together.

일반적으로 해당 CCTV에 접근하기 위해서는 테이블 형태로 정리되어 있는 데이터베이스에서 주소값 또는 위치값 등 테이블 내 필드값을 통해 해당 CCTV URL에 접근하여 실시간 분석한다.In general, in order to access the CCTV, the CCTV URL is accessed in real time through field values in the table such as address values or location values in a database arranged in a table format and analyzed in real time.

종래 대부분 분석 기술은 영상 정보 기반의 딥러닝, 머신러닝 기술들을 적용하여 CCTV 내 존재하는 사물과 상황을 인식하고 분석하는 기술들에 대한 많은 연구결과들이 있다.Most of the conventional analysis technologies have many research results on technologies for recognizing and analyzing objects and situations existing in CCTV by applying deep learning and machine learning technologies based on image information.

이와 같은 딥러닝, 머신러닝 기술들과 결합된 CCTV 인프라는 스마트도시 프로젝트의 일부로 다양한 시도가 이루어지고 있다.CCTV infrastructure combined with such deep learning and machine learning technologies are being attempted as part of a smart city project.

그러나, CCTV에 관련된 정보들이 데이터 관리 미흡으로 잘못된 정보가 입력되어 있거나 데이터가 유실되어 있는 경우가 있다. However, there are cases in which incorrect information is input or data is lost due to insufficient data management for CCTV-related information.

통상적인 CCTV 표준 데이터는 위치정보의 경우 수 미터에서 수십 미터의 위치 오차를 수반한 경우가 많으며, 또한 일부 CCTV 데이터들은 위치정보가 누락되어 있거나, 위치가 모호하게 기재되어 있는 경우가 많다. Typical CCTV standard data often involve a location error of several meters to tens of meters in the case of location information, and some CCTV data are often missing location information or the location is described in an ambiguous manner.

또한 정밀한 공간정보 분석을 위해서는 CCTV의 방향 정보가 필요하나, 방향 정보가 없다는 문제점이 있으므로, 공간정보와 연계되어 지도 형태로 서비스되는데 한계가 있다. In addition, for precise spatial information analysis, direction information of CCTV is required, but there is a problem in that there is no direction information, so there is a limit to service in the form of a map in connection with spatial information.

이와 같은 한계는 지역적 또는 광역적으로 대상 지역을 유기적으로 분석하는 경우에 있어서 한계가 있으므로, 이에 대한 분석을 위해서는 CCTV 관제센터 등에 실시간으로 화면 영상들을 모니터링하는 요원들이 요구되고, 영상을 분석하기 위한 인프라 비용이 필요하다. 이로 인해, 스마트도시 구현에 장애물로 작용하고 있다.Such limitations are limited in the case of organically analyzing the target area locally or globally. For this analysis, personnel who monitor screen images in real time, such as a CCTV control center, are required, and infrastructure for analyzing images. I need a cost. As a result, it is acting as an obstacle to the realization of a smart city.

한편, CCTV 영상을 통해서 공간정보 서비스를 하기 위해서는 CCTV의 위치 및 자세 정보들이 중요하다. 위치 및 자세 정보는 영상 내에 표출되어 있는 사물들에 대한 지도 상의 위치를 파악하는데 중요한 데이터이다. On the other hand, in order to provide spatial information service through CCTV images, the location and attitude information of the CCTV is important. Location and posture information is important data for grasping the location of objects displayed in an image on a map.

이러한 한계점을 극복하기 위해서는 기준 데이터를 구축하여 CCTV의 위치 및 자세에 대한 보정하고, 보정된 정보를 통해 영상 내에서 검출한 사물들의 공간정보를 추출할 수 있어야 한다. 그러나, CCTV들이 산발적으로 분포되어 있어 기준 데이터를 수집하는 것 역시 많은 인력과 비용이 필요하다. 또한 수집된 기준 데이터를 CCTV 영상 정보와 연결시키기 위해서는 CCTV 영상 내에 기준 데이터의 영상 좌표 위치가 등록되어야 한다. 그러나, 이 작업 역시 인력, 비용이 많이 소모되며, CCTV에 줌,팬,틸트 기능이 활성화되어 있을 경우 정확한 위치 자세 값을 파악하기 어렵다는 단점이 있다. In order to overcome this limitation, it is necessary to construct reference data to correct the position and posture of the CCTV, and to extract spatial information of objects detected in the image through the corrected information. However, because CCTVs are distributed sporadically, collecting reference data also requires a lot of manpower and cost. In addition, in order to connect the collected reference data with CCTV image information, the image coordinate position of the reference data must be registered in the CCTV image. However, this operation also consumes a lot of manpower and cost, and it has the disadvantage that it is difficult to determine the correct position and posture value when the zoom, pan, and tilt functions are activated on the CCTV.

본 발명이 이루고자 하는 기술적 과제는 부정확하거나 일부 지역에서 누락된 위치와 자세 관련 기하 데이터를 갖는 CCTV 장치의 영상 데이터를 관측 센서와 위치 센서 구성된 멀티센서 플랫폼으로부터 생성된 기준 영상 데이터의 기준 영상 정보와 정합하여 기하 변환 등을 수행함으로써, CCTV 장치로 취득한 영상 데이터를 편의성과 높은 정밀도의 공간 정보를 생성하는, 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 생성 시스템 및 방법을 제공하는데 있다. The technical problem to be achieved by the present invention is to match the image data of a CCTV device having geometric data related to position and posture that is incorrect or missing in some areas with the reference image information of the reference image data generated from a multi-sensor platform composed of an observation sensor and a position sensor. The object of the present invention is to provide a system and method for generating spatial information of a CCTV device using reference image information for generating convenient and high-precision spatial information from image data acquired by a CCTV device by performing geometric transformation and the like.

본 발명의 목적은 이상에서 언급된 목적으로 제한되지 않으며, 언급되지 않은 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. The object of the present invention is not limited to the objects mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 이루기 위한 본 발명의 일 양태에 따르면, 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 생성 시스템은기준 위치 데이터와, 기준 영상을 생성하는데 설정된 시야 방향을 정의하는 제 1 자세 데이터를 갖는 제 1 외부 기하 데이터가 포함된 기준 기하 정보와 연계하여 기준 영상 데이터를 저장하는 기준 영상 데이터베이스부와, CCTV 장치로부터 취득한 영상 데이터와 관련되어 적어도 2차원 위치 데이터를 갖는 제 2 외부 기하 데이터가 포함된 CCTV 기하 정보를 획득하고, 적어도 상기 기준 위치 데이터 및 상기 2차원 위치 데이터를 참조하여 상기 기준 영상 데이터와 정합 가능한 상기 영상 데이터를 검색하여 선정하는 검색 선정부와, 상기 기준 영상 데이터와 상기 선정된 영상 데이터 간에 상호 정합하는 정합부와, 상기 기준 영상 데이터를 참조하는 기하 변환 모델링에 의해 상기 선정 영상 데이터의 상기 CCTV 기하 정보를 기하 변환하여 상기 2차원 위치 데이터보다 정확도가 높은 보정용 위치 데이터가 포함되는 보정 CCTV 기하 정보를 생성하는 기하 변환부, 및 상기 보정용 CCTV 기하 정보 및 정합 정보에 기초하여, 상기 CCTV 장치의 영상 데이터로부터 CCTV 영상 정보를 생성하는 영상 정보 생성부를 포함한다. According to an aspect of the present invention for achieving the above technical problem, a system for generating spatial information of a CCTV device using reference image information includes reference position data and first posture data defining a viewing direction set to generate a reference image. 1 CCTV including a reference image database unit that stores reference image data in association with reference geometric information including external geometric data, and second external geometric data having at least two-dimensional position data in relation to the image data acquired from a CCTV device. A search selector for acquiring geometric information and searching for and selecting the image data matchable with the reference image data by referring to at least the reference position data and the 2D position data; and the reference image data and the selected image data A corrected CCTV including a matching unit that matches each other and the position data for correction with higher accuracy than the two-dimensional position data by geometrically converting the CCTV geometric information of the selected image data by geometric transformation modeling referring to the reference image data And a geometric conversion unit that generates geometric information, and an image information generation unit that generates CCTV image information from image data of the CCTV device, based on the correction CCTV geometric information and matching information.

다른 실시예에서, 상기 2차원 위치 데이터는 상기 CCTV 장치의 2차원 좌표 또는 상기 CCTV 장치가 설치된 공간의 명칭을 포함하며, 상기 기준 위치 데이터는 상기 제 1 외부 기하 데이터의 2차원 위치 데이터보다 정확도가 높은 2차원 위치 데이터 또는 3차원 위치 데이터로 구성되고, 상기 기준 위치 데이터가 2차원 위치 데이터인 경우에, 상기 CCTV 영상 정보는 2차원 위치 좌표를 포함하고, 상기 기준 위치 데이터가 3차원 위치 데이터인 경우에, 상기 CCTV 영상 정보는 3차원 위치 좌표를 포함할 수 있다. In another embodiment, the two-dimensional position data includes a two-dimensional coordinate of the CCTV device or a name of a space in which the CCTV device is installed, and the reference position data is more accurate than the two-dimensional position data of the first external geometric data. When it is composed of high 2D position data or 3D position data, and the reference position data is 2D position data, the CCTV image information includes 2D position coordinates, and the reference position data is 3D position data. In some cases, the CCTV image information may include 3D position coordinates.

또 다른 실시예에서, 상기 제 2 외부 기하 데이터는 상기 영상을 생성하는데 설정된 시야 방향을 정의하는 제 2 자세 데이터를 더 포함하고, 상기 검색 선정부는 상기 기준 위치 데이터 및 상기 2차원 위치 데이터에 기초하여 상기 기준 영상 데이터와 대비가능한 상기 영상 데이터의 후보군을 검색하고, 상기 제 1 및 제 2 자세 데이터를 참조하여 상기 후보군 중 상기 기준 영상 데이터와 최고의 정합도를 갖는 상기 영상 데이터를 선정할 수 있다. In another embodiment, the second external geometric data further includes second posture data defining a viewing direction set to generate the image, and the search selection unit is based on the reference position data and the 2D position data. A candidate group of the image data that can be contrasted with the reference image data may be searched, and the image data having the highest degree of matching with the reference image data may be selected from among the candidate groups by referring to the first and second posture data.

여기서, 상기 기준 기하 정보는 상기 기준 영상을 생성하는데 설정된 센서에 정의된 기하 파라미터에 근거한 제 1 내부 기하 데이터를 더 포함하며, 상기 CCTV 기하 정보는 상기 영상을 생성하는데 설정된 영상 센서에 정의된 기하 파라미터에 근거한 제 2 내부 기하 데이터를 더 포함하고, 상기 검색 선정부에서의 상기 최고의 정합도를 갖는 상기 영상 데이터의 선정 및 상기 기하 변환부에서의 상기 CCTV 기하 정보로의 보정은 상기 제 1 및 제 2 내부 기하 데이터를 더 포함하여 참조할 수 있다. Here, the reference geometric information further includes first internal geometric data based on a geometric parameter defined in a sensor set to generate the reference image, and the CCTV geometric information is a geometric parameter defined in an image sensor set to generate the image. It further includes second internal geometric data based on, and the selection of the image data having the highest degree of matching by the search selection unit and correction of the CCTV geometric information in the geometric conversion unit are performed by the first and second Internal geometric data may be further included for reference.

또 다른 실시예에서, 상기 기준 영상 데이터는 영상 촬영 센서 및 레이저 스캔닝 센서 중 적어도 어느 하나와 측위 센서를 구비하는 외부 이동형 플랫폼으로부터 획득된 영상 정보 및 포인트 클라우드 정보를 상기 센서들 간의 기하 모델을 통해 정합하고 보정하여 융합된 외부 영상 데이터, 혹은, 상기 보정용 CCTV 기하 정보로 보정되어 CCTV 영상 정보로 이미 저장된 보정 영상 데이터일 수 있다. In another embodiment, the reference image data is obtained from an external mobile platform having at least one of an image capturing sensor and a laser scanning sensor and a positioning sensor, through a geometric model between the sensors. It may be external image data that is matched and corrected to be fused, or corrected image data that has been corrected with the CCTV geometric information for correction and has already been stored as CCTV image information.

또 다른 실시예에서, 상기 기준 영상 및 상기 영상 데이터 중 적어도 어느 하나가 왜곡 영상을 발생하는 광역 영상 센서로부터 획득되는 경우에, 상기 왜곡 영상이 발생된 상기 기준 영상 및 상기 영상 데이터는 상기 왜곡 영상이 평면 영상으로 변환된 평면 영상 데이터를 이용하며, 상기 기준 영상이 상기 평면 영상 데이터를 이용하는 경우에, 상기 제 1 자세 데이터는 상기 평면 영상 데이터의 시야 방향으로 정의될 수 있다.In another embodiment, when at least one of the reference image and the image data is obtained from a wide area image sensor that generates a distortion image, the reference image and the image data in which the distortion image is generated are the distorted image When planar image data converted into a planar image is used and the reference image uses the planar image data, the first posture data may be defined as a viewing direction of the planar image data.

또 다른 실시예에서, 상기 기준 영상이 레이저 스캔닝 센서로부터 기인하는 경우에, 상기 기준 영상은 상기 레이저 스캔닝 센서로부터 획득되는 포인트 클라우드가 변환된 가상의 영상 데이터를 이용하고, 상기 기준 위치 데이터는 상기 가상의 영상 데이터의 위치 데이터로 정의되며, 상기 제 1 자세 데이터는 상기 가상의 영상 데이터의 시야 방향으로 정의될 수 있다. In another embodiment, when the reference image originates from a laser scanning sensor, the reference image uses virtual image data converted from a point cloud obtained from the laser scanning sensor, and the reference position data is It is defined as position data of the virtual image data, and the first posture data may be defined as a viewing direction of the virtual image data.

또 다른 실시예에서, 상기 정합부는 상기 선정 영상 데이터와 상기 기준 영상 데이터로부터 특징 기하를 추출하여 비교하여 공통 추정되는 특징 기하들을 상호 정합하거나, 혹은 상기 기준 영상 데이터 내에 지정된 템플릿(template)과 적어도 유사한 상기 선정 영상 데이터를 검색하여, 상기 템플릿들 간의 특성 상관도 분석에 따라 정합하고, 상기 정합 정보는 상기 특징 기하 또는 상기 템플릿이며, 싱기 특징 기하 또는 상기 템플릿은 기준 영상 데이터베이스부에 저장될 수 있다. In another embodiment, the matching unit extracts and compares feature geometry from the selected image data and the reference image data, and matches the commonly estimated feature geometry to each other, or at least similar to a template designated in the reference image data. The selected image data may be searched and matched according to a feature correlation analysis between the templates, and the matching information may be the feature geometry or the template, and the unique feature geometry or the template may be stored in a reference image database.

또 다른 실시예에서, 상기 보정용 CCTV 기하 정보가 연계된 영상 데이터의 표본용 특징 기하들을 랜덤 샘플링하여, 상기 표본용 특징 기하들 및 상응하는 상기 기준 데이터의 특징 기하들과의 이격량이 최소가 되는 특징 기하를 정합 최적값으로 추정하는 최적값 추정부; 및 상기 정합 최적값으로 추정된 특징 기하와 관련하여 기하 변환된 보정용 CCTV 기하 정보를 최종 보정 CCTV 기하 정보로 추정하는기하 정보 추정부를 더 포함하고, 상기 CCTV 영상 정보의 생성시에 기초되는 정보 중 상기 보정용 CCTV 기하 정보는 상기 최종 보정 CCTV 기하 정보를 사용할 수 있다. In another embodiment, by randomly sampling the sample feature geometries of the image data to which the correction CCTV geometric information is linked, the distance between the sample feature geometries and the corresponding feature geometries of the reference data is minimized. An optimum value estimating unit for estimating the geometry as a matching optimum value; And a geometric information estimating unit for estimating the corrected CCTV geometric information geometrically converted in relation to the feature geometry estimated as the matching optimal value as final corrected CCTV geometric information, wherein the information based on the generation of the CCTV image information As for the correction CCTV geometric information, the final corrected CCTV geometric information may be used.

또 다른 실시예에서, 상기 CCTV 영상 정보로부터 특정 형태의 객체를 추출하는 객체 정보 추출부와, 상기 추출된 객체와 동일한 기준 영상 데이터의 객체에 기초하여, 상기 보정용 CCTV 기하 정보 및 상기 기준 영상 데이터에 저장된 상기 객체와 관련된 상기 객체 정보를 상기 CCTV 영상 정보에 포함하는 신규 공간 정보를 생성하는 공간 정보 생성부, 및 상기 신규 공간 정보가 공간 정보 데이터베이스부에 저장되며, 상기 공간 정보 데이터베이스부에 이미 저장된 기존 공간 정보가 존재하는 경우에, 동일 위치의 객체 정보에 있어서, 상기 신규 공간 정보가 상기 기존 공간 정보와 상이한지 여부를 판단하고, 판단 결과, 상이한 객체 정보에 대해 상기 기존 공간 정보를 상기 신규 공간 정보로 갱신하는 공간 정보 갱신부를 더 포함할 수 있다. In another embodiment, based on an object information extraction unit for extracting an object of a specific type from the CCTV image information, and the object of the same reference image data as the extracted object, the correction CCTV geometric information and the reference image data A spatial information generation unit that generates new spatial information including the object information related to the stored object in the CCTV image information, and the new spatial information is stored in the spatial information database unit, and the existing information already stored in the spatial information database unit When spatial information exists, it is determined whether the new spatial information is different from the existing spatial information in object information of the same location, and as a result of the determination, the existing spatial information is converted to the new spatial information for different object information. It may further include a spatial information update unit to update to.

또 다른 실시예에서, 상기 기준 기하 정보는 상기 기준 위치 데이터로서의 3차원 위치 데이터와 상기 제 1 자세 데이터를 갖는 상기 제 1 외부 기하 데이터로 구성되며, 상기 기준 영상 데이터의 일부 위치와 관련되어 상기 기준 기하 정보의 정밀도가 임계치보다 낮은 경우에, 상기 영상 정보 생성부는 상기 정밀도가 낮은 상기 기준 영상 데이터와 상응하는 상기 CCTV 영상 정보의 보정 영상 데이터를 2차원 기하 모델로 변환한 후에, 2차원 변환된 영상 데이터 내에서 픽셀 데이터 분석을 통한 객체 높이를 추정하거나, 상기 CCTV 장치의 영상 센서의 높이를 특정 높이로 가정하여 객체 높이를 분석하거나, 상기 CCTV 장치의 다수 영상 센서들의 시야 방향과 관련된 자세 데이터를 특정값으로 정의하며 삼각 함수 모델을 이용하여, 객체 높이를 추정하고, 상기 추정된 객체 높이를 상기 보정 CCTV 기하 정보에 반영하여 3차원 위치 데이터를 추정함으로써, 상응하는 상기 CCTV 영상 정보를 생성할 수 있다. In another embodiment, the reference geometric information is composed of 3D position data as the reference position data and the first external geometric data having the first posture data, and is related to a partial position of the reference image data. When the precision of the geometric information is lower than the threshold value, the image information generator converts the corrected image data of the CCTV image information corresponding to the reference image data with low precision into a two-dimensional geometric model, and then the two-dimensional converted image Estimate the height of the object through pixel data analysis in the data, analyze the object height by assuming the height of the image sensor of the CCTV device as a specific height, or specify the attitude data related to the viewing direction of the plurality of image sensors of the CCTV device. It is defined as a value, and the object height is estimated using a trigonometric function model, and the 3D position data is estimated by reflecting the estimated object height to the corrected CCTV geometric information, thereby generating the corresponding CCTV image information. .

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. Details of other embodiments are included in the detailed description and drawings.

본 발명에 따르면, 부정확하거나 일부 지역에서 누락된 위치와 자세 관련 기하 데이터를 갖는 CCTV 장치의 영상 데이터를 관측 센서와 측위 센서로 구성된 멀티센서 플랫폼으로부터 생성된 기준 영상 데이터의 기준 영상 정보와 정합하여 기하 변환 보정 등을 수행함으로써, CCTV 장치로 취득한 영상 데이터를 편의성과 높은 정밀도의 공간 정보로 생성할 수 있다. According to the present invention, the image data of a CCTV device having geometric data related to position and posture that is incorrect or missing in some areas is matched with the reference image information of the reference image data generated from a multi-sensor platform composed of an observation sensor and a positioning sensor, By performing conversion correction or the like, image data acquired by a CCTV device can be generated as spatial information with convenience and high precision.

또한, 보정된 위치 및 자세 정보와 CCTV에서 취득된 영상 정보를 연계, 분석하여 영상 내 표출된 객체 정보를 공간정보화하여 지도 서비스와 연계할 수 있다. In addition, by linking and analyzing the corrected position and posture information and image information acquired from CCTV, object information expressed in the image is converted into spatial information, and linked with a map service.

아울러, 기준 영상 데이터의 구축시에 라이다 등 고가의 센서들을 배제한 저비용의 센서들로부터 취득한 관측 데이터를 가공함으로써, 구축 비용 절감을 달성할 수 있다.In addition, by processing observation data acquired from low-cost sensors excluding expensive sensors such as lidar when constructing the reference image data, it is possible to achieve a reduction in construction cost.

이에 더하여, 보정된 CCTV의 위치와 자세 등의 기하 정보를 기준 영상 데이터베이스부 상에 저장하여, 유사 지역의 다른 CCTV의 영상 데이터의 3차원 공간 정보 생성시에 활용함으로써, 다양한 형태의 기준 영상 데이터를 활용할 수 있다. In addition, by storing the corrected geometric information such as the position and posture of the CCTV on the reference image database and using it when generating 3D spatial information of the image data of other CCTVs in a similar area, various types of reference image data can be used. Can be utilized.

이외에도 본 명세서를 통해 당업자라면 파악할 수 있는 구성을 통해 도출되는 효과를 배제하지 않는다. In addition, effects derived through configurations that can be grasped by those skilled in the art through the present specification are not excluded.

도 1은 본 발명의 실시예에 따른 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 생성 시스템, 이와 통신하는 CCTV 장치 및 CCTV 관제기에 관한 구성도이다.
도 2는 본 발명의 실시예에 따른 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 시스템에서 구현되는 CCTV 장치의 영상 데이터에 대한 CCTV 영상 정보의 생성 방법에 관한 순서도이다.
도 3은 기준 데이터베이스부에 저장된 기준 영상 정보의 일례를 도시한 도면이다.
도 4는 기준 데이터베이스부에 저장된 기준 영상 정보가 영상 촬영 센서로부터 획득되는 경우에 제 1 외부 기하 데이터 및 제 1 내부 기하 데이터에 저장되는 데이터 종류를 예시한 도면이다.
도 5는 기준 데이터베이스부에 저장된 기준 영상 정보가 항공 관측 데이터로부터 획득되는 경우에 특징 기하를 검색, 추출하기 위해 기하 형태를 변환하는 과정을 예시한 도면이다.
도 6은 광역 영상 센서로부터 취득한 영상 데이터의 왜곡을 제거하여 평면 영상 데이터로 변환하는 제 1 과정에 관한 순서도이다.
도 7 및 도 8은 영상 왜곡 제거 및 평면 영상 데이터 변환의 제 1 과정을 개략적으로 도시한 도면이다.
도 9는 광역 영상 센서로부터 취득한 영상 데이터의 왜곡을 제거하여 평면 영상 데이터로 변환하는 제 2 과정에 관한 순서도이다.
도 10은 영상 왜곡 제거 및 평면 영상 데이터 변환의 제 2 과정을 개략적으로 도시한 도면이다.
도 11은 기준 영상 데이터베이스부에서 레이저 스캔닝 센서로부터 획득한 포인트 클라우드가 변환된 가상의 영상 데이터가 저장되는 형태를 도시한 도면이다.
도 12는 CCTV 장치의 영상 데이터에 대한 공간 정보의 생성 방법에 있어서, 검색 선정의 다른 실시예에 관한 순서도이다.
도 13은 정합부에서 특징 기하를 이용한 정합 과정을 예시한 도면이다.
도 14는 정합부에서 템플릿 간의 특성 상관도 분석을 이용한 정합 과정을 나타나는 순서도이다.
도 15는 영상 데이터의 2차원 위치 데이터와 대응하는 기준 영상 데이터의 3차원 위치 데이터를 산출하는 과정을 도시한 도면이다.
도 16은 영상 정보 생성부에서 CCTV 영상 데이터의 객체의 높이를 추정하는 과정을 나타내는 순서도이다.
도 17은 CCTV 영상 데이터 내에서 픽셀 데이터 분석을 통한 객체 높이를 추정하는 과정을 설명하는 도면이다.
도 18은 본 발명의 실시예에 따른 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 시스템에서 구현되는 공간 정보의 생성 및 갱신 방법에 관한 순서도이다.
도 19는 최종 보정 CCTV 기하 정보 및 객체 정보를 CCTV 영상 정보에 포함하는 신규 공간 정보를 생성하는 일례를 도시한 도면이다.
도 20은 공간 정보의 갱신 과정을 설명하기 위한 도면이다.
1 is a block diagram of a system for generating spatial information of a CCTV device using reference image information according to an embodiment of the present invention, a CCTV device and a CCTV controller communicating therewith.
2 is a flowchart illustrating a method of generating CCTV image information for image data of a CCTV device implemented in a spatial information system of a CCTV device using reference image information according to an embodiment of the present invention.
3 is a diagram illustrating an example of reference image information stored in a reference database unit.
4 is a diagram illustrating types of data stored in first external geometric data and first internal geometric data when reference image information stored in a reference database unit is obtained from an image capturing sensor.
5 is a diagram illustrating a process of converting a geometric shape to search for and extract a feature geometry when reference image information stored in a reference database unit is obtained from aerial observation data.
6 is a flowchart of a first process of removing distortion of image data acquired from a wide area image sensor and converting it into flat image data.
7 and 8 are diagrams schematically illustrating a first process of image distortion removal and planar image data conversion.
9 is a flowchart illustrating a second process of removing distortion of image data acquired from a wide area image sensor and converting it into flat image data.
10 is a diagram schematically illustrating a second process of image distortion removal and planar image data conversion.
11 is a diagram illustrating a form in which virtual image data converted from a point cloud obtained from a laser scanning sensor in a reference image database unit is stored.
12 is a flowchart of another embodiment of search selection in a method of generating spatial information for video data of a CCTV device.
13 is a diagram illustrating a matching process using feature geometry in a matching unit.
14 is a flowchart showing a matching process using a characteristic correlation analysis between templates in the matching unit.
15 is a diagram illustrating a process of calculating 3D position data of reference image data corresponding to 2D position data of image data.
16 is a flowchart illustrating a process of estimating the height of an object of CCTV image data by an image information generator.
17 is a diagram illustrating a process of estimating an object height through pixel data analysis in CCTV image data.
18 is a flowchart illustrating a method of generating and updating spatial information implemented in a spatial information system of a CCTV device using reference image information according to an embodiment of the present invention.
19 is a diagram illustrating an example of generating new spatial information including final corrected CCTV geometric information and object information in CCTV image information.
20 is a diagram for describing a process of updating spatial information.

이하, 첨부한 도면들 및 후술되어 있는 내용을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 그러나, 본 발명은 여기서 설명되어지는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되어지는 것이다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급되지 않는 한 복수형도 포함된다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자가 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings and the following description. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed contents may be thorough and complete, and the spirit of the present invention may be sufficiently conveyed to those skilled in the art. The same reference numbers throughout the specification indicate the same elements. Meanwhile, terms used in the present specification are for explaining embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used herein, "comprises" and/or "comprising" refers to the presence of one or more other components, steps, actions and/or elements in which the recited component, step, operation and/or element is Or does not preclude additions.

또한, "부"내지 모듈 이란, 일반적으로 논리적으로 분리 가능한 소프트웨어(컴퓨터,프로그램), 하드웨어 등의 부품을 가리킨다. 따라서, 본 실시형태에 있어서의 모듈은 컴퓨터,프로그램에 있어서의 모듈뿐만 아니라, 하드웨어 구성에 있어서의 모듈도 가리킨다. 그 때문에, 본 실시형태는, 그것들을 모듈로서 기능시키기 위한 컴퓨터 프로그램(컴퓨터에 각각의 단계를 실행시키기 위한 프로그램, 컴퓨터를 각각의 수단으로서 기능시키기 위한 프로그램, 컴퓨터에 각각의 기능을 실현시키기 위한 프로그램), 시스템 및 방법의 설명도 겸하고 있다. 다만, 설명의 형편상, 「저장한다」, 「저장시킨다」, 이것들과 동등한 문언을 이용하지만, 이들 문언은, 실시형태가 컴퓨터 프로그램일 경우에는, 기억 장치에 기억시키는, 또는 기억 장치에 기억시키는 것과 같이 제어하는 것을 의미한다. 또한, "부" 내지 모듈은 기능에 일대일로 대응하고 있어도 되지만, 실장에 있어서는, 1 모듈을 1 프로그램으로 구성해도 되고, 복수 모듈을 1 프로그램으로 구성해도 되고, 반대로 1 모듈을 복수 프로그램으로 구성해도 된다. 또한, 복수 모듈은 1 컴퓨터에 의해 실행되어도 되고, 분산 또는 병렬 환경에 있어서의 컴퓨터에 의해 1 모듈이 복수 컴퓨터로 실행되어도 된다. 또한, 1개의 모듈에 다른 모듈이 포함되어 있어도 된다. 또한, 이하, 「접속」이란 물리적인 접속 외에, 논리적인 접속(데이터의 주고받기, 지시, 데이터간의 참조 관계 등)일 경우에도 채용한다. 「미리 정해진」이란, 대상으로 하고 있는 처리 전에 정해져 있음을 말하고, 본 실시형태에 의한 처리가 개시되기 전은 물론이고, 본 실시형태에 의한 처리가 개시된 후에도, 대상으로 하고 있는 처리 전이면, 그 때의 상황, 상태에 따라, 또는 그때까지의 상황, 상태에 따라 정해지는 것의 의미를 포함해서 이용한다.In addition, "sub" to "module" generally refer to components such as software (computer, program) and hardware that can be logically separated. Accordingly, the module in the present embodiment refers not only to a module in a computer or a program, but also a module in a hardware configuration. Therefore, the present embodiment is a computer program for making them function as modules (a program for executing each step in a computer, a program for making a computer function as each means, a program for realizing each function in a computer) ), also describes the system and method. However, for convenience of explanation, phrases equivalent to "save" and "save" are used, but these words are stored in a memory device or stored in a memory device when the embodiment is a computer program. It means to control like that. In addition, the "sub" to the module may correspond to the function one-to-one, but in the implementation, one module may be composed of one program, a plurality of modules may be composed of one program, and conversely, one module may be composed of a plurality of programs. do. Further, a plurality of modules may be executed by one computer, or one module may be executed by a plurality of computers by a computer in a distributed or parallel environment. In addition, another module may be included in one module. In addition, hereinafter, "connection" is adopted in the case of logical connection (data exchange, instruction, reference relationship between data, etc.) in addition to physical connection. The term "predetermined" means that it is determined before the target processing, as well as before the processing according to the present embodiment is started, even after the processing according to the present embodiment is started, and before the target processing, the It includes the meaning of what is determined according to the situation and state of the time, or the situation and state up to that time.

또한, 시스템 또는 장치란, 복수의 컴퓨터, 하드웨어, 장치 등이 네트워크(일대 일 대응의 통신 접속을 포함함) 등의 통신 수단에 의해 접속되어 구성되는 것 외에, 1개의 컴퓨터, 하드웨어, 장치 등에 의해 실현될 경우도 포함된다. 「장치」와 「시스템」이란, 서로 동의(同意)의 용어로서 이용한다. 물론이지만, 「시스템」에는, 인위적인 결정인 사회적인 「기구」(사회 시스템)에 지나지 않는 것은 포함하지 않는다.In addition, a system or device is configured by connecting a plurality of computers, hardware, devices, etc. by means of communication such as a network (including a one-to-one communication connection), and a single computer, hardware, device, etc. This includes cases where it is realized. The terms "device" and "system" are used as terms of mutual agreement. Of course, the "system" does not include anything but an artificial decision, a social "mechanism" (social system).

또한, 각 부 내지 각 모듈에 의한 처리마다 또는 각 부 내지 모듈 내에서 복수의 처리를 행할 경우는 그 처리마다, 대상이 되는 정보를 기억 장치로부터 판독 입력하고, 그 처리를 행한 후에, 처리 결과를 기억 장치에 기입하는 것이다. 따라서, 처리 전의 기억 장치로부터의 판독 입력, 처리 후의 기억 장치에의 기입에 관해서는, 설명을 생략할 경우가 있다. 또한, 여기에서의 기억 장치로서는, 하드디스크, RAM(Random Access Memory), 외부 기억 매체, 통신 회선을 통한 기억 장치, CPU(Central Processing Unit) 내의 레지스터 등을 포함하고 있어도 된다.In addition, when processing by each unit or module or a plurality of processing within each unit or module, the target information is read and input from the storage device for each processing, and after the processing is performed, the processing result is displayed. It is to write to the storage device. Therefore, the description of the read input from the storage device before processing and the writing to the storage device after processing may be omitted in some cases. Further, the storage device herein may include a hard disk, a random access memory (RAM), an external storage medium, a storage device through a communication line, a register in a CPU (Central Processing Unit), and the like.

이하, 도 1을 참조하여, 본 발명의 실시예에 따른 CCTV 장치로부터 취득한 2차원 위치 정보의 영상 데이터를 기준 영상 데이터베이스부의 기준 영상 데이터와 정합하여 소정 처리를 수행함으로써 생성되는 CCTV 장치의 보정 영상 데이터에 기반한 CCTV 영상 정보를 생성하기 위한, CCTV 장치의 공간 정보 생성 시스템에 대하여 설명하기로 한다. Hereinafter, referring to FIG. 1, corrected image data of a CCTV device generated by performing a predetermined process by matching image data of two-dimensional position information acquired from a CCTV device according to an embodiment of the present invention with reference image data of a reference image database unit. A system for generating spatial information of a CCTV device for generating CCTV image information based on will be described.

도 1은 본 발명의 실시예에 따른 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 생성 시스템, 이와 통신하는 CCTV 장치 및 CCTV 관제기에 관한 구성도이다. 1 is a block diagram of a system for generating spatial information of a CCTV device using reference image information according to an embodiment of the present invention, a CCTV device and a CCTV controller communicating therewith.

상기 시스템(100)은 CCTV 장치(102)에서 촬영된 지형, 지물 등의 공간 객체의 영상 데이터 및 속성 정보에 포함된 CCTV 장치(102) 및/또는 영상 데이터의 2차원 위치 데이터를 CCTV 관제기(104)로부터 수신한다. CCTV 관제기(104)는 속성 정보로서 촬영 당시의 추정된 CCTV 장치(102)의 영상 센서(106)의 시야 방향, 영상 센서(106) 고유의 기하 파라미터 등 정보를 수신한다. The system 100 transmits the two-dimensional position data of the CCTV device 102 and/or the image data included in the image data and attribute information of spatial objects such as terrain and features captured by the CCTV device 102 to the CCTV controller ( 104). As attribute information, the CCTV controller 104 receives information such as a viewing direction of the image sensor 106 of the CCTV device 102 estimated at the time of photographing, and a geometric parameter unique to the image sensor 106.

먼저 CCTV 장치(102) 및 CCTV 관제기(104)를 설명하면, CCTV 장치(102)는 영상 센서(106), 통신부(108), 이들을 제어 관리하는 제어부(110)를 포함할 수 있으며, CCTV 관제기(104)는 속성 정보 관리부(111), 영상 저장부(112) 및 제어/통신부(114)를 포함할 수 있다. First, when describing the CCTV device 102 and the CCTV controller 104, the CCTV device 102 may include an image sensor 106, a communication unit 108, and a control unit 110 for controlling and managing them, and The file 104 may include an attribute information management unit 111, an image storage unit 112 and a control/communication unit 114.

CCTV 장치(102)는 영상 센서(106)를 통해 촬영된 영상 데이터를 통신부(108)에 의해 CCTV 관제기(104)에 전송한다. CCTV 관제기(104)는 수신된 영상 데이터에 속성 정보로 저장한 CCTV의 2차원 위치 데이터가 결합된 정보를 유무선 네트워크를 통해 시스템(100)으로 송신하는 장치이다. 속성 정보는 상술한 바와 같이, 영상 센서(106)의 촬영 시간, 영상 센서(106)의 시야 방향 및 고유의 기하 파라미터 등을 더 포함할 수 있으며, 시야 방향과 기하 파라미터가 더 결합된 영상 데이터가 시스템(100)에 송신된다. The CCTV device 102 transmits the image data photographed through the image sensor 106 to the CCTV controller 104 by the communication unit 108. The CCTV controller 104 is a device that transmits information in which the two-dimensional position data of the CCTV stored as attribute information is combined with the received image data to the system 100 through a wired or wireless network. As described above, the attribute information may further include a photographing time of the image sensor 106, a viewing direction of the image sensor 106, and a unique geometric parameter, and image data in which the viewing direction and the geometric parameter are further combined It is sent to the system 100.

영상 센서(106)는 CCTV 장치(102)에 탑재되어 그 주위의 주변 대상물, 예컨대 지형, 지물을 이미지로 촬영하여 영상 데이터 및 영상 데이터 취득 당시의 영상용 시간 정보를 취득하는 센서들을 복수 구비할 수 있다. 영상 센서(106)는 평면 영상용 센서, 평면 영상용 센서보다 넓은 화각을 갖는 광역 영상 센서, 측량용 또는 비측량용 카메라일 있으며, 이에 제한되지 않는다. 광역 영상 센서는 서로 다른 방향의 시야 방향을 갖는 영상이 조합된 스테레오 영상, 또는 소정 시야각 내에 배치된 카메라의 영상이 결합되는 파노라마 영상을 생성하며, 예컨대 어안 렌즈를 구비하여 어안 렌즈 영상을 생성하는 카메라 또는 다수개의 카메라를 이용한 다중 카메라에 의해 전방위 영상을 출력하는 다중 카메라 시스템 등일 수 있다. 영상 센서(106)가 탑재된 모듈은 줌, 팬, 틸트(tilt) 기능을 더 구비할 수 있다. The image sensor 106 may be equipped with a plurality of sensors that are mounted on the CCTV device 102 to acquire image data and time information for an image at the time of acquisition of the image data by taking images of surrounding objects, such as terrain and features. have. The image sensor 106 may be a flat image sensor, a wide area image sensor having a wider field of view than the planar image sensor, and a surveying or non-surveying camera, but is not limited thereto. The wide-area image sensor generates a stereo image in which images having different viewing directions are combined, or a panoramic image in which images from a camera disposed within a predetermined viewing angle are combined, and for example, a camera that has a fisheye lens to generate a fisheye lens image Alternatively, it may be a multi-camera system that outputs omnidirectional images by multiple cameras using a plurality of cameras. The module in which the image sensor 106 is mounted may further include zoom, pan, and tilt functions.

영상 데이터가 왜곡 영상을 발생하는 광역 영상 센서로부터 기인하는 경우에, 영상 데이터는 후술할 검색 선정부(118)에 의해. 왜곡 영상을 평면 영상 데이터로 변환하여 생성되는 평면 영상 데이터를 이용할 수 있으며, 상세 변환 과정은 후술하기로 한다. In the case where the image data originates from a wide area image sensor generating a distorted image, the image data is processed by the search selection unit 118 to be described later. Planar image data generated by converting a distorted image to planar image data can be used, and a detailed conversion process will be described later.

CCTV 관제기(104)의 속성 정보 관리부(111)는 복수의 CCTV 장치(102)의 속성 정보를 수치 또는 텍스트로 기록된 테이블 형태로 관리하고 제어/통신부(114)에 의해 속성 정보를 영상 데이터에 결합시킨다. The attribute information management unit 111 of the CCTV controller 104 manages the attribute information of the plurality of CCTV devices 102 in the form of a table recorded in numerical or text, and the attribute information is transferred to the image data by the control/communication unit 114. Combine.

속성 정보는 CCTV 장치(102)의 2차원 위치 데이터를 포함하고 있으며, 2차원 위치 데이터는 CCTV 장치(102)의 2차원 좌표, 또는 좌표가 아닌 개략적인 정보로서의 CCTV 장치가 설치된 공간의 명칭 등일 수 있다. 속성 정보는 영상 센서(106)의 촬영 시간을 추가로 가질 수 있다. 경우에 따라, 속성 정보는 영상 센서(106)의 촬영 방향, 각도 등의 시야 방향, 시야각, 영상 센서(106)에 정의된 기하 파라미터를 추가로 포함할 수도 있으나, 통상적인 속성 정보는 대체로 2차원 위치 데이터만을 가지므로, 2차원 위치 데이터만을 갖는 경우와 시야 방향, 기하 파라미터까지 포함하는 경우를 구별하여 영상 데이터를 선정하는 과정을 각각 후술하기로 한다. The attribute information includes two-dimensional position data of the CCTV device 102, and the two-dimensional position data may be the two-dimensional coordinates of the CCTV device 102, or the name of the space where the CCTV device is installed as schematic information other than coordinates. have. The attribute information may additionally have a photographing time of the image sensor 106. In some cases, the attribute information may additionally include a photographing direction of the image sensor 106, a viewing direction such as an angle, a viewing angle, and a geometric parameter defined in the image sensor 106, but typical attribute information is generally two-dimensional. Since only the location data is included, a process of selecting the image data by distinguishing between the case of having only the 2D location data and the case including the viewing direction and even geometric parameters will be described later.

시야 방향, 시야각을 갖는 자세 데이터(이하, '제 2 자세 데이터' 라 함), 2차원 위치 데이터, 촬영 시간은 외부 기하 데이터(이하, '제 2 외부 기하 데이터' 라 함)를 구성할 수 있으며, 영상 센서(106)에 정의된 기하 파라미터는 내부 기하 데이터(이하, '제 2 내부 기하 데이터' 라 함)를 구성할 수 있다. Viewing direction, posture data having a viewing angle (hereinafter referred to as'second attitude data'), two-dimensional position data, and shooting time can constitute external geometric data (hereinafter referred to as'second external geometric data'). , The geometric parameter defined in the image sensor 106 may constitute internal geometric data (hereinafter, referred to as “second internal geometric data”).

제 2 외부 기하 데이터는 영상 센서(106)의 위치와 자세로 인해, 영상 센서(106)의 영상 정보를 취득할 때마다 가변되는 파라미터 값에 기초하여 산출되는 관측 데이터의 오차이며, 이 경우에 소정의 수학식 내지 모델링을 통해 계산될 수 있다. 영상 데이터가 광역 영상 센서로부터 기인하는 경우에, 2차원 위치 데이터는 평면 영상 데이터의 2차원 위치 데이터를 활용하고, 제 2 자세 데이터는 평면 영상 데이터의 시야 방향 및 시야각 등으로 정의될 수 있다. The second external geometric data is an error of observation data calculated based on a parameter value that varies each time image information of the image sensor 106 is acquired due to the position and posture of the image sensor 106, and in this case, a predetermined It can be calculated through the equation or modeling of. When the image data originates from a wide-area image sensor, the 2D position data utilizes 2D position data of the planar image data, and the second posture data may be defined as a viewing direction and a viewing angle of the planar image data.

제 2 내부 기하 데이터는 영상 센서(106) 자체의 고유값으로서, 영상 센서(106)의 관측 데이터의 오차와 관련된 기하 파라미터이다. 영상 센서(106)의 기하 파라미터는 초점거리, 주점 위치, 렌즈왜곡 파라미터 및 센서 포맷 크기 중 어느 하나 이상을 포함할 수 있다. The second internal geometric data is an intrinsic value of the image sensor 106 itself, and is a geometric parameter related to an error of the observed data of the image sensor 106. The geometric parameter of the image sensor 106 may include any one or more of a focal length, a main point position, a lens distortion parameter, and a sensor format size.

제어/통신부(114)는 영상 센서(106)로부터 취득된 영상 데이터에, 적어도 2차원 위치 데이터, 촬영 시간을 갖는 외부 기하 데이터를 포함하는 CCTV 기하 정보를 생성하여 시스템(100)으로 전송하도록 제어하거나, 시스템(100)으로부터 특정 데이터들을 수신하여 필요한 처리를 수행할 수 있다. The control/communication unit 114 controls the image data acquired from the image sensor 106 to generate CCTV geometric information including at least two-dimensional position data and external geometric data having a photographing time and transmit it to the system 100 , It is possible to perform necessary processing by receiving specific data from the system 100.

시스템(100)은 기준 영상 데이터베이스부(116), 검색 선정부(118), 정합부(120), 기하 변환부(122), 정합 최적값 추정부(124), CCTV 기하 정보 추정부(126), 영상 정보 생성부(128), 객체 정보 추출부(130), 공간 정보 생성부(132), 공간 정보 갱신부(134) 및 공간 정보 데이터베이스부(136)를 포함할 수 있다. The system 100 includes a reference image database unit 116, a search selection unit 118, a matching unit 120, a geometric conversion unit 122, a matching optimal value estimating unit 124, a CCTV geometric information estimating unit 126. , An image information generating unit 128, an object information extracting unit 130, a spatial information generating unit 132, a spatial information updating unit 134, and a spatial information database unit 136.

기준 영상 데이터베이스부(116)는 기준 영상의 기준 위치 데이터와, 기준 영상의 획득 시간, 기준 영상을 생성하는데 설정된 시야 방향, 시야각을 정의하는 제 1 자세 데이터를 갖는 제 1 외부 기하 데이터가 포함된 기준 기하 정보와 연계하여 기준 영상 데이터를 저장한다. The reference image database unit 116 includes the reference position data of the reference image, the acquisition time of the reference image, the viewing direction set to generate the reference image, and first external geometric data having first posture data defining the viewing angle. The reference image data is stored in connection with the geometric information.

기준 위치 데이터는 제 1 외부 기하 데이터의 2차원 위치 데이터보다 정확도가 높은 2차원 위치 데이터 또는 3차원 위치 데이터로 구성될 수 있으며, CCTV 장치(102)의 2차원 위치 데이터의 개략적인 정보가 아닌, XY 좌표계의 2차원 위치 데이터이거나 XYZ 좌표계의 3차원 위치 데이터일 수 있다. 시야 방향 및 시야각은 영상 센서(106)에 설명된 점과 실질적으로 동일하다. 또한, 기준 기하 정보는 기준 영상을 생성하는데 설정된 센서에 정의된 기하 파라미터에 근거한 제 1 내부 기하 데이터를 더 포함할 수 있다. The reference position data may be composed of two-dimensional position data or three-dimensional position data with higher accuracy than the two-dimensional position data of the first external geometric data, and is not schematic information of the two-dimensional position data of the CCTV device 102, It may be 2D position data of an XY coordinate system or 3D position data of an XYZ coordinate system. The viewing direction and viewing angle are substantially the same as those described for the image sensor 106. In addition, the reference geometric information may further include first internal geometric data based on a geometric parameter defined in a sensor set to generate a reference image.

기준 영상은 외부로부터 입수되며, 기준 위치 데이터가 적어도 포함되는 영상이며, CCTV 장치(102)로부터 획득된 영상 데이터와 대비가능한 기준 영상 데이터로 가공된다. 기준 영상을 생성하는데 최초 이용되는 센서는 CCTV 장치(102)보다 높은 측위 정확도, 영상 구현 성능을 갖는 영상 획득 기기 및 레이저 스캔닝 센서(예컨대, 라이다(Lidar)) 중 적어도 하나일 수 있다. 기준 영상과 연계된 기준 기하 정보는 각 픽셀 좌표마다, RGB 데이터와 같은 색상 정보, 제 1 외부 기하 데이터 및 제 1 내부 기하 데이터를 포함하고, 기준 기하 정보와 결합되는 기준 영상은 기준 영상 데이터로 저장될 수 있다.The reference image is obtained from the outside, is an image including at least reference position data, and is processed into reference image data that can be contrasted with the image data obtained from the CCTV device 102. The first sensor used to generate the reference image may be at least one of an image acquisition device having higher positioning accuracy and image realization performance than the CCTV device 102, and a laser scanning sensor (eg, Lidar). The reference geometric information linked to the reference image includes color information such as RGB data, first external geometric data, and first internal geometric data for each pixel coordinate, and the reference image combined with the reference geometric information is stored as reference image data. Can be.

기준 영상 데이터는 영상 촬영 센서(영상 획득 기기) 및 레이저 스캔닝 센서 중 적어도 어느 하나와 측위 센서를 구비하는 외부 이동형 플랫폼로부터 획득된 영상 정보 및 포인트 클라우드 정보를 센서들 간의 기하 모델을 통해 정합하고 보정하여 융합된 외부 영상 데이터, 혹은, 보정용 CCTV 기하 정보로 보정된 CCTV 영상 정보로 영상 정보 생성부(128) 및/또는 공간 정보 데이터베이스부(136)에 이미 저장된 기존의 CCTV 장치의 보정 영상 데이터일 수 있다. The reference image data matches and corrects image information and point cloud information acquired from an external mobile platform having at least one of an image capturing sensor (image acquisition device) and a laser scanning sensor and a positioning sensor through a geometric model between the sensors. It may be the fused external image data, or the corrected image data of the existing CCTV device already stored in the image information generation unit 128 and/or the spatial information database unit 136 with CCTV image information corrected with the corrected CCTV geometric information. have.

기준 영상을 생성하는데 최초 이용되는 센서가 영상 촬영 센서인 경우에, 제 1 내부 기하 데이터는 제 2 내부 기하 데이터에서 설명된 영상 센서(106)와 실질적으로 동일하다. 영상 촬영 센서인 경우에, 대상물의 3차원 형상이 2차원으로 투영되는데 활용된 투영 중심과 방향은 기준 영상의 기준 위치 데이터와 시야 방향과 관련되므로, 투영 중심과 방향은 제 1 외부 기하 데이터와 함께 기준 영상 데이터로 저장될 수 있다. 영상 촬영 센서로부터 생성된 기준 영상 데이터의 기준 기하 정보는 기준 위치 데이터로서 2차원 위치 데이터 혹은 3차원 위치 데이터를 포함할 수 있다. When the first sensor used to generate the reference image is an image capturing sensor, the first internal geometric data is substantially the same as the image sensor 106 described in the second internal geometric data. In the case of the image sensor, the projection center and direction used to project the three-dimensional shape of the object in two dimensions are related to the reference position data and the viewing direction of the reference image, so the projection center and direction are together with the first external geometric data. It may be stored as reference image data. The reference geometric information of the reference image data generated from the image capturing sensor may include 2D position data or 3D position data as reference position data.

기준 영상이 항공 관측 데이터인 경우에, CCTV 장치(102)와 같은 지상 관측 영상 데이터와 상이한 기하를 가지므로, 항공 관측 데이터는 특정 방향의 뷰 형태로 변환될 수 있다. 예를 들어, 항공 관측 데이터의 각 픽셀이 수평 기하를 가진 정사영상 형태로 변환되어 기준 영상으로 채용될 수 있다. When the reference image is aerial observation data, since it has a different geometry from ground observation image data such as the CCTV device 102, the aerial observation data may be converted into a view form in a specific direction. For example, each pixel of aerial observation data may be converted into an orthogonal image form having a horizontal geometry and used as a reference image.

기준 영상이 왜곡 영상을 발생하는 광역 영상 센서로부터 기인하는 경우에, 기준 영상은 왜곡 영상을 평면 영상 데이터로 변환하여 생성되는 평면 영상 데이터를 이용하며, 기준 위치 데이터는 평면 영상 데이터의 위치 데이터를 활용하고, 제 1 자세 데이터는 평면 영상 데이터의 시야 방향, 시야각 등으로 정의될 수 있다. 상세 변환 과정은 후술하기로 한다. When the reference image originates from a wide-area image sensor that generates a distorted image, the reference image uses flat image data generated by converting the distorted image into flat image data, and the reference position data uses the position data of the flat image data. In addition, the first posture data may be defined as a viewing direction and a viewing angle of the planar image data. The detailed conversion process will be described later.

기준 영상이 레이저 스캔닝 센서로부터 기인하는 경우에, 기준 영상은 레이저 스캔닝 센서로부터 획득되는 포인트 클라우드가 변환된 가상의 영상 데이터를 이용할 수 있다, 3차원 위치 데이터는 가상의 영상 데이터의 3차원 위치 데이터로 정의되며, 제 1 자세 데이터는 상기 가상의 영상 데이터의 시야 방향으로 정의될 수 있다. 포인트 클라우드의 변환은 포인트 클라우드의 반사 강도, 고도값 등을 감안하는 가상 카메라 모델링에 의해 수행될 수 있다. 기준 영상 생성시에 영상 센서가 추가로 관여되는 경우에, 포인트 클라우드의 변환시에 영상 센서로 획득된 색상 데이터가 가상의 영상 데이터에 포함될 수 있다.When the reference image originates from the laser scanning sensor, the reference image may use virtual image data converted from a point cloud obtained from the laser scanning sensor, and the 3D position data is a 3D position of the virtual image data. It is defined as data, and the first posture data may be defined as a viewing direction of the virtual image data. Transformation of the point cloud may be performed by virtual camera modeling taking into account the reflection intensity and altitude value of the point cloud. When an image sensor is additionally involved in generating the reference image, color data acquired by the image sensor at the time of conversion of the point cloud may be included in the virtual image data.

최초 이용되는 센서가 레이저 스캔닝 센서인 경우에 제 1 내부 기하 데이터는 예로 들면, 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋 및 축방향 오프셋 중 적어도 하나일 수 있다. 레이저 스캔닝 센서로 획득한 포인트 클라우드 정보는 3차원 좌표 정보, 레이저 강도 정보, 색상 정보, 클래스 정보, 시간 정보, 센서 관측 정보 전부 또는 일부를 포함한 점의 집합으로 표현될 수 있다. When the first sensor is a laser scanning sensor, the first internal geometric data may be, for example, at least one of an incident angle of each laser, a distance scale, a distance direction offset, and an axial offset. The point cloud information acquired by the laser scanning sensor may be expressed as a set of points including all or part of 3D coordinate information, laser intensity information, color information, class information, time information, and sensor observation information.

기준 영상이 영상 촬영 센서, 레이저 스캔닝 센서, 측위 센서와 같은 멀티센서를 구비하는 외부 이동형 플랫폼으로부터 획득되는 경우에, 센서들 간의 가하 모델의 정합, 보정은 영상 센서 및 레이저 스캔닝 센서(라이다)의 내부 기하 모델, 측위 센서와 데이터 결합을 위한 라이다의 외부 기하 모델, 측위 센서와 데이터 결합을 위한 영상 촬영 센서의 외부 기하 모델을 적용하여 수행될 수 있다. 각 기하 모델은 소정의 수학식으로 정의될 수 있다. 이에 의해, 영상 촬영 센서 및 레이저 스캐닝 센서로부터 획득된 각각의 영상 정보 및 포인트 클라우드 정보가 결합하여 융합될 수 있으며, 포인트 클라우드 정보는 색상 정보를 가질 수 있거나, 영상 정보는 픽셀마다 3차원 위치 좌표를 가질 수 있다. 포인트 클라우드 정보는 상술한 바와 같이, 가상의 영상 데이터로 변환되며, 이 데이터가 기준 영상 데이터로 채용될 수 있다. When the reference image is acquired from an external mobile platform equipped with multi-sensors such as an image photographing sensor, a laser scanning sensor, and a positioning sensor, the registration and correction of the loading model between the sensors are performed by the image sensor and the laser scanning sensor (LIDAR). ), an external geometric model of a lidar for combining data with a positioning sensor, and an external geometric model of an image capturing sensor for combining data with a positioning sensor. Each geometric model may be defined by a predetermined equation. Accordingly, each image information and point cloud information obtained from the image capturing sensor and the laser scanning sensor may be combined and fused, and the point cloud information may have color information, or the image information may have three-dimensional position coordinates for each pixel. I can have it. The point cloud information is converted into virtual image data, as described above, and this data may be employed as reference image data.

이에 더하여, 기준 영상 데이터베이스부(116)는 기준 영상 데이터에 특정 형태의 객체와 관련된 정보, 즉 객체 정보를 함께 연게하여 격납한다. 예를 들어, 객체는 지도 상에 표시될 필요가 있는 건축물, 자율주행을 위해 인식이 필요한 교통 표지판, 신호등, 차선 등이 해당될 수 있다. 이 경우에, 객체 정보는 대상물의 종류, 전체 모양, 대상물의 적어도 일부를 구성하는 선, 면, 원, 구 등과 같은 특정 기하학적 형상, 색상, 질감 관련 속성을 포함할 수 있다. In addition, the reference image database unit 116 connects and stores information related to a specific type of object, that is, object information in the reference image data. For example, the object may correspond to a building that needs to be displayed on a map, a traffic sign that needs to be recognized for autonomous driving, a traffic light, a lane, and the like. In this case, the object information may include the type of the object, the overall shape, a specific geometric shape such as a line, surface, circle, or sphere constituting at least a part of the object, a color, and texture-related properties.

한편, 검색 선정부(118)는 CCTV 장치(102)로부터 취득한 영상 데이터에 관련되어 CCTV 기하 정보를 획득하고, 적어도 기준 위치 데이터 및 2차원 위치 데이터를 참조하여 기준 영상 데이터와 정합 가능한 영상 데이터를 검색하여 선정한다. 검색 선정부(118)는 2차원 위치 데이터가 좌표를 갖는 경우에 기준 위치 데이터의 2차원 좌표를 검색하며, 2차원 위치 데이터가 좌표가 아닌 개략적인 데이터인 CCTV 장치(102)의 설치된 공간의 명칭이면, 기준 영상 데이터베이스부(116)에서 공간의 명칭과 관련된 등록된 기준 위치 데이터를 검색한다.Meanwhile, the search selection unit 118 acquires CCTV geometric information in relation to the image data acquired from the CCTV device 102, and searches for image data that can be matched with the reference image data by referring to at least the reference position data and the two-dimensional position data. And select it. The search selection unit 118 searches for two-dimensional coordinates of the reference position data when the two-dimensional position data has coordinates, and the name of the installed space of the CCTV device 102 in which the two-dimensional position data is rough data rather than coordinates. In this case, the reference image database unit 116 searches for registered reference position data related to the name of the space.

기준 위치 데이터는 제 1 외부 기하 데이터의 2차원 위치 데이터보다 정확도가 높은 2차원 위치 데이터 또는 3차원 위치 데이터로 구성될 수 있다. 기준 위치 데이터가 2차원 위치 데이터인 경우에, 검색 선정부(118)는 CCTV 기하 정보 및 기준 기하 정보의 제 2 차원 위치 데이터들을 검색한다. 기준 위치 데이터가 3차원 위치 데이터인 경우에, CCTV 기하 정보의 2차원 위치 데이터와 3차원 위치 데이터로부터 추출된 XY 좌표의 2차원 위치 데이터를 검색한다. The reference position data may be composed of 2D position data or 3D position data having higher accuracy than the 2D position data of the first external geometric data. When the reference position data is two-dimensional position data, the search selection unit 118 searches for CCTV geometric information and second-dimensional position data of the reference geometric information. When the reference position data is 3D position data, 2D position data of CCTV geometric information and 2D position data of XY coordinates extracted from 3D position data are searched.

이상의 실시예와 달리, CCTV 기하 정보가 제 2 자세 데이터 및 제 2 내부 기하 데이터까지 전부 포함하는 경우에, 검색 선정부(118)는 기준 위치 데이터, 2차원 위치 데이터, 자세 데이터를 포함하는 제 1 및 제 2 외부 기하 데이터, 제 1 및 제 2 내부 기하 데이터를 참조하여 기준 영상 데이터와 정합 가능한 영상 데이터의 후보군을 검색하며, 후보군 중 기준 영상 데이터와 최고의 정합도를 갖는 영상 데이터를 선정한다. Unlike the above embodiments, when the CCTV geometric information includes all of the second posture data and the second internal geometric data, the search selection unit 118 includes the reference position data, the two-dimensional position data, and the first posture data. And a candidate group of image data that can be matched with the reference image data by referring to the second external geometric data and the first and second internal geometric data, and among the candidate groups, image data having the highest degree of matching with the reference image data is selected.

구체적으로, 검색 선정부(118)는 기준 위치 데이터 및 2차원 위치 데이터에 기초하여 기준 영상 데이터와 대비가능한 영상 데이터의 후보군을 검색하고, 제 1 및 제 2 자세 데이터를 참조하여 후보군 중 기준 영상 데이터와 최고의 정합도를 갖는 영상 데이터를 선정할 수 있다. Specifically, the search selector 118 searches for a candidate group of image data that can be contrasted with the reference image data based on the reference position data and the two-dimensional position data, and refers to the first and second posture data to determine the reference image data among the candidate groups. You can select the image data with the highest degree of matching with.

검색 선정부(118)는 CCTV 장치(102)로부터 획득되는 영상 데이터가 광역 영상 센서로부터 기인하는 경우에, 광역 영상의 왜곡을 제거하고 평면 영상 데이터로 변환하는 프로세스를 상술한 최고의 정합도를 갖는 영상 데이터의 선정 과정 전에 실행할 수 있다. When the image data acquired from the CCTV device 102 is originated from a wide area image sensor, the search selection unit 118 provides a process of removing distortion of the wide area image and converting it into flat image data. This can be done before the data selection process.

정합부(120)는 선정된 영상 데이터와 기준 영상 데이터를 상호 정합한다. 정합은 특징 기하 추출에 의한 방식 또는 영상 내에 지정된 템플릿(template) 특성에 의한 방식에 의해 구현될 수 있다. The matching unit 120 matches the selected image data and the reference image data with each other. The matching may be implemented by a method by feature geometry extraction or by a method by a template feature specified in an image.

먼저, 특징 기하 추출에 의한 방식은 기준 영상 데이터와 선정된 영상 데이터 간에 공통되는 소정 형태의 특징 기하들에 기반하여 기준 영상 데이터와 선정 영상 데이터를 정합하고, 특징 기하를 참고하여 공선조건식 등의 기하 모델을 통해 복수의 선정 영상 데이터를 결합할 수 있다. First, the method by feature geometry extraction is to match the reference image data and the selected image data based on a predetermined type of feature geometry that is common between the reference image data and the selected image data, and refer to the feature geometry to determine the geometry such as a collinear conditional expression. A plurality of selected image data may be combined through the model.

소정 형태의 특징 기하는 동일한 위치로 추정되는 선정 영상 데이터와 기준 영상 데이터에 표현된 객체의 특정 기하하적 형상에 기초하여 추출될 수 있다. 객체는 예컨대 도로 표지판, 특이 형상의 물체, 건물 경계선 등과 같이 영상 데이터 상에서 점, 선, 면, 기둥 등의 특징 기하가 용이하게 추출가능한 대상물로 랜덤으로 선정될 수 있다. 또한, 특징 기하 추출은 영상 데이터 내 색상 변화를 기반으로 수행할 수 있다. 이러한 특징 기하는 선정 영상 데이터와 기준 영상 데이터 간의 자세 데이터가 다소 상이하더라도 동일한 객체로의 추정 가능성이 높은 소정 형태를 채용하고, 예를 들어 도로 노면에 표시된 차선, 도로 표지, 건물 윤곽 등일 수 있다. The feature geometry of a predetermined shape may be extracted based on the selected image data estimated to be the same location and the specific geometric shape of the object expressed in the reference image data. The object may be randomly selected as an object from which feature geometry such as points, lines, surfaces, pillars, etc. can be easily extracted from the image data, such as road signs, unusually shaped objects, and building boundaries. In addition, feature geometry extraction may be performed based on a color change in image data. Such a feature geometry adopts a predetermined shape with a high probability of being estimated to be the same object even though the attitude data between the selected image data and the reference image data are slightly different, and may be, for example, a lane displayed on a road surface, a road sign, a building outline, or the like.

여기서, 영상 데이터는 색상 정보를 가진 행렬 형태의 데이터 뿐만 아니라 특정 객체를 대표할 수 있는 특징을 지닌 디스크립터(descriptor)로 사용될 수 있다. 특정 객체를 대표하는 특징을 지닌 디스크립터의 경우에, 영상 비교 알고리즘으로서 SIFT(Scale Invariant Feature Transform)을 활용할 수 있다. Here, the image data may be used as a descriptor having a characteristic capable of representing a specific object as well as data in a matrix form having color information. In the case of a descriptor having a characteristic representing a specific object, SIFT (Scale Invariant Feature Transform) can be used as an image comparison algorithm.

SIFT에 따른 디스크립터를 산출하기 위해서는, 스케일-공간 익스트리마(Scale-space extrema), 키포인트 국소화 및 필터링(Key-point localization & Filtering), 방향성(Orientation) 할당 및 디스크립터 생성의 순서로 진행될 수 있다.In order to calculate a descriptor according to SIFT, scale-space extrema, key-point localization & filtering, orientation assignment, and descriptor generation may be performed in the order of scale-space extrema.

구체적으로, 영상 데이터에서 단순하게 경계를 검출하면, 노이즈를 포함한 에지도 많이 검출되므로, 먼저 Gaussian filter를 여러 레벨로 적용(σ 값을 조절)하여 영상 데이터를 흐림화 처리(blurring)하고, 영상 데이터와 기준 영상 데이터 간의 차를 산출하면, 노이즈에 강인한 특징이 획득된다(DoG: Difference of Gauassian). 현재 크기(scale)에 대한 작업을 마치면, 스케일 변화에 대응이 가능하도록 영상의 크기을 변경하면서 동일한 작업을 수행하여, 서로 다른 크기에서의 강인한 특징인 extrema를 구한다.Specifically, if a simple boundary is detected in the image data, a lot of edges including noise are also detected. Therefore, first, a Gaussian filter is applied at various levels (σ value is adjusted) to blur the image data, and then the image data When the difference between the and the reference image data is calculated, a characteristic robust to noise is obtained (Difference of Gauassian: DoG). When the work on the current scale is finished, the same work is performed while changing the size of the image so that it can respond to the scale change, and extrema, which is a strong feature at different sizes, is obtained.

DoG를 통해 비교적 강인한 extrema를 추출했을지라도 여전히 불필요한 정보들도 많이 포함하고 있으므로, 이에 대해 키포인트 국소화 및 필터링을 통해 의미가 있는 정보들만 추출한다. 다음으로 구배(gradient)의 방향에 따른 히스토그램(histogram)을 산출한다.Even though a relatively strong extrema is extracted through DoG, it still contains a lot of unnecessary information, so only meaningful information is extracted through keypoint localization and filtering. Next, a histogram according to the direction of the gradient is calculated.

N×N 구배 윈도우에서 m개의 방향으로 N×N×m 차원의 디스크립터를 생성하고, 이 디스크립터를 비교하는 방식으로 영상의 정합 여부를 판단하게 된다.An N×N×m-dimensional descriptor is generated in m directions in an N×N gradient window, and the image matching is determined by comparing the descriptors.

템플릿 특성에 의한 방식에 의하면, 정합부(120)는 기준 영상 데이터 내에 지정된 템플릿과 적어도 유사한 상기 선정 영상 데이터를 검색하여, 템플릿들 간의 특성 상관도 분석에 따라 정합한다. 템플릿은 예컨대 미리 지정된 표지판, 간판 등의 영상 데이터 내에서 상당 정도 영역을 차지하는 객체일 수 있다. 특성 상관도 분석은 정합 속도를 향상시키기 위해, 푸리에 변환을 통해 영상의 공간적 특성을 주파수 특성으로 변환시켜 유사 특성 영역을 정합하는 방식을 사용할 수 있다. 특징 기하 또는 템플릿은 정합 정보를 구성하며, 정합 정보는 기준 영상 데이터베이스부(116)에 저장될 수 있다. According to the method according to the template characteristics, the matching unit 120 searches for the selected image data that is at least similar to a template designated in the reference image data, and matches the selected image data according to a characteristic correlation between the templates. The template may be, for example, an object occupying a significant area in image data such as a pre-designated sign or sign. In the characteristic correlation analysis, in order to improve the matching speed, a method of matching a similar characteristic region by converting a spatial characteristic of an image into a frequency characteristic through Fourier transform can be used. The feature geometry or template constitutes matching information, and the matching information may be stored in the reference image database unit 116.

기하 변환부(122)는 공통된 특징 기하들 또는 템플릿에 있어서, 기준 영상 데이터를 참조하는 기하 변환 모델링에 의해 상기 선정 영상 데이터의 상기 CCTV 기하 정보를 기하 변환하여 상기 2차원 위치 데이터보다 정확도가 높은 보정용 위치 데이터가 포함되는 보정 CCTV 기하 정보를 생성한다. The geometric conversion unit 122 geometrically converts the CCTV geometric information of the selected image data by geometric transformation modeling that refers to the reference image data in common feature geometries or templates, so that the accuracy is higher than that of the 2D position data. Compensated CCTV geometry information including location data is generated.

기하 변환 모델링은 수학식 1과 같은 공선조건식을 이용하거나, 영상 데이터의 기하를 행렬형태로 반영할 수 있는 perspective transformation, affine transformation, homography transformation 중 하나를 대체모델링을 사용할 수 있다.For geometric transformation modeling, a collinear conditional expression such as Equation 1 may be used, or alternative modeling may be used for one of perspective transformation, affine transformation, and homography transformation that may reflect the geometry of image data in a matrix form.

[수학식 1][Equation 1]

Figure 112019124187210-pat00001
Figure 112019124187210-pat00001

영상 좌표는 동일 특징 기하 또는 템플릿과 관련된 영상 데이터의 2차원 위치 데이터이며, 대상물 좌표는 동일 특징 기하 또는 템플릿에 대한 기준 영상 데이터의 3차원 위치 데이터이다. 카메라 위치 및 자세는 기준 영상 데이터의 제 1 외부 기하 데이터이고, 주점 위치, 초점 거리, 렌즈 왜곡은 제 1 내부 기하 데이터이다. 이상에서는 기준 위치 데이터가 3차원 위치 데이터인 경우를 예로 들어 기준 영상 데이터가 3차원 위치 데이터로 표현된 실시예를 설명하고 있으나, 기준 위치 데이터가 2차원 위치 데이터인 경우에는 기준 영상 데이터가 2차원 좌표의 2차원 위치 데이터로 표현될 수 있다. Image coordinates are two-dimensional position data of image data related to the same feature geometry or template, and object coordinates are three-dimensional position data of reference image data with respect to the same feature geometry or template. The camera position and posture are first external geometric data of the reference image data, and the main point position, focal length, and lens distortion are first internal geometric data. In the above, an example in which the reference position data is 3D position data is described as an example in which the reference image data is expressed as 3D position data. However, when the reference position data is 2D position data, the reference image data is 2D. It can be expressed as two-dimensional position data of coordinates.

정합 최적값 추정부(124)는 보정용 CCTV 기하 정보가 연계된 표본용 영상 데이터의 특징 기하들을 랜덤 샘플링하여, 샘플링된 표본용 특징 기하들 및 상응하는 기준 데이터의 특징 기하들의 상호 이격량이 최소가 되는 표본용 특징 기하를 정합 최적값으로 추정할 수 있다. The matching optimal value estimating unit 124 randomly samples the feature geometries of the sample image data to which the correction CCTV geometric information is linked, so that the mutually spaced amount of the sampled feature geometries and the corresponding reference data feature geometries is minimized. The feature geometry for the sample can be estimated as a matching optimal value.

구체적으로, 동일 추정되는 표본용 특징 기하마다 이를 공유하는 영상 데이터들을 복수로 샘플링한다. 이러한 샘플링 세트는 서로 상이한 표준용 특징 기하 별로 복수로 획득한다. 이와 동시에, 표본용 특징 기하와 동일 추정되는 특징 기하를 갖는 기준 영상 데이터를 연동하여 선별한다. 이어서, 동일 추정되는 표본용 특징 기하들을 공유하는 영상 데이터들과 기준 영상 데이터를 보정용 CCTV 기하 정보에 따라 배열하는 경우에, 영상 데이터들의 표본용 특징 기하들과 기준 영상 데이터의 특징 기하에서 상호 이격량이 최소로 판단되는 영상 데이터들의 표본용 특징 기하를 정합 최적값으로 추정한다. Specifically, a plurality of image data sharing the same estimated feature geometry for a sample are sampled. These sampling sets are acquired in plurality for different standard feature geometries. At the same time, reference image data having a feature geometry that is estimated to be the same as the sample feature geometry is interlocked to be selected. Subsequently, when the image data sharing the same estimated sample feature geometry and the reference image data are arranged according to the CCTV geometry information for correction, the amount of mutual separation between the sample feature geometry of the image data and the feature geometry of the reference image data The sample feature geometry of the image data judged to be the minimum is estimated as a matching optimal value.

CCTV 기하 정보 추정부(126)는 상술의 정합 최적값으로 추정된 특징 기하와 관련하여 기하 변환된 보정용 CCTV 기하 정보를 최종 보정 CCTV 기하 정보로 추정할 수 있다. The CCTV geometric information estimating unit 126 may estimate the geometrically converted CCTV geometric information for correction in relation to the feature geometry estimated as the matching optimal value as the final corrected CCTV geometric information.

영상 정보 생성부(128)는 최종 보정 CCTV 기하 정보 및 특징 기하에 대한 정합 정보에 기초하여, CCTV 장치(102)의 영상 데이터로부터 CCTV 영상 정보를 생성한다. The image information generation unit 128 generates CCTV image information from image data of the CCTV device 102 based on the final corrected CCTV geometry information and matching information for the feature geometry.

CCTV 영상 정보는 기준 영상 데이터베이스부(116)의 기준 영상 데이터와 같이, 기하 변환에 의해 보정된 영상 데이터 및 이와 연계된 위치 데이터, 보정된 제 2 자세 데이터를 포함하는 보정된 제 2 외부 기하 데이터, 보정된 제 2 내부 기하 데이터를 포함하는 최종 보정 CCTV 기하 정보, 색상 데이터, 시간 데이터 등을 포함할 수 있다.CCTV image information, like the reference image data of the reference image database unit 116, the image data corrected by geometric transformation, the position data associated therewith, the corrected second external geometric data including the corrected second posture data, It may include final corrected CCTV geometric information including the corrected second internal geometric data, color data, time data, and the like.

보정된 영상 데이터와 연계된 위치 데이터는 기준 위치 데이터가 2차원 위치 데이터인 경우에 2차원 위치 좌표로 구성되며, 기준 위치 데이터가 3차원 위치 데이터인 경우에 3차원 위치 좌표로 구성될 수 있다. Position data associated with the corrected image data may be composed of two-dimensional position coordinates when the reference position data is two-dimensional position data, and may be composed of three-dimensional position coordinates when the reference position data is three-dimensional position data.

한편, 기준 기하 정보가 기준 위치 데이터로서의 3차원 위치 데이터와 제 1 자세 데이터를 갖는 제 1 외부 기하 데이터로 구성되며, 영상 데이터의 일부 위치와 관련된 기준 영상 데이터의 기준 기하 정보의 정밀도가 임계치보다 낮은 경우에, 영상 정보 생성부(128)는 정밀도가 낮은 기준 영상 데이터와 상응하는 CCTV 장치(102)의 영상 데이터의 3차원 영상 정보를 2차원 기하 모델로 변환시킬 수 있다. On the other hand, the reference geometric information is composed of 3D position data as reference position data and first external geometric data having first posture data, and the accuracy of the reference geometric information of the reference image data related to some positions of the image data is lower than the threshold. In this case, the image information generation unit 128 may convert the 3D image information of the image data of the CCTV device 102 corresponding to the reference image data with low precision into a 2D geometric model.

영상 정보 생성부(128)는 2차원 변환된 영상 데이터 내에서 픽셀 데이터 분석을 통한 객체 높이를 추정하거나, CCTV 장치(102)의 영상 센서(106)의 높이를 특정 높이로 가정하여 객체 높이를 분석하거나, CCTV 장치(102)의 다수 영상 센서들의 시야 방향과 관련된 제 2 자세 데이터를 특정값으로 정의하며 삼각 함수 모델을 이용하여 객체 높이 추정할 수 있다. 이에 의해 추정된 객체 높이를 최종 보정 CCTV 기하 정보에 반영하여 3차원 위치 데이터를 추정함으로써 상응하는 영상 데이터의 상기 3차원 영상 정보를 생성할 수도 있다. 이는 기준 영상 데이터가 항공 영상 또는 거리뷰(스트리트뷰) 등과 같이 기준 기하 정보의 낮은 정밀도를 갖는 경우에 적용될 수 있다. The image information generator 128 estimates the height of the object through pixel data analysis in the 2D converted image data, or analyzes the height of the object by assuming the height of the image sensor 106 of the CCTV device 102 as a specific height. Alternatively, the second posture data related to the viewing direction of the plurality of image sensors of the CCTV device 102 may be defined as a specific value, and the height of the object may be estimated using a trigonometric function model. Accordingly, the 3D image information of the corresponding image data may be generated by estimating 3D position data by reflecting the estimated object height to the final corrected CCTV geometric information. This can be applied when the reference image data has low precision of reference geometric information, such as an aerial image or a street view (street view).

객체 정보 추출부(130)는 영상 데이터로부터 기인하는 CCTV 영상 정보로부터 특정 형태의 객체를 추출할 수 있다. The object information extraction unit 130 may extract a specific type of object from CCTV image information resulting from the image data.

구체적으로, 객체 정보 추출부(130)는 CCTV 영상 정보에 포함된 데이터들에 기초하여 추출된 대상물의 속성과 관련된 객체 정보를 추출할 수 있다.Specifically, the object information extraction unit 130 may extract object information related to an attribute of the extracted object based on data included in the CCTV image information.

객체 정보 추출부(130)는 CCTV 영상 정보에 포함된 영상 데이터, 최종 보정 CCTV 기하 정보, 색상 데이터, 시간 데이터 등으로부터 파악된 대상물과 관련된 후보군 데이터를 머신 러닝 기법으로 검출하고, 검출된 후보군 데이터에 순차적으로 추가 기계학습 모델을 적용하여 대상물의 정보를 인식할 수 있다. The object information extraction unit 130 detects candidate group data related to the object identified from image data included in CCTV image information, final corrected CCTV geometric information, color data, time data, etc., using a machine learning technique, and uses the detected candidate group data. The information of the object can be recognized by sequentially applying additional machine learning models.

기계학습은 대상물 객체 검출, 대상물 객체 인식 두 단계로 나누어져 수행되고, 대상물 객체 검출 단계에서는 대상물 객체의 모양, 색상, 질감 등의 벡터와 같은 속성을 기반으로 데이터 내에서 후보군을 기계학습을 통해 검출하고, 검출된 후보군에 순차적으로 추가 기계학습 모델을 적용하여 대상 사물이 나타내는 정보를 인식하여 분류한다.Machine learning is performed in two stages: object object detection and object object recognition, and in the object object detection stage, candidate groups are detected in the data based on properties such as the shape, color, and texture of the object object through machine learning. And, by sequentially applying an additional machine learning model to the detected candidate group, the information represented by the target object is recognized and classified.

공간 정보 생성부(132)는 추출된 객체와 동일한 기준 영상 데이터의 객체에 기초하여, 최종 보정 CCTV 기하 정보 및 기준 영상 데이터에 저장된 객체와 관련된 객체 정보를 CCTV 영상 정보에 포함하는 소정 좌표계, 예컨대 절대좌표계에 따른 신규 공간 정보를 생성하며, 공간 정보 데이터베이스부(136)에 전송하여 저장할 수 있다. 공간 정보는 후술한 공간 데이터로서 상세 정보에 대해서는 이후에 설명한다. The spatial information generator 132 includes a predetermined coordinate system including, in CCTV image information, the final corrected CCTV geometric information and object information related to the object stored in the reference image data, based on the object of the same reference image data as the extracted object. New spatial information according to the coordinate system is generated, and may be transmitted to and stored in the spatial information database unit 136. The spatial information is spatial data to be described later, and detailed information will be described later.

공간 정보 데이터베이스부(136)는 소정 좌표계, 예컨대 절대 좌표계에 따라, 이종 센서들로부터 기 획득된 관측 데이터와 관측 데이터에 기초하여 도화를 위해 기 생성된 데이터를 공간 데이터로 구조화하여 저장한다. 공간 데이터는 소정 좌표계의 해당 좌표 등에 생성된 데이터로서, 관측 데이터, 내부 기하, 외부 기하, 고유 데이터, 시간 정보, 취득 환경 정보, 이종 센서들 간의 센서 데이터들의 위치 오차로 인한 이격량, 정확도, 정밀도 관련한 확률 정보, 포인트 클라우드 관련 정보, 영상 데이터 관련 정보, 객체 정보 및 지도 관련 정보를 포함할 수 있다. 본 실시예에서는 공간 데이터가 상술한 데이터들 내지 정보들을 전부 포함하는 것으로 기술하고 있으나, 이에 제한되지 않으며, 설계 사양에 따라 상술한 데이터/정보들 중 일부만을 포함하도록 설정될 수 있다. The spatial information database unit 136 organizes and stores data previously generated for drawing as spatial data based on observation data and observation data previously acquired from heterogeneous sensors according to a predetermined coordinate system, for example, an absolute coordinate system. Spatial data is data generated in the corresponding coordinates of a predetermined coordinate system, such as observation data, internal geometry, external geometry, intrinsic data, time information, acquisition environment information, and the amount of separation, accuracy, and precision due to the positional error of sensor data between heterogeneous sensors. It may include related probability information, point cloud-related information, image data-related information, object information, and map-related information. In the present embodiment, the spatial data is described as including all of the above-described data or information, but is not limited thereto, and may be set to include only some of the above-described data/information according to design specifications.

공간 정보 갱신부(134)는 공간 정보 데이터베이스부(136)에 이미 저장된 기존 공간 정보가 존재하는 경우에, 동일 위치의 객체 정보에 있어서, 신규 공간 정보가 기존 공간 정보와 상이한지 여부를 판단하고, 판단 결과 상이한 객체 정보에 대하여, 기존 공간 정보를 신규 공간 정보로 갱신할 수 있다. When the existing spatial information already stored in the spatial information database unit 136 exists, the spatial information update unit 134 determines whether the new spatial information is different from the existing spatial information in the object information at the same location, As a result of the determination, for different object information, existing spatial information may be updated with new spatial information.

본 실시예에 따르면, 부정확하거나 일부 지역에서 누락된 위치와 자세에 관련 기하 데이터를 갖는 CCTV 장치(102)의 영상 데이터를 관측 센서와 측위 센서 구성된 멀티센서 플랫폼으로부터 생성된 기준 영상 데이터의 기준 영상 정보와 정합하여 기하 변환 보정 등을 수행함으로써, CCTV 장치로부터 취득한 영상 데이터를 편의성과 높은 정밀도의 공간 정보로 생성할 수 있다. 상세하게는, CCTV 장치(102)의 영상 데이터와 연계되는 2차원 위치 데이터가 낮은 정확도를 갖거나, 애초에 누락되거나, 혹은 개략적인 공간 명칭으로 기록된 경우에, 기준 기하 정보에 의해 보정된 CCTV 영상 정보는 최초 영상 데이터보다 높은 정확도의 좌표로 구성된 위치 데이터를 가질 수 있다. According to the present embodiment, the image data of the CCTV device 102 having geometric data related to the position and posture that is incorrect or missing in some areas is reference image information of the reference image data generated from a multi-sensor platform consisting of an observation sensor and a positioning sensor. By matching with and performing geometric transformation correction, etc., image data acquired from a CCTV device can be generated as spatial information with convenience and high precision. Specifically, when the two-dimensional position data linked to the image data of the CCTV device 102 has low accuracy, is missing from the beginning, or is recorded with a rough space name, the CCTV image corrected by the reference geometric information The information may have location data composed of coordinates with higher accuracy than the original image data.

또한, 보정된 위치 및 자세 정보와 CCTV에서 취득된 영상 정보를 연계, 분석하여 영상 내 표출된 객체 정보를 공간정보화하여 지도 서비스와 연계할 수 있다. In addition, by linking and analyzing the corrected position and posture information and image information acquired from CCTV, object information expressed in the image is converted into spatial information, and linked with a map service.

아울러, 기준 영상 데이터의 구축시에 라이다 등 고가의 센서들을 배제한 저비용의 센서들로부터 취득한 관측 데이터를 가공함으로써, 구축 비용 절감을 달성할 수 있다.In addition, by processing observation data acquired from low-cost sensors excluding expensive sensors such as lidar when constructing the reference image data, it is possible to achieve a reduction in construction cost.

이에 더하여, 본 실시예에서는 정합 최적값 추정부(124)를 통해 동일 추정되는 특징 기하들 간의 상호 이격량이 최소인 특징 기하들로 최종 보정 CCTV 기하 정보등을 생성하고 있으나, 제 2 외부 기하 데이터가 영상 데이터들 간의 정합을 양호하게 실현할 수 있는 데이터이면, 특징 기하들 간의 상호 이격량이 임계치 이하로 되는 조건을 만족하면, 정합 최적값 추정부(124)는 생략될 수 있다. In addition, in this embodiment, the final corrected CCTV geometric information, etc., is generated with the feature geometries with the minimum mutual separation between the feature geometries estimated to be the same through the matching optimal value estimating unit 124, but the second external geometric data is In the case of data capable of satisfactory matching between image data, the matching optimal value estimating unit 124 may be omitted if the condition in which the mutually spaced amount between the feature geometries is less than or equal to the threshold is satisfied.

이하, 도 2 내지 도 16을 참조하여, 도 2는 본 발명의 실시예에 따른 3차원 영상 정보를 이용한 CCTV 장치의 공간 정보 시스템에서 구현되는 CCTV 장치의 영상 데이터에 대한 CCTV 영상 정보의 생성 방법에 대해 설명하기로 한다. 본 실시예에서는 정합 최적값 추정부(124)의 기능이 수행되는 점을 포함한다. 그러나 앞서 설명한 바와 같이, 이는 생략될 수 있다. Hereinafter, with reference to FIGS. 2 to 16, FIG. 2 is a method of generating CCTV image information for image data of a CCTV device implemented in a spatial information system of a CCTV device using 3D image information according to an embodiment of the present invention. I will explain. In this embodiment, the function of the matching optimal value estimating unit 124 is performed. However, as described above, this can be omitted.

도 2는 본 발명의 실시예에 따른 CCTV 영상 정보를 이용한 CCTV 장치의 공간 정보 시스템에서 구현되는 CCTV 장치의 영상 데이터에 대한 3차원 영상 정보의 생성 방법에 관한 순서도이다.2 is a flowchart illustrating a method of generating 3D image information for image data of a CCTV device implemented in a spatial information system of a CCTV device using CCTV image information according to an embodiment of the present invention.

먼저, 검색 선정부(118)는 CCTV 장치(102)로부터의 취득한 영상 데이터에 관련된 2차원 위치 데이터로 구성된 제 2 외부 기하 데이터를 포함하는 CCTV 기하 정보를 획득한다(S205).First, the search selection unit 118 acquires CCTV geometric information including second external geometric data composed of two-dimensional position data related to the image data acquired from the CCTV device 102 (S205).

다음으로, 검색 선정부(118)는 기준 위치 데이터와 제 1 자세 데이터를 갖는 제 1 외부 기하 데이터 및 제 1 내부 기하 데이터를 포함하는 기준 영상 데이터의 기준 기하 정보 중 적어도 기준 위치 데이터와 영상 데이터의 2차원 위치 데이터에 기초하여 영상 데이터의 후보군을 검색하여 선정한다(S210).Next, the search selector 118 includes at least the reference position data and the image data among the reference geometric information of the reference image data including the first external geometric data and the first internal geometric data having the reference position data and the first posture data. A candidate group of image data is searched and selected based on the 2D position data (S210).

2차원 위치 데이터는 CCTV 장치(102)의 2차원 좌표, 또는 좌표가 아닌 개략적인 정보로서의 CCTV 장치가 설치된 공간의 명칭 등일 수 있다. 2차원 위치 데이터를 좌표를 갖는 경우에 3차원 위치 데이터의 2차원 좌표를 검색하며, 2차원 위치 데이터가 좌표가 아닌 개략적인 데이터인 CCTV 장치(102)의 설치된 공간의 명칭이면, 기준 영상 데이터베이스부(116)에서 공간의 명칭과 관련된 등록된 3차원 위치 데이터를 검색한다.The two-dimensional location data may be a two-dimensional coordinate of the CCTV device 102, or a name of a space in which the CCTV device is installed as schematic information rather than coordinates. When the two-dimensional position data has coordinates, the two-dimensional coordinates of the three-dimensional position data are searched, and if the two-dimensional position data is the name of the installed space of the CCTV device 102, which is rough data rather than coordinates, the reference image database unit At (116), the registered 3D location data related to the name of the space is searched.

기준 위치 데이터는 제 1 외부 기하 데이터의 2차원 위치 데이터보다 정확도가 높은 2차원 위치 데이터 또는 3차원 위치 데이터로 구성될 수 있다. 기준 위치 데이터가 2차원 위치 데이터인 경우에, 검색 선정부(118)는 CCTV 기하 정보 및 기준 기하 정보의 제 2 차원 위치 데이터들을 검색한다. 기준 위치 데이터가 3차원 위치 데이터인 경우에, CCTV 기하 정보의 2차원 위치 데이터와 3차원 위치 데이터로부터 추출된 XY 좌표의 2차원 위치 데이터를 검색한다. The reference position data may be composed of 2D position data or 3D position data having higher accuracy than the 2D position data of the first external geometric data. When the reference position data is two-dimensional position data, the search selection unit 118 searches for CCTV geometric information and second-dimensional position data of the reference geometric information. When the reference position data is 3D position data, 2D position data of CCTV geometric information and 2D position data of XY coordinates extracted from 3D position data are searched.

기준 영상 데이터는 기준 영상 데이터베이스부(116)에 저장되며, 3차원 위치 데이터와 연계된 기준 영상 데이터의 경우에, 도 3과 같이, 짙은 색으로 표시된 픽셀에서 3차원 위치 데이터를 비롯한 상술의 데이터들이 저장된다. 3차원 위치 데이터는 2차원 위치 데이터, 즉 XY 좌표에서 고도값 Z을 추가한 XYZ 좌표일 수 있다. The reference image data is stored in the reference image database unit 116, and in the case of the reference image data linked to the 3D position data, as shown in FIG. 3, the above-described data including 3D position data in the pixels displayed in dark color are Is saved. The 3D location data may be 2D location data, that is, XYZ coordinates obtained by adding an altitude value Z from the XY coordinates.

이와 같이, 제 1 외부 기하 데이터는 상술한 제 1 자세 데이터를 기준 위치 데이터와 함께 포함하고, 제 1 내부 기하 데이터는 기준 영상을 생성하는데 설정된 센서에 정의된 기하 파라미터에 근거한다. In this way, the first external geometric data includes the above-described first posture data together with the reference position data, and the first internal geometric data is based on a geometric parameter defined in a sensor set to generate the reference image.

기준 영상은 외부로부터 입수됨과 아울러서, 기준 위치 데이터가 적어도 포함되는 영상이며, CCTV 장치(102)로부터 획득된 영상 데이터와 대비가능한 기준 영상 데이터로 가공된다. 기준 영상을 생성하는데 최초 이용되는 센서는 CCTV 장치(102)보다 높은 측위 정확도, 영상 구현 성능을 갖는 영상 획득 기기 및 레이저 스캔닝 센서(예컨대, 라이다(Lidar)) 중 적어도 하나일 수 있다. 기준 영상과 연계된 기준 기하 정보는 각 픽셀 좌표마다, RGB 데이터와 같은 색상 정보, 제 1 외부 기하 데이터 및 제 1 내부 기하 데이터를 포함하고, 기준 기하 정보와 결합되는 기준 영상은 기준 영상 데이터로 저장될 수 있다.The reference image is an image that is obtained from the outside and includes at least reference position data, and is processed into reference image data that can be contrasted with the image data obtained from the CCTV device 102. The first sensor used to generate the reference image may be at least one of an image acquisition device having higher positioning accuracy and image realization performance than the CCTV device 102, and a laser scanning sensor (eg, Lidar). The reference geometric information associated with the reference image includes color information such as RGB data, first external geometric data, and first internal geometric data for each pixel coordinate, and the reference image combined with the reference geometric information is stored as reference image data. Can be.

기준 영상 데이터는 영상 촬영 센서(영상 획득 기기) 및 레이저 스캔닝 센서 중 적어도 어느 하나와 측위 센서를 구비하는 외부 이동형 플랫폼로부터 획득된 영상 정보 및 포인트 클라우드 정보를 센서들 간의 기하 모델을 통해 정합하고 보정하여 융합된 외부 영상 데이터, 혹은, 보정 CCTV 기하 정보로 보정되어 영상 정보로 이미 영상 정보 생성부(128) 및/또는 공간 정보 데이터베이스부(136)에 저장된 기존의 CCTV 장치의 영상 데이터일 수 있다. The reference image data matches and corrects image information and point cloud information acquired from an external mobile platform having at least one of an image capture sensor (image acquisition device) and a laser scanning sensor and a positioning sensor through a geometric model between the sensors. Thus, it may be fused external image data, or image data of an existing CCTV device that is corrected with corrected CCTV geometric information and already stored in the image information generation unit 128 and/or the spatial information database unit 136 as image information.

기준 영상을 생성하는데 최초 이용되는 센서가 영상 촬영 센서인 경우에, 제 1 내부 기하 데이터는 제 2 내부 기하 데이터에서 설명된 영상 센서(106)와 실질적으로 동일하다. 영상 촬영 센서인 경우에, 도 4와 같이, 대상물의 3차원 형상이 2차원으로 투영되는데 활용된 투영 중심과 방향은 기준 영상의 3차원 위치 데이터와 시야 방향과 관련되므로, 투영 중심과 방향은 제 1 외부 기하 데이터와 함께 기준 영상 데이터로 저장될 수 있다. 영상 촬영 센서로부터 생성된 기준 영상 데이터의 기준 기하 정보는 기준 위치 데이터로서 2차원 위치 데이터 혹은 3차원 위치 데이터를 포함할 수 있다. When the first sensor used to generate the reference image is an image capturing sensor, the first internal geometric data is substantially the same as the image sensor 106 described in the second internal geometric data. In the case of the image capture sensor, as shown in FIG. 4, the projection center and direction used to project the three-dimensional shape of the object in two dimensions are related to the three-dimensional position data and the viewing direction of the reference image. 1 Can be stored as reference image data together with external geometric data. The reference geometric information of the reference image data generated from the image capturing sensor may include 2D position data or 3D position data as reference position data.

기준 영상이 항공 관측 데이터인 경우에, CCTV 장치(102)와 같은 지상 관측 영상 데이터와 상이한 기하를 가지므로, 항공 관측 데이터는 도 5와 같이, 특정 방향의 뷰 형태, 예를 들면 탑 뷰 형상으로 변환될 수 있다. 예를 들어, 항공 관측 데이터의 각 픽셀이 수평 기하를 가진 정사영상 형태로 변환되어 기준 영상으로 채용될 수 있다. When the reference image is aerial observation data, since it has a different geometry from the ground observation image data such as the CCTV device 102, the aerial observation data is in a view form in a specific direction, for example, a top view shape, as shown in FIG. 5. Can be converted. For example, each pixel of aerial observation data may be converted into an orthogonal image form having a horizontal geometry and used as a reference image.

기준 영상이 왜곡 영상을 발생하는 광역 영상 센서로부터 기인하는 경우에, 기준 영상은 왜곡 영상을 평면 영상 데이터로 변환하여 생성되는 평면 영상 데이터를 이용하며, 기준 위치 데이터는 평면 영상 데이터의 위치 데이터를 활용하고, 제 1 자세 데이터는 평면 영상 데이터의 시야 방향, 시야각 등으로 정의될 수 있다. When the reference image originates from a wide-area image sensor that generates a distorted image, the reference image uses flat image data generated by converting the distorted image into flat image data, and the reference position data uses the position data of the flat image data. In addition, the first posture data may be defined as a viewing direction and a viewing angle of the planar image data.

이와 관련하여 기준 영상 데이터베이스부(116)에서 이루어지는 왜곡 제거와 평면 영상 데이터 생성의 과정에 대해 형성하는 과정을 도 6 내지 도 10을 통해 설명한다. In this regard, a process of removing distortion and generating planar image data performed by the reference image database unit 116 will be described with reference to FIGS. 6 to 10.

도 6은 광역 영상 센서로부터 취득한 영상 데이터의 왜곡을 제거하여 평면 영상 데이터로 변환하는 제 1 과정에 관한 순서도이며, 도 7 및 도 8은 영상 왜곡 제거 및 평면 영상 데이터 변환의 제 1 과정을 개략적으로 도시한 도면이다. 6 is a flowchart illustrating a first process of removing distortion of image data acquired from a wide area image sensor and converting it into flat image data, and FIGS. 7 and 8 schematically illustrate a first process of removing image distortion and converting planar image data. It is a drawing shown.

도 9는 광역 영상 센서로부터 취득한 영상 데이터의 왜곡을 제거하여 평면 영상 데이터로 변환하는 제 2 과정에 관한 순서도이며, 도 10은 영상 왜곡 제거 및 평면 영상 데이터 변환의 제 2 과정을 개략적으로 도시한 도면이다. 9 is a flowchart illustrating a second process of removing distortion of image data acquired from a wide area image sensor and converting it into flat image data, and FIG. 10 is a diagram schematically showing a second process of removing image distortion and converting planar image data to be.

제 1 과정과 관련된 도 6을 참조하면, 어안 렌즈를 구비한 광역 영상 센서로 인해 왜곡된 어안 렌즈용 영상 데이터가 입력되는 경우에(S605), 기준 영상 데이터베이스부(116)는 도 7서와 같이, 영상 데이터로부터의 왜곡 영상 데이터와 참조용 평면 영상 데이터 간의 대응 관계를 정의하도록 각 픽셀에 인덱스를 부여한다(S610). Referring to FIG. 6 related to the first process, when image data for a fisheye lens distorted by a wide-area image sensor having a fisheye lens is input (S605), the reference image database unit 116 is as shown in FIG. , Each pixel is given an index to define a correspondence relationship between the distorted image data from the image data and the reference plane image data (S610).

다음으로, 기준 영상 데이터베이스부(116)는 인덱스가 부여된 왜곡 영상 데이터를 기 설정된 구간으로 분해한다(S615). Next, the reference image database unit 116 decomposes the distorted image data to which the index is assigned into preset sections (S615).

이어서, 기준 영상 데이터베이스부(116)는 참조용 평면 영상 데이터를 참조하여, 분해된 구간의 왜곡 보정 모델을 기반으로 왜곡 영상 데이터의 왜곡을 제거함으로써 평면 영상 데이터를 생성한다(S620). Subsequently, the reference image database unit 116 generates flat image data by removing distortion of the distorted image data based on the distortion correction model of the decomposed section by referring to the reference plane image data (S620).

왜곡 보정 모델은 분해된 구간의 수식 또는 인덱스에 기반한 모델링일 수 있다. The distortion correction model may be modeling based on an equation or index of the decomposed section.

만약, 전방위 영상 데이터가 입력되면, 기준 영상 데이터베이스부(116)는 도 8의 2번째 단계에서와 같이, 전방위 영상 데이터를 기 설정된 구간으로 분해한다. If the omnidirectional image data is input, the reference image database unit 116 decomposes the omnidirectional image data into preset sections, as in the second step of FIG. 8.

다음으로, 기준 영상 데이터베이스부(116)는 도 8의 3번째 단계에서와 같이, 분해된 전방위 영상을 기 설정된 구간으로 재분해한다. 이어서, 기준 영상 데이터베이스부(116)는 재분해된 구간의 왜곡 보정 모델, 예컨대 수식 또는 인덱스 기반으로 왜곡을 제거하여, 도 8 우측 이미지와 같이, 평면 영상 데이터를 생성한다. Next, as in the third step of FIG. 8, the reference image database unit 116 re-decomposes the decomposed omnidirectional image into preset sections. Subsequently, the reference image database unit 116 removes the distortion based on a distortion correction model of the re-decomposed section, for example, an equation or an index, and generates flat image data as shown in the right image of FIG. 8.

이는 CCTV 장치(102)로부터 수신되는 영상 데이터가 광역 영상 센서로부터 기인하여 왜곡 영상을 포함하는 경우에도 실질적으로 동일한 과정을 실행하며, 이 과정은 영상 데이터를 입력하는 검색 선정부(118)에서 진행될 수 있다. This is substantially the same process even when the image data received from the CCTV device 102 contains a distorted image due to the wide area image sensor, and this process can be performed in the search selection unit 118 for inputting the image data. have.

한편, 제 2 과정과 관련된 도 9를 참조하면, 전방위 영상을 생성하는 광역 영상 센서로 인해 왜곡된 전방위 영상 데이터가 기준 영상 데이터베이스부(116)로 입력되는 경우에(S905), 기준 영상 데이터베이스부(116)는 영상 데이터로부터의 왜곡 영상 데이터에 기반한 카메라 기하식 기반 왜곡 영상 데이터로부터 가상의 3차원 형상을 복원한다(S910). Meanwhile, referring to FIG. 9 related to the second process, when omnidirectional image data distorted by a wide area image sensor generating an omnidirectional image is input to the reference image database unit 116 (S905), the reference image database unit ( 116) reconstructs a virtual 3D shape from the distorted image data based on the camera geometry based on the distorted image data from the image data (S910).

다음으로, 기준 영상 데이터베이스부(116)는 가상의 카메라 기하식을 정의하고 기하식을 통해 가상의 평면 카메라에 투영함으로써 평면 영상 데이터를 생성한다(S915).Next, the reference image database unit 116 creates planar image data by defining a virtual camera geometry and projecting it onto a virtual plane camera through the geometry (S915).

이와는 달리, 기준 영상이 레이저 스캔닝 센서로부터 기인하는 경우에, 기준 영상은 레이저 스캔닝 센서로부터 획득되는 포인트 클라우드가 변환된 가상의 영상 데이터를 이용할 수 있다, 기준 위치 데이터는 가상의 영상 데이터의 3차원 위치 데이터로 정의되며, 제 1 자세 데이터는 상기 가상의 영상 데이터의 시야 방향으로 정의될 수 있다. In contrast, when the reference image originates from a laser scanning sensor, the reference image may use virtual image data converted from a point cloud obtained from the laser scanning sensor, and the reference position data is 3 of the virtual image data. It is defined as dimensional position data, and the first posture data may be defined as a viewing direction of the virtual image data.

포인트 클라우드의 변환은 도 11에서와 같이 도면의 아래에 위치된 포인트 클라우드의 반사 강도, 고도값 등을 감안하는 가상 카메라 모델링에 의해 수행될 수 있다. 그 결과, 가상의 영상 데이터는 도 11의 위의 예시와 같이 생성될 수 있다. 기준 영상 생성시에 영상 센서가 추가로 관여되는 경우에, 포인트 클라우드의 변환시에 영상 센서로 획득된 색상 데이터가 가상의 영상 데이터에 포함될 수 있다. The transformation of the point cloud may be performed by modeling a virtual camera taking into account the reflection intensity, altitude, and the like of the point cloud located below the drawing, as shown in FIG. 11. As a result, virtual image data may be generated as in the example above of FIG. 11. When an image sensor is additionally involved in generating the reference image, color data acquired by the image sensor at the time of conversion of the point cloud may be included in the virtual image data.

단계 S210에서는 검색 선정부(118)가 기준 위치 데이터와 2차원 위치 데이터만을 참조하여 영상 데이터를 선정하는 것이나, CCTV 기하 정보가 제 2 자세 데이터 및 제 2 내부 기하 데이터까지 전부 포함하는 경우, 검색 선정부(118)는 도 12의 과정으로 진행될 수 있다. 도 12는 CCTV 장치의 영상 데이터에 대한 공간 정보의 생성 방법에 있어서, 검색 선정의 다른 실시예에 관한 순서도이다. In step S210, the search selector 118 selects image data by referring only to the reference position data and the 2D position data, but when the CCTV geometric information includes all of the second posture data and the second internal geometric data, the search line The government 118 may proceed with the process of FIG. 12. 12 is a flowchart of another embodiment of search selection in a method of generating spatial information for video data of a CCTV device.

먼저, 검색 선정부(118)는 CCTV 장치(102)로부터 취득한 영상 데이터에 관련되어 2차원 위치 데이터와 제 2 자세 데이터를 갖는 제 2 외부 기하 데이터와 제 2 내부 기하 데이터를 포함하는 CCTV 기하 정보를 획득한다(S1205)First, the search selection unit 118 stores CCTV geometric information including second external geometric data and second internal geometric data having two-dimensional position data and second attitude data in relation to the image data acquired from the CCTV device 102. Acquire (S1205)

제 2 외부 기하 데이터는 이동 중인 CCTV 장치(102)의 위치와 자세, 즉 영상 센서(106)의 위치와 자세로 인해, 영상 센서(106)의 영상 정보를 취득할 때마다 가변되는 파라미터 값에 기초하여 산출되는 관측 데이터의 오차이며, 이 경우에 소정의 수학식 내지 모델링을 통해 계산될 수 있다. 제 2 내부 기하 데이터는 센서(104~108) 자체의 고유값으로서, CCTV 장치(102)의 이동 여부에 관계없이 유지되는 파라미터에 기인하는 센서(104~108)마다의 관측 데이터의 오차이다. 센서(104~108) 마다의 기하 파라미터는 상술하여 생략한다. The second external geometric data is based on a parameter value that changes every time image information of the image sensor 106 is acquired due to the position and posture of the CCTV device 102 in motion, that is, the position and posture of the image sensor 106 It is an error of the observed data calculated by doing so. The second internal geometric data is an inherent value of the sensors 104 to 108 itself, and is an error in observed data for each sensor 104 to 108 due to a parameter maintained regardless of whether the CCTV device 102 is moved or not. The geometric parameters for each of the sensors 104 to 108 are omitted in detail.

다음으로, 검색 선정부(118)는 기준 위치 데이터와 제 1 자세 데이터를 갖는 제 1 외부 기하 데이터 및 제 1 내부 기하 데이터를 포함하는 기준 영상 데이터의 기준 기하 정보 중 적어도 기준 위치 데이터와 영상 데이터의 2차원 위치 데이터에 기초하여 영상 데이터의 후보군을 검색한다(S1210).Next, the search selector 118 includes at least the reference position data and the image data among the reference geometric information of the reference image data including the first external geometric data and the first internal geometric data having the reference position data and the first posture data. A candidate group of image data is searched based on the 2D position data (S1210).

여기서, 영상 데이터는 색상 정보를 가진 행렬 형태의 데이터 뿐만 아니라 특정 객체를 대표할 수 있는 특징을 지닌 디스크립터(descriptor)로 사용될 수 있다. 특정 객체를 대표하는 특징을 지닌 디스크립터의 경우에, 영상 비교 알고리즘으로서 SIFT(Scale Invariant Feature Transform)를 활용할 수 있다. 이에 대해서는 시스템(100)의 설명에서 상세히 기재하여 생략한다. Here, the image data may be used as a descriptor having a characteristic capable of representing a specific object as well as data in a matrix form having color information. In the case of a descriptor having a characteristic representing a specific object, SIFT (Scale Invariant Feature Transform) can be used as an image comparison algorithm. This will be described in detail in the description of the system 100 and omitted.

다음으로, 검색 선정부(118)는 2차원 위치 데이터, 3차원 위치 데이터 및 제 1 및 2 자세 데이터를 참조하여 후보군 중 상기 기준 영상 데이터와 최고의 정합도를 갖는 영상 데이터를 선정한다(S1215).Next, the search selector 118 selects the image data having the highest degree of matching with the reference image data from among the candidate groups by referring to the 2D position data, the 3D position data, and the first and second posture data (S1215).

구체적으로, 기준 영상 데이터와 동일하거나 매우 유사한 2차원 위치 데이터를 갖는 영상 데이터의 시야 방향 및 시야각에 따라 제 1 및 제 2 외부 기하 데이터의 제 1 및 제 2 자세 데이터가 상이하면, 영상 기하로 인해 동일한 특징 기하라도 서로 상이한 기하로 인식되어 기준 영상 데이터와 영상 데이터 간의 정합이 곤란하다. 따라서, 동일한 위치에서 제 1 및 제 2 자세 데이터가 소정 범위 내로 유사한 영상 데이터만을 후보군에서 선정함으로써, 이후 정합 단계의 정확도 및 처리 신속성이 향상될 수 있다. Specifically, if the first and second posture data of the first and second external geometric data are different according to the viewing direction and viewing angle of the image data having the same or very similar two-dimensional position data as the reference image data, due to the image geometry The same feature geometry is recognized as a different geometry, making it difficult to match the reference image data and the image data. Accordingly, the accuracy and processing speed of the subsequent matching step may be improved by selecting only image data that is similar to the first and second posture data within a predetermined range from the same position from the candidate group.

도 2를 다시 참조하면, 정합부(120)는 선정된 영상 데이터와 기준 영상 데이터를 상호 정합한다(S215). Referring to FIG. 2 again, the matching unit 120 matches the selected image data and the reference image data (S215).

정합은 도 13에 따른 특징 기하 추출에 의한 방식 또는 도 14에 따른 영상 내에 지정된 템플릿 특성에 의한 방식에 의해 구현될 수 있다. Matching may be implemented by a method of extracting feature geometry according to FIG. 13 or a method according to a template characteristic specified in the image according to FIG. 14.

도 13은 정합부에서 특징 기하를 이용한 정합 과정을 예시한 도면이고, 도 14는 정합부에서 템플릿 간의 특성 상관도 분석을 이용한 정합 과정을 나타나는 순서도이다. FIG. 13 is a diagram illustrating a matching process using feature geometry in the matching unit, and FIG. 14 is a flowchart showing a matching process using characteristic correlation analysis between templates in the matching unit.

도 13과 같은 특징 기하 추출에 의한 방식은 기준 영상 데이터와 선정된 영상 데이터 간에 공통되는 소정 형태의 특징 기하들에 기반하여 기준 영상 데이터와 선정 영상 데이터를 정합하고, 특징 기하를 참고하여 공선조건식 등의 기하 모델을 통해 복수의 선정 영상 데이터를 결합할 수 있다. In the method by feature geometry extraction as shown in FIG. 13, the reference image data and the selected image data are matched based on feature geometries of a predetermined type that are common between the reference image data and the selected image data, and a collinear conditional expression, etc., is performed by referring to the feature geometry. It is possible to combine a plurality of selected image data through the geometric model of.

여기서, 영상 데이터는 색상 정보를 가진 행렬 형태의 데이터 뿐만 아니라 특정 객체를 대표할 수 있는 특징을 지닌 디스크립터(descriptor)로 사용될 수 있다. 특정 객체를 대표하는 특징을 지닌 디스크립터의 경우에, 영상 비교 알고리즘으로서 SIFT를 활용할 수 있다. Here, the image data may be used as a descriptor having a characteristic capable of representing a specific object as well as data in a matrix form having color information. In the case of a descriptor having a characteristic representing a specific object, SIFT can be used as an image comparison algorithm.

템플릿 특성에 의한 방식에 대해 도 14를 참고하면, 정합부(120)는 기준 영상 데이터 내에 지정된 템플릿과 적어도 유사한 상기 선정 영상 데이터를 검색한다(S1405). Referring to FIG. 14 for a method based on a template characteristic, the matching unit 120 searches for the selected image data that is at least similar to a template designated in the reference image data (S1405).

다음으로, 기준 영상 데이터 및 선정 영상 데이터의 템플릿들 간의 특성 상관도 분석에 따라 정합한다(S1410). 템플릿은 예컨대 미리 지정된 표지판, 간판 등의 영상 데이터 내에서 상당 정도 영역을 차지하는 객체일 수 있다. 특성 상관도 분석은 정합 속도를 향상시키기 위해, 푸리에 변환을 통해 영상의 공간적 특성을 주파수 특성으로 변환시켜 유사 특성 영역을 정합하는 방식을 사용할 수 있다.Next, the characteristic correlations between the templates of the reference image data and the selected image data are also matched according to analysis (S1410). The template may be, for example, an object occupying a significant area in image data such as a pre-designated sign or sign. In the characteristic correlation analysis, in order to improve the matching speed, a method of matching a similar characteristic region by converting a spatial characteristic of an image into a frequency characteristic through Fourier transform can be used.

이어서, 특성 상관 관계가 있는 템플릿들로 기준 영상 데이터와 선정 영상 데이터를 정합한다(S1415). Subsequently, the reference image data and the selected image data are matched with templates having a characteristic correlation (S1415).

도 13에서 설명한 특징 기하 또는 도 14를 통해 설명한 템플릿은 정합 정보를 구성하며, 정합 정보는 기준 영상 데이터베이스부(116)에 저장될 수 있다. The feature geometry described in FIG. 13 or the template described through FIG. 14 constitute matching information, and the matching information may be stored in the reference image database unit 116.

도 2를 다시 참조하면, 기하 변환부(122)는 공통된 특징 기하들 또는 템플릿들에 있어서, 기준 영상 데이터를 참조하는 기하 변환 모델링에 의해 선정 영상 데이터의 CCTV 기하 정보를 기하 변환하여 2차원 위치 데이터보다 정확도가 높은 보정용 위치 데이터가 포함되는 보정 CCTV 기하 정보를 생성한다(S220). Referring again to FIG. 2, the geometric conversion unit 122 geometrically converts CCTV geometric information of the selected image data by geometric transformation modeling that refers to the reference image data in common feature geometries or templates. Compensated CCTV geometric information including position data for correction with higher accuracy is generated (S220).

기하 변환 모델링은 상술의 수학식 1과 같은 공선조건식을 이용하거나, 영상 데이터의 기하를 행렬형태로 반영할 수 있는 perspective transformation, affine transformation, homography transformation 중 하나를 대체모델링을 사용할 수 있다.For geometric transformation modeling, a collinear conditional expression such as Equation 1 above may be used, or alternative modeling may be used for one of perspective transformation, affine transformation, and homography transformation capable of reflecting the geometry of image data in a matrix form.

도 15는 영상 데이터의 2차원 위치 데이터와 대응하는 기준 영상 데이터의 기준 위치 데이터를 산출하는 과정을 도시한 도면이다. 공선조건식을 이용한 경우로서, 동일 특징 기하에 있어서, 영상 데이터가 기준 영상 데이터의 3차원 위치 좌표로 기하 변환되어 보정된다. 15 is a diagram illustrating a process of calculating reference position data of reference image data corresponding to 2D position data of image data. In the case of using the collinear conditional equation, in the same feature geometry, the image data is geometrically transformed into a three-dimensional positional coordinate of the reference image data and corrected.

다음으로, 정합 최적값 추정부(124)는 보정용 CCTV 기하 정보가 연계된 영상 데이터의 특징 기하들을 랜덤 샘플링하여, 샘플링된 특징 기하들 및 상응하는 기준 데이터의 특징 기하들의 상호 이격량이 최소가 되는 샘플링 영상 데이터의 특징 기하를 정합 최적값으로 추정한다(S225). 정합 최적값의 구체적인 과정은 상술하여 생략하기로 한다. Next, the matching optimal value estimating unit 124 randomly samples the feature geometries of the image data to which the CCTV geometric information for correction is linked, so that the sampled feature geometries and the feature geometries of the corresponding reference data have a minimum distance from each other. The feature geometry of the image data is estimated as a matching optimal value (S225). The detailed process of the matching optimal value will be omitted in detail.

이어서, CCTV 기하 정보 추정부(126)는 상술의 정합 최적값으로 추정된 특징 기하와 관련하여 기하 변환된 3차원 CCTV 기하 정보를 최종 보정 CCTV 기하 정보로 추정한다(S230). Subsequently, the CCTV geometric information estimating unit 126 estimates the geometrically transformed 3D CCTV geometric information in relation to the feature geometry estimated as the matching optimal value as the final corrected CCTV geometric information (S230).

다음으로, 영상 정보 생성부(128)는 최종 보정 CCTV 기하 정보 및 특징 기하에 대한 정합 정보에 기초하여, CCTV 장치(102)의 영상 데이터에 대해 CCTV 영상 정보를 생성한다(S235). Next, the image information generation unit 128 generates CCTV image information for the image data of the CCTV device 102 based on the final corrected CCTV geometry information and matching information for the feature geometry (S235).

CCTV 영상 정보는 기준 영상 데이터베이스부(116)의 기준 영상 데이터와 같이, 기하 변환에 의해 보정된 영상 데이터 및 이와 연계된 위치 데이터, 보정된 제 2 자세 데이터를 포함하는 보정된 제 2 외부 기하 데이터, 보정된 제 2 내부 기하 데이터를 포함하는 최종 3차원 CCTV 기하 정보, 색상 데이터, 시간 데이터 등을 포함할 수 있다.CCTV image information, like the reference image data of the reference image database unit 116, the image data corrected by geometric transformation, the position data associated therewith, the corrected second external geometric data including the corrected second posture data, It may include final 3D CCTV geometric information including the corrected second internal geometric data, color data, time data, and the like.

보정된 영상 데이터와 연계된 위치 데이터는 기준 위치 데이터가 2차원 위치 데이터인 경우에 2차원 위치 좌표로 구성되며, 기준 위치 데이터가 3차원 위치 데 이터인 경우에 3차원 위치 좌표로 구성될 수 있다. Position data linked to the corrected image data may be composed of two-dimensional position coordinates when the reference position data is two-dimensional position data, and may be composed of three-dimensional position coordinates when the reference position data is three-dimensional position data. .

도 16 및 도 17을 참조하여 기준 기하 정보가 기준 위치 데이터로서의 3차 원 위치 데이터와 제 1 자세 데이터를 갖는 제 1 외부 기하 데이터로 구성되며, 기준 영상 데이터에 속한 기준 기하 정보의 정밀도가 낮은 경우에 영상 정보 생성부(128)가 수행하는 객체 높이 추정 과정에 대해 설명한다. 16 and 17, when the reference geometric information is composed of 3 dimensional original position data as reference position data and first external geometric data having first attitude data, and the accuracy of reference geometric information belonging to the reference image data is low In the following, an object height estimation process performed by the image information generation unit 128 will be described.

도 16은 3차원 영상 정보 생성부에서 CCTV 영상 데이터의 객체의 높이를 추정하는 과정을 나타내는 순서도이며, 도 17은 CCTV 영상 데이터 내에서 픽셀 데이터 분석을 통한 객체 높이를 추정하는 과정을 설명하는 도면이다. 16 is a flowchart illustrating a process of estimating the height of an object of CCTV image data in a 3D image information generator, and FIG. 17 is a diagram illustrating a process of estimating the height of an object through pixel data analysis in CCTV image data. .

도 16의 과정은 3차원 위치 데이터를 갖는 기준 영상 데이터의 일부 위치와 관련된 기준 기하 정보의 정밀도가 임계치보다 낮은 경우에 수행된다. The process of FIG. 16 is performed when the precision of reference geometric information related to a partial position of the reference image data having 3D position data is lower than a threshold value.

먼저, 영상 정보 생성부(128)는 정밀도가 낮은 상기 기준 영상 데이터와 상응하는 CCTV 장치(102)의 영상 데이터의 3차원 영상 정보를 2차원 기하 모델로 변환한다(S1605). First, the image information generation unit 128 converts the 3D image information of the image data of the CCTV device 102 corresponding to the reference image data with low precision into a 2D geometric model (S1605).

다음으로, 영상 정보 생성부(128)는 2차원 변환된 영상 데이터 내에서 픽셀 데이터 분석을 통한 객체 높이를 추정하거나, CCTV 장치의 영상 센서의 높이를 특정 높이로 가정하여 객체 높이를 분석하거나, CCTV 장치의 다수 영상 센서들의 시야 방향과 관련된 제 2 자세 데이터를 특정값으로 정의하며 삼각 함수 모델을 이용하여 객체 높이 추정한다(S1610). Next, the image information generation unit 128 estimates the height of the object through pixel data analysis in the 2D converted image data, or analyzes the height of the object by assuming the height of the image sensor of the CCTV device as a specific height, or The second posture data related to the viewing direction of the plurality of image sensors of the device is defined as a specific value, and the height of the object is estimated using a trigonometric function model (S1610).

픽셀 데이터 분석의 경우, 도 17에서와 같이, 영상 데이터 내의 픽셀을 수평 및 수직 픽셀 별로 분석하여 영상 센서(106) 높이, 영상 센서(106)로부터 수평선과 객체 최고지점 간의 각도(h)와 영상 센서(106)의 중심 초점(f)로부터의 연장선과 수평선 간의 각도(a)를 산출하고, 이를 기초로 픽셀 개수, 소실점 등을 감안하여 객체(202)의 높이를 추정한다. 이에 따라 3차원 영상 정보를 수집한다. In the case of pixel data analysis, as shown in FIG. 17, by analyzing pixels in the image data for each horizontal and vertical pixel, the height of the image sensor 106, the angle h between the horizontal line and the highest point of the object from the image sensor 106, and the image sensor. The angle (a) between the extension line from the center focal point (f) of 106 and the horizontal line is calculated, and the height of the object 202 is estimated in consideration of the number of pixels and vanishing points based on this. Accordingly, 3D image information is collected.

계속해서, 영상 정보 생성부(128)는 추정된 객체 높이를 3차원 CCTV 기하 정보에 반영하여 3차원 위치 데이터를 추정함으로써, 상응하는 CCTV 장치(102)의 영상 데이터의 상기 3차원 영상 정보를 생성한다(S1615).Subsequently, the image information generation unit 128 generates the 3D image information of the image data of the corresponding CCTV device 102 by estimating 3D position data by reflecting the estimated object height to 3D CCTV geometric information. Do (S1615).

본 실시예에 따르면, 부정확하거나 일부 지역에서 누락된 위치와 자세 관련 기하 데이터를 갖는 CCTV 장치(102)의 영상 데이터를 관측 센서와 측위 센서 구성된 멀티센서 플랫폼으로부터 생성된 기준 영상 데이터의 3차원 영상 정보와 정합하여 기하 변환 보정 등을 수행함으로써, CCTV 장치(102)로부터 취득한 영상 데이터를 편의성과 높은 정밀도의 3차원 공간 정보로 생성할 수 있다.According to the present embodiment, 3D image information of reference image data generated from a multi-sensor platform consisting of an observation sensor and a positioning sensor for image data of the CCTV device 102 having position and posture-related geometric data that are inaccurate or missing in some areas. By matching with and performing geometric transformation correction or the like, the image data acquired from the CCTV device 102 can be generated as 3D spatial information with convenience and high precision.

아울러, 기준 영상 데이터의 구축시에 라이다 등 고가의 센서들을 배제한 저비용의 센서들로부터 취득한 관측 데이터를 가공함으로써, 구축 비용 절감을 달성할 수 있다. In addition, by processing observation data acquired from low-cost sensors excluding expensive sensors such as lidar when constructing the reference image data, it is possible to achieve a reduction in construction cost.

이하, 도 18 내지 도 20을 참조하여, 본 발명의 실시예에 따른 3차원 영상 정보를 이용한 CCTV 장치의 공간 정보 시스템에서 구현되는 공간 정보의 생성 및 갱신 방법에 대해 설명하기로 한다. Hereinafter, a method of generating and updating spatial information implemented in a spatial information system of a CCTV device using 3D image information according to an embodiment of the present invention will be described with reference to FIGS. 18 to 20.

도 18은 본 발명의 실시예에 따른 CCTV 영상 정보를 이용한 CCTV 장치의 공간 정보 시스템에서 구현되는 공간 정보의 생성 및 갱신 방법에 관한 순서도이다. 도 19는 최종 보정 CCTV 기하 정보 및 객체 정보를 CCTV 영상 정보에 포함하는 신규 공간 정보를 생성하는 일례를 도시한 도면이고, 도 20은 공간 정보의 갱신 과정을 설명하기 위한 도면이다.18 is a flowchart illustrating a method of generating and updating spatial information implemented in a spatial information system of a CCTV device using CCTV image information according to an embodiment of the present invention. 19 is a diagram illustrating an example of generating new spatial information including final corrected CCTV geometric information and object information in CCTV image information, and FIG. 20 is a diagram for explaining a process of updating spatial information.

먼저, 객체 정보 추출부(130)는 영상 데이터로부터 기인하는 CCTV 영상 정보로부터 특정 형태의 객체를 추출한다(S1805). First, the object information extraction unit 130 extracts an object of a specific type from CCTV image information resulting from the image data (S1805).

구체적으로, 객체 정보 추출부(130)는 CCTV 영상 정보에 포함된 데이터들에 기초하여 추출된 대상물의 속성과 관련된 객체 정보를 추출할 수 있다.Specifically, the object information extraction unit 130 may extract object information related to an attribute of the extracted object based on data included in the CCTV image information.

객체 정보 추출부(130)는 CCTV 영상 정보에 포함된 영상 데이터, 최종 보정 CCTV 기하 정보, 색상 데이터, 시간 데이터 등으로부터 파악된 대상물과 관련된 후보군 데이터를 머신 러닝 기법으로 검출하고, 검출된 후보군 데이터에 순차적으로 추가 기계학습 모델을 적용하여 대상물의 정보를 인식할 수 있다. The object information extraction unit 130 detects candidate group data related to the object identified from image data included in CCTV image information, final corrected CCTV geometric information, color data, time data, etc., using a machine learning technique, and uses the detected candidate group data. The information of the object can be recognized by sequentially applying additional machine learning models.

다음으로, 공간 정보 생성부(132)는 추출된 객체와 동일한 기준 영상 데이터의 객체에 기초하여, 최종 보정 CCTV 기하 정보 및 기준 영상 데이터에 저장된 객체와 관련된 객체 정보를 CCTV 영상 정보에 포함하는 소정 좌표계, 예컨대 절대좌표계에 따른 신규 공간 정보를 생성한다(S1810). Next, the spatial information generation unit 132 includes, in the CCTV image information, the final corrected CCTV geometric information and object information related to the object stored in the reference image data, based on the object of the same reference image data as the extracted object. , For example, new spatial information according to the absolute coordinate system is generated (S1810).

공간 정보 생성부(132)는 공간 정보 데이터베이스부(136)에 신규 공간 정보를 전송하여 저장할 수 있다. 공간 정보는 소정 좌표계의 해당 좌표 등에 생성된 데이터로서, 관측 데이터, 내부 기하, 외부 기하, 고유 데이터, 시간 정보, 취득 환경 정보, 이종 센서들 간의 센서 데이터들의 위치 오차로 인한 이격량, 정확도, 정밀도 관련한 확률 정보, 포인트 클라우드관련 정보, 영상 데이터 관련 정보, 객체 정보 및 지도 관련 정보를 포함할 수 있다. 본 실시예에서는 공간 정보가 상술한 데이터들 내지 정보들을 전부 포함하는 것으로 기술하고 있으나, 이에 제한되지 않으며, 설계 사양에 따라 상술한 데이터/정보들 중 일부만을 포함하도록 설정될 수 있다. The spatial information generation unit 132 may transmit and store new spatial information to the spatial information database unit 136. Spatial information is data generated in the corresponding coordinates of a predetermined coordinate system, such as observation data, internal geometry, external geometry, unique data, time information, acquisition environment information, and the amount of separation, accuracy, and precision due to the positional error of sensor data between heterogeneous sensors. It may include related probability information, point cloud related information, image data related information, object information, and map related information. In the present embodiment, the spatial information is described as including all of the above-described data or information, but is not limited thereto, and may be set to include only some of the above-described data/information according to design specifications.

도 19에서와 같이, 최종 보정 CCTV 기하 정보 및 객체 정보를 CCTV 영상 정보에 포함하여 신규 공간 정보를 생성하고, 이를 기반으로 도화 과정을 거쳐 우측의 지도로 제작될 수 있다. As shown in FIG. 19, new spatial information may be generated by including final corrected CCTV geometric information and object information in CCTV image information, and based on this, through a drawing process, a map on the right side may be produced.

다음으로, 공간 정보 갱신부(134)는 공간 정보 데이터베이스부(136)에 이미 저장된 기존 공간 정보가 존재하는 경우에, 동일 위치의 객체 정보에 있어서, 신규 공간 정보가 기존 공간 정보와 상이한지 여부를 판단하고(S1815), 판단 결과 상이한 객체 정보에 대해, 도 20에서와 같이 기존 공간 정보를 신규 공간 정보로 갱신한다(S1825). 판단 결과, 객체 정보가 동일한 경우에 기존 공간 정보를 유지할 수 있다(S1820). Next, when the existing spatial information already stored in the spatial information database unit 136 exists, the spatial information update unit 134 determines whether the new spatial information is different from the existing spatial information in the object information at the same location. As a result of the determination (S1815), for different object information as a result of the determination, the existing spatial information is updated with new spatial information as shown in FIG. As a result of the determination, when the object information is the same, the existing spatial information may be maintained (S1820).

도 1에 도시된 장치를 구성하는 구성요소 또는 도 2, 6, 9, 12, 14, 16, 18에 도시된 실시예들에 따른 단계는 그 기능을 실현시키는 프로그램의 형태로 컴퓨터 판독가능한 기록 매체에 기록될 수 있다. 여기에서, 컴퓨터 판독 가능한 기록 매체란, 데이터나 프로그램 등의 정보를 전기적, 자기적, 광학적, 기계적, 또는 화학적 작용에 의해 축적하고, 컴퓨터에서 판독할 수 있는 기록 매체를 말한다. 이러한 기록 매체 중 컴퓨터로부터 분리 가능한 것으로서는, 예를 들면, 휴대용 스토리지(portalbe storage), 플렉시블 디스크, 광자기 디스크, CD-ROM, CD-R/W, DVD, DAT, 메모리 카드 등이 있다. 또한, CCTV 장치 및 컴퓨터에 고정된 기록 매체로서 SSD(Solid State Disk), 하드디스크나 ROM 등이 있다.Components constituting the apparatus shown in Fig. 1 or steps according to the embodiments shown in Figs. 2, 6, 9, 12, 14, 16, 18 are computer-readable recording media in the form of a program that realizes the function Can be written on. Here, the computer-readable recording medium refers to a recording medium that can be read by a computer by storing information such as data or programs by electrical, magnetic, optical, mechanical, or chemical action. Examples of such recording media that can be separated from a computer include portable storage, flexible disks, magneto-optical disks, CD-ROMs, CD-R/Ws, DVDs, DATs, and memory cards. In addition, as a recording medium fixed to a CCTV device and a computer, there is a solid state disk (SSD), a hard disk, a ROM, and the like.

또한, 이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. Further, in the above, even if all the constituent elements constituting the embodiments of the present invention have been described as being combined into one operation, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all the constituent elements may be selectively combined and operated in one or more. In addition, all of the components may be implemented as one independent hardware, but some or all of the components are selectively combined to provide a program module that performs some or all of the combined functions in one or a plurality of hardware. It may be implemented as a computer program having.

이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리 범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태에 의하여 정해져야 한다.Although the present invention has been described in detail through exemplary embodiments above, a person of ordinary skill in the art to which the present invention pertains will realize that various modifications can be made to the above-described embodiments without departing from the scope of the present invention. I will understand. Therefore, the scope of the present invention is limited to the described embodiments and should not be determined, and should be determined by all changes or modifications derived from the claims and the concept of equality as well as the claims to be described later.

Claims (10)

기준 위치 데이터와, 기준 영상을 생성하는데 설정된 시야 방향을 정의하는 제 1 자세 데이터를 갖는 제 1 외부 기하 데이터가 포함된 기준 기하 정보와 연계하여 기준 영상 데이터를 저장하는 기준 영상 데이터베이스부;
CCTV 장치로부터 취득한 영상 데이터와 관련되어 적어도 2차원 위치 데이터를 갖는 제 2 외부 기하 데이터가 포함된 CCTV 기하 정보를 획득하고, 적어도 상기 기준 위치 데이터 및 상기 2차원 위치 데이터를 참조하여 상기 기준 영상 데이터와 정합 가능한 상기 영상 데이터를 검색하여 선정하는 검색 선정부;
상기 기준 영상 데이터와 상기 선정된 영상 데이터 간에 상호 정합하는 정합부;
상기 기준 영상 데이터를 참조하는 기하 변환 모델링에 의해 상기 선정 영상 데이터의 상기 CCTV 기하 정보를 기하 변환하여 상기 2차원 위치 데이터보다 정확도가 높은 보정용 위치 데이터가 포함되는 보정 CCTV 기하 정보를 생성하는 기하 변환부;
상기 보정 CCTV 기하 정보가 연계된 영상 데이터의 표본용 특징 기하들을 랜덤 샘플링하여, 상기 표본용 특징 기하들 및 상응하는 상기 기준 영상 데이터의 특징 기하들과의 이격량이 최소가 되는 특징 기하를 정합 최적값으로 추정하는 최적값 추정부;
상기 정합 최적값으로 추정된 특징 기하와 관련하여 기하 변환된 보정 CCTV 기하 정보를 최종 보정 CCTV 기하 정보로 추정하는 기하 정보 추정부; 및
상기 최종 보정 CCTV 기하 정보 및 정합 정보에 기초하여, 상기 CCTV 장치의 영상 데이터로부터 CCTV 영상 정보를 생성하는 영상 정보 생성부를 포함하는, 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 생성 시스템.
A reference image database unit for storing reference image data in association with reference geometric information including reference position data and first external geometric data having first posture data defining a viewing direction set to generate the reference image;
Acquiring CCTV geometric information including second external geometric data having at least two-dimensional position data in relation to the image data acquired from the CCTV device, and referring to at least the reference position data and the two-dimensional position data to obtain the reference image data and A search selector for searching and selecting the matchable image data;
A matching unit for matching the reference image data and the selected image data;
A geometric conversion unit that geometrically converts the CCTV geometric information of the selected image data by geometric transformation modeling referring to the reference image data to generate corrected CCTV geometric information including correction position data with higher accuracy than the two-dimensional position data. ;
By randomly sampling the sample feature geometries of the image data to which the corrected CCTV geometric information is linked, the optimal value matching the feature geometry at which the distance between the sample feature geometries and the corresponding feature geometries of the reference image data is minimum An optimal value estimating unit that estimates by;
A geometric information estimating unit for estimating the corrected CCTV geometric information geometrically transformed in relation to the feature geometry estimated as the matching optimal value as final corrected CCTV geometric information; And
A system for generating spatial information of a CCTV device using reference image information, comprising an image information generator for generating CCTV image information from image data of the CCTV device, based on the final corrected CCTV geometric information and matching information.
제 1 항에 있어서,
상기 2차원 위치 데이터는 상기 CCTV 장치의 2차원 좌표 또는 상기 CCTV 장치가 설치된 공간의 명칭을 포함하며, 상기 기준 위치 데이터는 상기 제 1 외부 기하 데이터의 2차원 위치 데이터보다 정확도가 높은 2차원 위치 데이터 또는 3차원 위치 데이터로 구성되고, 상기 기준 위치 데이터가 2차원 위치 데이터인 경우에, 상기 CCTV 영상 정보는 2차원 위치 좌표를 포함하고, 상기 기준 위치 데이터가 3차원 위치 데이터인 경우에, 상기 CCTV 영상 정보는 3차원 위치 좌표를 포함하는, 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 생성 시스템.
The method of claim 1,
The two-dimensional position data includes two-dimensional coordinates of the CCTV device or a name of a space in which the CCTV device is installed, and the reference position data is two-dimensional position data with higher accuracy than the two-dimensional position data of the first external geometric data. Or, when it is composed of 3D location data, and the reference location data is 2D location data, the CCTV image information includes 2D location coordinates, and when the reference location data is 3D location data, the CCTV The image information includes three-dimensional position coordinates, a spatial information generation system of a CCTV device using reference image information.
제 1 항에 있어서,
상기 제 2 외부 기하 데이터는 상기 영상을 생성하는데 설정된 시야 방향을 정의하는 제 2 자세 데이터를 더 포함하고,
상기 검색 선정부는 상기 기준 위치 데이터 및 상기 2차원 위치 데이터에 기초하여 상기 기준 영상 데이터와 대비가능한 상기 영상 데이터의 후보군을 검색하고, 상기 제 1 및 제 2 자세 데이터를 참조하여 상기 후보군 중 상기 기준 영상 데이터와 최고의 정합도를 갖는 상기 영상 데이터를 선정하는, 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 생성 시스템.
The method of claim 1,
The second external geometric data further includes second posture data defining a viewing direction set to generate the image,
The search selection unit searches for a candidate group of the image data that can be contrasted with the reference image data based on the reference position data and the 2D position data, and refers to the first and second posture data to determine the reference image among the candidate groups. A system for generating spatial information of a CCTV device using reference image information to select the image data having the highest degree of matching with the data.
제 1 항에 있어서,
상기 기준 영상 데이터는 영상 촬영 센서 및 레이저 스캔닝 센서 중 적어도 어느 하나와 측위 센서를 구비하는 외부 이동형 플랫폼으로부터 획득된 영상 정보 및 포인트 클라우드 정보를 상기 센서들 간의 기하 모델을 통해 정합하고 보정하여 융합된 외부 영상 데이터, 혹은, 상기 보정용 CCTV 기하 정보로 보정되어 CCTV 영상 정보로 이미 저장된 보정 영상 데이터인, 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 생성 시스템.
The method of claim 1,
The reference image data is fused by matching and correcting image information and point cloud information obtained from an external mobile platform having a positioning sensor and at least one of an image capturing sensor and a laser scanning sensor through a geometric model between the sensors. A system for generating spatial information of a CCTV device using external image data or reference image information, which is corrected image data that has been corrected with the correction CCTV geometric information and has already been stored as CCTV image information.
제 1 항에 있어서,
상기 기준 영상 및 상기 영상 데이터 중 적어도 어느 하나가 왜곡 영상을 발생하는 광역 영상 센서로부터 획득되는 경우에, 상기 왜곡 영상이 발생된 상기 기준 영상 및 상기 영상 데이터는 상기 왜곡 영상이 평면 영상으로 변환된 평면 영상 데이터를 이용하며, 상기 기준 영상이 상기 평면 영상 데이터를 이용하는 경우에, 상기 제 1 자세 데이터는 상기 평면 영상 데이터의 시야 방향으로 정의되는, 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 생성 시스템.
The method of claim 1,
When at least one of the reference image and the image data is obtained from a wide-area image sensor that generates a distortion image, the reference image and the image data in which the distortion image is generated are a plane in which the distortion image is converted into a flat image. When the image data is used and the reference image uses the planar image data, the first posture data is defined as a viewing direction of the planar image data. A system for generating spatial information of a CCTV device using reference image information.
제 1 항에 있어서,
상기 기준 영상이 레이저 스캔닝 센서로부터 기인하는 경우에, 상기 기준 영상은 상기 레이저 스캔닝 센서로부터 획득되는 포인트 클라우드가 변환된 가상의 영상 데이터를 이용하고, 상기 기준 위치 데이터는 상기 가상의 영상 데이터의 위치 데이터로 정의되며, 상기 제 1 자세 데이터는 상기 가상의 영상 데이터의 시야 방향으로 정의되는, 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 생성 시스템.
The method of claim 1,
When the reference image originates from a laser scanning sensor, the reference image uses virtual image data converted from a point cloud obtained from the laser scanning sensor, and the reference position data is of the virtual image data. A system for generating spatial information of a CCTV device using reference image information, which is defined as location data, and the first attitude data is defined as a viewing direction of the virtual image data.
제 1 항에 있어서,
상기 정합부는 상기 선정 영상 데이터와 상기 기준 영상 데이터로부터 특징 기하를 추출하여 비교하여 공통 추정되는 특징 기하들을 상호 정합하거나, 혹은 상기 기준 영상 데이터 내에 지정된 템플릿(template)과 적어도 유사한 상기 선정 영상 데이터를 검색하여, 상기 템플릿들 간의 특성 상관도 분석에 따라 정합하고, 상기 정합 정보는 상기 특징 기하 또는 상기 템플릿이며, 싱기 특징 기하 또는 상기 템플릿은 기준 영상 데이터베이스부에 저장되는, 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 생성 시스템.
The method of claim 1,
The matching unit extracts and compares feature geometry from the selected image data and the reference image data, and matches the commonly estimated feature geometry to each other, or searches for the selected image data that is at least similar to a template specified in the reference image data. Thus, the matching according to the analysis of the characteristic correlation between the templates, the matching information is the feature geometry or the template, and the feature geometry or the template is stored in the reference image database unit, the CCTV device using the reference image information Spatial information generation system.
삭제delete 제 1 항에 있어서,
상기 CCTV 영상 정보로부터 특정 형태의 객체를 추출하는 객체 정보 추출부;
상기 추출된 객체와 동일한 기준 영상 데이터의 객체에 기초하여, 상기 보정용 CCTV 기하 정보 및 상기 기준 영상 데이터에 저장된 상기 객체와 관련된 상기 객체 정보를 상기 CCTV 영상 정보에 포함하는 신규 공간 정보를 생성하는 공간 정보 생성부; 및
상기 신규 공간 정보가 공간 정보 데이터베이스부에 저장되며, 상기 공간 정보 데이터베이스부에 이미 저장된 기존 공간 정보가 존재하는 경우에, 동일 위치의 객체 정보에 있어서, 상기 신규 공간 정보가 상기 기존 공간 정보와 상이한지 여부를 판단하고, 판단 결과, 상이한 객체 정보에 대해 상기 기존 공간 정보를 상기 신규 공간 정보로 갱신하는 공간 정보 갱신부를 더 포함하는, 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 생성 시스템.
The method of claim 1,
An object information extraction unit for extracting an object of a specific type from the CCTV image information;
Spatial information for generating new spatial information including, in the CCTV image information, the correction CCTV geometric information and the object information related to the object stored in the reference image data, based on an object of the same reference image data as the extracted object Generation unit; And
If the new spatial information is stored in the spatial information database unit, and there is existing spatial information already stored in the spatial information database unit, whether the new spatial information is different from the existing spatial information in the object information at the same location. A system for generating spatial information of a CCTV device using reference image information, further comprising a spatial information update unit that determines whether or not, and updates the existing spatial information with the new spatial information for different object information as a result of the determination.
제 1 항에 있어서,
상기 기준 기하 정보는 상기 기준 위치 데이터로서의 3차원 위치 데이터와 상기 제 1 자세 데이터를 갖는 상기 제 1 외부 기하 데이터로 구성되며, 상기 기준 영상 데이터의 일부 위치와 관련되어 상기 기준 기하 정보의 정밀도가 임계치보다 낮은 경우에,
상기 영상 정보 생성부는 상기 정밀도가 낮은 상기 기준 영상 데이터와 상응하는 상기 CCTV 영상 정보의 보정 영상 데이터를 2차원 기하 모델로 변환한 후에, 2차원 변환된 영상 데이터 내에서 픽셀 데이터 분석을 통한 객체 높이를 추정하거나, 상기 CCTV 장치의 영상 센서의 높이를 특정 높이로 가정하여 객체 높이를 분석하거나, 상기 CCTV 장치의 다수 영상 센서들의 시야 방향과 관련된 자세 데이터를 특정값으로 정의하며 삼각 함수 모델을 이용하여, 객체 높이를 추정하고, 상기 추정된 객체 높이를 상기 보정 CCTV 기하 정보에 반영하여 3차원 위치 데이터를 추정함으로써, 상응하는 상기 CCTV 영상 정보를 생성하는, 기준 영상 정보를 이용한 CCTV 장치의 공간 정보 생성 시스템.
The method of claim 1,
The reference geometric information is composed of 3D position data as the reference position data and the first external geometric data having the first posture data, and the accuracy of the reference geometric information is related to a partial position of the reference image data. In the lower case,
The image information generator converts the corrected image data of the CCTV image information corresponding to the low-precision reference image data into a two-dimensional geometric model, and then calculates an object height through pixel data analysis in the two-dimensional converted image data. Estimate or analyze the object height by assuming the height of the image sensor of the CCTV device as a specific height, or define the attitude data related to the viewing direction of the plurality of image sensors of the CCTV device as a specific value, and use a trigonometric function model, A system for generating spatial information of a CCTV device using reference image information, which generates the corresponding CCTV image information by estimating the height of an object and estimating 3D position data by reflecting the estimated height of the object to the corrected CCTV geometric information .
KR1020190158146A 2019-12-02 2019-12-02 System for generating spatial information of CCTV device using reference image information Active KR102249380B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190158146A KR102249380B1 (en) 2019-12-02 2019-12-02 System for generating spatial information of CCTV device using reference image information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190158146A KR102249380B1 (en) 2019-12-02 2019-12-02 System for generating spatial information of CCTV device using reference image information

Publications (2)

Publication Number Publication Date
KR102249380B1 true KR102249380B1 (en) 2021-05-07
KR102249380B9 KR102249380B9 (en) 2021-10-27

Family

ID=75916467

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190158146A Active KR102249380B1 (en) 2019-12-02 2019-12-02 System for generating spatial information of CCTV device using reference image information

Country Status (1)

Country Link
KR (1) KR102249380B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024253238A1 (en) * 2023-06-09 2024-12-12 서울시립대학교 산학협력단 System for generating spatial phase relationship data and providing service on basis of omnidirectional image, and construction method thereof
KR102851691B1 (en) 2023-11-15 2025-09-02 (주)테슬라시스템 Apparatus for stabilization of an infra for autonomous cooperative driving and method using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100728377B1 (en) * 2006-11-09 2007-06-13 주식회사 유삼씨앤씨 Wi-Fi real-time update method of changed local facilities using laser scanner and wireless internet
KR20160078724A (en) * 2014-12-24 2016-07-05 한국전자통신연구원 Apparatus and method for displaying surveillance area of camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100728377B1 (en) * 2006-11-09 2007-06-13 주식회사 유삼씨앤씨 Wi-Fi real-time update method of changed local facilities using laser scanner and wireless internet
KR20160078724A (en) * 2014-12-24 2016-07-05 한국전자통신연구원 Apparatus and method for displaying surveillance area of camera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024253238A1 (en) * 2023-06-09 2024-12-12 서울시립대학교 산학협력단 System for generating spatial phase relationship data and providing service on basis of omnidirectional image, and construction method thereof
KR102851691B1 (en) 2023-11-15 2025-09-02 (주)테슬라시스템 Apparatus for stabilization of an infra for autonomous cooperative driving and method using the same

Also Published As

Publication number Publication date
KR102249380B9 (en) 2021-10-27

Similar Documents

Publication Publication Date Title
Chen et al. City-scale landmark identification on mobile devices
CN116485856B (en) Unmanned aerial vehicle image geographic registration method based on semantic segmentation and related equipment
US20200401617A1 (en) Visual positioning system
US10043097B2 (en) Image abstraction system
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
CN111882612A (en) A vehicle multi-scale localization method based on 3D laser detection of lane lines
Majdik et al. Air‐ground matching: Appearance‐based GPS‐denied urban localization of micro aerial vehicles
CN110275516A (en) Robust real-time localization and map building by removing dynamic traffic participants
CN110869974A (en) Point cloud processing method, point cloud processing device and storage medium
WO2021017211A1 (en) Vehicle positioning method and device employing visual sensing, and vehicle-mounted terminal
US11430199B2 (en) Feature recognition assisted super-resolution method
Li et al. TextSLAM: Visual SLAM with semantic planar text features
CN112750203A (en) Model reconstruction method, device, equipment and storage medium
CN113012215A (en) Method, system and equipment for space positioning
CN113838129A (en) Method, device and system for obtaining pose information
Gupta et al. Augmented reality system using lidar point cloud data for displaying dimensional information of objects on mobile phones
Castillo-Carrión et al. SIFT optimization and automation for matching images from multiple temporal sources
US20220164595A1 (en) Method, electronic device and storage medium for vehicle localization
KR20220062709A (en) System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor
KR102249380B1 (en) System for generating spatial information of CCTV device using reference image information
CN117953050A (en) A visual positioning method and related device
KR102249381B1 (en) System for generating spatial information of mobile device using 3D image information and method therefor
CN119090716A (en) Marine remote sensing surveying and mapping method and surveying and mapping system
Sui et al. An accurate indoor localization approach using cellphone camera
Zhang et al. Integrating smartphone images and airborne lidar data for complete urban building modelling

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20191202

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20200924

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20210326

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20210430

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20210430

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
G170 Re-publication after modification of scope of protection [patent]
PG1701 Publication of correction

Patent event code: PG17011E01I

Patent event date: 20211021

Comment text: Request for Publication of Correction

Publication date: 20211027

PR1001 Payment of annual fee

Payment date: 20240702

Start annual number: 4

End annual number: 4