KR20130062489A - Device for tracking object and method for operating the same - Google Patents
Device for tracking object and method for operating the same Download PDFInfo
- Publication number
- KR20130062489A KR20130062489A KR1020110128737A KR20110128737A KR20130062489A KR 20130062489 A KR20130062489 A KR 20130062489A KR 1020110128737 A KR1020110128737 A KR 1020110128737A KR 20110128737 A KR20110128737 A KR 20110128737A KR 20130062489 A KR20130062489 A KR 20130062489A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- target object
- camera
- microcomputer
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
본 발명은 객체추적 시스템 및 그 운영방법에 관한 것으로서, 객체를 정확하게 추적할 수 있도록 피티제트(PTZ) 좌표값을 계산하여 추적카메라에 전송하는 객체추적 시스템 및 그 운영방법을 제공함에 그 목적이 있다.
이러한 기술적 과제를 달성하기 위한 본 발명은, 사고발생 상황을 촬영하기 위해 특정의 지점에 설치되어 대상지점을 상시 촬영하는 범용카메라(10); 상기 범용카메라에 의해 촬영된 원본영상을 스트림형태로 추출하는 원본영상 추출부(20); 상기 원본영상 추출부(20)에 의해 추출된 영상의 이미지를 대상 객체와 주변사물로 구분하고, 상기 대상객체와 주변사물을 인식하여 이들 정보를 각각 처리가능한 데이터 형태로 가공하는 이미지 가공부(30); 상기 이미지 가공부(30)를 통해 전송된 데이터에 의해 대상객체를 인식하고 대상객체를 확인하고 객체의 거리 및 객체의 속도를 계산하여 객체를 추적하기 위한 피티제트(PTZ) 좌표값을 계산하고, 각 구성을 제어하는 마이크로 컴퓨터(40); 상기 이미지 가공부(30)에서 대상객체와 주변사물을 구분하고 이들을 인식하기 위한 데이터가 미리 저장되어, 대상객체와 주변사물의 구분 및 인식시 상기 마이크로 컴퓨터(40)를 통해 미리 저장된 데이터를 제공하는 데이터 서버(50); 및 상기 마이크로 컴퓨터(40)에 의해 생성된 피티제트(PTZ) 좌표값을 수신하여 목적하는 대상객체에 초점을 두고 연속적으로 추적하며 촬영하는 전용카메라(60); 를 포함하는 것을 특징으로 한다.
한편, 객체추적 시스템의 운영방법은 (a) 범용카메라에 의해 촬영영상이 원본영상 추출부(20)를 통해 스트림 형태로 추출된 이미지를 전송되는 과정; (b) 상기 원본영상 추출부(20)를 통해 촬영영상의 이미지를 수신한 이미지 가공부(30)에서 마이크로 컴퓨터(40)를 통해 데이터 서버(50)의 각 데이터테이블(51, 52)의 데이터를 호출하여, 호출된 데이터에 의해 대상객체와 주변사물을 구분하고 대상객체를 인식한 후 대상객체와 주변사물의 이미지를 처리가능한 데이터로 변환하여 마이크로 컴퓨터(40)로 전송하는 과정; (c) 상기 이미지 가공부(30)의 데이터를 수신한 마이크로 컴퓨터(40)에서 대상객체의 데이터를 발췌한 후 전용카메라(60)가 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영할 수 있도록 하기 위한 데이터를 생성하여 출력하는 과정; 및 (d) 상기 마이크로 컴퓨터(40)에서 출력된 데이터를 카메라구동부(61)에서 수신하여 전용카메라(60)가 대상객체외의 주변사물 데이터가 제거된 상태에서 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영을 수행하는 과정; 를 포함하는 것을 특징으로 한다.The present invention relates to an object tracking system and a method of operating the same, and to provide an object tracking system and a method of operating the same, which calculates and transmits a PTZ coordinate value to a tracking camera so as to accurately track an object. .
The present invention for achieving the technical problem, the general-purpose camera 10 is installed at a specific point in order to photograph the accident occurrence situation to always photograph the target point; An original image extracting unit 20 for extracting an original image photographed by the general-purpose camera in a stream form; The image processing unit 30 classifies the image of the image extracted by the original image extraction unit 20 into a target object and surrounding objects, recognizes the target object and surrounding objects, and processes the information into a processable data form. ); Recognize the target object by the data transmitted through the image processing unit 30, identify the target object, calculate the distance of the object and the speed of the object to calculate the PTZ coordinate value for tracking the object, A microcomputer 40 for controlling each component; The image processing unit 30 stores data for distinguishing and recognizing the target object and the surrounding object in advance, and provides the pre-stored data through the microcomputer 40 when the target object and the surrounding object are distinguished and recognized. Data server 50; And a dedicated camera 60 which receives a Pizjet (PTZ) coordinate value generated by the microcomputer 40 and continuously tracks and captures a target object of interest. And a control unit.
On the other hand, the operating method of the object tracking system is (a) transmitting the extracted image in the form of a stream through the original image extraction unit 20 by the general-purpose camera; (b) the data of the data tables 51 and 52 of the data server 50 through the microcomputer 40 in the image processing unit 30 that receives the image of the captured image through the original image extracting unit 20. Calling, distinguishing the target object and the surrounding object by the called data, recognizing the target object, converting the image of the target object and the surrounding object into processable data, and transmitting the same to the microcomputer 40; (c) After extracting the data of the target object from the microcomputer 40 that has received the data of the image processing unit 30, the dedicated camera 60 may focus on the target object and continuously track and photograph the target object. Generating and outputting data so as to make the data available; And (d) receiving the data output from the microcomputer 40 from the camera driver 61 so that the dedicated camera 60 continuously focuses on the target object while the peripheral object data other than the target object is removed. The process of performing the shooting while tracking; And a control unit.
Description
본 발명은 객체추적 시스템 및 그 운영방법에 관한 것으로서, 더욱 상세하게는 범용카메라로부터 수신된 영상데이터를 이용하여 객체를 정확하게 추적할 수 있도록 객체와의 거리, 객체의 속도를 이용하여 PTZ 좌표값을 정밀하게 계산하여 객체를 정확하게 추적할 수 있도록 하는 객체추적 시스템 및 그 운영방법에 관한 것이다.The present invention relates to an object tracking system and a method of operating the same, and more particularly, PTZ coordinate values using a distance from an object and an object's speed to accurately track an object using image data received from a general-purpose camera. The present invention relates to an object tracking system and an operation method for precisely calculating an object and tracking the object accurately.
최근 특정의 영상을 촬영하기 위한 CCTV 카메라는 은행, 현금자동지급기, 도로, 상가, 주택 등의 보안을 요구하는 지점에 설치되어 현금이나 각종 귀중품의 도난, 사고나 화재와 같은 재난 등의 사고를 확인하고, 도난 또는 재난 등의 사고(이하, 사고로 기재함)를 발생시킨 인물 또는 차량 등을 확인하여 추적하는데 사용되어지고 있다.Recently, CCTV cameras for capturing specific images are installed at banks, ATMs, roads, stores, houses, etc. that require security. In addition, it is used to identify and track a person or a vehicle that caused an accident (hereinafter referred to as an accident) such as theft or disaster.
이와 같은 객체추적 카메라에 대해서는 대한민국 특허출원 제 10-2009-0131656호(발명의 명칭 객체추적 모드를 활용한 객체추적 방법 및 장치)(이하 "선행기술") 등 다수의 특허가 공개 및 등록되어있다.For such object tracking cameras, a number of patents have been published and registered, such as Korean Patent Application No. 10-2009-0131656 (Object tracking method and apparatus using the object tracking mode of the invention) (hereinafter referred to as "prior art"). .
상기 선행기술은 객체추적 모드를 설정하는 단계와, 객체가 검출되면, 상기 객체추적 모드에 적합한 객체인지를 판단하는 단계와, 상기 객체추적 모드에 적합한 객체를 자동 추적하는 단계를 포함하되, 상기 객체추적 모드는, 추적할 객체의 칼라(color) 및 객체의 타입(type)을 하나 이상 선정함에 의해 이루어지는 것을 특징으로 한다. The prior art includes setting an object tracking mode, determining whether an object is suitable for the object tracking mode when an object is detected, and automatically tracking an object suitable for the object tracking mode, wherein the object The tracking mode is characterized by selecting at least one color of an object to be tracked and a type of the object.
이와 같은 CCTV 카메라는 기본적으로 객체추적 시스템과 연동되도록 설치되어 있음은 주지된 것과 같다. 여기서, 상기 객체추적 시스템은 기본적으로 CCTV 카메라에서 촬영된 영상을 녹화하기 위한 녹화부, 녹화된 영상을 재생하기 위한 재생부로 이루어진 기본 구성을 갖게 된다.CCTV cameras are basically installed to interlock with the object tracking system is as well known. Here, the object tracking system basically has a basic configuration consisting of a recording unit for recording the image taken by the CCTV camera, and a playback unit for reproducing the recorded image.
일반적으로, 객체추적 시스템은 사고발생시 객체를 확인하고 추적하기 위한 보안시스템으로 적용하기 위해 고정 4채널의 CCTV 카메라와 360 도 팬(pan), 틸트(tilt) 기능을 갖는 돔형의 추적 카메라(speed dom으로 통칭됨)를 목적하는 지점에 설치하고, 이들 카메라에서 촬영된 영상을 녹화 및 재생하기 위한 장치와 전기, 전자적으로 연결하여 구성하게 된다.In general, the object tracking system is a fixed four channel CCTV camera and a dome type speed camera with 360 degree pan and tilt functions to be applied as a security system for identifying and tracking an object in case of an accident. And the electrical and electronic connection with a device for recording and playing back images taken by these cameras.
상기 객체추적 시스템은 고정된 CCTV 카메라에서 원본영상을 스트림 형태로 전송하여 객체의 움직임을 감지하게 된다. 이때, 상기 객체의 움직임은 객체추적 시스템과 연동되는 감지센서 등을 이용하여 수행된다. 이후, 고정된 카메라에서 전송된 영상을 전달받은 돔형의 추적 카메라는 틸팅되며 전송받은 영상정보에서 객체를 확인하여 추적하게 된다.The object tracking system detects the movement of an object by transmitting the original image in a stream form from a fixed CCTV camera. In this case, the movement of the object is performed using a sensor or the like interoperating with the object tracking system. Thereafter, the dome-shaped tracking camera that receives the image transmitted from the fixed camera is tilted and tracks an object from the received image information.
그런데, 이러한 종래의 객체추적 시스템은 객체의 움직임이 발생될 경우, 객체 주변의 건물이나 가로수, 차량 등과 혼합된 영상으로 촬영된 경우 객체를 정확하게 인식하지 못하는 경우가 자주 발생하였다. However, in the conventional object tracking system, when the movement of the object is generated, the object is often not recognized correctly when the image is mixed with a building, a roadside tree, and a vehicle around the object.
특히, 상기 종래의 객체추적 시스템은 사람이나 차량 등의 객체가 움직일 때 가시광이 반사된 빛이나 그림자 등을 객체로 오인하여 전혀 엉뚱한 추적결과를 출력하기 때문에, 객체의 낮은 인식율 및 이에 따른 부정확한 확인 및 추적결과를 얻게되어 시스템의 신뢰도가 상당히 낮은 문제점이 노출되었다.In particular, the conventional object tracking system misrepresents visible light reflected shadows or shadows when an object such as a person or a vehicle moves as an object, and outputs a wrong tracking result. And the tracking results were obtained, which exposed the problem of a very low reliability of the system.
그리고, 상기 종래의 객체추적 시스템은 객체를 추적하는 경우에도 정확하게 객체의 좌표값의 산출하여 추적하는 것이 아니어서 객체의 정확한 추적이 어려웠다.In the conventional object tracking system, even when tracking an object, accurate tracking of an object is difficult because it does not accurately calculate and track the coordinate value of the object.
본 발명은 상기와 같은 문제점을 감안하여 안출된 것으로, 객체를 정확하게 추적할 수 있도록 피티제트(PTZ) 좌표값을 계산하여 추적카메라에 전송하는 객체추적 시스템 및 그 운영방법을 제공함에 그 목적이 있다.Disclosure of Invention The present invention has been made in view of the above problems, and an object thereof is to provide an object tracking system and a method of operating the same, which calculates and transmits PTZ coordinate values to a tracking camera so that an object can be accurately tracked. .
이러한 기술적 과제를 달성하기 위한 본 발명은, 사고발생 상황을 촬영하기 위해 특정의 지점에 설치되어 대상지점을 상시 촬영하는 범용카메라(10); 상기 범용카메라에 의해 촬영된 원본영상을 스트림형태로 추출하는 원본영상 추출부(20); 상기 원본영상 추출부(20)에 의해 추출된 영상의 이미지를 대상 객체와 주변사물로 구분하고, 상기 대상객체와 주변사물을 인식하여 이들 정보를 각각 처리가능한 데이터 형태로 가공하는 이미지 가공부(30); 상기 이미지 가공부(30)를 통해 전송된 데이터에 의해 대상객체를 인식하고 대상객체를 확인하고 객체의 거리 및 객체의 속도를 계산하여 객체를 추적하기 위한 피티제트(PTZ) 좌표값을 계산하고, 각 구성을 제어하는 마이크로 컴퓨터(40); 상기 이미지 가공부(30)에서 대상객체와 주변사물을 구분하고 이들을 인식하기 위한 데이터가 미리 저장되어, 대상객체와 주변사물의 구분 및 인식시 상기 마이크로 컴퓨터(40)를 통해 미리 저장된 데이터를 제공하는 데이터 서버(50); 및 상기 마이크로 컴퓨터(40)에 의해 생성된 피티제트(PTZ) 좌표값을 수신하여 목적하는 대상객체에 초점을 두고 연속적으로 추적하며 촬영하는 전용카메라(60); 를 포함하는 것을 특징으로 한다.The present invention for achieving the technical problem, the general-
또한 바람직하게, 상기 마이크로 컴퓨터(40)는, 범용카메라의 설치된 높이(h), 범용카메라와 지면에 수직인 선의 내각(q)을 이용하여 [수식1]을 통해 범용카메라와 객체의 거리(r)를 계산하는 것을 특징으로 한다.Also preferably, the
[수식1] [Equation 1]
여기서, r은 범용카메라와 객체의 거리, h는 범용카메라의 설치된 높이, q는 범용카메라와 지면에 수직인 선의 각도.Where r is the distance between the universal camera and the object, h is the installed height of the universal camera, and q is the angle of the line perpendicular to the universal camera and the ground.
또한 바람직하게, 상기 마이크로 컴퓨터(40)는, 처음 인식된 객체와 다음 인식된 객체 사이의 시간 간격 및 객체의 처음 인식된 거리와 다음 인식된 거리를 이용하여 객체의 속도를 계산하는 것을 특징으로 한다.Also preferably, the
또한 바람직하게, 상기 마이크로 컴퓨터(40)는, 상기 범용카메라로부터 수신된 영상데이터를 다수의 부분으로 나누어 각 부분마다 기 설정된 줌(zoom) 좌표값을 이용하여 피티제트(PTZ) 좌표값을 계산하는 것을 특징으로 한다.
Also preferably, the
그리고 바람직하게, 상기 데이터 서버(50)는 이미지 가공부(30)에서 대상객체를 구분할 수 있도록 하기 위해 대상객체의 모션감지, 형상감지, 생체인식, 색체인식, 좌표인식에 대한 설정데이터가 각각 저장된 객체인식 데이터테이블(51)과; 상기 이미지 가공부(30)에서 주변사물을 구분할 수 있도록 하기 위해 주변사물의 지리정보, 모션감지, 형상감지, 색체인식, 좌표인식에 대한 설정데이터가 각각 저장된 주변사물 데이터테이블(52);을 포함하는 것을 특징으로 한다.Preferably, the
한편, 객체추적 시스템의 운영방법은 (a) 범용카메라에 의해 촬영영상이 원본영상 추출부(20)를 통해 스트림 형태로 추출된 이미지를 전송되는 과정; (b) 상기 원본영상 추출부(20)를 통해 촬영영상의 이미지를 수신한 이미지 가공부(30)에서 마이크로 컴퓨터(40)를 통해 데이터 서버(50)의 각 데이터테이블(51, 52)의 데이터를 호출하여, 호출된 데이터에 의해 대상객체와 주변사물을 구분하고 대상객체를 인식한 후 대상객체와 주변사물의 이미지를 처리가능한 데이터로 변환하여 마이크로 컴퓨터(40)로 전송하는 과정; (c) 상기 이미지 가공부(30)의 데이터를 수신한 마이크로 컴퓨터(40)에서 대상객체의 데이터를 발췌한 후 전용카메라(60)가 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영할 수 있도록 하기 위한 데이터를 생성하여 출력하는 과정; 및 (d) 상기 마이크로 컴퓨터(40)에서 출력된 데이터를 카메라구동부(61)에서 수신하여 전용카메라(60)가 대상객체외의 주변사물 데이터가 제거된 상태에서 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영을 수행하는 과정; 를 포함하는 것을 특징으로 한다.On the other hand, the operating method of the object tracking system is (a) transmitting the extracted image in the form of a stream through the original
또한 바람직하게, 상기 (b) 과정은, (b-1) 마이크로 컴퓨터(40)를 통해 데이터 서버(50)에서 대상객체 데이터테이블(51, 52)과, 주변사물 데이터테이블(52)을 호출하는 단계; (b-2) 상기 각 데이터테이블(51, 52)에 미리 설정되어 저장된 대상객체의 모션감지, 형상감지, 생체인식, 색체인식, 좌표인식 데이터와, 주변사물의 지리정보, 모션감지, 형상감지, 색체인식, 좌표인식 데이터를 상기 원본영상 추출부(20)를 통해 전송된 사고상황의 이미지에 적용시켜 대상객체와 주변사물을 구분하는 단계; 및 (b-3) 상기 대상객체와 주변사물이 구분되면, 대상객체와 주변사물을 구분하여서 된 이미지 정보를 마이크로 컴퓨터(40)에서 각 구성을 제어할 수 있도록 하기 위한 데이터로 가공하여 마이크로 컴퓨터(40)로 전송하는 단계;를 포함하는 것을 특징으로 한다.Also preferably, the process (b) may include (b-1) calling the target object data tables 51 and 52 and the peripheral object data table 52 from the
그리고 바람직하게, 상기 (c) 과정은, (c-1) 범용카메라의 설치된 높이(h), 범용카메라와 지면에 수직인 선의 내각(q)을 이용하여 [수식1]을 통해 범용카메라와 객체의 거리(r)를 계산하는 단계; And, preferably, the step (c), (c-1) using the installed height (h) of the general-purpose camera, the general angle camera and the object (q) of the line perpendicular to the ground (Equation 1) through the general camera and the object Calculating a distance r of;
[수식1] [Equation 1]
여기서, r은 범용카메라와 객체의 거리, h는 범용카메라의 설치된 높이, q는 범용카메라와 지면에 수직인 선의 각도.Where r is the distance between the universal camera and the object, h is the installed height of the universal camera, and q is the angle of the line perpendicular to the universal camera and the ground.
(c-2) 상기 (c-1) 단계에서 계산된 객체의 거리와 객체의 이동시간 간격을 이용하여 객체의 속도를 계산하는 단계; 및 (c-3) 상기 범용카메라로부터 수신된 영상데이터를 다수의 부분으로 나누어 각 부분마다 기 설정된 줌(zoom) 좌표값을 이용하여 피티제트(PTZ) 좌표값을 계산하는 단계; 를 포함하는 것을 특징으로 한다.(c-2) calculating the speed of the object using the distance of the object and the moving time interval of the object calculated in the step (c-1); (C-3) dividing the image data received from the general-purpose camera into a plurality of parts and calculating a PTZ coordinate value by using a preset zoom coordinate value for each part; Characterized in that it comprises a.
상기와 같은 본 발명에 따르면, 영상데이터에서 인식오류를 발생시키는 요인을 제거한 후 객체를 명확하게 인식하고, 피티제트(PTZ) 좌표값을 계산하여 객체를 정확하게 추적할 수 있도록 하는 효과가 있다. According to the present invention as described above, the object is clearly recognized after removing the factor causing the recognition error in the image data, it is effective to accurately track the object by calculating the PTZ coordinate value.
도 1 은 본 발명의 일실시예에 따른 객체추적 시스템의 블록도.
도 2 는 본 발명의 일실시예에 따른 객체추적 시스템의 사용 상태도.
도 3 는 본 발명의 일실시예에 따른 객체추적을 위한 거리 측정 설명도.
도 4 는 본 발명의 일실시예에 따른 객체추적 좌표값 계산을 위한 일예시도.
도 5 는 본 발명의 일실시예에 따른 객체추적 시스템의 데이터 서버 블록도.
도 6 은 본 발명의 일실시예에 따른 객체추적 시스템의 순서도.
도 7 는 본 발명의 일실시예에 따른 객체추적 시스템의 이미지 처리과정 순서도.1 is a block diagram of an object tracking system according to an embodiment of the present invention.
2 is a state diagram used in the object tracking system according to an embodiment of the present invention.
3 is an explanatory diagram of distance measurement for object tracking according to an embodiment of the present invention.
4 is an exemplary view for calculating an object tracking coordinate value according to an embodiment of the present invention.
5 is a block diagram of a data server of an object tracking system according to an embodiment of the present invention.
6 is a flow chart of an object tracking system according to an embodiment of the present invention.
7 is a flowchart illustrating an image processing process of an object tracking system according to an exemplary embodiment of the present invention.
본 발명의 구체적 특징 및 이점들은 첨부도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다. 이에 앞서 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.Specific features and advantages of the present invention will become more apparent from the following detailed description based on the accompanying drawings. It is to be noted that the detailed description of known functions and constructions related to the present invention is omitted when it is determined that the gist of the present invention may be unnecessarily blurred.
이하, 첨부된 도면을 참조하여 본 발명을 상세하게 설명한다.
Hereinafter, with reference to the accompanying drawings will be described in detail the present invention.
도 1 은 본 발명의 일실시예에 따른 객체추적 시스템의 블록도로서, 도시된바와 같이 본 발명에 의한 객체추적 시스템은 객체를 추적하기 위하여 범용카메라(10), 원본영상 추출부(20), 이미지 가공부(30), 마이크로 컴퓨터(40), 데이터 서버(50), 추적카메라(60)를 포함한다.
1 is a block diagram of an object tracking system according to an embodiment of the present invention. As shown, the object tracking system according to the present invention includes a general-
상기 객체(1)는 보안시스템에서 주요하게 관심을 가지는 사람, 자동차 등 보안 시스템에 위해를 가할 수 있는 대상이 될 수 있다.
The
상기 범용카메라(10)는 사고발생 상황을 촬영하기 위해 특정의 지점에 설치되어 대상지점을 상시 촬영하는 다채널의 CCTV 카메라로 적용된다. 이때, 상기 범용카메라(10)는 각 지역구에 미리 설치된 CCTV 카메라를 활용하거나 별도의 CCTV 카메라를 설치해도 무방하다.
The general-
또한, 상기 원본영상 추출부(20)는 사고발생시 범용카메라(10)에 촬영된 원본영상을 스트림하여 여러장의 이미지 형태로 추출하여 전송하기 위한 영상처리 회로구성이다.In addition, the original
여기서, 상기 범용카메라(10)와 원본영상 추출부(20)는 현장에 설치된 구성으로 이와 같은 범용카메라(10)와 원본영상 추출부(20)는 주로 단일 케이스 상에 설치되는 것이 일반적이다.
Here, the
상기 이미지 가공부(30)는 원본영상 추출부(20)에서 전송된 이미지를 처리하기 위한 구성이다. 이와 같은 이미지 가공부(30)는 원본영상 추출부(20)에 의해 추출된 영상의 이미지를 대상객체와 주변사물로 구분하고, 상기 대상객체와 주변사물을 인식하여 이들 정보를 각각 처리 가능한 데이터 형태로 가공하게 된다.The
즉, 상기 이미지 가공부(30)는 현장에 설치된 CCTV 카메라를 관리하는 관제소 등에 설치되어 마이크로 컴퓨터(40)와 연동되도록 한 구성이다.
That is, the
상기 마이크로 컴퓨터(40)는 객체추적 시스템의 전체적인 구성을 제어하기 위한 컨트롤러 등의 구성이다. 이와 같은 마이크로 컴퓨터(40)는 이미지 가공부(30)를 통해 전송된 데이터에 의해 대상객체를 인식하고 대상객체를 확인하고 추적하기 위한 데이터인 PTZ 좌표값을 생성하여 추적 카메라(60)로 전송하게 된다.The
상기 마이크로 컴퓨터(40)는 범용카메라(10)와 객체(1)의 거리 및 객체(1)의 속도를 이용하여 피티제트(PTZ) 좌표값을 계산한다. 상기 마이크로 컴퓨터(40)는 도 2 에 나타난 바와 같이 범용카메라(10)의 설치된 높이(h), 범용카메라(10)와 지면에 수직인 선의 내각(q)을 이용하여 [수식1]을 통해 범용카메라(10)와 객체(1)의 거리(r)를 계산한다.The
[수식1] [Equation 1]
여기서, r은 범용카메라(10)와 객체(1)의 거리, h는 범용카메라(10)의 설치된 높이, q는 범용카메라(10)와 지면에 수직인 선의 각도이다.Here, r is the distance between the general-
여기서, 범용카메라(10)와 객체(1) 사이의 거리(r)는 범용카메라(10)의 화면을 도 4와 같이 일정한 크기로 분할하여 각 부분별로 거리를 설정해놓아 거리를 측정할 수 있다.Here, the distance r between the general-
또한, 상기 마이크로 컴퓨터(40)는 도 3을 참조하면 처음 인식된 객체(1)와 일정한 간격을 두고 다음 인식된 객체(1')의 시간간격을 이용하여 객체(1)의 속도를 산출할 수 있다.In addition, referring to FIG. 3, the
[수식2] [Equation 2]
여기서, v는 객체(1)의 속도, r1은 처음 인식된 객체(1)의 거리, r2는 다음 인식된 객체(1')의 거리, t는 처음 인식된 객체(1)와 다음 인식된 객체(1')의 시간 간격이다.Where v is the speed of the
피티제트(PTZ) 좌표값의 계산을 위해서는 가로 픽셀당 회전각과 세로 필셀당 회전각을 사전에 설정하여야 한다. 이때, 범용카메라(10)의 종류에 따라 해상도가 다양하기 때문에 이용하는 범용카메라(10)의 해상도를 이용하여, 가로 픽셀당 회전각은 [수식3]을 이용하여 구할 수 있고, 세로 픽셀당 회전각은 [수식4]를 이용하여 구할 수 있다.In order to calculate PTZ coordinate values, the rotation angle per horizontal pixel and the rotation angle per vertical pixel must be set in advance. In this case, since the resolution varies depending on the type of the general-
[수식3] [Equation 3]
[수식4] [Equation 4]
여기서, Qx는 가로 픽셀당 회전각, Qy는 세로 픽셀당 회전각, Px는 범용카메라(10)의 가로 픽셀수, Py는 범용카메라(10)의 세로 픽셀수이다.Here, Q x is a rotation angle per horizontal pixel, Q y is a rotation angle per vertical pixel, P x is a horizontal pixel number of the general-
피티제트(PTZ) 좌표값은 팬(Pan), 틸트(Tilt) 및 줌(Zoom)에 대한 3가지 좌표값을 산출하여야 하며, 팬 좌표값은 [수식 5]를 이용하여 계산하고, 틸트 좌표값은 [수식6]을 이용하여 계산한다.The PTZ coordinate value should be calculated with three coordinate values for Pan, Tilt and Zoom, and the pan coordinate value is calculated using [Equation 5], and the tilt coordinate value Is calculated using [Equation 6].
[수식5] [Equation 5]
[수식6] [Equation 6]
여기서, Dx는 팬 좌표값, Sx는 초기 셋팅된 팬 좌표값, Qx는 가로 픽셀당 회전각, Ex는 인식된 객체(1)의 팬 좌표값, vx는 가로 방향 속도, Dy는 틸트 좌표값, Sy는 초기 셋팅된 틸트 좌표값, Qy는 세로 픽셀당 회전각, Ey는 인식된 객체(1)의 틸트 좌표값, vy는 세로 방향 속도, a와 b는 상수이다.Where D x is the pan coordinate value, S x is the initial set pan coordinate value, Q x is the rotation angle per horizontal pixel, E x is the pan coordinate value of the recognized object (1), v x is the horizontal velocity, D y is the tilt coordinate value, S y is the initially set tilt coordinate value, Q y is the rotation angle per vertical pixel, E y is the tilt coordinate value of the recognized object (1), v y is the vertical velocity, a and b are Is a constant.
상기 줌 좌표값은 화면을 도 4 와 같이 일정한 크기로 등분하여 사전에 각 부분별로 줌 배율을 설정해 놓아 카메라 촬영방향으로부터 제일 멀리 떨어져있는 부분에 객체(1)가 포착되는 경우 카메라의 줌을 최대로 확대시키고 카메라와 가까운 부분에 객체(1)가 포착되는 경우에는 카메라의 줌을 축소시킨다. 이때 추적카메라(60)가 설치되는 장소 및 상황에 따라 사전에 설정한 줌 배율이 변경될 수 있다.The zoom coordinate value is divided into equal parts as shown in FIG. 4, and the zoom magnification is set for each part in advance so that the zoom of the camera is maximized when the
상기 마이크로 컴퓨터(40)는 유무선 통신을 이용하여 상술한 방식에 의해 계산된 PTZ 좌표값을 추적카메라로 전송한다.
The
도 5 는 본 발명에 의한 객체추적 시스템의 데이터 서버 블록도로서, 상기 데이터 서버(50)는 도시된 바와 같이, 이미지 가공부(30)에서 대상객체와 주변사물을 구분하고 이들을 인식하기 위한 설정 데이터가 미리 저장되어 구성된다. 특히, 상기 데이터 서버(50)는 대상객체와 주변사물의 구분 및 인식시 상기 마이크로 컴퓨터(40)를 통해 미리 저장된 데이터를 제공하게 된다.FIG. 5 is a block diagram of a data server of an object tracking system according to the present invention. The
이와 같은 데이터 서버(50)는 크게 두 종류의 데이터로 구분된다. 즉, 상기 데이터 서버(50)의 데이터는 목적하는 대상객체를 인식하기 위한 객체인식 데이터테이블(51)과, 주변사물 데이터테이블(52)로 구분된다.The
상기 객체인식 데이터테이블(51)은 이미지 가공부(30)에서 대상객체를 구분할 수 있도록 하기 위해 대상객체의 모션감지, 형상감지, 생체인식, 색체인식, 좌표인식에 대한 설정데이터가 각각 저장되어 구성된다.The object recognition data table 51 is configured to store the setting data for motion detection, shape detection, biometric, color recognition, coordinate recognition of the target object so that the
이때, 상기 대상객체의 모션감지는 이미지의 프레임당 움직임이 검출되는 대상에 대한 설정데이터이고, 상기 형성감지는 움직임이 발생되는 대상 즉, 차량이나 오토바이크 등의 형상을 복합적인 도형의 형태, 특히, 차량의 번호판 등을 인식하도록 하기 위한 설정데이터이다. 또한, 생체인식은 인체, 특히 인체의 얼굴의 특징점을 기준으로 눈, 코, 입 등을 인식하도록 하기 위한 설정데이터이며, 색체인식은 선택적인 것으로 가시광의 파장에 의해 색체를 인식하기 위한 설정데이터이다.At this time, the motion detection of the target object is the setting data for the object for which the motion per frame of the image is detected, the formation detection of the shape of the object, that is, the vehicle or motorcycle, etc. , The setting data for recognizing the license plate of the vehicle. In addition, biometric recognition is setting data for recognizing the eyes, nose, mouth, etc. based on the characteristic points of the human body, in particular, the face of the human body, and color recognition is optional and setting data for recognizing the color by the wavelength of visible light. .
상기 주변사물 데이터테이블(52)은 이미지 가공부(30)에서 주변사물을 구분할 수 있도록 하기 위해 주변사물의 지리정보, 모션감지, 형상감지, 색체인식, 좌표인식에 대한 설정데이터가 각각 저장되어 구성된다.The peripheral object data table 52 is configured to store the setting data for the geographic information, motion detection, shape detection, color recognition, coordinate recognition of the peripheral objects so that the
이때, 상기 주변사물의 지리정보는 미리 설정된 지역의 지형, 지물 등에 대한 설정데이터이며, 모션감지, 형상감지, 색체인식 등은 전술한 대상객체의 각 설정데이터와 대응된다.At this time, the geographic information of the surrounding objects is the setting data for the terrain, the feature, etc. of the preset area, and the motion detection, shape detection, color recognition, etc. correspond to the above-mentioned setting data of the target object.
특히, 공통적으로 인식되어야 하는 좌표인식은 각 카메라(10, 60)에 촬영된 영상에 가상의 공간좌표, 또는 상기 지리정보와 연동하여 지역의 좌표 등에 의해 대상객체와 주변사물의 지점 특히 이동위치를 파악할 수 있게 된다.
In particular, the coordinate recognition that should be commonly recognized is a virtual spatial coordinate in the image photographed by each camera (10, 60), or in particular the position of the moving object and the surrounding object by the coordinates of the region in conjunction with the geographic information, etc. I can figure it out.
상기 추적카메라(60)는 객체(1)를 연속적으로 추적하며 촬영하기 위한 것으로 회전이 가능하고, 줌(Zoom) 기능을 가진다. 이때 추적카메라(60)는 종류에 따라 전후, 좌우 회전의 각도 및 줌 기능의 정도의 차이가 있을 수 있다. 하지만, 일반적으로, 추적카메라(60)는 피티제트(PTZ) 좌표값을 이용하는데, 피티제트(PTZ) 좌표값은 팬(Pan), 틸트(Tilt) 및 줌(Zoom)으로 3가지 요소에 의한 좌표값을 의미하며, 팬(Pan) 좌표값은 가로축으로 좌우 회전하기 위한 좌표이며 일반적으로 0 도 내지 360 도의 좌표값을 가지고, 틸트(Tilt) 좌표값은 세로축으로 전후 회전하기 위한 좌표이며 일반적으로 0 도 내지 360 도의 좌표값을 가지고, 줌(Zoom) 값은 객체(1)를 광학적으로 확대하여 촬영하기 위한 것으로 추적카메라(60)의 성능에 따라 일반적으로 최고 30배까지 확대가 가능하다.The tracking
이와 같은 추적카메라(60)도 전술한 범용카메라(10)와 같이 각 관할지역구에 미리 설치된 CCTV 카메라를 활용하거나 별도의 CCTV 카메라를 설치해도 무방하다.Such a tracking
특히, 상기 범용카메라(10)와 추적카메라(60)는 단일의 것으로 병합되어 설치되어도 무방한 것으로, 단지 본 실시예에서는 범용카메라(10)와 추적카메라(60)의 기능을 구분하기 위해 분리된 형태로 예시함을 밝혀둔다. 이때, 단일화된 카메라의 형태는 전술한 팬, 틸트 등의 기능을 갖는 구동식 카메라 형태로 적용됨이 바람직하다.
In particular, the general-
상기와 같은 구성에 추가하여, 객체추적 시스템은 압축부(70), 통신모듈(80)의 구성을 더 갖추어 구성되며, 전술한 마이크로 컴퓨터(40)를 통해 출력되는 데이터를 다시 영상으로 변환하여 감시자(관제소의 관리자)가 대상객체의 확인 및 추적사항을 확인하기 위해 관제서버(90)와, LCD, LED 판넬, 프린터 등의 출력장치(100)를 더 갖추어 구성될 수 있다.In addition to the above configuration, the object tracking system is further configured with the configuration of the
상기 압축부(70)는 마이크로 컴퓨터(40)에서 출력되는 데이터를 감시자가 대상객체를 확인 및 추적영상을 확인할 수 있도록 하기 위한 출력장치(100)로 전송하기 위해 상기 데이터를 표준화된 규격으로 압축하기 위한 구성이다.The
상기 통신모듈(80)은 상기 마이크로 컴퓨터(40) 또는 압축부(70)를 통해 압축된 데이터를 감시자가 대상객체 확인 및 추적영상을 확인할 수 있도록 하기 위한 출력장치(100)로 전송하기 위한 구성이다.
The
이하, 객체추적 시스템의 일실시예에 따른 작동과정 및 효과를 살펴 본다.Hereinafter, an operation process and effects according to an embodiment of the object tracking system will be described.
도 6 은 본 발명의 일실시예에 따른 객체추적 시스템의 순서도로서, 도면을 참조하면, 상기 객체추적 시스템이 운영되는 과정은 본 시스템이 설치된 지역에서 현금이나 각종 귀중품의 도난, 사고나 화재와 같은 재난 등의 사건이 발생되면,(S10) 사건발생현장 부근의 범용카메라(10)에 의해 사건현장의 촬영영상이 원본영상 추출부(20)를 통해 스트림 형태로 추출된 이미지를 전송하게 된다.(S20)FIG. 6 is a flowchart of an object tracking system according to an embodiment of the present invention. Referring to the drawings, the process of operating the object tracking system may be performed such as theft, accident or fire of cash or various valuables in the area where the system is installed. When an event such as a disaster occurs (S10), the captured image of the incident scene is transmitted through the
이후, 상기 이미지 가공부(30)에서는 원본영상 추출부(20)를 통해 촬영영상의 이미지를 수신하고, 마이크로 컴퓨터(40)를 통해 데이터 서버(50)의 각 데이터 테이블(51, 52)의 데이터를 호출하게 된다.(S30)Thereafter, the
상기와 같이 호출된 데이터가 로딩되면, 상기 이미지 가공부(30)에서는 호출된 데이터에 의해 대상객체와 주변사물을 구분하고 대상객체를 인식한 후, 대상객체와 주변사물의 이미지를 처리가능한 데이터로 변환하여 마이크로 컴퓨터(40)로 전송하게 된다.(S40)
When the called data is loaded as described above, the
도 7 는 본 발명의 일실시예에 따른 객체추적 시스템의 이미지 처리과정 순서도이다. 도면을 참조하면, 상기 이미지 가공부(30)에 의해 이미지가 처리되기 위해서는 마이크로 컴퓨터(40)를 통해 데이터 서버(50)에서 대상객체 데이터테이블(51)과, 주변사물 데이터테이블(52)을 호출한다.(S41)7 is a flowchart of an image processing process of an object tracking system according to an exemplary embodiment of the present invention. Referring to the drawings, in order to process the image by the
이후, 상기 이미지 가공부(30)에서는 각 데이터 테이블(51, 52)에 미리 설정되어 저장된 대상객체의 모션감지,형상감지, 생체인식, 색체인식, 좌표인식 데이터와, 주변사물의 지리정보, 모션감지, 형상감지, 색체인식, 좌표인식 데이터를 상기 원본영상 추출부(20)를 통해 전송된 사고상황의 이미지에 적용시켜 대상객체와 주변사물을 구분하게 된다.(S42)Thereafter, the
이때, 상기 사건을 발생시킨 범인 또는 차량 등의 대상객체에 대한 모션감지, 형상감지, 생체인식, 색체인식, 좌표인식 등은 전술된 것과 같으며, 이러한 과정에 의해 대상객체의 움직임 중첩을 방지하고, 대상객체를 보다 명확하게 인식할 수 있게 되는 것이다.In this case, motion detection, shape detection, biometric, color recognition, coordinate recognition, etc. of the target object such as the criminal or the vehicle that caused the incident are as described above. Therefore, the target object can be recognized more clearly.
상기 대상객체와 주변사물이 구분되면, 대상객체와 주변사물을 구분하여서 된 이미지 정보를 마이크로 컴퓨터(40)에서 각 구성을 제어할 수 있도록 하기 위한 데이터로 가공하여(S43) 마이크로 컴퓨터(40)로 전송하게 된다.(S44)When the target object and the surrounding object are separated, the image information obtained by dividing the target object and the surrounding object is processed into data for controlling each component in the microcomputer 40 (S43) to the
여기서, 상기 가공데이터는 이진부호, 펄스 등의 형태로 마이크로 컴퓨터(40)에 의해 각 객체추적 구성이 제어되기 위한 최적의 신호로 가공된 것이다.Here, the processed data is processed into an optimum signal for controlling each object tracking configuration by the
상기와 같이 이미지 가공부(30)의 데이터를 마이크로 컴퓨터(40)에서 수신하게 되면, 상기 마이크로 컴퓨터(40)에서는 대상객체의 데이터를 발췌한 후(S50) 추적카메라(60)가 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영할 수 있도록 하기 위한 데이터를 생성하여 출력하게 된다.(S60)When the data of the
마이크로 컴퓨터(40)는 범용카메라(10)로부터 영상데이터를 수신하여 객체(1)가 사람 또는 자동차 등 추적객체(1)인지 판단하고, 객체(1)를 인식하고 기 설정된 범용 카메라의 설치된 높이, 범용카메라(10)와 지면에 수직인 선의 각도를 이용하여 객체(1)의 거리를 계산하고, 상기 계산된 객체(1)의 거리와 객체(1)의 이동 시간 간격을 이용하여 객체(1)의 속도를 계산하고, 계산된 객체(1)의 속도를 이용하여 객체(1)의 피티제트(PTZ) 좌표값를 계산한다.The
구체적으로, 범용카메라(10)의 가로 픽셀수가 720 픽셀이고, 범용카메라(10)의 세로 픽셀수가 480 픽셀이면 [수식 3]과 [수식 4]에 의하여 가로 픽셀당 회전각은 12.5 도, 세로 픽셀당 회전각은 9.38 도로 설정된다. Specifically, if the number of horizontal pixels of the general-
[수식 1]을 이용하여 객체(1)와의 거리를 계산하여, 처음 인식된 객체(1)와의 거리가 102 m(미터)이고, 객체(1)의 PTZ 중심점이 (360, 100)이고, 0.5초의 시간간격을 두고 다음 인식된 객체(1')와의 거리가 100m(미터)이고, 객체(1')의 PTZ 중심점이 (360, 300)일 경우, 객체(1)의 속도는 [수식 2]를 이용하여 계산하면 14.4 km/h 로 계산된다.The distance to the
다음으로 PTZ 좌표값을 산출하기 위하여 [수식 5] 및 [수식 6]을 이용하여 계산하면 팬 좌표값은 45도, 틸트 좌표값은 35.34도로 산출되고, 객체(1)가 위치한 구역에 따라 사전에 설정된 줌(zoom) 배율을 이용하여 줌 좌표값을 2배줌으로 계산한다. 그리고, 마이크로 컴퓨터(40)는 상기 팬(pan), 틸트(tilt), 줌(zoom) 좌표값에 대한 정보를 포함하는 PTZ 좌표값을 추적카메라(60)로 전송한다. 따라서, 추적카메라(60)는 마이크로 컴퓨터(40)로부터 연속적으로 PTZ좌표값을 수신하여 객체(1)를 정확하게 추적할 수 있게 된다.
Next, to calculate the PTZ coordinate value, using [Equation 5] and [Equation 6], the pan coordinate value is 45 degrees, and the tilt coordinate value is 35.34 degrees. The zoom coordinate value is calculated as 2x zoom using the set zoom factor. In addition, the
이후, 상기 마이크로 컴퓨터(40)에서 출력된 데이터는 카메라구동부(61)에서 수신되어 추적카메라(60)가 대상객체외의 주변사물 데이터가 제거된 상태에서 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영을 수행할 수 있게 된다.(S70)Thereafter, the data output from the
이때, 상기 주변사물 데이터의 제거는 대상객체의 이동하는 경로에서 대상객체와의 중첩에 의해 대상객체를 오인, 혼동할 수 있는 여지를 제거하기 위한 것으로, 이로인해 대상객체를 더욱 명확하게 인식하여 확인 및 추적할 수 있게 된다.At this time, the removal of the surrounding object data is to remove the possibility of mistaken and confusing the target object by overlapping with the target object in the moving path of the target object, thereby identifying and confirming the target object more clearly. And track.
추가되는 과정으로, 상기 상기 마이크로 컴퓨터(40)에서 생성된 데이터는 감지자가 감시자가 대상객체를 확인 및 추적영상을 확인할 수 있도록 하기 위한 출력장치(100)로 전송하기 위해 압축부(70)를 통해 상기 데이터를 표준화된 규격으로 압축을 수행한다.(S80)In addition, the data generated by the
이후, 상기 마이크로 컴퓨터(40) 또는 압축부(70)를 통해 압축된 데이터를 통신모듈(80)을 통해 감시자가 대상 객체 확인 및 추적영상을 확인할 수 있도록 하기 위한 출력장치(100)로 유선 또는 무선 전송하여 감시자가 추적과정을 관제소에서 확인할 수 있도록 한다.(S90)Thereafter, the data compressed through the
또한, 상기 객체추적 시스템의 운영과정에서 설정된 구역에 다수 설치된 범용 또는 추적카메라(60)에서 대상객체가 촬영한계를 이탈할 경우가 발생될 수 있다.In addition, a case in which the target object deviates from the shooting limit may occur in the general purpose or tracking
이를 위해, 상기 마이크로 컴퓨터(40)에서는 범용 또는 추적카메라(60)에 의해 추적되는 대상객체의 이동경로 확인하여 대상객체가 이동한 경로상에 설치된 다른 범용 또는 추적카메라(60)에 의해 대상객체의 확인 및 추적을 연속적으로 수행하도록 할 수 있다.
To this end, the
본 발명은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피디스크, 하드 디스크, 광데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송과 같이 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
The present invention can be embodied as computer readable codes on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, hard disk, optical data storage, and the like, which are implemented in the form of a carrier wave such as transmission over the Internet. It also includes. The computer readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.
이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다. While the present invention has been particularly shown and described with reference to preferred embodiments thereof, it will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. It will be appreciated by those skilled in the art that numerous changes and modifications may be made without departing from the invention. Accordingly, all such appropriate modifications and changes, and equivalents thereof, should be regarded as within the scope of the present invention.
1 : 객체 10 : 범용카메라
20 : 원본영상 추출부 30 : 이미지가공부
40 : 마이크로 컴퓨터 50 : 데이터서버
60 : 추적카메라 70 : 압축부
80 : 통신모듈 90 : 관제서버
100 : 출력장치1: Object 10: General purpose camera
20: Original image extraction unit 30: Image processing unit
40: microcomputer 50: data server
60: tracking camera 70: compression unit
80: communication module 90: control server
100: output device
Claims (8)
상기 범용카메라에 의해 촬영된 원본영상을 스트림형태로 추출하는 원본영상 추출부(20);
상기 원본영상 추출부(20)에 의해 추출된 영상의 이미지를 대상 객체와 주변사물로 구분하고, 상기 대상객체와 주변사물을 인식하여 이들 정보를 각각 처리가능한 데이터 형태로 가공하는 이미지 가공부(30);
상기 이미지 가공부(30)를 통해 전송된 데이터에 의해 대상객체를 인식하고 대상객체를 확인하고 객체의 거리 및 객체의 속도를 계산하여 객체를 추적하기 위한 피티제트(PTZ) 좌표값을 계산하고, 각 구성을 제어하는 마이크로 컴퓨터(40);
상기 이미지 가공부(30)에서 대상객체와 주변사물을 구분하고 이들을 인식하기 위한 데이터가 미리 저장되어, 대상객체와 주변사물의 구분 및 인식시 상기 마이크로 컴퓨터(40)를 통해 미리 저장된 데이터를 제공하는 데이터 서버(50); 및
상기 마이크로 컴퓨터(40)에 의해 생성된 피티제트(PTZ) 좌표값을 수신하여 목적하는 대상객체에 초점을 두고 연속적으로 추적하며 촬영하는 전용카메라(60); 를 포함하는 것을 특징으로 하는 객체추적 시스템.
A general-purpose camera 10 installed at a specific point to photograph an accident situation at all times to photograph the target point at all times;
An original image extracting unit 20 for extracting an original image photographed by the general-purpose camera in a stream form;
The image processing unit 30 classifies the image of the image extracted by the original image extraction unit 20 into a target object and surrounding objects, recognizes the target object and surrounding objects, and processes the information into a processable data form. );
Recognize the target object by the data transmitted through the image processing unit 30, identify the target object, calculate the distance of the object and the speed of the object to calculate the PTZ coordinate value for tracking the object, A microcomputer 40 for controlling each component;
The image processing unit 30 stores data for distinguishing and recognizing the target object and the surrounding object in advance, and provides the pre-stored data through the microcomputer 40 when the target object and the surrounding object are distinguished and recognized. Data server 50; And
A dedicated camera 60 which receives the PTZ coordinate value generated by the microcomputer 40 and continuously tracks and captures a target object of interest; Object tracking system comprising a.
상기 마이크로 컴퓨터(40)는,
범용카메라의 설치된 높이(h), 범용카메라와 지면에 수직인 선의 내각(q)을 이용하여 [수식1]을 통해 범용카메라와 객체의 거리(r)를 계산하는 것을 특징으로 하는 객체추적 시스템.
[수식1]
여기서, r은 범용카메라와 객체의 거리, h는 범용카메라의 설치된 높이, q는 범용카메라와 지면에 수직인 선의 각도.
The method of claim 1,
The microcomputer 40,
An object tracking system comprising calculating the distance (r) of a general-purpose camera and an object by using [Equation 1] using the installed height (h) of the general-purpose camera and the internal angle (q) of a line perpendicular to the general-purpose camera and the ground.
[Equation 1]
Where r is the distance between the universal camera and the object, h is the installed height of the universal camera, and q is the angle of the line perpendicular to the universal camera and the ground.
상기 마이크로 컴퓨터(40)는,
처음 인식된 객체와 다음 인식된 객체 사이의 시간 간격 및 객체의 처음 인식된 거리와 다음 인식된 거리를 이용하여 객체의 속도를 계산하는 것을 특징으로 하는 객체추적 시스템.
The method of claim 1,
The microcomputer 40,
An object tracking system, comprising calculating a speed of an object using a time interval between a first recognized object and a next recognized object, and using the first recognized distance and the next recognized distance of the object.
상기 마이크로 컴퓨터(40)는,
상기 범용카메라로부터 수신된 영상데이터를 다수의 부분으로 나누어 각 부분마다 기 설정된 줌(zoom) 좌표값을 이용하여 피티제트(PTZ) 좌표값을 계산하는 것을 특징으로 하는 객체추적 시스템.
The method of claim 1,
The microcomputer 40,
And dividing the image data received from the general-purpose camera into a plurality of parts to calculate PTZ coordinate values by using a preset zoom coordinate value for each part.
상기 이미지 가공부(30)에서 주변사물을 구분할 수 있도록 하기 위해 주변사물의 지리정보, 모션감지, 형상감지, 색체인식, 좌표인식에 대한 설정데이터가 각각 저장된 주변사물 데이터테이블(52);을 포함하는 것을 특징으로 하는 객체추적 시스템.
The method of claim 1, wherein the data server 50 is set to the motion detection, shape detection, biometrics, color recognition, coordinate recognition of the target object in order to be able to distinguish the target object in the image processing unit 30 An object recognition data table 51 respectively stored;
Peripheral object data table 52 for storing the setting data for the geographic information, motion detection, shape detection, color recognition, coordinate recognition of the peripheral objects in order to be able to distinguish the peripheral objects in the image processing unit 30; Object tracking system, characterized in that.
(b) 상기 원본영상 추출부(20)를 통해 촬영영상의 이미지를 수신한 이미지 가공부(30)에서 마이크로 컴퓨터(40)를 통해 데이터 서버(50)의 각 데이터테이블(51, 52)의 데이터를 호출하여, 호출된 데이터에 의해 대상객체와 주변사물을 구분하고 대상객체를 인식한 후 대상객체와 주변사물의 이미지를 처리가능한 데이터로 변환하여 마이크로 컴퓨터(40)로 전송하는 과정;
(c) 상기 이미지 가공부(30)의 데이터를 수신한 마이크로 컴퓨터(40)에서 대상객체의 데이터를 발췌한 후 전용카메라(60)가 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영할 수 있도록 하기 위한 데이터를 생성하여 출력하는 과정; 및
(d) 상기 마이크로 컴퓨터(40)에서 출력된 데이터를 카메라구동부(61)에서 수신하여 전용카메라(60)가 대상객체외의 주변사물 데이터가 제거된 상태에서 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영을 수행하는 과정; 를 포함하는 것을 특징으로 하는 객체추적 시스템의 운영방법.
(a) transmitting the extracted image in the form of a stream through the original image extracting unit 20 by the general-purpose camera;
(b) the data of the data tables 51 and 52 of the data server 50 through the microcomputer 40 in the image processing unit 30 that receives the image of the captured image through the original image extracting unit 20. Calling, distinguishing the target object and the surrounding object by the called data, recognizing the target object, converting the image of the target object and the surrounding object into processable data, and transmitting the same to the microcomputer 40;
(c) After extracting the data of the target object from the microcomputer 40 that has received the data of the image processing unit 30, the dedicated camera 60 may focus on the target object and continuously track and photograph the target object. Generating and outputting data so as to make the data available; And
(d) The data output from the microcomputer 40 is received by the camera driver 61 so that the dedicated camera 60 continuously focuses on the target object while the peripheral object data other than the target object is removed. Performing the shooting while tracking; Operating method of the object tracking system comprising a.
상기 (b) 과정은,
(b-1) 마이크로 컴퓨터(40)를 통해 데이터 서버(50)에서 대상객체 데이터테이블(51, 52)과, 주변사물 데이터테이블(52)을 호출하는 단계;
(b-2) 상기 각 데이터테이블(51, 52)에 미리 설정되어 저장된 대상객체의 모션감지, 형상감지, 생체인식, 색체인식, 좌표인식 데이터와, 주변사물의 지리정보, 모션감지, 형상감지, 색체인식, 좌표인식 데이터를 상기 원본영상 추출부(20)를 통해 전송된 사고상황의 이미지에 적용시켜 대상객체와 주변사물을 구분하는 단계; 및
(b-3) 상기 대상객체와 주변사물이 구분되면, 대상객체와 주변사물을 구분하여서 된 이미지 정보를 마이크로 컴퓨터(40)에서 각 구성을 제어할 수 있도록 하기 위한 데이터로 가공하여 마이크로 컴퓨터(40)로 전송하는 단계;를 포함하는 것을 특징으로 하는 객체추적 시스템의 운영방법.
The method according to claim 6,
The step (b)
(b-1) calling the target object data tables 51 and 52 and the peripheral object data table 52 from the data server 50 through the microcomputer 40;
(b-2) Motion detection, shape detection, biometric recognition, color recognition, coordinate recognition data, geographic information of surrounding objects, motion detection, shape detection of a target object which is preset and stored in the respective data tables 51 and 52 Distinguishing a target object from surrounding objects by applying color recognition and coordinate recognition data to an image of an accident situation transmitted through the original image extraction unit 20; And
(b-3) When the target object and the surrounding object are distinguished, the microcomputer 40 is processed by processing the image information obtained by dividing the target object and the surrounding object into data for controlling each component in the microcomputer 40. And transmitting to).
상기 (c) 과정은,
(c-1) 범용카메라의 설치된 높이(h), 범용카메라와 지면에 수직인 선의 내각(q)을 이용하여 [수식1]을 통해 범용카메라와 객체의 거리(r)를 계산하는 단계;
[수식1]
여기서, r은 범용카메라와 객체의 거리, h는 범용카메라의 설치된 높이, q는 범용카메라와 지면에 수직인 선의 각도.
(c-2) 상기 (c-1) 단계에서 계산된 객체의 거리와 객체의 이동시간 간격을 이용하여 객체의 속도를 계산하는 단계; 및
(c-3) 상기 범용카메라로부터 수신된 영상데이터를 다수의 부분으로 나누어 각 부분마다 기 설정된 줌(zoom) 좌표값을 이용하여 피티제트(PTZ) 좌표값을 계산하는 단계;를 포함하는 것을 특징으로 하는 객체추적 시스템의 운영방법. The method according to claim 6,
The step (c)
(c-1) calculating a distance r between the universal camera and the object by using Equation 1 using the installed height h of the general-purpose camera and the angle q of the line perpendicular to the general-purpose camera and the ground;
[Equation 1]
Where r is the distance between the universal camera and the object, h is the installed height of the universal camera, and q is the angle of the line perpendicular to the universal camera and the ground.
(c-2) calculating the speed of the object using the distance of the object and the moving time interval of the object calculated in the step (c-1); And
(c-3) dividing the image data received from the general-purpose camera into a plurality of parts and calculating a PTZ coordinate value by using a preset zoom coordinate value for each part. Operating method of object tracking system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110128737A KR20130062489A (en) | 2011-12-05 | 2011-12-05 | Device for tracking object and method for operating the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110128737A KR20130062489A (en) | 2011-12-05 | 2011-12-05 | Device for tracking object and method for operating the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20130062489A true KR20130062489A (en) | 2013-06-13 |
Family
ID=48860179
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110128737A Ceased KR20130062489A (en) | 2011-12-05 | 2011-12-05 | Device for tracking object and method for operating the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20130062489A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101469430B1 (en) * | 2013-06-28 | 2014-12-04 | (주)맨엔텔 | 3-dimensional haptic display apparatus |
KR101897800B1 (en) * | 2018-06-14 | 2018-09-13 | (주)벨류데이터 | Speed guide apparatus for measuring the speed of a vehicle using a camera and operating method thereof |
US10205911B2 (en) | 2014-09-04 | 2019-02-12 | S-1 Corporation | Method and system for detecting running |
KR20210069385A (en) * | 2019-12-03 | 2021-06-11 | 한국과학기술정보연구원 | Mapping device between image and space, and computer trogram that performs each step of the device |
KR20240117274A (en) * | 2023-01-25 | 2024-08-01 | 김준연 | System for acquiring synchronous content between multiple image sensing devices for detecting moving objects |
-
2011
- 2011-12-05 KR KR1020110128737A patent/KR20130062489A/en not_active Ceased
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101469430B1 (en) * | 2013-06-28 | 2014-12-04 | (주)맨엔텔 | 3-dimensional haptic display apparatus |
US10205911B2 (en) | 2014-09-04 | 2019-02-12 | S-1 Corporation | Method and system for detecting running |
KR101897800B1 (en) * | 2018-06-14 | 2018-09-13 | (주)벨류데이터 | Speed guide apparatus for measuring the speed of a vehicle using a camera and operating method thereof |
WO2019240340A1 (en) * | 2018-06-14 | 2019-12-19 | (주)벨류데이터 | Speeding guide device capable of measuring speed of vehicle by using camera, and operation method therefor |
KR20210069385A (en) * | 2019-12-03 | 2021-06-11 | 한국과학기술정보연구원 | Mapping device between image and space, and computer trogram that performs each step of the device |
KR20240117274A (en) * | 2023-01-25 | 2024-08-01 | 김준연 | System for acquiring synchronous content between multiple image sensing devices for detecting moving objects |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101530255B1 (en) | Cctv system having auto tracking function of moving target | |
CN102833478B (en) | Fault-tolerant background model | |
KR101647370B1 (en) | road traffic information management system for g using camera and radar | |
CN104519318B (en) | Frequency image monitoring system and surveillance camera | |
US20120281874A1 (en) | Method, material, and apparatus to improve acquisition of human frontal face images using image template | |
KR102162130B1 (en) | Enforcement system of illegal parking using single camera | |
EP2757771B1 (en) | Image pickup apparatus, remote control apparatus, and methods of controlling image pickup apparatus and remote control apparatus | |
CN110580808B (en) | Information processing method and device, electronic equipment and intelligent traffic system | |
US10277888B2 (en) | Depth triggered event feature | |
KR101612836B1 (en) | Method and device for acquisiting accident image in vehicle, and computer readable medium for performing the method | |
US12190242B2 (en) | Methods for detecting phantom projection attacks against computer vision algorithms | |
CN107005655A (en) | Image processing method | |
JP2007158421A (en) | Surveillance camera system and face image tracking recording method | |
JP6292540B2 (en) | Information processing system, information processing method, and program | |
KR20130062489A (en) | Device for tracking object and method for operating the same | |
KR101492473B1 (en) | Context-aware cctv intergrated managment system with user-based | |
KR100948382B1 (en) | Security service method and system | |
CN113869258A (en) | Traffic incident detection method, device, electronic device and readable storage medium | |
KR101060528B1 (en) | Image processing system applied as security system and its operation method | |
KR101985711B1 (en) | Augmented reality CCTV system, and control method for the same | |
KR20090073554A (en) | Embedded based vehicle image storage device and method | |
US20120026292A1 (en) | Monitor computer and method for monitoring a specified scene using the same | |
CN107888878B (en) | Fire automatic-positioning type photograph platform courses method | |
JP2008182459A (en) | Passage monitoring system | |
KR20200056656A (en) | Human and object recognition system using action cam module |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20111205 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20130228 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20130628 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20130228 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |