[go: up one dir, main page]

KR20130062489A - Device for tracking object and method for operating the same - Google Patents

Device for tracking object and method for operating the same Download PDF

Info

Publication number
KR20130062489A
KR20130062489A KR1020110128737A KR20110128737A KR20130062489A KR 20130062489 A KR20130062489 A KR 20130062489A KR 1020110128737 A KR1020110128737 A KR 1020110128737A KR 20110128737 A KR20110128737 A KR 20110128737A KR 20130062489 A KR20130062489 A KR 20130062489A
Authority
KR
South Korea
Prior art keywords
data
target object
camera
microcomputer
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020110128737A
Other languages
Korean (ko)
Inventor
노종호
신민호
Original Assignee
웅진보안시스템(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 웅진보안시스템(주) filed Critical 웅진보안시스템(주)
Priority to KR1020110128737A priority Critical patent/KR20130062489A/en
Publication of KR20130062489A publication Critical patent/KR20130062489A/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 객체추적 시스템 및 그 운영방법에 관한 것으로서, 객체를 정확하게 추적할 수 있도록 피티제트(PTZ) 좌표값을 계산하여 추적카메라에 전송하는 객체추적 시스템 및 그 운영방법을 제공함에 그 목적이 있다.
이러한 기술적 과제를 달성하기 위한 본 발명은, 사고발생 상황을 촬영하기 위해 특정의 지점에 설치되어 대상지점을 상시 촬영하는 범용카메라(10); 상기 범용카메라에 의해 촬영된 원본영상을 스트림형태로 추출하는 원본영상 추출부(20); 상기 원본영상 추출부(20)에 의해 추출된 영상의 이미지를 대상 객체와 주변사물로 구분하고, 상기 대상객체와 주변사물을 인식하여 이들 정보를 각각 처리가능한 데이터 형태로 가공하는 이미지 가공부(30); 상기 이미지 가공부(30)를 통해 전송된 데이터에 의해 대상객체를 인식하고 대상객체를 확인하고 객체의 거리 및 객체의 속도를 계산하여 객체를 추적하기 위한 피티제트(PTZ) 좌표값을 계산하고, 각 구성을 제어하는 마이크로 컴퓨터(40); 상기 이미지 가공부(30)에서 대상객체와 주변사물을 구분하고 이들을 인식하기 위한 데이터가 미리 저장되어, 대상객체와 주변사물의 구분 및 인식시 상기 마이크로 컴퓨터(40)를 통해 미리 저장된 데이터를 제공하는 데이터 서버(50); 및 상기 마이크로 컴퓨터(40)에 의해 생성된 피티제트(PTZ) 좌표값을 수신하여 목적하는 대상객체에 초점을 두고 연속적으로 추적하며 촬영하는 전용카메라(60); 를 포함하는 것을 특징으로 한다.
한편, 객체추적 시스템의 운영방법은 (a) 범용카메라에 의해 촬영영상이 원본영상 추출부(20)를 통해 스트림 형태로 추출된 이미지를 전송되는 과정; (b) 상기 원본영상 추출부(20)를 통해 촬영영상의 이미지를 수신한 이미지 가공부(30)에서 마이크로 컴퓨터(40)를 통해 데이터 서버(50)의 각 데이터테이블(51, 52)의 데이터를 호출하여, 호출된 데이터에 의해 대상객체와 주변사물을 구분하고 대상객체를 인식한 후 대상객체와 주변사물의 이미지를 처리가능한 데이터로 변환하여 마이크로 컴퓨터(40)로 전송하는 과정; (c) 상기 이미지 가공부(30)의 데이터를 수신한 마이크로 컴퓨터(40)에서 대상객체의 데이터를 발췌한 후 전용카메라(60)가 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영할 수 있도록 하기 위한 데이터를 생성하여 출력하는 과정; 및 (d) 상기 마이크로 컴퓨터(40)에서 출력된 데이터를 카메라구동부(61)에서 수신하여 전용카메라(60)가 대상객체외의 주변사물 데이터가 제거된 상태에서 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영을 수행하는 과정; 를 포함하는 것을 특징으로 한다.
The present invention relates to an object tracking system and a method of operating the same, and to provide an object tracking system and a method of operating the same, which calculates and transmits a PTZ coordinate value to a tracking camera so as to accurately track an object. .
The present invention for achieving the technical problem, the general-purpose camera 10 is installed at a specific point in order to photograph the accident occurrence situation to always photograph the target point; An original image extracting unit 20 for extracting an original image photographed by the general-purpose camera in a stream form; The image processing unit 30 classifies the image of the image extracted by the original image extraction unit 20 into a target object and surrounding objects, recognizes the target object and surrounding objects, and processes the information into a processable data form. ); Recognize the target object by the data transmitted through the image processing unit 30, identify the target object, calculate the distance of the object and the speed of the object to calculate the PTZ coordinate value for tracking the object, A microcomputer 40 for controlling each component; The image processing unit 30 stores data for distinguishing and recognizing the target object and the surrounding object in advance, and provides the pre-stored data through the microcomputer 40 when the target object and the surrounding object are distinguished and recognized. Data server 50; And a dedicated camera 60 which receives a Pizjet (PTZ) coordinate value generated by the microcomputer 40 and continuously tracks and captures a target object of interest. And a control unit.
On the other hand, the operating method of the object tracking system is (a) transmitting the extracted image in the form of a stream through the original image extraction unit 20 by the general-purpose camera; (b) the data of the data tables 51 and 52 of the data server 50 through the microcomputer 40 in the image processing unit 30 that receives the image of the captured image through the original image extracting unit 20. Calling, distinguishing the target object and the surrounding object by the called data, recognizing the target object, converting the image of the target object and the surrounding object into processable data, and transmitting the same to the microcomputer 40; (c) After extracting the data of the target object from the microcomputer 40 that has received the data of the image processing unit 30, the dedicated camera 60 may focus on the target object and continuously track and photograph the target object. Generating and outputting data so as to make the data available; And (d) receiving the data output from the microcomputer 40 from the camera driver 61 so that the dedicated camera 60 continuously focuses on the target object while the peripheral object data other than the target object is removed. The process of performing the shooting while tracking; And a control unit.

Figure P1020110128737
Figure P1020110128737

Description

객체추적 시스템 및 그 운영방법{DEVICE FOR TRACKING OBJECT AND METHOD FOR OPERATING THE SAME} Object tracking system and its operation method {DEVICE FOR TRACKING OBJECT AND METHOD FOR OPERATING THE SAME}

본 발명은 객체추적 시스템 및 그 운영방법에 관한 것으로서, 더욱 상세하게는 범용카메라로부터 수신된 영상데이터를 이용하여 객체를 정확하게 추적할 수 있도록 객체와의 거리, 객체의 속도를 이용하여 PTZ 좌표값을 정밀하게 계산하여 객체를 정확하게 추적할 수 있도록 하는 객체추적 시스템 및 그 운영방법에 관한 것이다.The present invention relates to an object tracking system and a method of operating the same, and more particularly, PTZ coordinate values using a distance from an object and an object's speed to accurately track an object using image data received from a general-purpose camera. The present invention relates to an object tracking system and an operation method for precisely calculating an object and tracking the object accurately.

최근 특정의 영상을 촬영하기 위한 CCTV 카메라는 은행, 현금자동지급기, 도로, 상가, 주택 등의 보안을 요구하는 지점에 설치되어 현금이나 각종 귀중품의 도난, 사고나 화재와 같은 재난 등의 사고를 확인하고, 도난 또는 재난 등의 사고(이하, 사고로 기재함)를 발생시킨 인물 또는 차량 등을 확인하여 추적하는데 사용되어지고 있다.Recently, CCTV cameras for capturing specific images are installed at banks, ATMs, roads, stores, houses, etc. that require security. In addition, it is used to identify and track a person or a vehicle that caused an accident (hereinafter referred to as an accident) such as theft or disaster.

이와 같은 객체추적 카메라에 대해서는 대한민국 특허출원 제 10-2009-0131656호(발명의 명칭 객체추적 모드를 활용한 객체추적 방법 및 장치)(이하 "선행기술") 등 다수의 특허가 공개 및 등록되어있다.For such object tracking cameras, a number of patents have been published and registered, such as Korean Patent Application No. 10-2009-0131656 (Object tracking method and apparatus using the object tracking mode of the invention) (hereinafter referred to as "prior art"). .

상기 선행기술은 객체추적 모드를 설정하는 단계와, 객체가 검출되면, 상기 객체추적 모드에 적합한 객체인지를 판단하는 단계와, 상기 객체추적 모드에 적합한 객체를 자동 추적하는 단계를 포함하되, 상기 객체추적 모드는, 추적할 객체의 칼라(color) 및 객체의 타입(type)을 하나 이상 선정함에 의해 이루어지는 것을 특징으로 한다. The prior art includes setting an object tracking mode, determining whether an object is suitable for the object tracking mode when an object is detected, and automatically tracking an object suitable for the object tracking mode, wherein the object The tracking mode is characterized by selecting at least one color of an object to be tracked and a type of the object.

이와 같은 CCTV 카메라는 기본적으로 객체추적 시스템과 연동되도록 설치되어 있음은 주지된 것과 같다. 여기서, 상기 객체추적 시스템은 기본적으로 CCTV 카메라에서 촬영된 영상을 녹화하기 위한 녹화부, 녹화된 영상을 재생하기 위한 재생부로 이루어진 기본 구성을 갖게 된다.CCTV cameras are basically installed to interlock with the object tracking system is as well known. Here, the object tracking system basically has a basic configuration consisting of a recording unit for recording the image taken by the CCTV camera, and a playback unit for reproducing the recorded image.

일반적으로, 객체추적 시스템은 사고발생시 객체를 확인하고 추적하기 위한 보안시스템으로 적용하기 위해 고정 4채널의 CCTV 카메라와 360 도 팬(pan), 틸트(tilt) 기능을 갖는 돔형의 추적 카메라(speed dom으로 통칭됨)를 목적하는 지점에 설치하고, 이들 카메라에서 촬영된 영상을 녹화 및 재생하기 위한 장치와 전기, 전자적으로 연결하여 구성하게 된다.In general, the object tracking system is a fixed four channel CCTV camera and a dome type speed camera with 360 degree pan and tilt functions to be applied as a security system for identifying and tracking an object in case of an accident. And the electrical and electronic connection with a device for recording and playing back images taken by these cameras.

상기 객체추적 시스템은 고정된 CCTV 카메라에서 원본영상을 스트림 형태로 전송하여 객체의 움직임을 감지하게 된다. 이때, 상기 객체의 움직임은 객체추적 시스템과 연동되는 감지센서 등을 이용하여 수행된다. 이후, 고정된 카메라에서 전송된 영상을 전달받은 돔형의 추적 카메라는 틸팅되며 전송받은 영상정보에서 객체를 확인하여 추적하게 된다.The object tracking system detects the movement of an object by transmitting the original image in a stream form from a fixed CCTV camera. In this case, the movement of the object is performed using a sensor or the like interoperating with the object tracking system. Thereafter, the dome-shaped tracking camera that receives the image transmitted from the fixed camera is tilted and tracks an object from the received image information.

그런데, 이러한 종래의 객체추적 시스템은 객체의 움직임이 발생될 경우, 객체 주변의 건물이나 가로수, 차량 등과 혼합된 영상으로 촬영된 경우 객체를 정확하게 인식하지 못하는 경우가 자주 발생하였다. However, in the conventional object tracking system, when the movement of the object is generated, the object is often not recognized correctly when the image is mixed with a building, a roadside tree, and a vehicle around the object.

특히, 상기 종래의 객체추적 시스템은 사람이나 차량 등의 객체가 움직일 때 가시광이 반사된 빛이나 그림자 등을 객체로 오인하여 전혀 엉뚱한 추적결과를 출력하기 때문에, 객체의 낮은 인식율 및 이에 따른 부정확한 확인 및 추적결과를 얻게되어 시스템의 신뢰도가 상당히 낮은 문제점이 노출되었다.In particular, the conventional object tracking system misrepresents visible light reflected shadows or shadows when an object such as a person or a vehicle moves as an object, and outputs a wrong tracking result. And the tracking results were obtained, which exposed the problem of a very low reliability of the system.

그리고, 상기 종래의 객체추적 시스템은 객체를 추적하는 경우에도 정확하게 객체의 좌표값의 산출하여 추적하는 것이 아니어서 객체의 정확한 추적이 어려웠다.In the conventional object tracking system, even when tracking an object, accurate tracking of an object is difficult because it does not accurately calculate and track the coordinate value of the object.

본 발명은 상기와 같은 문제점을 감안하여 안출된 것으로, 객체를 정확하게 추적할 수 있도록 피티제트(PTZ) 좌표값을 계산하여 추적카메라에 전송하는 객체추적 시스템 및 그 운영방법을 제공함에 그 목적이 있다.Disclosure of Invention The present invention has been made in view of the above problems, and an object thereof is to provide an object tracking system and a method of operating the same, which calculates and transmits PTZ coordinate values to a tracking camera so that an object can be accurately tracked. .

이러한 기술적 과제를 달성하기 위한 본 발명은, 사고발생 상황을 촬영하기 위해 특정의 지점에 설치되어 대상지점을 상시 촬영하는 범용카메라(10); 상기 범용카메라에 의해 촬영된 원본영상을 스트림형태로 추출하는 원본영상 추출부(20); 상기 원본영상 추출부(20)에 의해 추출된 영상의 이미지를 대상 객체와 주변사물로 구분하고, 상기 대상객체와 주변사물을 인식하여 이들 정보를 각각 처리가능한 데이터 형태로 가공하는 이미지 가공부(30); 상기 이미지 가공부(30)를 통해 전송된 데이터에 의해 대상객체를 인식하고 대상객체를 확인하고 객체의 거리 및 객체의 속도를 계산하여 객체를 추적하기 위한 피티제트(PTZ) 좌표값을 계산하고, 각 구성을 제어하는 마이크로 컴퓨터(40); 상기 이미지 가공부(30)에서 대상객체와 주변사물을 구분하고 이들을 인식하기 위한 데이터가 미리 저장되어, 대상객체와 주변사물의 구분 및 인식시 상기 마이크로 컴퓨터(40)를 통해 미리 저장된 데이터를 제공하는 데이터 서버(50); 및 상기 마이크로 컴퓨터(40)에 의해 생성된 피티제트(PTZ) 좌표값을 수신하여 목적하는 대상객체에 초점을 두고 연속적으로 추적하며 촬영하는 전용카메라(60); 를 포함하는 것을 특징으로 한다.The present invention for achieving the technical problem, the general-purpose camera 10 is installed at a specific point in order to photograph the accident occurrence situation to always photograph the target point; An original image extracting unit 20 for extracting an original image photographed by the general-purpose camera in a stream form; The image processing unit 30 classifies the image of the image extracted by the original image extraction unit 20 into a target object and surrounding objects, recognizes the target object and surrounding objects, and processes the information into a processable data form. ); Recognize the target object by the data transmitted through the image processing unit 30, identify the target object, calculate the distance of the object and the speed of the object to calculate the PTZ coordinate value for tracking the object, A microcomputer 40 for controlling each component; The image processing unit 30 stores data for distinguishing and recognizing the target object and the surrounding object in advance, and provides the pre-stored data through the microcomputer 40 when the target object and the surrounding object are distinguished and recognized. Data server 50; And a dedicated camera 60 which receives a Pizjet (PTZ) coordinate value generated by the microcomputer 40 and continuously tracks and captures a target object of interest. Characterized in that it comprises a.

또한 바람직하게, 상기 마이크로 컴퓨터(40)는, 범용카메라의 설치된 높이(h), 범용카메라와 지면에 수직인 선의 내각(q)을 이용하여 [수식1]을 통해 범용카메라와 객체의 거리(r)를 계산하는 것을 특징으로 한다.Also preferably, the microcomputer 40 uses the installed height h of the general-purpose camera, the internal angle q of the line perpendicular to the general-purpose camera and the ground, and the distance r between the general-purpose camera and the object through [Equation 1]. ) Is calculated.

[수식1]

Figure pat00001
[Equation 1]
Figure pat00001

여기서, r은 범용카메라와 객체의 거리, h는 범용카메라의 설치된 높이, q는 범용카메라와 지면에 수직인 선의 각도.Where r is the distance between the universal camera and the object, h is the installed height of the universal camera, and q is the angle of the line perpendicular to the universal camera and the ground.

또한 바람직하게, 상기 마이크로 컴퓨터(40)는, 처음 인식된 객체와 다음 인식된 객체 사이의 시간 간격 및 객체의 처음 인식된 거리와 다음 인식된 거리를 이용하여 객체의 속도를 계산하는 것을 특징으로 한다.Also preferably, the microcomputer 40 calculates the speed of the object using the time interval between the first recognized object and the next recognized object and the first recognized distance and the next recognized distance of the object. .

또한 바람직하게, 상기 마이크로 컴퓨터(40)는, 상기 범용카메라로부터 수신된 영상데이터를 다수의 부분으로 나누어 각 부분마다 기 설정된 줌(zoom) 좌표값을 이용하여 피티제트(PTZ) 좌표값을 계산하는 것을 특징으로 한다.
Also preferably, the microcomputer 40 divides the image data received from the general-purpose camera into a plurality of parts and calculates PTZ coordinate values by using a preset zoom coordinate value for each part. It is characterized by.

그리고 바람직하게, 상기 데이터 서버(50)는 이미지 가공부(30)에서 대상객체를 구분할 수 있도록 하기 위해 대상객체의 모션감지, 형상감지, 생체인식, 색체인식, 좌표인식에 대한 설정데이터가 각각 저장된 객체인식 데이터테이블(51)과; 상기 이미지 가공부(30)에서 주변사물을 구분할 수 있도록 하기 위해 주변사물의 지리정보, 모션감지, 형상감지, 색체인식, 좌표인식에 대한 설정데이터가 각각 저장된 주변사물 데이터테이블(52);을 포함하는 것을 특징으로 한다.Preferably, the data server 50 stores setting data for motion detection, shape detection, biometric, color recognition, and coordinate recognition of the target object so that the image processing unit 30 can distinguish the target object. An object recognition data table 51; Peripheral object data table 52 for storing the setting data for the geographic information, motion detection, shape detection, color recognition, coordinate recognition of the peripheral objects in order to be able to distinguish the peripheral objects in the image processing unit 30; Characterized in that.

한편, 객체추적 시스템의 운영방법은 (a) 범용카메라에 의해 촬영영상이 원본영상 추출부(20)를 통해 스트림 형태로 추출된 이미지를 전송되는 과정; (b) 상기 원본영상 추출부(20)를 통해 촬영영상의 이미지를 수신한 이미지 가공부(30)에서 마이크로 컴퓨터(40)를 통해 데이터 서버(50)의 각 데이터테이블(51, 52)의 데이터를 호출하여, 호출된 데이터에 의해 대상객체와 주변사물을 구분하고 대상객체를 인식한 후 대상객체와 주변사물의 이미지를 처리가능한 데이터로 변환하여 마이크로 컴퓨터(40)로 전송하는 과정; (c) 상기 이미지 가공부(30)의 데이터를 수신한 마이크로 컴퓨터(40)에서 대상객체의 데이터를 발췌한 후 전용카메라(60)가 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영할 수 있도록 하기 위한 데이터를 생성하여 출력하는 과정; 및 (d) 상기 마이크로 컴퓨터(40)에서 출력된 데이터를 카메라구동부(61)에서 수신하여 전용카메라(60)가 대상객체외의 주변사물 데이터가 제거된 상태에서 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영을 수행하는 과정; 를 포함하는 것을 특징으로 한다.On the other hand, the operating method of the object tracking system is (a) transmitting the extracted image in the form of a stream through the original image extraction unit 20 by the general-purpose camera; (b) the data of the data tables 51 and 52 of the data server 50 through the microcomputer 40 in the image processing unit 30 that receives the image of the captured image through the original image extracting unit 20. Calling, distinguishing the target object and the surrounding object by the called data, recognizing the target object, converting the image of the target object and the surrounding object into processable data, and transmitting the same to the microcomputer 40; (c) After extracting the data of the target object from the microcomputer 40 that has received the data of the image processing unit 30, the dedicated camera 60 may focus on the target object and continuously track and photograph the target object. Generating and outputting data so as to make the data available; And (d) receiving the data output from the microcomputer 40 from the camera driver 61 so that the dedicated camera 60 continuously focuses on the target object while the peripheral object data other than the target object is removed. The process of performing the shooting while tracking; Characterized in that it comprises a.

또한 바람직하게, 상기 (b) 과정은, (b-1) 마이크로 컴퓨터(40)를 통해 데이터 서버(50)에서 대상객체 데이터테이블(51, 52)과, 주변사물 데이터테이블(52)을 호출하는 단계; (b-2) 상기 각 데이터테이블(51, 52)에 미리 설정되어 저장된 대상객체의 모션감지, 형상감지, 생체인식, 색체인식, 좌표인식 데이터와, 주변사물의 지리정보, 모션감지, 형상감지, 색체인식, 좌표인식 데이터를 상기 원본영상 추출부(20)를 통해 전송된 사고상황의 이미지에 적용시켜 대상객체와 주변사물을 구분하는 단계; 및 (b-3) 상기 대상객체와 주변사물이 구분되면, 대상객체와 주변사물을 구분하여서 된 이미지 정보를 마이크로 컴퓨터(40)에서 각 구성을 제어할 수 있도록 하기 위한 데이터로 가공하여 마이크로 컴퓨터(40)로 전송하는 단계;를 포함하는 것을 특징으로 한다.Also preferably, the process (b) may include (b-1) calling the target object data tables 51 and 52 and the peripheral object data table 52 from the data server 50 through the microcomputer 40. step; (b-2) Motion detection, shape detection, biometric recognition, color recognition, coordinate recognition data, geographic information of surrounding objects, motion detection, shape detection of a target object which is preset and stored in the respective data tables 51 and 52 Distinguishing a target object from surrounding objects by applying color recognition and coordinate recognition data to an image of an accident situation transmitted through the original image extraction unit 20; And (b-3) when the target object and the surrounding object are classified, the microcomputer 40 processes the image information obtained by dividing the target object and the surrounding object into data for controlling each component in the microcomputer 40 ( 40); characterized in that it comprises a.

그리고 바람직하게, 상기 (c) 과정은, (c-1) 범용카메라의 설치된 높이(h), 범용카메라와 지면에 수직인 선의 내각(q)을 이용하여 [수식1]을 통해 범용카메라와 객체의 거리(r)를 계산하는 단계; And, preferably, the step (c), (c-1) using the installed height (h) of the general-purpose camera, the general angle camera and the object (q) of the line perpendicular to the ground (Equation 1) through the general camera and the object Calculating a distance r of;

[수식1]

Figure pat00002
[Equation 1]
Figure pat00002

여기서, r은 범용카메라와 객체의 거리, h는 범용카메라의 설치된 높이, q는 범용카메라와 지면에 수직인 선의 각도.Where r is the distance between the universal camera and the object, h is the installed height of the universal camera, and q is the angle of the line perpendicular to the universal camera and the ground.

(c-2) 상기 (c-1) 단계에서 계산된 객체의 거리와 객체의 이동시간 간격을 이용하여 객체의 속도를 계산하는 단계; 및 (c-3) 상기 범용카메라로부터 수신된 영상데이터를 다수의 부분으로 나누어 각 부분마다 기 설정된 줌(zoom) 좌표값을 이용하여 피티제트(PTZ) 좌표값을 계산하는 단계; 를 포함하는 것을 특징으로 한다.(c-2) calculating the speed of the object using the distance of the object and the moving time interval of the object calculated in the step (c-1); (C-3) dividing the image data received from the general-purpose camera into a plurality of parts and calculating a PTZ coordinate value by using a preset zoom coordinate value for each part; Characterized in that it comprises a.

상기와 같은 본 발명에 따르면, 영상데이터에서 인식오류를 발생시키는 요인을 제거한 후 객체를 명확하게 인식하고, 피티제트(PTZ) 좌표값을 계산하여 객체를 정확하게 추적할 수 있도록 하는 효과가 있다. According to the present invention as described above, the object is clearly recognized after removing the factor causing the recognition error in the image data, it is effective to accurately track the object by calculating the PTZ coordinate value.

도 1 은 본 발명의 일실시예에 따른 객체추적 시스템의 블록도.
도 2 는 본 발명의 일실시예에 따른 객체추적 시스템의 사용 상태도.
도 3 는 본 발명의 일실시예에 따른 객체추적을 위한 거리 측정 설명도.
도 4 는 본 발명의 일실시예에 따른 객체추적 좌표값 계산을 위한 일예시도.
도 5 는 본 발명의 일실시예에 따른 객체추적 시스템의 데이터 서버 블록도.
도 6 은 본 발명의 일실시예에 따른 객체추적 시스템의 순서도.
도 7 는 본 발명의 일실시예에 따른 객체추적 시스템의 이미지 처리과정 순서도.
1 is a block diagram of an object tracking system according to an embodiment of the present invention.
2 is a state diagram used in the object tracking system according to an embodiment of the present invention.
3 is an explanatory diagram of distance measurement for object tracking according to an embodiment of the present invention.
4 is an exemplary view for calculating an object tracking coordinate value according to an embodiment of the present invention.
5 is a block diagram of a data server of an object tracking system according to an embodiment of the present invention.
6 is a flow chart of an object tracking system according to an embodiment of the present invention.
7 is a flowchart illustrating an image processing process of an object tracking system according to an exemplary embodiment of the present invention.

본 발명의 구체적 특징 및 이점들은 첨부도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다. 이에 앞서 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.Specific features and advantages of the present invention will become more apparent from the following detailed description based on the accompanying drawings. It is to be noted that the detailed description of known functions and constructions related to the present invention is omitted when it is determined that the gist of the present invention may be unnecessarily blurred.

이하, 첨부된 도면을 참조하여 본 발명을 상세하게 설명한다.
Hereinafter, with reference to the accompanying drawings will be described in detail the present invention.

도 1 은 본 발명의 일실시예에 따른 객체추적 시스템의 블록도로서, 도시된바와 같이 본 발명에 의한 객체추적 시스템은 객체를 추적하기 위하여 범용카메라(10), 원본영상 추출부(20), 이미지 가공부(30), 마이크로 컴퓨터(40), 데이터 서버(50), 추적카메라(60)를 포함한다.
1 is a block diagram of an object tracking system according to an embodiment of the present invention. As shown, the object tracking system according to the present invention includes a general-purpose camera 10, an original image extraction unit 20, It includes an image processing unit 30, a microcomputer 40, a data server 50, a tracking camera 60.

상기 객체(1)는 보안시스템에서 주요하게 관심을 가지는 사람, 자동차 등 보안 시스템에 위해를 가할 수 있는 대상이 될 수 있다.
The object 1 may be an object that may cause harm to a security system such as a person, a car, and the like, which are mainly interested in the security system.

상기 범용카메라(10)는 사고발생 상황을 촬영하기 위해 특정의 지점에 설치되어 대상지점을 상시 촬영하는 다채널의 CCTV 카메라로 적용된다. 이때, 상기 범용카메라(10)는 각 지역구에 미리 설치된 CCTV 카메라를 활용하거나 별도의 CCTV 카메라를 설치해도 무방하다.
The general-purpose camera 10 is installed at a specific point in order to photograph the accident situation is applied as a multi-channel CCTV camera to always photograph the target point. In this case, the general-purpose camera 10 may utilize a CCTV camera pre-installed in each district or may install a separate CCTV camera.

또한, 상기 원본영상 추출부(20)는 사고발생시 범용카메라(10)에 촬영된 원본영상을 스트림하여 여러장의 이미지 형태로 추출하여 전송하기 위한 영상처리 회로구성이다.In addition, the original image extraction unit 20 is an image processing circuit configuration for extracting and transmitting in the form of a plurality of images by streaming the original image photographed on the general-purpose camera 10 when an accident occurs.

여기서, 상기 범용카메라(10)와 원본영상 추출부(20)는 현장에 설치된 구성으로 이와 같은 범용카메라(10)와 원본영상 추출부(20)는 주로 단일 케이스 상에 설치되는 것이 일반적이다.
Here, the universal camera 10 and the original image extraction unit 20 is installed in the field, such a general camera 10 and the original image extraction unit 20 is generally installed on a single case.

상기 이미지 가공부(30)는 원본영상 추출부(20)에서 전송된 이미지를 처리하기 위한 구성이다. 이와 같은 이미지 가공부(30)는 원본영상 추출부(20)에 의해 추출된 영상의 이미지를 대상객체와 주변사물로 구분하고, 상기 대상객체와 주변사물을 인식하여 이들 정보를 각각 처리 가능한 데이터 형태로 가공하게 된다.The image processing unit 30 is a configuration for processing the image transmitted from the original image extraction unit 20. The image processing unit 30 divides the image of the image extracted by the original image extracting unit 20 into a target object and surrounding objects, and recognizes the target object and surrounding objects to process these information, respectively. It is processed into.

즉, 상기 이미지 가공부(30)는 현장에 설치된 CCTV 카메라를 관리하는 관제소 등에 설치되어 마이크로 컴퓨터(40)와 연동되도록 한 구성이다.
That is, the image processing unit 30 is installed in a control station for managing CCTV cameras installed in the field is configured to interlock with the microcomputer 40.

상기 마이크로 컴퓨터(40)는 객체추적 시스템의 전체적인 구성을 제어하기 위한 컨트롤러 등의 구성이다. 이와 같은 마이크로 컴퓨터(40)는 이미지 가공부(30)를 통해 전송된 데이터에 의해 대상객체를 인식하고 대상객체를 확인하고 추적하기 위한 데이터인 PTZ 좌표값을 생성하여 추적 카메라(60)로 전송하게 된다.The microcomputer 40 is a configuration such as a controller for controlling the overall configuration of the object tracking system. Such a microcomputer 40 recognizes the target object by the data transmitted through the image processing unit 30 and generates a PTZ coordinate value, which is data for identifying and tracking the target object, to be transmitted to the tracking camera 60. do.

상기 마이크로 컴퓨터(40)는 범용카메라(10)와 객체(1)의 거리 및 객체(1)의 속도를 이용하여 피티제트(PTZ) 좌표값을 계산한다. 상기 마이크로 컴퓨터(40)는 도 2 에 나타난 바와 같이 범용카메라(10)의 설치된 높이(h), 범용카메라(10)와 지면에 수직인 선의 내각(q)을 이용하여 [수식1]을 통해 범용카메라(10)와 객체(1)의 거리(r)를 계산한다.The microcomputer 40 calculates PTZ coordinate values using the distance between the general-purpose camera 10 and the object 1 and the speed of the object 1. As shown in FIG. 2, the microcomputer 40 uses the installed height h of the general-purpose camera 10, the general-purpose camera 10, and an internal angle q of a line perpendicular to the ground. The distance r between the camera 10 and the object 1 is calculated.

[수식1]

Figure pat00003
[Equation 1]
Figure pat00003

여기서, r은 범용카메라(10)와 객체(1)의 거리, h는 범용카메라(10)의 설치된 높이, q는 범용카메라(10)와 지면에 수직인 선의 각도이다.Here, r is the distance between the general-purpose camera 10 and the object 1, h is the installed height of the general-purpose camera 10, q is the angle of the line perpendicular to the general-purpose camera 10 and the ground.

여기서, 범용카메라(10)와 객체(1) 사이의 거리(r)는 범용카메라(10)의 화면을 도 4와 같이 일정한 크기로 분할하여 각 부분별로 거리를 설정해놓아 거리를 측정할 수 있다.Here, the distance r between the general-purpose camera 10 and the object 1 divides the screen of the general-purpose camera 10 into a predetermined size as shown in FIG. 4 and sets the distance for each part to measure the distance.

또한, 상기 마이크로 컴퓨터(40)는 도 3을 참조하면 처음 인식된 객체(1)와 일정한 간격을 두고 다음 인식된 객체(1')의 시간간격을 이용하여 객체(1)의 속도를 산출할 수 있다.In addition, referring to FIG. 3, the microcomputer 40 may calculate the speed of the object 1 by using a time interval of the next recognized object 1 ′ at regular intervals from the first recognized object 1. have.

[수식2]

Figure pat00004
[Equation 2]
Figure pat00004

여기서, v는 객체(1)의 속도, r1은 처음 인식된 객체(1)의 거리, r2는 다음 인식된 객체(1')의 거리, t는 처음 인식된 객체(1)와 다음 인식된 객체(1')의 시간 간격이다.Where v is the speed of the object 1, r1 is the distance of the first recognized object 1, r2 is the distance of the next recognized object 1 ', t is the first recognized object 1 and the next recognized object It is a time interval of (1 ').

피티제트(PTZ) 좌표값의 계산을 위해서는 가로 픽셀당 회전각과 세로 필셀당 회전각을 사전에 설정하여야 한다. 이때, 범용카메라(10)의 종류에 따라 해상도가 다양하기 때문에 이용하는 범용카메라(10)의 해상도를 이용하여, 가로 픽셀당 회전각은 [수식3]을 이용하여 구할 수 있고, 세로 픽셀당 회전각은 [수식4]를 이용하여 구할 수 있다.In order to calculate PTZ coordinate values, the rotation angle per horizontal pixel and the rotation angle per vertical pixel must be set in advance. In this case, since the resolution varies depending on the type of the general-purpose camera 10, the rotation angle per horizontal pixel can be obtained using [Equation 3] using the resolution of the general-purpose camera 10 to be used, and the rotation angle per vertical pixel. Can be obtained using Equation 4.

[수식3]

Figure pat00005
[Equation 3]
Figure pat00005

[수식4]

Figure pat00006
[Equation 4]
Figure pat00006

여기서, Qx는 가로 픽셀당 회전각, Qy는 세로 픽셀당 회전각, Px는 범용카메라(10)의 가로 픽셀수, Py는 범용카메라(10)의 세로 픽셀수이다.Here, Q x is a rotation angle per horizontal pixel, Q y is a rotation angle per vertical pixel, P x is a horizontal pixel number of the general-purpose camera 10, and P y is a vertical pixel number of the general-purpose camera 10.

피티제트(PTZ) 좌표값은 팬(Pan), 틸트(Tilt) 및 줌(Zoom)에 대한 3가지 좌표값을 산출하여야 하며, 팬 좌표값은 [수식 5]를 이용하여 계산하고, 틸트 좌표값은 [수식6]을 이용하여 계산한다.The PTZ coordinate value should be calculated with three coordinate values for Pan, Tilt and Zoom, and the pan coordinate value is calculated using [Equation 5], and the tilt coordinate value Is calculated using [Equation 6].

[수식5]

Figure pat00007
[Equation 5]
Figure pat00007

[수식6]

Figure pat00008
[Equation 6]
Figure pat00008

여기서, Dx는 팬 좌표값, Sx는 초기 셋팅된 팬 좌표값, Qx는 가로 픽셀당 회전각, Ex는 인식된 객체(1)의 팬 좌표값, vx는 가로 방향 속도, Dy는 틸트 좌표값, Sy는 초기 셋팅된 틸트 좌표값, Qy는 세로 픽셀당 회전각, Ey는 인식된 객체(1)의 틸트 좌표값, vy는 세로 방향 속도, a와 b는 상수이다.Where D x is the pan coordinate value, S x is the initial set pan coordinate value, Q x is the rotation angle per horizontal pixel, E x is the pan coordinate value of the recognized object (1), v x is the horizontal velocity, D y is the tilt coordinate value, S y is the initially set tilt coordinate value, Q y is the rotation angle per vertical pixel, E y is the tilt coordinate value of the recognized object (1), v y is the vertical velocity, a and b are Is a constant.

상기 줌 좌표값은 화면을 도 4 와 같이 일정한 크기로 등분하여 사전에 각 부분별로 줌 배율을 설정해 놓아 카메라 촬영방향으로부터 제일 멀리 떨어져있는 부분에 객체(1)가 포착되는 경우 카메라의 줌을 최대로 확대시키고 카메라와 가까운 부분에 객체(1)가 포착되는 경우에는 카메라의 줌을 축소시킨다. 이때 추적카메라(60)가 설치되는 장소 및 상황에 따라 사전에 설정한 줌 배율이 변경될 수 있다.The zoom coordinate value is divided into equal parts as shown in FIG. 4, and the zoom magnification is set for each part in advance so that the zoom of the camera is maximized when the object 1 is captured in the part farthest from the camera shooting direction. When the object 1 is captured close to the camera, the zoom of the camera is reduced. In this case, a preset zoom ratio may be changed according to a location and a situation where the tracking camera 60 is installed.

상기 마이크로 컴퓨터(40)는 유무선 통신을 이용하여 상술한 방식에 의해 계산된 PTZ 좌표값을 추적카메라로 전송한다.
The microcomputer 40 transmits the PTZ coordinate values calculated by the above-described method to the tracking camera using wired or wireless communication.

도 5 는 본 발명에 의한 객체추적 시스템의 데이터 서버 블록도로서, 상기 데이터 서버(50)는 도시된 바와 같이, 이미지 가공부(30)에서 대상객체와 주변사물을 구분하고 이들을 인식하기 위한 설정 데이터가 미리 저장되어 구성된다. 특히, 상기 데이터 서버(50)는 대상객체와 주변사물의 구분 및 인식시 상기 마이크로 컴퓨터(40)를 통해 미리 저장된 데이터를 제공하게 된다.FIG. 5 is a block diagram of a data server of an object tracking system according to the present invention. The data server 50, as illustrated, sets data for distinguishing and recognizing target objects and surrounding objects in the image processing unit 30. As shown in FIG. Is stored in advance and configured. In particular, the data server 50 may provide pre-stored data through the microcomputer 40 when the target object and the surrounding object are distinguished and recognized.

이와 같은 데이터 서버(50)는 크게 두 종류의 데이터로 구분된다. 즉, 상기 데이터 서버(50)의 데이터는 목적하는 대상객체를 인식하기 위한 객체인식 데이터테이블(51)과, 주변사물 데이터테이블(52)로 구분된다.The data server 50 is divided into two types of data. That is, the data of the data server 50 is divided into an object recognition data table 51 and a peripheral object data table 52 for recognizing a target object of interest.

상기 객체인식 데이터테이블(51)은 이미지 가공부(30)에서 대상객체를 구분할 수 있도록 하기 위해 대상객체의 모션감지, 형상감지, 생체인식, 색체인식, 좌표인식에 대한 설정데이터가 각각 저장되어 구성된다.The object recognition data table 51 is configured to store the setting data for motion detection, shape detection, biometric, color recognition, coordinate recognition of the target object so that the image processing unit 30 can distinguish the target object. do.

이때, 상기 대상객체의 모션감지는 이미지의 프레임당 움직임이 검출되는 대상에 대한 설정데이터이고, 상기 형성감지는 움직임이 발생되는 대상 즉, 차량이나 오토바이크 등의 형상을 복합적인 도형의 형태, 특히, 차량의 번호판 등을 인식하도록 하기 위한 설정데이터이다. 또한, 생체인식은 인체, 특히 인체의 얼굴의 특징점을 기준으로 눈, 코, 입 등을 인식하도록 하기 위한 설정데이터이며, 색체인식은 선택적인 것으로 가시광의 파장에 의해 색체를 인식하기 위한 설정데이터이다.At this time, the motion detection of the target object is the setting data for the object for which the motion per frame of the image is detected, the formation detection of the shape of the object, that is, the vehicle or motorcycle, etc. , The setting data for recognizing the license plate of the vehicle. In addition, biometric recognition is setting data for recognizing the eyes, nose, mouth, etc. based on the characteristic points of the human body, in particular, the face of the human body, and color recognition is optional and setting data for recognizing the color by the wavelength of visible light. .

상기 주변사물 데이터테이블(52)은 이미지 가공부(30)에서 주변사물을 구분할 수 있도록 하기 위해 주변사물의 지리정보, 모션감지, 형상감지, 색체인식, 좌표인식에 대한 설정데이터가 각각 저장되어 구성된다.The peripheral object data table 52 is configured to store the setting data for the geographic information, motion detection, shape detection, color recognition, coordinate recognition of the peripheral objects so that the image processing unit 30 can distinguish the peripheral objects. do.

이때, 상기 주변사물의 지리정보는 미리 설정된 지역의 지형, 지물 등에 대한 설정데이터이며, 모션감지, 형상감지, 색체인식 등은 전술한 대상객체의 각 설정데이터와 대응된다.At this time, the geographic information of the surrounding objects is the setting data for the terrain, the feature, etc. of the preset area, and the motion detection, shape detection, color recognition, etc. correspond to the above-mentioned setting data of the target object.

특히, 공통적으로 인식되어야 하는 좌표인식은 각 카메라(10, 60)에 촬영된 영상에 가상의 공간좌표, 또는 상기 지리정보와 연동하여 지역의 좌표 등에 의해 대상객체와 주변사물의 지점 특히 이동위치를 파악할 수 있게 된다.
In particular, the coordinate recognition that should be commonly recognized is a virtual spatial coordinate in the image photographed by each camera (10, 60), or in particular the position of the moving object and the surrounding object by the coordinates of the region in conjunction with the geographic information, etc. I can figure it out.

상기 추적카메라(60)는 객체(1)를 연속적으로 추적하며 촬영하기 위한 것으로 회전이 가능하고, 줌(Zoom) 기능을 가진다. 이때 추적카메라(60)는 종류에 따라 전후, 좌우 회전의 각도 및 줌 기능의 정도의 차이가 있을 수 있다. 하지만, 일반적으로, 추적카메라(60)는 피티제트(PTZ) 좌표값을 이용하는데, 피티제트(PTZ) 좌표값은 팬(Pan), 틸트(Tilt) 및 줌(Zoom)으로 3가지 요소에 의한 좌표값을 의미하며, 팬(Pan) 좌표값은 가로축으로 좌우 회전하기 위한 좌표이며 일반적으로 0 도 내지 360 도의 좌표값을 가지고, 틸트(Tilt) 좌표값은 세로축으로 전후 회전하기 위한 좌표이며 일반적으로 0 도 내지 360 도의 좌표값을 가지고, 줌(Zoom) 값은 객체(1)를 광학적으로 확대하여 촬영하기 위한 것으로 추적카메라(60)의 성능에 따라 일반적으로 최고 30배까지 확대가 가능하다.The tracking camera 60 is for continuously tracking and photographing the object 1, and can be rotated, and has a zoom function. In this case, the tracking camera 60 may have a difference in the angles of the front and rear, left and right rotations and the degree of the zooming function according to the type. However, in general, the tracking camera 60 uses PTZ coordinate values, and the PTZ coordinate values are pan, tilt and zoom. Pan coordinate value is a coordinate for rotating left and right on the horizontal axis, and generally has a coordinate value of 0 to 360 degrees, and a tilt coordinate value is a coordinate for rotating back and forth on the vertical axis. With a coordinate value of 0 degrees to 360 degrees, the zoom value is for optically enlarging and photographing the object 1, and can be generally enlarged up to 30 times according to the performance of the tracking camera 60.

이와 같은 추적카메라(60)도 전술한 범용카메라(10)와 같이 각 관할지역구에 미리 설치된 CCTV 카메라를 활용하거나 별도의 CCTV 카메라를 설치해도 무방하다.Such a tracking camera 60 may also utilize a CCTV camera pre-installed in each jurisdiction as in the above-described universal camera 10, or may install a separate CCTV camera.

특히, 상기 범용카메라(10)와 추적카메라(60)는 단일의 것으로 병합되어 설치되어도 무방한 것으로, 단지 본 실시예에서는 범용카메라(10)와 추적카메라(60)의 기능을 구분하기 위해 분리된 형태로 예시함을 밝혀둔다. 이때, 단일화된 카메라의 형태는 전술한 팬, 틸트 등의 기능을 갖는 구동식 카메라 형태로 적용됨이 바람직하다.
In particular, the general-purpose camera 10 and the tracking camera 60 may be installed in a single and merged, only in this embodiment separated to distinguish the functions of the general-purpose camera 10 and the tracking camera 60. Note that the examples are in form. In this case, it is preferable that the unitary camera is applied in the form of a driving camera having a function of the above-described pan and tilt.

상기와 같은 구성에 추가하여, 객체추적 시스템은 압축부(70), 통신모듈(80)의 구성을 더 갖추어 구성되며, 전술한 마이크로 컴퓨터(40)를 통해 출력되는 데이터를 다시 영상으로 변환하여 감시자(관제소의 관리자)가 대상객체의 확인 및 추적사항을 확인하기 위해 관제서버(90)와, LCD, LED 판넬, 프린터 등의 출력장치(100)를 더 갖추어 구성될 수 있다.In addition to the above configuration, the object tracking system is further configured with the configuration of the compression unit 70, the communication module 80, the monitor by converting the data output through the above-described microcomputer 40 to an image again (Administrator of the control station) may be further provided with a control server 90, and the output device 100, such as LCD, LED panel, printer to confirm the confirmation and tracking of the target object.

상기 압축부(70)는 마이크로 컴퓨터(40)에서 출력되는 데이터를 감시자가 대상객체를 확인 및 추적영상을 확인할 수 있도록 하기 위한 출력장치(100)로 전송하기 위해 상기 데이터를 표준화된 규격으로 압축하기 위한 구성이다.The compression unit 70 compresses the data output from the microcomputer 40 to a standardized standard so as to transmit the data output from the microcomputer 40 to the output device 100 for allowing the monitor to check the target object and confirm the tracking image. It is for the configuration.

상기 통신모듈(80)은 상기 마이크로 컴퓨터(40) 또는 압축부(70)를 통해 압축된 데이터를 감시자가 대상객체 확인 및 추적영상을 확인할 수 있도록 하기 위한 출력장치(100)로 전송하기 위한 구성이다.
The communication module 80 is a configuration for transmitting the data compressed through the microcomputer 40 or the compression unit 70 to the output device 100 for allowing the monitor to check the target object and the tracking image. .

이하, 객체추적 시스템의 일실시예에 따른 작동과정 및 효과를 살펴 본다.Hereinafter, an operation process and effects according to an embodiment of the object tracking system will be described.

도 6 은 본 발명의 일실시예에 따른 객체추적 시스템의 순서도로서, 도면을 참조하면, 상기 객체추적 시스템이 운영되는 과정은 본 시스템이 설치된 지역에서 현금이나 각종 귀중품의 도난, 사고나 화재와 같은 재난 등의 사건이 발생되면,(S10) 사건발생현장 부근의 범용카메라(10)에 의해 사건현장의 촬영영상이 원본영상 추출부(20)를 통해 스트림 형태로 추출된 이미지를 전송하게 된다.(S20)FIG. 6 is a flowchart of an object tracking system according to an embodiment of the present invention. Referring to the drawings, the process of operating the object tracking system may be performed such as theft, accident or fire of cash or various valuables in the area where the system is installed. When an event such as a disaster occurs (S10), the captured image of the incident scene is transmitted through the original image extractor 20 by the general-purpose camera 10 near the incident occurrence scene. S20)

이후, 상기 이미지 가공부(30)에서는 원본영상 추출부(20)를 통해 촬영영상의 이미지를 수신하고, 마이크로 컴퓨터(40)를 통해 데이터 서버(50)의 각 데이터 테이블(51, 52)의 데이터를 호출하게 된다.(S30)Thereafter, the image processing unit 30 receives the image of the captured image through the original image extraction unit 20, and the data of each of the data tables 51 and 52 of the data server 50 through the microcomputer 40. It is called (S30).

상기와 같이 호출된 데이터가 로딩되면, 상기 이미지 가공부(30)에서는 호출된 데이터에 의해 대상객체와 주변사물을 구분하고 대상객체를 인식한 후, 대상객체와 주변사물의 이미지를 처리가능한 데이터로 변환하여 마이크로 컴퓨터(40)로 전송하게 된다.(S40)
When the called data is loaded as described above, the image processing unit 30 classifies the target object and the surrounding object by the called data, recognizes the target object, and then processes the image of the target object and the surrounding object as data that can be processed. The converted information is transmitted to the microcomputer 40. (S40)

도 7 는 본 발명의 일실시예에 따른 객체추적 시스템의 이미지 처리과정 순서도이다. 도면을 참조하면, 상기 이미지 가공부(30)에 의해 이미지가 처리되기 위해서는 마이크로 컴퓨터(40)를 통해 데이터 서버(50)에서 대상객체 데이터테이블(51)과, 주변사물 데이터테이블(52)을 호출한다.(S41)7 is a flowchart of an image processing process of an object tracking system according to an exemplary embodiment of the present invention. Referring to the drawings, in order to process the image by the image processing unit 30, the target object data table 51 and the peripheral object data table 52 are called by the data server 50 through the microcomputer 40. (S41)

이후, 상기 이미지 가공부(30)에서는 각 데이터 테이블(51, 52)에 미리 설정되어 저장된 대상객체의 모션감지,형상감지, 생체인식, 색체인식, 좌표인식 데이터와, 주변사물의 지리정보, 모션감지, 형상감지, 색체인식, 좌표인식 데이터를 상기 원본영상 추출부(20)를 통해 전송된 사고상황의 이미지에 적용시켜 대상객체와 주변사물을 구분하게 된다.(S42)Thereafter, the image processing unit 30 sets motion detection, shape detection, biometric, color recognition, coordinate recognition data, and geographic information of surrounding objects and motions of the target object which is preset and stored in each data table 51 and 52. Sense, shape detection, color recognition, coordinate recognition data is applied to the image of the accident situation transmitted through the original image extraction unit 20 to distinguish between the object and the surrounding object (S42).

이때, 상기 사건을 발생시킨 범인 또는 차량 등의 대상객체에 대한 모션감지, 형상감지, 생체인식, 색체인식, 좌표인식 등은 전술된 것과 같으며, 이러한 과정에 의해 대상객체의 움직임 중첩을 방지하고, 대상객체를 보다 명확하게 인식할 수 있게 되는 것이다.In this case, motion detection, shape detection, biometric, color recognition, coordinate recognition, etc. of the target object such as the criminal or the vehicle that caused the incident are as described above. Therefore, the target object can be recognized more clearly.

상기 대상객체와 주변사물이 구분되면, 대상객체와 주변사물을 구분하여서 된 이미지 정보를 마이크로 컴퓨터(40)에서 각 구성을 제어할 수 있도록 하기 위한 데이터로 가공하여(S43) 마이크로 컴퓨터(40)로 전송하게 된다.(S44)When the target object and the surrounding object are separated, the image information obtained by dividing the target object and the surrounding object is processed into data for controlling each component in the microcomputer 40 (S43) to the microcomputer 40. It is to be transmitted (S44).

여기서, 상기 가공데이터는 이진부호, 펄스 등의 형태로 마이크로 컴퓨터(40)에 의해 각 객체추적 구성이 제어되기 위한 최적의 신호로 가공된 것이다.Here, the processed data is processed into an optimum signal for controlling each object tracking configuration by the microcomputer 40 in the form of binary code, pulse, and the like.

상기와 같이 이미지 가공부(30)의 데이터를 마이크로 컴퓨터(40)에서 수신하게 되면, 상기 마이크로 컴퓨터(40)에서는 대상객체의 데이터를 발췌한 후(S50) 추적카메라(60)가 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영할 수 있도록 하기 위한 데이터를 생성하여 출력하게 된다.(S60)When the data of the image processing unit 30 is received by the microcomputer 40 as described above, the microcomputer 40 extracts the data of the target object (S50) and then the tracking camera 60 focuses on the target object. It generates and outputs data for continuously tracking and photographing the target object.

마이크로 컴퓨터(40)는 범용카메라(10)로부터 영상데이터를 수신하여 객체(1)가 사람 또는 자동차 등 추적객체(1)인지 판단하고, 객체(1)를 인식하고 기 설정된 범용 카메라의 설치된 높이, 범용카메라(10)와 지면에 수직인 선의 각도를 이용하여 객체(1)의 거리를 계산하고, 상기 계산된 객체(1)의 거리와 객체(1)의 이동 시간 간격을 이용하여 객체(1)의 속도를 계산하고, 계산된 객체(1)의 속도를 이용하여 객체(1)의 피티제트(PTZ) 좌표값를 계산한다.The microcomputer 40 receives image data from the general-purpose camera 10 to determine whether the object 1 is a tracking object 1 such as a person or a car, recognizes the object 1, and installs a preset height of the general-purpose camera, The distance of the object 1 is calculated using the general camera 10 and the angle of the line perpendicular to the ground, and the object 1 is obtained by using the calculated distance of the object 1 and the moving time interval of the object 1. Calculate the velocity of and calculate the PZJT coordinate value of the object 1 using the calculated velocity of the object 1.

구체적으로, 범용카메라(10)의 가로 픽셀수가 720 픽셀이고, 범용카메라(10)의 세로 픽셀수가 480 픽셀이면 [수식 3]과 [수식 4]에 의하여 가로 픽셀당 회전각은 12.5 도, 세로 픽셀당 회전각은 9.38 도로 설정된다. Specifically, if the number of horizontal pixels of the general-purpose camera 10 is 720 pixels, and the number of vertical pixels of the general-purpose camera 10 is 480 pixels, the rotation angle per horizontal pixel is 12.5 degrees and the vertical pixel by [Equation 3] and [Equation 4]. The angle of rotation per turn is set to 9.38 degrees.

[수식 1]을 이용하여 객체(1)와의 거리를 계산하여, 처음 인식된 객체(1)와의 거리가 102 m(미터)이고, 객체(1)의 PTZ 중심점이 (360, 100)이고, 0.5초의 시간간격을 두고 다음 인식된 객체(1')와의 거리가 100m(미터)이고, 객체(1')의 PTZ 중심점이 (360, 300)일 경우, 객체(1)의 속도는 [수식 2]를 이용하여 계산하면 14.4 km/h 로 계산된다.The distance to the object 1 is calculated using Equation 1, and the distance to the first recognized object 1 is 102 m (meters), the PTZ center point of the object 1 is (360, 100), 0.5 If the distance from the next recognized object 1 'is 100m (meters) and the PTZ center point of the object 1' is (360, 300) with a time interval of seconds, the speed of the object 1 is [Equation 2] Calculated using, it is calculated as 14.4 km / h.

다음으로 PTZ 좌표값을 산출하기 위하여 [수식 5] 및 [수식 6]을 이용하여 계산하면 팬 좌표값은 45도, 틸트 좌표값은 35.34도로 산출되고, 객체(1)가 위치한 구역에 따라 사전에 설정된 줌(zoom) 배율을 이용하여 줌 좌표값을 2배줌으로 계산한다. 그리고, 마이크로 컴퓨터(40)는 상기 팬(pan), 틸트(tilt), 줌(zoom) 좌표값에 대한 정보를 포함하는 PTZ 좌표값을 추적카메라(60)로 전송한다. 따라서, 추적카메라(60)는 마이크로 컴퓨터(40)로부터 연속적으로 PTZ좌표값을 수신하여 객체(1)를 정확하게 추적할 수 있게 된다.
Next, to calculate the PTZ coordinate value, using [Equation 5] and [Equation 6], the pan coordinate value is 45 degrees, and the tilt coordinate value is 35.34 degrees. The zoom coordinate value is calculated as 2x zoom using the set zoom factor. In addition, the microcomputer 40 transmits the PTZ coordinate value including information on the pan, tilt, and zoom coordinate values to the tracking camera 60. Accordingly, the tracking camera 60 can accurately track the object 1 by receiving the PTZ coordinate values continuously from the microcomputer 40.

이후, 상기 마이크로 컴퓨터(40)에서 출력된 데이터는 카메라구동부(61)에서 수신되어 추적카메라(60)가 대상객체외의 주변사물 데이터가 제거된 상태에서 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영을 수행할 수 있게 된다.(S70)Thereafter, the data output from the microcomputer 40 is received by the camera driver 61 so that the tracking camera 60 continuously tracks the target object while focusing on the target object in a state where the peripheral object data other than the target object is removed. And the shooting can be performed. (S70)

이때, 상기 주변사물 데이터의 제거는 대상객체의 이동하는 경로에서 대상객체와의 중첩에 의해 대상객체를 오인, 혼동할 수 있는 여지를 제거하기 위한 것으로, 이로인해 대상객체를 더욱 명확하게 인식하여 확인 및 추적할 수 있게 된다.At this time, the removal of the surrounding object data is to remove the possibility of mistaken and confusing the target object by overlapping with the target object in the moving path of the target object, thereby identifying and confirming the target object more clearly. And track.

추가되는 과정으로, 상기 상기 마이크로 컴퓨터(40)에서 생성된 데이터는 감지자가 감시자가 대상객체를 확인 및 추적영상을 확인할 수 있도록 하기 위한 출력장치(100)로 전송하기 위해 압축부(70)를 통해 상기 데이터를 표준화된 규격으로 압축을 수행한다.(S80)In addition, the data generated by the microcomputer 40 is transmitted through the compression unit 70 to transmit to the output device 100 for the detector to check the target object and the tracking image to the monitor The data is compressed to a standardized standard. (S80)

이후, 상기 마이크로 컴퓨터(40) 또는 압축부(70)를 통해 압축된 데이터를 통신모듈(80)을 통해 감시자가 대상 객체 확인 및 추적영상을 확인할 수 있도록 하기 위한 출력장치(100)로 유선 또는 무선 전송하여 감시자가 추적과정을 관제소에서 확인할 수 있도록 한다.(S90)Thereafter, the data compressed through the microcomputer 40 or the compression unit 70 may be wired or wirelessly used as an output device 100 for allowing a monitor to check a target object and track image through the communication module 80. By sending it, the supervisor can check the tracking process at the control station. (S90)

또한, 상기 객체추적 시스템의 운영과정에서 설정된 구역에 다수 설치된 범용 또는 추적카메라(60)에서 대상객체가 촬영한계를 이탈할 경우가 발생될 수 있다.In addition, a case in which the target object deviates from the shooting limit may occur in the general purpose or tracking camera 60 installed in a plurality of areas set during the operation of the object tracking system.

이를 위해, 상기 마이크로 컴퓨터(40)에서는 범용 또는 추적카메라(60)에 의해 추적되는 대상객체의 이동경로 확인하여 대상객체가 이동한 경로상에 설치된 다른 범용 또는 추적카메라(60)에 의해 대상객체의 확인 및 추적을 연속적으로 수행하도록 할 수 있다.
To this end, the microcomputer 40 checks the movement path of the target object tracked by the general purpose or tracking camera 60, and checks the movement path of the target object by another general purpose or tracking camera 60 installed on the path to which the target object has moved. Confirmation and tracking can be performed continuously.

본 발명은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피디스크, 하드 디스크, 광데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송과 같이 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
The present invention can be embodied as computer readable codes on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, hard disk, optical data storage, and the like, which are implemented in the form of a carrier wave such as transmission over the Internet. It also includes. The computer readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.

이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다. While the present invention has been particularly shown and described with reference to preferred embodiments thereof, it will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. It will be appreciated by those skilled in the art that numerous changes and modifications may be made without departing from the invention. Accordingly, all such appropriate modifications and changes, and equivalents thereof, should be regarded as within the scope of the present invention.

1 : 객체 10 : 범용카메라
20 : 원본영상 추출부 30 : 이미지가공부
40 : 마이크로 컴퓨터 50 : 데이터서버
60 : 추적카메라 70 : 압축부
80 : 통신모듈 90 : 관제서버
100 : 출력장치
1: Object 10: General purpose camera
20: Original image extraction unit 30: Image processing unit
40: microcomputer 50: data server
60: tracking camera 70: compression unit
80: communication module 90: control server
100: output device

Claims (8)

사고발생 상황을 촬영하기 위해 특정의 지점에 설치되어 대상지점을 상시 촬영하는 범용카메라(10);
상기 범용카메라에 의해 촬영된 원본영상을 스트림형태로 추출하는 원본영상 추출부(20);
상기 원본영상 추출부(20)에 의해 추출된 영상의 이미지를 대상 객체와 주변사물로 구분하고, 상기 대상객체와 주변사물을 인식하여 이들 정보를 각각 처리가능한 데이터 형태로 가공하는 이미지 가공부(30);
상기 이미지 가공부(30)를 통해 전송된 데이터에 의해 대상객체를 인식하고 대상객체를 확인하고 객체의 거리 및 객체의 속도를 계산하여 객체를 추적하기 위한 피티제트(PTZ) 좌표값을 계산하고, 각 구성을 제어하는 마이크로 컴퓨터(40);
상기 이미지 가공부(30)에서 대상객체와 주변사물을 구분하고 이들을 인식하기 위한 데이터가 미리 저장되어, 대상객체와 주변사물의 구분 및 인식시 상기 마이크로 컴퓨터(40)를 통해 미리 저장된 데이터를 제공하는 데이터 서버(50); 및
상기 마이크로 컴퓨터(40)에 의해 생성된 피티제트(PTZ) 좌표값을 수신하여 목적하는 대상객체에 초점을 두고 연속적으로 추적하며 촬영하는 전용카메라(60); 를 포함하는 것을 특징으로 하는 객체추적 시스템.
A general-purpose camera 10 installed at a specific point to photograph an accident situation at all times to photograph the target point at all times;
An original image extracting unit 20 for extracting an original image photographed by the general-purpose camera in a stream form;
The image processing unit 30 classifies the image of the image extracted by the original image extraction unit 20 into a target object and surrounding objects, recognizes the target object and surrounding objects, and processes the information into a processable data form. );
Recognize the target object by the data transmitted through the image processing unit 30, identify the target object, calculate the distance of the object and the speed of the object to calculate the PTZ coordinate value for tracking the object, A microcomputer 40 for controlling each component;
The image processing unit 30 stores data for distinguishing and recognizing the target object and the surrounding object in advance, and provides the pre-stored data through the microcomputer 40 when the target object and the surrounding object are distinguished and recognized. Data server 50; And
A dedicated camera 60 which receives the PTZ coordinate value generated by the microcomputer 40 and continuously tracks and captures a target object of interest; Object tracking system comprising a.
제 1 항에 있어서,
상기 마이크로 컴퓨터(40)는,
범용카메라의 설치된 높이(h), 범용카메라와 지면에 수직인 선의 내각(q)을 이용하여 [수식1]을 통해 범용카메라와 객체의 거리(r)를 계산하는 것을 특징으로 하는 객체추적 시스템.
[수식1]
Figure pat00009

여기서, r은 범용카메라와 객체의 거리, h는 범용카메라의 설치된 높이, q는 범용카메라와 지면에 수직인 선의 각도.
The method of claim 1,
The microcomputer 40,
An object tracking system comprising calculating the distance (r) of a general-purpose camera and an object by using [Equation 1] using the installed height (h) of the general-purpose camera and the internal angle (q) of a line perpendicular to the general-purpose camera and the ground.
[Equation 1]
Figure pat00009

Where r is the distance between the universal camera and the object, h is the installed height of the universal camera, and q is the angle of the line perpendicular to the universal camera and the ground.
제 1 항에 있어서,
상기 마이크로 컴퓨터(40)는,
처음 인식된 객체와 다음 인식된 객체 사이의 시간 간격 및 객체의 처음 인식된 거리와 다음 인식된 거리를 이용하여 객체의 속도를 계산하는 것을 특징으로 하는 객체추적 시스템.

The method of claim 1,
The microcomputer 40,
An object tracking system, comprising calculating a speed of an object using a time interval between a first recognized object and a next recognized object, and using the first recognized distance and the next recognized distance of the object.

제 1 항에 있어서,
상기 마이크로 컴퓨터(40)는,
상기 범용카메라로부터 수신된 영상데이터를 다수의 부분으로 나누어 각 부분마다 기 설정된 줌(zoom) 좌표값을 이용하여 피티제트(PTZ) 좌표값을 계산하는 것을 특징으로 하는 객체추적 시스템.
The method of claim 1,
The microcomputer 40,
And dividing the image data received from the general-purpose camera into a plurality of parts to calculate PTZ coordinate values by using a preset zoom coordinate value for each part.
제 1 항에 있어서, 상기 데이터 서버(50)는 이미지 가공부(30)에서 대상객체를 구분할 수 있도록 하기 위해 대상객체의 모션감지, 형상감지, 생체인식, 색체인식, 좌표인식에 대한 설정데이터가 각각 저장된 객체인식 데이터테이블(51)과;
상기 이미지 가공부(30)에서 주변사물을 구분할 수 있도록 하기 위해 주변사물의 지리정보, 모션감지, 형상감지, 색체인식, 좌표인식에 대한 설정데이터가 각각 저장된 주변사물 데이터테이블(52);을 포함하는 것을 특징으로 하는 객체추적 시스템.
The method of claim 1, wherein the data server 50 is set to the motion detection, shape detection, biometrics, color recognition, coordinate recognition of the target object in order to be able to distinguish the target object in the image processing unit 30 An object recognition data table 51 respectively stored;
Peripheral object data table 52 for storing the setting data for the geographic information, motion detection, shape detection, color recognition, coordinate recognition of the peripheral objects in order to be able to distinguish the peripheral objects in the image processing unit 30; Object tracking system, characterized in that.
(a) 범용카메라에 의해 촬영영상이 원본영상 추출부(20)를 통해 스트림 형태로 추출된 이미지를 전송되는 과정;
(b) 상기 원본영상 추출부(20)를 통해 촬영영상의 이미지를 수신한 이미지 가공부(30)에서 마이크로 컴퓨터(40)를 통해 데이터 서버(50)의 각 데이터테이블(51, 52)의 데이터를 호출하여, 호출된 데이터에 의해 대상객체와 주변사물을 구분하고 대상객체를 인식한 후 대상객체와 주변사물의 이미지를 처리가능한 데이터로 변환하여 마이크로 컴퓨터(40)로 전송하는 과정;
(c) 상기 이미지 가공부(30)의 데이터를 수신한 마이크로 컴퓨터(40)에서 대상객체의 데이터를 발췌한 후 전용카메라(60)가 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영할 수 있도록 하기 위한 데이터를 생성하여 출력하는 과정; 및
(d) 상기 마이크로 컴퓨터(40)에서 출력된 데이터를 카메라구동부(61)에서 수신하여 전용카메라(60)가 대상객체외의 주변사물 데이터가 제거된 상태에서 대상객체에 초점을 두고 대상객체를 연속적으로 추적하며 촬영을 수행하는 과정; 를 포함하는 것을 특징으로 하는 객체추적 시스템의 운영방법.
(a) transmitting the extracted image in the form of a stream through the original image extracting unit 20 by the general-purpose camera;
(b) the data of the data tables 51 and 52 of the data server 50 through the microcomputer 40 in the image processing unit 30 that receives the image of the captured image through the original image extracting unit 20. Calling, distinguishing the target object and the surrounding object by the called data, recognizing the target object, converting the image of the target object and the surrounding object into processable data, and transmitting the same to the microcomputer 40;
(c) After extracting the data of the target object from the microcomputer 40 that has received the data of the image processing unit 30, the dedicated camera 60 may focus on the target object and continuously track and photograph the target object. Generating and outputting data so as to make the data available; And
(d) The data output from the microcomputer 40 is received by the camera driver 61 so that the dedicated camera 60 continuously focuses on the target object while the peripheral object data other than the target object is removed. Performing the shooting while tracking; Operating method of the object tracking system comprising a.
제 6 항에 있어서,
상기 (b) 과정은,
(b-1) 마이크로 컴퓨터(40)를 통해 데이터 서버(50)에서 대상객체 데이터테이블(51, 52)과, 주변사물 데이터테이블(52)을 호출하는 단계;
(b-2) 상기 각 데이터테이블(51, 52)에 미리 설정되어 저장된 대상객체의 모션감지, 형상감지, 생체인식, 색체인식, 좌표인식 데이터와, 주변사물의 지리정보, 모션감지, 형상감지, 색체인식, 좌표인식 데이터를 상기 원본영상 추출부(20)를 통해 전송된 사고상황의 이미지에 적용시켜 대상객체와 주변사물을 구분하는 단계; 및
(b-3) 상기 대상객체와 주변사물이 구분되면, 대상객체와 주변사물을 구분하여서 된 이미지 정보를 마이크로 컴퓨터(40)에서 각 구성을 제어할 수 있도록 하기 위한 데이터로 가공하여 마이크로 컴퓨터(40)로 전송하는 단계;를 포함하는 것을 특징으로 하는 객체추적 시스템의 운영방법.
The method according to claim 6,
The step (b)
(b-1) calling the target object data tables 51 and 52 and the peripheral object data table 52 from the data server 50 through the microcomputer 40;
(b-2) Motion detection, shape detection, biometric recognition, color recognition, coordinate recognition data, geographic information of surrounding objects, motion detection, shape detection of a target object which is preset and stored in the respective data tables 51 and 52 Distinguishing a target object from surrounding objects by applying color recognition and coordinate recognition data to an image of an accident situation transmitted through the original image extraction unit 20; And
(b-3) When the target object and the surrounding object are distinguished, the microcomputer 40 is processed by processing the image information obtained by dividing the target object and the surrounding object into data for controlling each component in the microcomputer 40. And transmitting to).
제 6 항에 있어서,
상기 (c) 과정은,
(c-1) 범용카메라의 설치된 높이(h), 범용카메라와 지면에 수직인 선의 내각(q)을 이용하여 [수식1]을 통해 범용카메라와 객체의 거리(r)를 계산하는 단계;
[수식1]
Figure pat00010

여기서, r은 범용카메라와 객체의 거리, h는 범용카메라의 설치된 높이, q는 범용카메라와 지면에 수직인 선의 각도.
(c-2) 상기 (c-1) 단계에서 계산된 객체의 거리와 객체의 이동시간 간격을 이용하여 객체의 속도를 계산하는 단계; 및
(c-3) 상기 범용카메라로부터 수신된 영상데이터를 다수의 부분으로 나누어 각 부분마다 기 설정된 줌(zoom) 좌표값을 이용하여 피티제트(PTZ) 좌표값을 계산하는 단계;를 포함하는 것을 특징으로 하는 객체추적 시스템의 운영방법.
The method according to claim 6,
The step (c)
(c-1) calculating a distance r between the universal camera and the object by using Equation 1 using the installed height h of the general-purpose camera and the angle q of the line perpendicular to the general-purpose camera and the ground;
[Equation 1]
Figure pat00010

Where r is the distance between the universal camera and the object, h is the installed height of the universal camera, and q is the angle of the line perpendicular to the universal camera and the ground.
(c-2) calculating the speed of the object using the distance of the object and the moving time interval of the object calculated in the step (c-1); And
(c-3) dividing the image data received from the general-purpose camera into a plurality of parts and calculating a PTZ coordinate value by using a preset zoom coordinate value for each part. Operating method of object tracking system.
KR1020110128737A 2011-12-05 2011-12-05 Device for tracking object and method for operating the same Ceased KR20130062489A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110128737A KR20130062489A (en) 2011-12-05 2011-12-05 Device for tracking object and method for operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110128737A KR20130062489A (en) 2011-12-05 2011-12-05 Device for tracking object and method for operating the same

Publications (1)

Publication Number Publication Date
KR20130062489A true KR20130062489A (en) 2013-06-13

Family

ID=48860179

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110128737A Ceased KR20130062489A (en) 2011-12-05 2011-12-05 Device for tracking object and method for operating the same

Country Status (1)

Country Link
KR (1) KR20130062489A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101469430B1 (en) * 2013-06-28 2014-12-04 (주)맨엔텔 3-dimensional haptic display apparatus
KR101897800B1 (en) * 2018-06-14 2018-09-13 (주)벨류데이터 Speed guide apparatus for measuring the speed of a vehicle using a camera and operating method thereof
US10205911B2 (en) 2014-09-04 2019-02-12 S-1 Corporation Method and system for detecting running
KR20210069385A (en) * 2019-12-03 2021-06-11 한국과학기술정보연구원 Mapping device between image and space, and computer trogram that performs each step of the device
KR20240117274A (en) * 2023-01-25 2024-08-01 김준연 System for acquiring synchronous content between multiple image sensing devices for detecting moving objects

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101469430B1 (en) * 2013-06-28 2014-12-04 (주)맨엔텔 3-dimensional haptic display apparatus
US10205911B2 (en) 2014-09-04 2019-02-12 S-1 Corporation Method and system for detecting running
KR101897800B1 (en) * 2018-06-14 2018-09-13 (주)벨류데이터 Speed guide apparatus for measuring the speed of a vehicle using a camera and operating method thereof
WO2019240340A1 (en) * 2018-06-14 2019-12-19 (주)벨류데이터 Speeding guide device capable of measuring speed of vehicle by using camera, and operation method therefor
KR20210069385A (en) * 2019-12-03 2021-06-11 한국과학기술정보연구원 Mapping device between image and space, and computer trogram that performs each step of the device
KR20240117274A (en) * 2023-01-25 2024-08-01 김준연 System for acquiring synchronous content between multiple image sensing devices for detecting moving objects

Similar Documents

Publication Publication Date Title
KR101530255B1 (en) Cctv system having auto tracking function of moving target
CN102833478B (en) Fault-tolerant background model
KR101647370B1 (en) road traffic information management system for g using camera and radar
CN104519318B (en) Frequency image monitoring system and surveillance camera
US20120281874A1 (en) Method, material, and apparatus to improve acquisition of human frontal face images using image template
KR102162130B1 (en) Enforcement system of illegal parking using single camera
EP2757771B1 (en) Image pickup apparatus, remote control apparatus, and methods of controlling image pickup apparatus and remote control apparatus
CN110580808B (en) Information processing method and device, electronic equipment and intelligent traffic system
US10277888B2 (en) Depth triggered event feature
KR101612836B1 (en) Method and device for acquisiting accident image in vehicle, and computer readable medium for performing the method
US12190242B2 (en) Methods for detecting phantom projection attacks against computer vision algorithms
CN107005655A (en) Image processing method
JP2007158421A (en) Surveillance camera system and face image tracking recording method
JP6292540B2 (en) Information processing system, information processing method, and program
KR20130062489A (en) Device for tracking object and method for operating the same
KR101492473B1 (en) Context-aware cctv intergrated managment system with user-based
KR100948382B1 (en) Security service method and system
CN113869258A (en) Traffic incident detection method, device, electronic device and readable storage medium
KR101060528B1 (en) Image processing system applied as security system and its operation method
KR101985711B1 (en) Augmented reality CCTV system, and control method for the same
KR20090073554A (en) Embedded based vehicle image storage device and method
US20120026292A1 (en) Monitor computer and method for monitoring a specified scene using the same
CN107888878B (en) Fire automatic-positioning type photograph platform courses method
JP2008182459A (en) Passage monitoring system
KR20200056656A (en) Human and object recognition system using action cam module

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20111205

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20130228

Patent event code: PE09021S01D

PG1501 Laying open of application
E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20130628

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20130228

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I