KR102836813B1 - Method and apparatus for positioning of moving object - Google Patents
Method and apparatus for positioning of moving objectInfo
- Publication number
- KR102836813B1 KR102836813B1 KR1020240138454A KR20240138454A KR102836813B1 KR 102836813 B1 KR102836813 B1 KR 102836813B1 KR 1020240138454 A KR1020240138454 A KR 1020240138454A KR 20240138454 A KR20240138454 A KR 20240138454A KR 102836813 B1 KR102836813 B1 KR 102836813B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- gps location
- camera
- location information
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
- B64U20/80—Arrangement of on-board electronics, e.g. avionics systems or wiring
- B64U20/87—Mounting of imaging devices, e.g. mounting of gimbals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/14—Receivers specially adapted for specific applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
- B64U2201/104—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Mechanical Engineering (AREA)
- Aviation & Aerospace Engineering (AREA)
- Studio Devices (AREA)
Abstract
이동 객체의 위치 결정을 위한 방법 및 장치가 제공된다. 일 실시예에 따르면, 객체의 위치 결정 방법은 카메라로부터 영상 프레임을 수신하고, 딥 러닝 기반의 객체 인식을 수행하여 상기 영상 프레임에 포함된 객체의 객체 인식 정보를 결정하고, 상기 객체 인식 정보에 기초하여 상기 카메라의 뷰 제어(view control)를 수행하여 상기 객체를 추적하고, 상기 뷰 제어로 인해 상기 카메라가 조정된 정도를 나타내는 뷰 상태 정보에 기초하여 상기 객체의 객체 GPS 위치 정보를 결정하는 단계들을 포함할 수 있다.A method and device for determining a position of a moving object are provided. According to one embodiment, a method for determining a position of an object may include the steps of receiving an image frame from a camera, performing deep learning-based object recognition to determine object recognition information of an object included in the image frame, performing view control of the camera based on the object recognition information to track the object, and determining object GPS position information of the object based on view state information indicating a degree to which the camera is adjusted due to the view control.
Description
아래 실시예들은 이동 객체의 위치 결정을 위한 방법 및 장치에 관한 것이다.The following embodiments relate to a method and device for determining the position of a moving object.
객체 추적(object tracking)은 영상 시퀀스에서 특정 객체의 위치와 움직임을 지속적으로 추적하는 기술을 말한다. 객체 추적은 컴퓨터 비전의 하위 분야 중 하나로, 다양한 애플리케이션에서 사용될 수 있다. 예를 들어, 객체 추적은 자율주행 자동차, 감시 시스템, 스포츠 분석, 증강 현실, 영상 편집 등에서 활용될 수 있다. 객체 추적에 딥 러닝 기반의 인공 지능(artificial intelligence, AI)이 이용될 수 있다. 인공 지능은 객체 추적의 성능을 크게 향상시킬 수 있다.Object tracking is a technique for continuously tracking the position and movement of a specific object in an image sequence. Object tracking is a subfield of computer vision and can be used in various applications. For example, object tracking can be used in self-driving cars, surveillance systems, sports analysis, augmented reality, and video editing. Deep learning-based artificial intelligence (AI) can be used for object tracking. AI can greatly improve the performance of object tracking.
감시 장치가 고정된 경우 감시하려는 객체가 감시 장치의 시야를 벗어나거나 장애물 뒤에 숨는 경우 감시 정확도가 낮아지고, 감시가 지속되기 어려울 수 있다.When a surveillance device is fixed, if the object to be monitored leaves the surveillance device's field of view or hides behind an obstacle, surveillance accuracy may decrease and it may be difficult to maintain surveillance.
일 실시예에 따르면, 객체 위치 결정 방법은 카메라로부터 영상 프레임을 수신하는 단계, 딥 러닝 기반의 객체 인식을 수행하여 영상 프레임에 포함된 객체의 객체 인식 정보를 결정하는 단계, 객체 인식 정보에 기초하여 카메라의 뷰 제어(view control)를 수행하여 객체를 추적하는 단계, 및 뷰 제어로 인해 카메라가 조정된 정도를 나타내는 뷰 상태 정보에 기초하여 객체의 객체 GPS 위치 정보를 결정하는 단계를 포함한다.According to one embodiment, a method for determining an object position includes the steps of receiving an image frame from a camera, performing deep learning-based object recognition to determine object recognition information of an object included in the image frame, performing view control of a camera based on the object recognition information to track the object, and determining object GPS position information of the object based on view state information indicating a degree to which the camera is adjusted due to the view control.
일 실시예에 따르면, 컴퓨터 판독 가능 저장매체는 객체 위치 결정 방법을 수행하는 명령어들을 포함하는 하나 이상의 프로그램을 저장한다.According to one embodiment, a computer-readable storage medium stores one or more programs including instructions for performing a method for determining an object position.
일 실시예에 따르면, 객체 위치 결정을 수행하는 제어 장치는 하나 이상의 프로세서 및 하나 이상의 프로세서에서 실행가능한 명령어들을 포함하는 메모리를 포함하고, 하나 이상의 프로세서에 의해 명령어들이 실행되면, 명령어들은 제어 장치로 하여금, 카메라로부터 영상 프레임을 수신하고, 딥 러닝 기반의 객체 인식을 수행하여 영상 프레임에 포함된 객체의 객체 인식 정보를 결정하고, 객체 인식 정보에 기초하여 카메라의 뷰 제어(view control)를 수행하여 객체를 추적하고, 뷰 제어로 인해 카메라가 조정된 정도를 나타내는 뷰 상태 정보에 기초하여 객체의 객체 GPS 위치 정보를 결정하도록 한다.According to one embodiment, a control device for performing object position determination includes one or more processors and a memory including instructions executable by the one or more processors, wherein when the instructions are executed by the one or more processors, the instructions cause the control device to receive an image frame from a camera, perform deep learning-based object recognition to determine object recognition information of an object included in the image frame, perform view control of the camera based on the object recognition information to track the object, and determine object GPS position information of the object based on view state information indicating a degree to which the camera is adjusted due to the view control.
실시예들에 따르면, 감시하려는 객체가 감시 장치의 시야를 벗어나거나 장애물 뒤에 숨는 경우에도 감시 정확도가 높게 유지될 수 있고, 지속적인 감시가 가능할 수 있다.According to embodiments, even if an object to be monitored leaves the field of view of the surveillance device or hides behind an obstacle, surveillance accuracy can be maintained high and continuous surveillance can be possible.
실시예들에 따르면, 드론 시스템과 같은 이동형 임무 장치와 연동하여 공중 감시 정찰이 수행될 수 있다. 또한, 실시예들은 지상 이동형 차량 등 군을 포함한 다양한 감시 정찰 응용에 적용될 수 있다. 이러한 감시 정찰을 통해 높은 정확도로 지속적인 감시가 가능할 수 있다.According to the embodiments, aerial surveillance and reconnaissance can be performed in conjunction with mobile mission devices such as drone systems. In addition, the embodiments can be applied to various surveillance and reconnaissance applications including military, such as ground-mobile vehicles. Such surveillance and reconnaissance can enable continuous surveillance with high accuracy.
실시예들에 따르면, 감시 대상 영역에서, 카메라, 뷰 컨트롤러 및 객체 인식 딥러닝 장치와 같은 간단한 구성의 시스템을 통해 객체를 추적함과 동시에 객체 GPS 위치 정보가 상시적으로 결정될 수 있다.According to embodiments, in a surveillance target area, an object can be tracked and object GPS location information can be continuously determined through a system of simple configurations such as a camera, a view controller, and an object recognition deep learning device.
도 1은 일 실시예에 따른, 이동 객체의 위치 결정을 위한 장치들의 구성을 예시적으로 나타내는 도면이다.
도 2는 일 실시예에 따른, 이동 객체의 위치를 결정하기 위한 장치들의 구체적인 구성을 예시적으로 나타내는 도면이다.
도 3은 일 실시예에 따른, 객체 추적 시스템의 뷰 컨트롤 중 PTZ 컨트롤 동작을 예시적으로 나타내는 도면이다.
도 4는 일 실시예에 따른, 객체 GPS 위치 정보 결정 시스템이 PTZ 컨트롤에 따른 뷰 상태 정보에 기초하여 영상 중앙 GPS 위치 정보를 결정하는 동작을 예시적으로 나타내는 도면이다.
도 5는 일 실시예에 따른, 객체 GPS 위치 정보 결정 시스템이 영상 중앙 GPS 위치 정보에 쉬프트 값들을 적용함으로써 객체 GPS 위치 정보를 결정하는 동작을 예시적으로 나타내는 도면이다.
도 6은 일 실시예에 따른, 이동 객체의 위치 결정을 위한 방법을 나타내는 플로우 차트이다.
도 7은 일 실시예에 따른, 이동 객체의 위치를 결정하기 위한 전자 장치의 구성을 나타내는 블록도이다.FIG. 1 is a drawing exemplarily showing the configuration of devices for determining the position of a moving object according to one embodiment.
FIG. 2 is a drawing exemplarily showing a specific configuration of devices for determining the position of a moving object according to one embodiment.
FIG. 3 is a drawing exemplarily showing PTZ control operations among view controls of an object tracking system according to one embodiment.
FIG. 4 is a diagram exemplarily showing an operation of an object GPS location information determination system determining image center GPS location information based on view state information according to PTZ control, according to one embodiment.
FIG. 5 is a diagram exemplarily showing an operation of an object GPS location information determination system determining object GPS location information by applying shift values to image center GPS location information according to one embodiment.
FIG. 6 is a flow chart illustrating a method for determining the position of a moving object according to one embodiment.
FIG. 7 is a block diagram illustrating a configuration of an electronic device for determining the position of a moving object according to one embodiment.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only and may be implemented in various forms. Accordingly, the actual implemented form is not limited to the specific embodiments disclosed, and the scope of the present disclosure includes modifications, equivalents, or alternatives included in the technical idea described in the embodiments.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although the terms first or second may be used to describe various components, such terms should be construed only for the purpose of distinguishing one component from another. For example, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When it is said that a component is "connected" to another component, it should be understood that it may be directly connected or connected to that other component, but there may also be other components in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, the terms "comprises" or "has" and the like are intended to specify the presence of a described feature, number, step, operation, component, part, or combination thereof, but should be understood to not preclude the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning they have in the context of the relevant art, and will not be interpreted in an idealized or overly formal sense unless explicitly defined herein.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. In describing with reference to the attached drawings, identical components are given the same reference numerals regardless of the drawing numbers, and redundant descriptions thereof will be omitted.
도 1은 일 실시예에 따른 이동 객체의 위치 결정을 위한 장치들의 구성을 예시적으로 나타내는 도면이다. 도 1을 참조하면, 제어 장치(130)는 감시 장치(110)로부터 객체(102)를 촬영한 영상(121)을 수신하고, 감시 장치(110)에 의해 촬영된 영상(121)에 기초하여 감시 장치(110)의 뷰 제어(view control)를 수행하여 객체(102)를 추적하고, 뷰 제어로 인해 감시 장치(110)가 조정된 정도에 기초하여 객체(102)의 위치를 결정할 수 있다. 객체(102)는 이동성을 갖는 이동 객체일 수 있다. 객체(102)가 촬영된 영상(121)은 복수의 영상 프레임들에 대응할 수 있다. 제어 장치(130)에서 결정된 객체(102)의 위치는 결정된 드론(140)과 같은 정찰 장치의 비행을 제어하기 위해 사용될 수 있다.FIG. 1 is a drawing exemplarily showing the configuration of devices for determining the position of a moving object according to one embodiment. Referring to FIG. 1, a control device (130) receives an image (121) of an object (102) from a surveillance device (110), performs view control of the surveillance device (110) based on the image (121) captured by the surveillance device (110), tracks the object (102), and determines the position of the object (102) based on the degree to which the surveillance device (110) is adjusted due to the view control. The object (102) may be a moving object having mobility. The image (121) of the object (102) captured may correspond to a plurality of image frames. The position of the object (102) determined by the control device (130) may be used to control the flight of a reconnaissance device such as a determined drone (140).
감시 장치(110)는 특정 장면(101)에 포함된 객체(102)를 촬영할 수 있다. 감시 장치(110)는 카메라 세트(111) 및 카메라 세트(111)의 뷰(view)를 제어하기 위한 뷰 컨트롤러(112)를 포함할 수 있다. 카메라 세트(111)는 하나 이상의 카메라를 포함할 수 있다. 예를 들어, 카메라 세트(111)는 가시광 대역을 이용하여 주간에 객체를 인식하기 위한 가시광 카메라(예: EO(electro-optical) 카메라) 및 적외선을 이용하여 야간에 객체를 인식하기 위한 IR(infrared) 카메라를 포함할 수 있으나, 이에 제한되지 않는다. 예를 들어, 카메라 세트(111)는 EO 카메라와 IR 카메라가 결합된 EO/IR 카메라일 수 있다.The surveillance device (110) can capture an object (102) included in a specific scene (101). The surveillance device (110) can include a camera set (111) and a view controller (112) for controlling a view of the camera set (111). The camera set (111) can include one or more cameras. For example, the camera set (111) can include, but is not limited to, a visible light camera (e.g., an EO (electro-optical) camera) for recognizing an object during the day using a visible light band and an IR (infrared) camera for recognizing an object at night using infrared rays. For example, the camera set (111) can be an EO/IR camera that combines an EO camera and an IR camera.
뷰 컨트롤러(112)는 뷰 제어(view control)를 수행하여 카메라 세트(111)를 조정할 수 있다. 뷰 제어는 카메라 세트(111)에 의해 포착되는 장면(101)에 객체(102)를 지속적으로 추적하기 위해 수행될 수 있다. 예를 들어, 객체(102)가 지속적으로 왼쪽으로 이동한다면, 뷰 컨트롤러(112)는 객체(102)가 장면(101)에 포함되어 촬영될 수 있도록 뷰 제어를 수행하여 카메라 세트(111)를 왼쪽으로 회전시킬 수 있다. 뷰 컨트롤러(112)는 제어 장치(130)로부터 뷰 제어 신호를 수신할 수 있다. 예를 들어, 영상(121) 내에서 객체(102)가 지속적으로 왼쪽으로 이동한다면, 뷰 컨트롤러(112)는 제어 장치(130)로부터 카메라 세트(111)를 왼쪽으로 회전시키라는 뷰 제어 신호를 수신할 수 있다.The view controller (112) can perform view control to adjust the camera set (111). The view control can be performed to continuously track the object (102) in the scene (101) captured by the camera set (111). For example, if the object (102) continuously moves to the left, the view controller (112) can perform view control to rotate the camera set (111) to the left so that the object (102) can be included in the scene (101) and captured. The view controller (112) can receive a view control signal from the control device (130). For example, if the object (102) continuously moves to the left in the image (121), the view controller (112) can receive a view control signal to rotate the camera set (111) to the left from the control device (130).
제어 장치(130)가 드론(140)과 같은 정찰 장치를 객체(102)에 접근시켜 임무를 수행하게 하기 위해서는 객체(102)의 정확한 위치 파악이 필수적일 수 있다. 객체(102)의 정확한 위치 파악이 되지 않는다면, 정찰 장치가 목표점에 효율적으로 접근하지 못할 수 있다. 예를 들어 드론(140)의 경우, 객체(102)를 탐색하는데 많은 시간이 소비되어 배터리 제한으로 인해 임무를 완수하지 못할 수 있다. 또한, 객체(102)(예를 들어, 사람, 드론, 동물, 차량, 탱크 등)는 이동성을 가지고 있으므로 드론(140)과 같은 정찰 장치 등의 임무 수행을 위해서는 지속적인 객체 추적이 요구될 수 있다. 예를 들어, 차량 또는 드론과 같은 비교적 빠른 속도로 이동하는 객체에 대한 객체 추적 및 위치 결정을 위해서는, 객체가 감시 장치(110)의 영상에서 벗어나지 않도록 하는 정밀 뷰 제어가 요구될 수 있다. 제어 장치(130)는 감시 장치(110)를 조정하여 정밀한 뷰 제어를 수행함으로써 객체(102)를 추적하고, 객체(102)의 위치를 결정할 수 있다.In order for the control device (130) to perform a mission by allowing a reconnaissance device such as a drone (140) to approach the object (102), accurate positioning of the object (102) may be essential. If the accurate positioning of the object (102) is not determined, the reconnaissance device may not be able to efficiently approach the target point. For example, in the case of the drone (140), a lot of time may be consumed in searching for the object (102), and the mission may not be completed due to battery limitations. In addition, since the object (102) (e.g., a person, a drone, an animal, a vehicle, a tank, etc.) is mobile, continuous object tracking may be required for a reconnaissance device such as a drone (140) to perform its mission. For example, in order to track and determine the position of an object moving at a relatively high speed, such as a vehicle or a drone, precise view control may be required so that the object does not leave the image of the surveillance device (110). The control device (130) can track the object (102) and determine the position of the object (102) by adjusting the monitoring device (110) to perform precise view control.
제어 장치(130)는 감시 장치(110)로부터 영상(121)을 수신하고, 영상(121)에 포함된 객체(102)의 정보를 결정할 수 있다. 제어 장치(130)는 객체(102)의 정보에 기초하여 객체(102)가 감시 장치(110)가 촬영하는 장면(101)에서 벗어나지 않도록 객체 추적을 수행할 수 있다. 제어 장치(130)는 객체 추적을 수행하기 위해 뷰 제어 신호를 감시 장치(110)의 뷰 컨트롤러(112)로 전송하고, 뷰 제어 신호를 수신한 뷰 컨트롤러(112)가 뷰 제어를 수행할 수 있다.The control device (130) can receive an image (121) from the surveillance device (110) and determine information on an object (102) included in the image (121). Based on the information on the object (102), the control device (130) can perform object tracking so that the object (102) does not leave the scene (101) being captured by the surveillance device (110). The control device (130) transmits a view control signal to a view controller (112) of the surveillance device (110) to perform object tracking, and the view controller (112) that receives the view control signal can perform view control.
제어 장치(130)는 뷰 제어의 수행으로 인해 감시 장치(110)가 조정된 정도를 결정할 수 있다. 일 실시예에서, 제어 장치(130)는 감시 장치(110)가 조정된 정도를 감시 장치(110)의 뷰 컨트롤러(112)가 제공하는 뷰 상태 정보에 기초하여 결정할 수 있다. 다른 실시예에서, 제어 장치(110)는 감시 장치(110)가 조정된 정도를 감시 장치(110)의 뷰 컨트롤러(112)에 전송한 뷰 제어 신호에 기초하여 결정할 수 있다. 제어 장치(130)가 감시 장치(110)로부터 영상(121) 및 뷰 상태 정보를 수신하고 제어 장치(130)가 감시 장치(110)로 뷰 제어 신호를 전송할 때, 통신 링크(120)가 이용될 수 있다. 통신 링크(120)는 유선 통신 링크, 무선 통신 링크 및 이들의 조합일 수 있다. 제어 장치(130)는 감시 장치(110)가 조정된 정도에 기초하여 객체(102)의 위치를 결정할 수 있다. 결정된 객체(102)의 위치 정보는 GPS 위치 정보를 포함할 수 있다. 이러한 GPS 위치 정보는 객체 GPS 위치 정보로 부를 수 있다.The control device (130) can determine the degree to which the monitoring device (110) has been adjusted due to the performance of the view control. In one embodiment, the control device (130) can determine the degree to which the monitoring device (110) has been adjusted based on view state information provided by the view controller (112) of the monitoring device (110). In another embodiment, the control device (110) can determine the degree to which the monitoring device (110) has been adjusted based on a view control signal transmitted to the view controller (112) of the monitoring device (110). When the control device (130) receives the image (121) and view state information from the monitoring device (110) and the control device (130) transmits the view control signal to the monitoring device (110), a communication link (120) can be utilized. The communication link (120) can be a wired communication link, a wireless communication link, or a combination thereof. The control device (130) can determine the location of the object (102) based on the degree to which the monitoring device (110) is adjusted. The determined location information of the object (102) can include GPS location information. This GPS location information can be referred to as object GPS location information.
감시 장치(110)는 고정된 위치에서 객체(102)를 촬영하므로, 객체(102)가 감시 장치(110)로부터 멀리 벗어나거나 객체(102)가 감시 장치(110)의 시야를 가리는 장애물에 숨는 등의 상황에서, 객체(102)를 추적하는데 한계가 발생할 수 있다. 객체 GPS 위치 정보는 감시 장치(110)의 고정된 위치로 인한 추적 상 한계를 보완하는데 이용될 수 있다. 예를 들어, 객체 GPS 위치 정보는 드론(140)과 같은 정찰 장치, 같은 정찰 임무를 갖는 인간에 의해 이용되는 정찰 장비, 감시 장치(110)와 멀리 떨어져 있는 다른 감시 장치에 제공될 수 있으나, 이에 제한되지 않는다.Since the surveillance device (110) photographs the object (102) from a fixed position, there may be limitations in tracking the object (102) in situations such as when the object (102) moves far away from the surveillance device (110) or when the object (102) hides behind an obstacle that blocks the view of the surveillance device (110). The object GPS location information can be used to supplement the tracking limitations due to the fixed position of the surveillance device (110). For example, the object GPS location information can be provided to a reconnaissance device such as a drone (140), reconnaissance equipment used by humans with the same reconnaissance mission, or another surveillance device that is far away from the surveillance device (110), but is not limited thereto.
예를 들어, 드론(140)과 같은 정찰 장치는 제어 장치(130)로부터 비행 임무를 지시받아 자율 임무 비행을 수행할 수 있다. 자율 임무 비행은 목적지에 도달하기 위해 사용자의 최소한의 개입으로 드론(140)이 자율적으로 비행하는 동작을 의미할 수 있다. 드론(140)은 감시 장치(110)와 같이 카메라 세트와 뷰 컨트롤러를 포함할 수 있다. 드론(140)은 제어 장치(130)와 통신하여 객체(102)에 대한 정보를 제공하거나 객체(102)에 대한 정보를 수신할 수 있다. 일 실시예에서, 드론(140)의 비행 임무는 감시 장치(110)의 감시를 보조하는 감시 임무일 수 있다. 예를 들어, 드론(140)은, 객체(102)가 감시 장치(110)가 촬영 가능한 영역을 벗어나기 전에, 객체(102)의 위치로 비행하여 감시 장치(110)와 함께 객체(102)의 감시 임무를 수행할 수 있다. 다른 실시예에서, 드론(140)의 비행 임무는 감시 장치(110)의 감시와 연계하는 경고 임무일 수 있다. 예를 들어, 감시 장치(110)에 의해 사람, 차량 등이 포착되었을 때, 객체(102)에 접근하여 들어오면 안 된다는 등의 경고 임무를 수행할 수 있다.For example, a reconnaissance device such as a drone (140) may perform an autonomous mission flight by receiving a flight mission instruction from a control device (130). An autonomous mission flight may mean an operation in which a drone (140) autonomously flies with minimal intervention of a user to reach a destination. The drone (140) may include a set of cameras and a view controller, such as a surveillance device (110). The drone (140) may communicate with the control device (130) to provide information about the object (102) or receive information about the object (102). In one embodiment, the flight mission of the drone (140) may be a surveillance mission that assists the surveillance of the surveillance device (110). For example, the drone (140) may fly to the location of the object (102) before the object (102) leaves an area that the surveillance device (110) can capture, and perform a surveillance mission of the object (102) together with the surveillance device (110). In another embodiment, the flight mission of the drone (140) may be a warning mission linked to the surveillance of the surveillance device (110). For example, when a person, vehicle, etc. is captured by the surveillance device (110), a warning mission such as not to approach and enter the object (102) may be performed.
도 2는 일 실시예에 따른, 객체의 위치를 결정하기 위한 장치들의 구체적인 구성을 예시적으로 나타내는 도면이다. 도 2를 참조하면, 감시 장치(210), 딥 러닝 기반 객체 인식 시스템(220), 객체 추적 시스템(230), 뷰 제어 신호 변환 시스템(231), 객체 GPS 위치 정보 결정 시스템, 비행 제어 시스템(250) 및 자세 제어 시스템(270) 중 적어도 하나를 이용하여 객체(201)의 위치가 결정될 수 있다. 감시 장치(210), 딥 러닝 기반 객체 인식 시스템(220), 객체 추적 시스템(230), 뷰 제어 신호 변환 시스템(231), 객체 GPS 위치 정보 결정 시스템, 비행 제어 시스템(250) 및 자세 제어 시스템(270)은 객체 위치 결정 시스템으로 부를 수 있다.FIG. 2 is a drawing exemplarily showing a specific configuration of devices for determining a position of an object according to one embodiment. Referring to FIG. 2, the position of an object (201) may be determined using at least one of a monitoring device (210), a deep learning-based object recognition system (220), an object tracking system (230), a view control signal conversion system (231), an object GPS position information determination system, a flight control system (250), and an attitude control system (270). The monitoring device (210), the deep learning-based object recognition system (220), the object tracking system (230), the view control signal conversion system (231), the object GPS position information determination system, the flight control system (250), and the attitude control system (270) may be referred to as an object position determination system.
객체(201)는 이동성을 갖는 이동 객체일 수 있다. 도 2의 딥 러닝 기반 객체 인식 시스템(220), 객체 추적 시스템(230), 뷰 제어 신호 변환 시스템(231), 객체 GPS 위치 정보 결정 시스템, 비행 제어 시스템(250) 및 자세 제어 시스템(270)의 하나 이상은 도 1의 제어 장치(130)에 포함될 수 있다.The object (201) may be a mobile object having mobility. One or more of the deep learning-based object recognition system (220), the object tracking system (230), the view control signal conversion system (231), the object GPS position information determination system, the flight control system (250), and the attitude control system (270) of FIG. 2 may be included in the control device (130) of FIG. 1.
감시 장치(210)는 카메라 세트(211), 뷰 컨트롤러(212) 및 관성 측정장치(213)를 포함할 수 있고, 감시 장치(210)는 도 1의 감시 장치(110)에 대응될 수 있다. 뷰 컨트롤러(212)는 카메라 세트(211)의 뷰(view)를 제어하는 컨트롤러일 수 있다. 일 실시예에서, 뷰 컨트롤러(212)는 카메라 세트(211)의 PTZ(pan, tilt, zoom)를 제어하는 PTZ 컨트롤러일 수 있다. 일 실시예에서, 관성 측정장치(213)는 카메라 세트(211)의 수평과 정북 방향을 지향하기 위한 센서들(예를 들어, 자이로스코프, 가속도계, 지자기 센서 등)을 포함할 수 있다.The surveillance device (210) may include a camera set (211), a view controller (212), and an inertial measurement device (213), and the surveillance device (210) may correspond to the surveillance device (110) of FIG. 1. The view controller (212) may be a controller that controls a view of the camera set (211). In one embodiment, the view controller (212) may be a PTZ controller that controls PTZ (pan, tilt, zoom) of the camera set (211). In one embodiment, the inertial measurement device (213) may include sensors (e.g., a gyroscope, an accelerometer, a geomagnetic sensor, etc.) for orienting the horizontal and true north directions of the camera set (211).
딥 러닝 기반 객체 인식 시스템(220)은 감시 장치(210)에서 촬영된 영상(214) 내 객체(201)를 인식할 수 있다. 딥 러닝 기반 객체 인식 시스템(220)은 인공 지능(artificial intelligence, AI)을 이용하여 객체 인식을 수행할 수 있다. 예를 들어, 뉴럴 네트워크를 이용한 인공 지능이 이용될 수 있다. 뉴럴 네트워크는 딥 러닝을 통해 입력 영상으로부터 주어진 객체를 인식하도록 트레이닝될 수 있다.The deep learning-based object recognition system (220) can recognize an object (201) in an image (214) captured by a surveillance device (210). The deep learning-based object recognition system (220) can perform object recognition using artificial intelligence (AI). For example, artificial intelligence using a neural network can be used. The neural network can be trained to recognize a given object from an input image through deep learning.
딥 러닝 기반 객체 인식 시스템(220)은 통신 링크(202)를 통해 감시 장치(210)로부터 영상(214)을 수신할 수 있다. 딥 러닝 기반 객체 인식 시스템이 수신하는 영상(214)은 연속적인 복수의 영상 프레임들(예: 영상 프레임 시퀀스)을 포함하는 비디오일 수 있다. 통신 링크(202)는 유선 통신 링크, 무선 통신 링크 또는 이들의 조합일 수 있다. 딥 러닝 기반 객체 인식 시스템(220)은 딥 러닝 기반으로 수신된 영상(214) 내의 객체(201)를 인식할 수 있다. 일 실시예에서, 딥 러닝 기반 객체 인식 시스템(220)은 복수의 영상 프레임들의 각각의 영상 프레임 내의 객체(201)를 인식할 수 있다.The deep learning-based object recognition system (220) can receive an image (214) from a surveillance device (210) via a communication link (202). The image (214) received by the deep learning-based object recognition system can be a video including a plurality of continuous image frames (e.g., a sequence of image frames). The communication link (202) can be a wired communication link, a wireless communication link, or a combination thereof. The deep learning-based object recognition system (220) can recognize an object (201) in the received image (214) based on deep learning. In one embodiment, the deep learning-based object recognition system (220) can recognize an object (201) in each image frame of the plurality of image frames.
딥 러닝 기반 객체 인식 시스템(220)은 인식한 객체(201)에 기초하여 객체 인식 정보(221)를 결정할 수 있다. 객체 인식 정보(221)는 객체(201)를 추적하고 객체의 위치를 결정하는데 이용되는 정보를 포함할 수 있다. 예를 들어, 객체 인식 정보(221)는 객체(201)의 객체 바운딩 박스에 관한 정보(예를 들어, x좌표, y좌표 및 바운딩 박스의 박스 크기 등), 객체의 실제 크기에 관한 정보(예를 들어, 인식된 객체의 평균 크기 등) 및 영상 해상도 등을 포함할 수 있다. 일 실시예에서, 딥 러닝 기반 객체 인식 시스템(220)은 복수의 영상 프레임들의 각각의 영상 프레임 내의 객체 인식 정보(221)를 결정할 수 있다. 딥 러닝 기반 객체 인식 시스템(220)은 객체 인식 정보(221)를 객체 추적 시스템(230) 및 객체 GPS 위치 정보 결정 시스템(240)에 전송할 수 있다.The deep learning-based object recognition system (220) can determine object recognition information (221) based on the recognized object (201). The object recognition information (221) can include information used to track the object (201) and determine the location of the object. For example, the object recognition information (221) can include information about an object bounding box of the object (201) (e.g., x-coordinate, y-coordinate, and box size of the bounding box, etc.), information about an actual size of the object (e.g., average size of the recognized object, etc.), and image resolution, etc. In one embodiment, the deep learning-based object recognition system (220) can determine object recognition information (221) in each image frame of a plurality of image frames. The deep learning-based object recognition system (220) can transmit the object recognition information (221) to the object tracking system (230) and the object GPS location information determination system (240).
객체 추적 시스템(230)은 객체 인식 정보(221)에 기초하여 감시 장치(210)를 조정하여 객체(201)를 추적할 수 있다. 객체 추적 시스템(230)은 감시 장치(210)의 뷰 컨트롤러(212)가 뷰 제어를 수행하게 함으로써 객체(201)를 추적할 수 있다. 객체 추적 시스템(230)은 객체 추적 기준(236)에 따라 객체(201)를 추적할 수 있다. 예를 들어, 객체 추적 기준(236)은 객체(201)가 영상(214)의 중앙에 위치하도록 카메라 세트(211)를 조정하는 것 및 객체 바운딩 박스의 크기가 미리 결정된 크기로 유지되도록 줌(zoom)을 조정하는 것일 수 있으나, 이에 제한되지 않는다. 예를 들어, 객체 추적 시스템(230)은 객체 추적 기준(236)에 따라 객체(201)가 영상(214)의 중앙에 위치하도록 카메라 세트(211)의 팬(pan) 및 틸트(tilt)를 조정할 수 있고, 객체 바운딩 박스의 박스 크기가 일정하게 유지되도록 카메라 세트(211)의 줌(zoom)을 조정할 수 있다. 아래에서 도 3과 관련하여 뷰 컨트롤의 일 실시예인 PTZ 컨트롤에 대해 구체적으로 서술한다.The object tracking system (230) can track the object (201) by adjusting the surveillance device (210) based on the object recognition information (221). The object tracking system (230) can track the object (201) by allowing the view controller (212) of the surveillance device (210) to perform view control. The object tracking system (230) can track the object (201) according to the object tracking criterion (236). For example, the object tracking criterion (236) may be, but is not limited to, adjusting the camera set (211) so that the object (201) is located at the center of the image (214) and adjusting the zoom so that the size of the object bounding box is maintained at a predetermined size. For example, the object tracking system (230) can adjust the pan and tilt of the camera set (211) so that the object (201) is positioned at the center of the image (214) according to the object tracking criterion (236), and can adjust the zoom of the camera set (211) so that the box size of the object bounding box remains constant. Below, a PTZ control, which is an embodiment of the view control, is described in detail with respect to FIG. 3.
객체 추적 시스템(230)이 제1 영상 프레임에 대응하여 뷰 제어(예를 들어, PTZ 제어)를 수행해도, 객체(201)가 이동함에 따라 제2 영상 프레임 내에서 객체 추적 기준(236)이 만족되지 않을 수 있다. 이에 따라, 객체 추적 시스템(230)은 제2 영상 프레임에 대응하는 뷰 제어를 재수행할 필요가 있을 수 있다. 예를 들어, 객체 추적 시스템은 제2 영상 프레임에 대응하는 객체 인식 정보(221) 및 제1 영상 프레임에 대응하는 뷰 상태 정보(233)에 기초하여, 객체(201)가 제2 영상 프레임의 중앙에 위치하고, 제2 영상 프레임 내의 객체 바운딩 박스의 박스 크기가 미리 정해진 크기가 되도록, 카메라의 뷰 제어를 재수행할 수 있다. 제2 영상 프레임에 대응하는 객체 인식 정보(221)는 제2 객체 인식 정보라고 부를 수 있다. 일 실시예에서, 제2 영상 프레임에 대응하는 뷰 상태 정보(233)는 제1 영상 프레임에 대응하는 뷰 상태 정보(233)에 제2 영상 프레임에 대응하는 뷰 제어가 수행된 정도를 나타내는 상대적 값을 업데이트 하여 결정될 수 있다. 다른 실시예에서, 제2 영상 프레임에 대응하는 뷰 상태 정보(233)는 제2 영상 프레임에 대응하는 뷰 제어가 수행된 정도를 나타내는 절대적 값에 기초하여 결정될 수 있다.Even if the object tracking system (230) performs view control (e.g., PTZ control) corresponding to the first image frame, the object tracking criterion (236) may not be satisfied within the second image frame as the object (201) moves. Accordingly, the object tracking system (230) may need to re-perform view control corresponding to the second image frame. For example, the object tracking system may re-perform view control of the camera based on object recognition information (221) corresponding to the second image frame and view state information (233) corresponding to the first image frame, such that the object (201) is located at the center of the second image frame and the box size of the object bounding box within the second image frame becomes a predetermined size. The object recognition information (221) corresponding to the second image frame may be referred to as second object recognition information. In one embodiment, the view state information (233) corresponding to the second image frame may be determined by updating a relative value indicating the degree to which view control corresponding to the second image frame has been performed to the view state information (233) corresponding to the first image frame. In another embodiment, the view state information (233) corresponding to the second image frame may be determined based on an absolute value indicating the degree to which view control corresponding to the second image frame has been performed.
뷰 제어 신호 변환 시스템(231)은 객체 추적 시스템(230)으로부터 뷰 제어 정보(232)를 수신할 수 있다. 뷰 제어 정보(232)는 객체 추적을 위해 카메라 세트(211)를 조정하기 위한 정보를 포함할 수 있다. 뷰 제어 신호 변환 시스템(231)은 뷰 제어 정보(232)에 기초하여 뷰 컨트롤러에서 인식할 수 있는 뷰 제어 신호(234)를 생성할 수 있다. 뷰 제어 신호 변환 시스템(231)은 뷰 제어 신호(234)를 뷰 컨트롤러(212)로 전송할 수 있다. 뷰 제어 신호 변환 시스템(231)은 뷰 컨트롤러(212)가 생성한 뷰 상태 신호(234)를 수신할 수 있다. 뷰 제어 신호 변환 시스템(231)은 뷰 상태 신호(234)를 변환하여 뷰 상태 정보(233)를 생성할 수 있다. 뷰 상태 정보(233)는 카메라 세트(211)의 뷰 제어가 수행된 정도를 나타낼 수 있다.The view control signal conversion system (231) can receive view control information (232) from the object tracking system (230). The view control information (232) can include information for adjusting the camera set (211) for object tracking. The view control signal conversion system (231) can generate a view control signal (234) recognizable by the view controller based on the view control information (232). The view control signal conversion system (231) can transmit the view control signal (234) to the view controller (212). The view control signal conversion system (231) can receive a view status signal (234) generated by the view controller (212). The view control signal conversion system (231) can convert the view status signal (234) to generate view status information (233). The view status information (233) can indicate the degree to which view control of the camera set (211) has been performed.
일 실시예에서, 뷰 상태 정보(233)는 PTZ 상태 정보이고 뷰 제어 정보(232)는 PTZ 제어 정보일 수 있다. 예를 들어, 뷰 상태 정보(233)는 카메라 세트(211)가 현재 팬(pan), 틸트(tilt), 줌(zoom)된 정도를 나타내는 값을 포함할 수 있다. 또한, 예를 들어, 뷰 제어 정보(232)는 카메라 세트(211)가 팬(pan), 틸트(tilt), 줌(zoom) 되어야 하는 정도를 나타내는 값을 포함할 수 있고, 팬(pan), 틸트(tilt), 줌(zoom)되어야 하는 정도는 절대적 값 또는 뷰 상태 정보(233)에 기초한 상대적 값일 수 있다.In one embodiment, the view state information (233) may be PTZ state information and the view control information (232) may be PTZ control information. For example, the view state information (233) may include a value indicating the degree to which the camera set (211) is currently panned, tilted, or zoomed. Also, for example, the view control information (232) may include a value indicating the degree to which the camera set (211) should be panned, tilted, or zoomed, and the degree to which the camera set (211) should be panned, tilted, or zoomed may be an absolute value or a relative value based on the view state information (233).
일 실시예에서, 뷰 제어 신호 변환 시스템(231)은 객체 추적 시스템(230)에 포함될 수 있다. 다른 실시예에서, 뷰 제어 신호 변환 시스템(231)과 뷰 컨트롤러(212) 사이의 신호 전달은 통신 링크(203)를 통해 이루어질 수 있다. 통신 링크(203)는 통신 링크(202)와 같이 유선 통신 링크, 무선 통신 링크 또는 이들의 조합일 수 있다. 뷰 제어 신호 변환 시스템(231)은 자세 제어 시스템(270)으로부터 뷰 제어 정보(232)를 수신할 수 있고, 자세 제어 시스템(270)에 뷰 상태 정보(233)를 전송할 수 있다.In one embodiment, the view control signal conversion system (231) may be included in the object tracking system (230). In another embodiment, signal transmission between the view control signal conversion system (231) and the view controller (212) may be via a communication link (203). The communication link (203) may be a wired communication link, a wireless communication link, or a combination thereof, such as the communication link (202). The view control signal conversion system (231) may receive view control information (232) from the attitude control system (270) and transmit view state information (233) to the attitude control system (270).
객체 GPS 위치 정보 결정 시스템(240)은 객체(201)의 위치를 결정할 수 있다. 객체 GPS 위치 정보 결정 시스템(240)은 객체 추적 시스템(230)으로부터 뷰 상태 정보(233) 및 화각 정보(237)를 수신할 수 있다. 일 실시예에서, 뷰 상태 정보(233)는 화각 정보(237)를 포함할 수 있다. 일 실시예에서, 화각 정보(237)는 카메라 세트(211)가 줌(zoom)된 정도에 기초하여 결정될 수 있다. 일 실시예에서, 객체 GPS 위치 정보 결정 시스템은 영상(214)의 중앙의 GPS 위치 정보를 결정함으로써 객체(201)의 객체 GPS 위치 정보(241)를 결정할 수 있다. 예를 들어, 객체 추적 시스템(230)이 객체(201)가 영상(201)의 중앙에 위치하도록 객체 추적을 수행하였다면, 결정된 영상(214)의 중앙의 GPS 위치 정보는 객체 GPS 위치 정보(241)와 동일할 수 있다. 다른 실시예에서, 객체(201)의 위치(예를 들어, 객체 GPS 위치 정보)는 영상(214)의 중앙의 영상 중앙 위치 정보(예를 들어, 영상 중앙 GPS 위치 정보)를 결정하고, 영상 중앙 위치 정보에 기초하여 GPS 쉬프트를 수행함으로써 결정될 수 있다. 아래에서 도 4 및 도 5와 관련하여, PTZ 컨트롤에 따른 뷰 상태 정보에 기초하여 객체 GPS 위치 정보를 결정하는 동작에 대해 구체적으로 서술한다.The object GPS location information determination system (240) can determine the location of the object (201). The object GPS location information determination system (240) can receive view state information (233) and field of view information (237) from the object tracking system (230). In one embodiment, the view state information (233) can include field of view information (237). In one embodiment, the field of view information (237) can be determined based on the degree to which the camera set (211) is zoomed. In one embodiment, the object GPS location information determination system can determine the object GPS location information (241) of the object (201) by determining the GPS location information of the center of the image (214). For example, if the object tracking system (230) performs object tracking so that the object (201) is located at the center of the image (201), the determined GPS location information of the center of the image (214) can be identical to the object GPS location information (241). In another embodiment, the position of the object (201) (e.g., object GPS position information) can be determined by determining image center position information (e.g., image center GPS position information) at the center of the image (214) and performing a GPS shift based on the image center position information. Below, with reference to FIGS. 4 and 5, an operation of determining object GPS position information based on view state information according to PTZ control is specifically described.
객체 추적 시스템(230)의 객체 추적에도 불구하고 영상(214)의 중앙의 영상 중앙 GPS 위치 정보와 객체 GPS 위치 정보(241)가 동일하지 않을 수 있다. 일 실시예에서, GPS 위치 정보 결정 시스템(240)이 수신한 뷰 상태 정보(233) 및 화각 정보는 초기 영상 프레임(제1 영상 프레임으로 지칭될 수 있음)에 대응하는 뷰 상태 정보 및 화각 정보일 수 있고, 객체 GPS 위치 정보 결정 시스템(240)이 수신한 객체 인식 정보(221)는 시간차로 인해 제n 영상 프레임(n은 1보다 큰 값을 가질 수 있다)에 대응하는 객체 인식 정보일 수 있다. 예를 들어, 시간 차이에 의해 객체 GPS 위치 정보 결정 시스템(240)이 수신한 객체 인식 정보(221)는 제2 영상 프레임에 대응하고 뷰 상태 정보(233)는 제1 영상 프레임에 대응한다면, 제1 영상 프레임에 대응하는 객체 추적 시스템(230)의 객체 추적에도 불구하고 제2 영상 프레임 내의 객체(201)는 제2 영상 프레임의 중앙에 위치하지 않을 수 있다. 시간 차이는 제1 영상 프레임 및 제2 영상 프레임을 촬영하는데 소요되는 시간 및/또는 뷰 컨트롤러(212)에 의해 뷰 제어가 수행되는 시간으로 인해 발생할 수 있다.Despite object tracking by the object tracking system (230), the image center GPS location information and the object GPS location information (241) at the center of the image (214) may not be the same. In one embodiment, the view state information (233) and the field of view information received by the GPS location information determination system (240) may be the view state information and the field of view information corresponding to an initial image frame (which may be referred to as a first image frame), and the object recognition information (221) received by the object GPS location information determination system (240) may be the object recognition information corresponding to the n-th image frame (n may have a value greater than 1) due to a time difference. For example, if the object recognition information (221) received by the object GPS location information determination system (240) due to a time difference corresponds to the second image frame and the view state information (233) corresponds to the first image frame, the object (201) in the second image frame may not be located at the center of the second image frame despite the object tracking of the object tracking system (230) corresponding to the first image frame. The time difference may occur due to the time required to capture the first image frame and the second image frame and/or the time for view control to be performed by the view controller (212).
뷰 상태 정보(233)는 특정한 기준점을 기준으로 감시 장치(210)의 카메라 세트(211)가 조정된 정도를 나타낼 수 있다. 자세 제어 시스템(270)은 카메라 세트(211)가 조정된 정도의 기준점을 설정할 수 있다. 자세 제어 시스템(270)은, 객체(201)를 추적하기 전에, 감시 장치(210)의 관성 측정장치(213)로부터 카메라 자세 정보(271)를 입력 받아 카메라 세트(211)의 위치를 조정하며 뷰 제어를 수행할 수 있다. 예를 들어, 자세 제어 시스템(270)은 카메라 세트(211)의 수평 및 정북 지향이 완료될 때까지 카메라 세트(211)를 조정하여 PTZ 제어를 수행할 수 있다. 또한, 예를 들어, 자세 제어 시스템은 카메라 세트(211)의 수평 및 정북 지향이 완료되면, 현재 위치를 기준점으로 하여 현재의 팬(pan), 틸트(tilt) 값을 0으로 설정할 수 있다.The view state information (233) may indicate the degree to which the camera set (211) of the surveillance device (210) is adjusted based on a specific reference point. The attitude control system (270) may set a reference point for the degree to which the camera set (211) is adjusted. The attitude control system (270) may receive camera attitude information (271) from the inertial measurement device (213) of the surveillance device (210) before tracking the object (201), adjust the position of the camera set (211), and perform view control. For example, the attitude control system (270) may perform PTZ control by adjusting the camera set (211) until the horizontal and true north orientation of the camera set (211) is completed. In addition, for example, when the horizontal and true north orientation of the camera set (211) is completed, the attitude control system may set the current pan and tilt values to 0 using the current position as a reference point.
비행 제어 시스템(250)은 객체 GPS 위치 정보 결정 시스템(240)에서 결정된 위치에 기초하는 예시적인 응용 시스템이다. 비행 제어 시스템(250)은 객체 GPS 위치 정보 결정 시스템(240)으로부터 객체 GPS 위치 정보(241) 및 위치 신뢰도 정보(242)를 수신할 수 있다. 비행 제어 시스템(250)은 객체 GPS 위치 정보(241) 및 위치 신뢰도 정보(242)에 기초하여 객체 위치 정보(251)를 결정할 수 있다. 예를 들어, 객체 위치 정보(251)는 객체 GPS 위치 정보(241)와 위치 신뢰도 정보(242)에 기초하는 오차의 합산으로 결정될 수 있다. 드론 시스템(260)은 도 1의 드론(140)을 포함할 수 있다.The flight control system (250) is an exemplary application system based on the position determined by the object GPS position information determination system (240). The flight control system (250) can receive object GPS position information (241) and position reliability information (242) from the object GPS position information determination system (240). The flight control system (250) can determine object position information (251) based on the object GPS position information (241) and the position reliability information (242). For example, the object position information (251) can be determined as the sum of errors based on the object GPS position information (241) and the position reliability information (242). The drone system (260) can include the drone (140) of FIG. 1.
비행 제어 시스템은 객체 위치 정보(251)를 무선 통신 링크를 통하여 드론 시스템(260)에 전송할 수 있다. 드론 시스템(260)은 객체 위치 정보(251)에 기초하여 객체(201)의 위치로 비행을 수행할 수 있다. 드론 시스템(260)은 위치 전송 모듈(261) 및 뷰 컨트롤러(262)를 포함할 수 있다. 드론 시스템(260)은 드론 시스템(260)에 부착된 카메라를 통해 객체(201)를 촬영할 수 있다. 뷰 컨트롤러(262)는 드론 시스템(260)에 부착된 카메라의 뷰 제어를 수행할 수 있다. 일 실시예에서, 드론 시스템(260)의 뷰 컨트롤러(262)는 객체 추적 시스템(230)에 의해 제어될 수 있다. The flight control system can transmit object location information (251) to the drone system (260) via a wireless communication link. The drone system (260) can perform a flight to the location of the object (201) based on the object location information (251). The drone system (260) can include a location transmission module (261) and a view controller (262). The drone system (260) can photograph the object (201) through a camera attached to the drone system (260). The view controller (262) can perform view control of the camera attached to the drone system (260). In one embodiment, the view controller (262) of the drone system (260) can be controlled by the object tracking system (230).
객체(201)에 관한 정보를 포함하는 드론 GPS 정보(263)는 위치 전송 모듈(261)에 의해 비행 제어 시스템(250)으로 전송될 수 있다. 일 실시예에서, 비행 제어 시스템(250)은 드론 시스템(260)으로부터 수신된 드론 GPS 정보(263)를 객체 GPS 위치 정보(241)와 비교하여 객체 위치 정보(251)를 생성할 수 있다. 비행 제어 시스템(250)은 드론 GPS 정보(263)에 기초하여 생성된 객체 위치 정보(251)를 드론 시스템(260)으로 전송하여 비행을 제어할 수 있다.Drone GPS information (263) including information about an object (201) may be transmitted to a flight control system (250) by a location transmission module (261). In one embodiment, the flight control system (250) may compare the drone GPS information (263) received from the drone system (260) with the object GPS location information (241) to generate object location information (251). The flight control system (250) may transmit the object location information (251) generated based on the drone GPS information (263) to the drone system (260) to control the flight.
도 3은 일 실시예에 따른, 객체 추적 시스템의 뷰 컨트롤 중 PTZ 컨트롤 동작을 예시적으로 나타내는 도면이다. 도 3을 참조하면, 객체 추적 시스템은 객체(310)의 객체 중앙(311)이 영상 중앙(304)에 위치하도록, 감시 장치의 PTZ 컨트롤러를 통해 카메라의 팬(pan) 및 틸트(tilt)를 조정한다. 객체 중앙(311)은 객체(310)의 바운딩 박스의 박스 중앙을 나타낼 수 있다. PTZ 컨트롤러는 도 1의 뷰 컨트롤러(112) 및 도 2의 뷰 컨트롤러(212)에 대응할 수 있다. 일 실시예에서, 객체 추적 시스템은, 객체 바운딩 박스의 중앙을 영상(301)의 중앙과 일치시키기 위해, PTZ 컨트롤러를 통해 팬(pan) 및 틸트(tilt)를 조정하여 객체(310)를 추적할 수 있다. 또한, 예를 들어, 객체 추적 시스템은, 객체 바운딩 박스의 박스 크기가 미리 정해진 크기가 되도록, PTZ 컨트롤러를 통해 줌(zoom)을 조정하여 객체(310)를 추적할 수 있다.FIG. 3 is a drawing exemplarily showing a PTZ control operation among view controls of an object tracking system according to one embodiment. Referring to FIG. 3, the object tracking system adjusts the pan and tilt of a camera through a PTZ controller of a surveillance device so that an object center (311) of an object (310) is located at the center (304) of an image. The object center (311) may represent the center of a bounding box of the object (310). The PTZ controller may correspond to the view controller (112) of FIG. 1 and the view controller (212) of FIG. 2. In one embodiment, the object tracking system may track the object (310) by adjusting the pan and tilt through the PTZ controller so as to match the center of the object bounding box with the center of the image (301). Additionally, for example, the object tracking system can track the object (310) by adjusting the zoom via the PTZ controller so that the box size of the object bounding box becomes a predetermined size.
객체 추적 시스템이 객체 바운딩 박스의 중앙이 영상(301)의 중앙과 일치하도록 카메라의 팬(pan) 및 틸트(tilt)를 조정하는 정도인 팬 각도(A) 및 틸트 각도(B)는, 줌(zoom) 조정 후의 현재 화각에 기초하여 아래 수학식 1 및 수학식 2를 통해 결정될 수 있다.The pan angle (A) and tilt angle (B), which are the degrees by which the object tracking system adjusts the pan and tilt of the camera so that the center of the object bounding box coincides with the center of the image (301), can be determined using the following mathematical expressions 1 and 2 based on the current angle of view after zoom adjustment.
A는 팬 각도, B는 틸트 각도를 나타낼 수 있다. P, T는 각각 객체(310)의 객체 중앙(311)으로부터 영상 중앙(304) 까지의 팬 픽셀 수(321) 및 틸트 픽셀 수(322)를 나타낼 수 있다. image_ size_h, image_size_w는 각각 영상 세로 픽셀 수(303) 및 영상 가로 픽셀 수(302)를 나타낼 수 있다. 영상 세로 픽셀 수(303) 및 영상 가로 픽셀 수(302)는 도 2의 객체 인식 정보(221)에 포함될 수 있다. a 및 b는 객체(310)의 속도 및 이동 방향을 고려하여 객체 추적 시스템 내에서 동적으로 부여되는 값일 수 있다. 예를 들어, 객체(310)가 영상 중앙(304)으로부터 오른쪽으로 빠르게 움직이는 경우, a는 양의 값, b는 0의 값이 부여될 수 있다.A may represent a pan angle, and B may represent a tilt angle. P and T may represent a pan pixel count (321) and a tilt pixel count (322) from the object center (311) of the object (310) to the image center (304), respectively. image_size_h and image_size_w may represent an image vertical pixel count (303) and an image horizontal pixel count (302), respectively. The image vertical pixel count (303) and the image horizontal pixel count (302) may be included in the object recognition information (221) of FIG. 2. a and b may be values dynamically assigned within the object tracking system in consideration of the speed and movement direction of the object (310). For example, when the object (310) moves quickly to the right from the image center (304), a may be assigned a positive value and b may be assigned a value of 0.
fov_w는 카메라의 가로 화각, fow_h는 카메라의 세로 화각을 나타낼 수 있다. 일 실시예에서, 도 2의 화각 정보(237)는 가로 화각 및 세로 화각을 포함할 수 있다. 일 실시예에서, 감시 장치의 카메라 세트를 구성하는 하나 이상의 카메라들은 현재의 줌(zoom) 값 및 초점거리를 을 제공할 수 있다. 일 실시예에서, 화각 정보(237)는 뷰 컨트롤러(212)가 줌(zoom)을 수행한 정도에 따라 결정될 수 있다. 일 실시예에서, 초점 거리가 제공된다면, 가로 화각 및 세로 화각은 아래 수학식 3 및 수학식 4를 통해 결정될 수 있다.fov_w may represent a horizontal angle of view of the camera, and fow_h may represent a vertical angle of view of the camera. In one embodiment, the angle of view information (237) of FIG. 2 may include a horizontal angle of view and a vertical angle of view. In one embodiment, one or more cameras constituting the camera set of the surveillance device may provide a current zoom value and a focal length. In one embodiment, the angle of view information (237) may be determined according to the degree to which the view controller (212) has performed a zoom. In one embodiment, if the focal length is provided, the horizontal angle of view and the vertical angle of view may be determined through the following mathematical expressions 3 and 4.
fl 및sensor_size_w는 카메라의 초점 거리 및 카메라의 이미지 센서 가로 크기를 나타낼 수 있다. 다른 실시예에서, 초점거리가 제공되지 않는다면, 초점거리는 아래와 같은 수학식 5에 의해 직접 결정될 수 있다.fl and sensor_size_w may represent the focal length of the camera and the horizontal size of the image sensor of the camera. In another embodiment, if the focal length is not provided, the focal length may be determined directly by the following mathematical expression 5.
fl_max, fl_min은 각각 최대 초점거리 및 최소 초점거리를 나타낼 수 있다. zoom_max, zoom_min은 각각 최대 줌(zoom) 값 및 최소 줌(zoom) 값을 나타낼 수 있다. zoom은 현재의 줌(zoom) 값을 나타낼 수 있다.fl_max and fl_min can represent the maximum and minimum focal length, respectively. zoom_max and zoom_min can represent the maximum and minimum zoom values, respectively. zoom can represent the current zoom value.
객체 추적 시스템이 제1 영상 프레임에 대응하여 PTZ 제어를 수행해도, 객체(310)가 이동함에 따라 제2 영상 프레임 내에서 객체 중앙(311)과 영상 중앙(304)은 일치하지 않을 수 있다. 이에 따라, 객체 추적 시스템은 제2 영상 프레임에 대응하는 PTZ 제어를 재수행할 필요가 있을 수 있다. 예를 들어, 객체 추적 시스템은 제2 영상 프레임에 대응하는 객체 인식정보 및 제1 영상 프레임에 대응하여 카메라가 PTZ 된 정도를 나타내는 PTZ 상태 정보에 기초하여, 객체(310)가 제2 영상 프레임의 중앙에 위치하고, 제2 영상 프레임 내의 객체 바운딩 박스의 박스 크기가 미리 정해진 크기가 되도록, 카메라의 PTZ 제어를 재수행할 수 있다.Even if the object tracking system performs PTZ control corresponding to the first image frame, the object center (311) and the image center (304) within the second image frame may not coincide as the object (310) moves. Accordingly, the object tracking system may need to re-perform PTZ control corresponding to the second image frame. For example, the object tracking system may re-perform PTZ control of the camera based on object recognition information corresponding to the second image frame and PTZ status information indicating the degree to which the camera is PTZ-ed corresponding to the first image frame, such that the object (310) is located at the center of the second image frame and the box size of the object bounding box within the second image frame becomes a predetermined size.
도 4는 일 실시예에 따른, 객체 GPS 위치 정보 결정 시스템이 PTZ 컨트롤에 따른 뷰 상태 정보에 기초하여 영상 중앙 GPS 위치를 결정하는 동작을 예시적으로 나타내는 도면이다. 도 4를 참조하면, 객체 GPS 위치 정보 결정 시스템은 카메라 GPS 위치(411)에 오프셋들(431, 432, 433)을 적용하여 영상 중앙 GPS 위치(412)를 결정한다. 객체 GPS 위치 정보 결정 시스템은 카메라 GPS 위치(411)의 정보 및 객체 거리(420)를 결정할 수 있다. 객체 GPS 위치 정보 결정 시스템은 객체 거리(420), 팬 각도(421), 및 틸트 각도(422)에 기초하여 오프셋들(431, 432, 433)을 결정할 수 있다.FIG. 4 is a diagram exemplarily showing an operation of an object GPS location information determination system determining an image center GPS location based on view state information according to PTZ control, according to one embodiment. Referring to FIG. 4, the object GPS location information determination system determines an image center GPS location (412) by applying offsets (431, 432, 433) to a camera GPS location (411). The object GPS location information determination system can determine information on the camera GPS location (411) and an object distance (420). The object GPS location information determination system can determine the offsets (431, 432, 433) based on the object distance (420), the pan angle (421), and the tilt angle (422).
일 실시예에서, 객체 GPS 위치 정보 결정 시스템은 카메라 GPS 위치(411)를 미리 결정할 수 있다. 객체 GPS 위치 정보 결정 시스템은 PTZ 컨트롤에 따라 카메라의 팬, 틸트가 조정된 정도인 팬 각도(A)(421), 틸트 각도(B)(422)를 뷰 상태 정보로 수신할 수 있다. 팬 각도(421) 및 틸트 각도(422)는 도 2의 자세 제어 시스템(270) 등에 의해 결정된 기준(401, 423)으로부터 일정 방향(402, 403)을 따라 측정될 수 있다. 객체 GPS 위치 정보 결정 시스템은 오프셋들(431, 432, 433)을 결정하는데 이용되는 객체 거리(420)를 결정하기 위해 아래의 수학식 6 및/또는 수학식 7을 이용할 수 있다.In one embodiment, the object GPS location information determination system can predetermine the camera GPS location (411). The object GPS location information determination system can receive a pan angle (A) (421) and a tilt angle (B) (422), which are degrees to which the pan and tilt of the camera are adjusted according to the PTZ control, as view state information. The pan angle (421) and the tilt angle (422) can be measured along a predetermined direction (402, 403) from a reference (401, 423) determined by the attitude control system (270) of FIG. 2, etc. The object GPS location information determination system can use the following mathematical expressions 6 and/or 7 to determine the object distance (420), which is used to determine the offsets (431, 432, 433).
distance는 객체 거리(420)를 나타낼 수 있다. object_size_w, object_size_h는 각각 객체 인식 정보에 포함된 객체의 실제 크기의 가로 픽셀 수, 세로 픽셀 수를 나타낼 수 있다. bb_size_w, bb_size_h는 각각 이동 객체의 객체 바운딩 박스의 박스 크기의 가로 픽셀 수, 세로 픽셀 수를 나타낼 수 있다.distance can represent the object distance (420). object_size_w and object_size_h can represent the number of horizontal pixels and the number of vertical pixels of the actual size of the object included in the object recognition information, respectively. bb_size_w and bb_size_h can represent the number of horizontal pixels and the number of vertical pixels of the box size of the object bounding box of the moving object, respectively.
위도 오프셋(431)은 객체 거리(420)에 cos(B), cos(A) 및 (객체 거리 단위 당 위도 차이 값, diff_LAT)을 곱하여 결정될 수 있다. 경도 오프셋(432)은 객체 거리(420)에 cos(B), sin(A) 및 (객체 거리 단위 당 경도 차이 값, diff_LON)을 곱하여 결정될 수 있다. 고도 오프셋(433)은 객체 거리(420)에 sin(B) 및 (객체 거리 단위 당 고도 차이 값, diff_ALT)을 곱하여 결정될 수 있다. 객체 GPS 위치 결정 시스템은 카메라 GPS 위치(411)의 위도, 경도, 및 고도에 결정된 위도, 경도, 및 고도 오프셋들(431, 432, 433)을 각각 더하여 영상 중앙 GPS 위치(412)를 결정할 수 있다.The latitude offset (431) can be determined by multiplying the object distance (420) by cos(B), cos(A), and (the latitude difference per object distance unit, diff_LAT). The longitude offset (432) can be determined by multiplying the object distance (420) by cos(B), sin(A), and (the longitude difference per object distance unit, diff_LON). The elevation offset (433) can be determined by multiplying the object distance (420) by sin(B) and (the elevation difference per object distance unit, diff_ALT). The object GPS positioning system can determine the image center GPS position (412) by adding the determined latitude, longitude, and elevation offsets (431, 432, 433) to the latitude, longitude, and elevation of the camera GPS position (411), respectively.
도 5는 일 실시예에 따른, 객체 GPS 위치 정보 결정 시스템이 영상 중앙 GPS 위치 정보에 쉬프트 값들을 적용함으로써 객체 GPS 위치 정보를 결정하는 동작을 예시적으로 나타내는 도면이다. 도 5를 참조하면, 객체 GPS 위치 정보 결정 시스템은 영상 중앙(520)과 이동 객체(530)의 객체 중앙(540) 사이의 거리에 기초하여 쉬프트 값들(541, 542)을 결정할 수 있다. 쉬프트 값들(541, 542)은 객체 중앙(540)이 영상 중앙(520)에서 벗어난 정도를 나타낼 수 있다. 객체 GPS 위치 정보 결정 시스템은 쉬프트 값들(541, 542)을 영상 중앙 GPS 위치 정보에 적용하여 이동 객체(530)의 객체 GPS 위치 정보를 결정할 수 있다.FIG. 5 is a diagram exemplarily showing an operation of an object GPS location information determination system determining object GPS location information by applying shift values to image center GPS location information according to one embodiment. Referring to FIG. 5, the object GPS location information determination system can determine shift values (541, 542) based on a distance between an image center (520) and an object center (540) of a moving object (530). The shift values (541, 542) can indicate a degree to which the object center (540) deviates from the image center (520). The object GPS location information determination system can determine object GPS location information of a moving object (530) by applying the shift values (541, 542) to the image center GPS location information.
일 실시예에서, GPS 위치 정보 결정 시스템이 수신한 뷰 상태 정보와 객체 인식 정보는 시간차로 인해 동일한 영상 프레임에 대응하지 않을 수 있다. 예를 들어, 객체 GPS 위치 정보 결정 시스템이 수신한 객체 인식 정보는 제2 영상 프레임에 대응하는 것이며 뷰 상태 정보는 제1 영상 프레임에 대응하는 것일 수 있다. 이에 따라, PTZ 컨트롤을 수행하였음에도 불구하고 제2 영상 프레임 등에 대응하는 영상에서 객체(530)의 객체 중앙(540)은 영상 중앙(520)과 일치하지 않을 수 있다.In one embodiment, the view state information and the object recognition information received by the GPS position information determination system may not correspond to the same image frame due to a time difference. For example, the object recognition information received by the object GPS position information determination system may correspond to the second image frame, and the view state information may correspond to the first image frame. Accordingly, even if the PTZ control is performed, the object center (540) of the object (530) in the image corresponding to the second image frame, etc. may not coincide with the image center (520).
일 실시예에서, 쉬프트 값들(541, 542)은 영상 중앙(520)의 좌표를 (0,0)으로 설정한 후 객체 중앙(x, y)(540)의 좌표로 결정할 수 있다. 일 실시예에서, 카메라의 팬(pan)이 조정된 현재 방향이 정북 또는 정남 방향에 매우 가깝다면, 쉬프트 값들(541, 542)은 경도 쉬프트, 고도 쉬프트에 대응할 수 있다. 다른 실시예에서, 카메라의 팬(pan)이 조정된 현재 방향이 정동 또는 정서 방향에 매우 가깝다면, 쉬프트 값들(541, 542)은 위도 쉬프트, 고도 쉬프트에 대응할 수 있다. 도 5는 카메라의 방향이 정북에 가까워 쉬프트 값들(541, 542)이 경도 쉬프트(541), 고도 쉬프트(542)에 대응하는 실시예를 나타낸다. 일 실시예에서, 카메라의 현재 방향이 정북에 매우 가깝다면, 아래 수학식 8을 통해 영상 중앙 GPS 위치 정보(LAT, LON, ALT)에 쉬프트 값들(x, y)(541, 542)을 적용하여 객체 GPS 위치 정보(, , h)를 결정할 수 있다. 는 객체 GPS의 위도, 는 객체 GPS의 경도, h는 객체 GPS의 고도를 나타낼 수 있다.In one embodiment, the shift values (541, 542) may be determined as the coordinates of the object center (x, y) (540) after setting the coordinates of the image center (520) to (0,0). In one embodiment, if the current direction to which the pan of the camera is adjusted is very close to the due north or due south direction, the shift values (541, 542) may correspond to the longitude shift and the altitude shift. In another embodiment, if the current direction to which the pan of the camera is adjusted is very close to the due east or due west direction, the shift values (541, 542) may correspond to the latitude shift and the altitude shift. FIG. 5 shows an embodiment in which the direction of the camera is close to due north, and thus the shift values (541, 542) correspond to the longitude shift (541) and the altitude shift (542). In one embodiment, if the current direction of the camera is very close to the north, the object GPS location information (LAT, LON, ALT) is obtained by applying the shift values (x, y) (541, 542) to the image center GPS location information (x, y) (541, 542) using the following mathematical expression 8. , , h) can be determined. is the latitude of the object GPS, can represent the longitude of the object GPS, and h can represent the altitude of the object GPS.
도 6은 일 실시예에 따른, 이동 객체의 위치 결정을 위한 방법을 나타내는 플로우 차트이다. 도 6을 참조하면, 단계(601)에서 제어 장치는 카메라로부터 영상 프레임을 수신한다. 제어 장치는 카메라로부터 제2 영상 프레임을 수신할 수 있다. 제어 장치는 객체 GPS 위치 정보에 기초하여 드론 시스템의 비행을 제어할 수 있다. 제어 장치는 드론 시스템으로부터 획득한 드론 GPS 정보에 기초하여 드론 시스템의 비행을 제어할 수 있다.FIG. 6 is a flow chart illustrating a method for determining a position of a moving object according to one embodiment. Referring to FIG. 6, in step (601), a control device receives an image frame from a camera. The control device may receive a second image frame from the camera. The control device may control the flight of the drone system based on object GPS position information. The control device may control the flight of the drone system based on drone GPS information acquired from the drone system.
단계(602)에서 제어 장치는 딥 러닝 기반의 객체 인식을 수행하여 영상 프레임에 포함된 객체의 객체 인식 정보를 결정한다. 객체 인식 정보는 객체의 객체 바운딩 박스에 관한 정보를 포함할 수 있다. 제어 장치는 딥 러닝 기반의 객체 인식을 수행하여 제2 영상 프레임에 포함된 객체의 제2 객체 인식 정보를 결정할 수 있다. 제2 객체 인식 정보는 객체의 제2 객체 바운딩 박스에 관한 정보를 포함할 수 있다.In step (602), the control device performs deep learning-based object recognition to determine object recognition information of an object included in an image frame. The object recognition information may include information about an object bounding box of the object. The control device may perform deep learning-based object recognition to determine second object recognition information of an object included in a second image frame. The second object recognition information may include information about a second object bounding box of the object.
단계(603)에서 제어 장치는 객체 인식 정보에 기초하여 카메라의 뷰 제어를 수행하여 객체를 추적한다. 제어 장치는 객체가 영상 프레임의 중앙에 위치하고, 객체 바운딩 박스의 박스 크기가 미리 정해진 크기가 되도록 카메라의 뷰 제어를 수행할 수 있다. 제어 장치는 영상 프레임의 중앙과 객체 바운딩 박스의 중앙 사이의 거리 및 카메라의 화각에 기초하여 카메라의 팬(pan) 및 틸트(tilt)를 조정하여 객체를 영상 프레임의 중앙에 위치시킬 수 있다. 제어 장치는 뷰 상태 정보에 기초하여, 객체가 제2 영상 프레임의 중앙에 위치하고, 제2 객체 바운딩 박스의 제2 박스 크기가 미리 정해진 크기가 되도록 뷰 제어를 재수행할 수 있다. 제어 장치는 카메라의 뷰 제어를 수행하는 뷰 컨트롤러에서 인식할 수 있는 뷰 제어 신호를 생성할 수 있다. 뷰 상태 정보는 뷰 컨트롤러에 의해 생성된 뷰 상태 신호를 변환하여 생성될 수 있다.In step (603), the control device performs view control of the camera based on object recognition information to track the object. The control device can perform view control of the camera so that the object is located at the center of the image frame and the box size of the object bounding box has a predetermined size. The control device can adjust the pan and tilt of the camera based on the distance between the center of the image frame and the center of the object bounding box and the angle of view of the camera to position the object at the center of the image frame. The control device can re-perform view control based on the view state information so that the object is located at the center of the second image frame and the second box size of the second object bounding box has a predetermined size. The control device can generate a view control signal that can be recognized by a view controller that performs view control of the camera. The view state information can be generated by converting a view state signal generated by the view controller.
단계(604)에서 제어 장치는 뷰 제어로 인해 카메라가 조정된 정도를 나타내는 뷰 상태 정보에 기초하여 객체의 객체 GPS 위치 정보를 결정한다. 제어 장치는 제2 객체 인식 정보에 기초하여 객체 GPS 위치 정보를 결정할 수 있다. 제어 장치는 뷰 상태 정보 및 제2 객체 인식 정보에 기초하여 제2 영상 프레임의 중앙의 영상 중앙 GPS 위치 정보를 결정할 수 있다. 제어 장치는 제2 객체 인식 정보 및 영상 중앙 GPS 위치 정보에 기초하여 객체 GPS 위치 정보를 결정할 수 있다. 제어 장치는 카메라 및 객체 사이의 객체 거리를 결정할 수 있다. 제어 장치는 객체 거리에 기초하여 오프셋들을 결정할 수 있다. 제어 장치는 카메라의 카메라 GPS 위치 정보에 오프셋들을 적용하여 제2 영상 프레임의 중앙의 영상 중앙 GPS 위치 정보를 결정할 수 있다. 제어 장치는 제2 영상 프레임의 중앙과 제2 객체 바운딩 박스의 중앙 사이의 거리에 기초하여 쉬프트 값들을 결정할 수 있다. 제어 장치는 영상 중앙 GPS 위치 정보에 쉬프트 값들을 적용하여 객체 GPS 위치 정보를 결정할 수 있다.In step (604), the control device determines object GPS location information of the object based on view state information indicating the degree to which the camera is adjusted due to the view control. The control device can determine the object GPS location information based on the second object recognition information. The control device can determine image center GPS location information of the center of the second image frame based on the view state information and the second object recognition information. The control device can determine the object GPS location information based on the second object recognition information and the image center GPS location information. The control device can determine the object distance between the camera and the object. The control device can determine offsets based on the object distance. The control device can determine the image center GPS location information of the center of the second image frame by applying the offsets to the camera GPS location information of the camera. The control device can determine shift values based on the distance between the center of the second image frame and the center of the second object bounding box. The control device can determine the object GPS location information by applying the shift values to the image center GPS location information.
그 밖에, 객체 위치 결정 방법에는 도 1 내지 도 5의 설명이 적용될 수 있다.In addition, the description of Figs. 1 to 5 can be applied to the object positioning method.
도 7은 일 실시예에 따른, 이동 객체의 위치를 결정하기 위한 전자 장치의 구성을 나타내는 블록도이다. 도 7을 참조하면, 전자 장치(700)는 하나 이상의 프로세서(710), 메모리(720), 스토리지(730), I/O(input/output) 장치(740) 및 네트워크 인터페이스(750)를 포함할 수 있으며, 이들은 통신 버스(760)를 통해 서로 통신할 수 있다.FIG. 7 is a block diagram illustrating a configuration of an electronic device for determining a position of a moving object according to one embodiment. Referring to FIG. 7, an electronic device (700) may include one or more processors (710), memory (720), storage (730), an I/O (input/output) device (740), and a network interface (750), which may communicate with each other through a communication bus (760).
도 1의 제어 장치가 단일 구성으로 구현될 경우, 전자 장치(700)는 제어 장치에 대응할 수 있다. 도 1의 제어 장치가 도 2의 딥 러닝 기반 객체 인식 시스템(220), 객체 추적 시스템(230), 뷰 제어 신호 변환 시스템(231), 객체 GPS 위치 정보 결정 시스템, 비행 제어 시스템(250) 및 자세 제어 시스템(270)과 같이 여러 구성들로 구현될 경우, 전자 장치(700)는 여러 구성들 각각에 대응할 수 있다.If the control device of Fig. 1 is implemented as a single configuration, the electronic device (700) can correspond to the control device. If the control device of Fig. 1 is implemented as multiple configurations, such as the deep learning-based object recognition system (220), the object tracking system (230), the view control signal conversion system (231), the object GPS location information determination system, the flight control system (250), and the attitude control system (270) of Fig. 2, the electronic device (700) can correspond to each of the multiple configurations.
하나 이상의 프로세서(710)는 메모리(720) 또는 스토리지(730)에 저장된 명령어들을 실행할 수 있다. 명령어들은, 하나 이상의 프로세서(710)에 의하여 실행되는 경우, 전자 장치(700)로 하여금, 도 1 내지 도 6을 통하여 설명된 동작을 수행하게 할 수 있다. 메모리(720)는 컴퓨터 판독가능한 저장 매체 또는 컴퓨터 판독가능한 저장 장치를 포함할 수 있다. 메모리(720)는 하나 이상의 프로세서(710)에 의해 실행하기 위한 명령어들을 저장할 수 있고, 전자 장치(700)에 의해 소프트웨어 및/또는 애플리케이션이 실행되는 동안 관련 정보를 저장할 수 있다. 메모리(720)는 일 실시예의 이동 객체의 위치 결정을 수행하는 제어 프로그램(721)을 저장할 수 있다. 제어 프로그램(721)의 적어도 일부가 메모리(720)에 저장된 상태에서, 전자 장치(700)에 의해 도 1 내지 도 6을 통하여 설명된 동작이 수행될 수 있다.One or more processors (710) can execute instructions stored in memory (720) or storage (730). The instructions, when executed by one or more processors (710), can cause the electronic device (700) to perform operations described with reference to FIGS. 1 to 6. The memory (720) can include a computer-readable storage medium or a computer-readable storage device. The memory (720) can store instructions to be executed by one or more processors (710) and can store related information while software and/or applications are executed by the electronic device (700). The memory (720) can store a control program (721) that performs position determination of a moving object in one embodiment. With at least a portion of the control program (721) stored in the memory (720), the electronic device (700) can perform operations described with reference to FIGS. 1 to 6.
도 1의 제어 장치가 단일 구성으로 구현될 경우, 제어 프로그램(721)은 제어 장치에 대응하는 전자 장치(700)의 메모리(720)에 저장될 수 있고, 도 1의 제어 장치가 여러 구성들로 구현될 경우, 제어 프로그램(721)은 여러 구성들 각각에 대응하는 전자 장치(700)의 메모리(720)에 분산되어 저장될 수 있다.When the control device of FIG. 1 is implemented as a single configuration, the control program (721) can be stored in the memory (720) of the electronic device (700) corresponding to the control device, and when the control device of FIG. 1 is implemented as multiple configurations, the control program (721) can be distributed and stored in the memory (720) of the electronic device (700) corresponding to each of the multiple configurations.
스토리지(730)는 컴퓨터 판독가능한 저장 매체 또는 컴퓨터 판독가능한 저장 장치를 포함할 수 있다. 스토리지(730)는 메모리(720)보다 더 많은 양의 정보를 저장하고, 정보를 장기간 저장할 수 있다. 예를 들어, 스토리지(730)는 자기 하드 디스크, 광 디스크, 플래쉬 메모리, 플로피 디스크 또는 이 기술 분야에서 알려진 다른 형태의 비휘발성 메모리를 포함할 수 있다.Storage (730) can include a computer-readable storage medium or a computer-readable storage device. Storage (730) can store a larger amount of information than memory (720) and can store information for longer periods of time. For example, storage (730) can include a magnetic hard disk, an optical disk, flash memory, a floppy disk, or other forms of non-volatile memory known in the art.
I/O 장치(740)는 키보드 및 마우스를 통한 전통적인 입력 방식, 및 터치 입력, 음성 입력, 및 이미지 입력과 같은 새로운 입력 방식을 통해 사용자로부터 입력을 수신할 수 있다. 예를 들어, I/O 장치(740)는 키보드, 마우스, 터치 스크린, 마이크로폰, 또는 사용자로부터 입력을 검출하고, 검출된 입력을 전자 장치(700)에 전달할 수 있는 임의의 다른 장치를 포함할 수 있다. I/O 장치(740)는 시각적, 청각적 또는 촉각적인 채널을 통해 사용자에게 전자 장치(700)의 출력을 제공할 수 있다. I/O 장치(740)는 예를 들어, 디스플레이, 터치 스크린, 스피커, 진동 발생 장치 또는 사용자에게 출력을 제공할 수 있는 임의의 다른 장치를 포함할 수 있다. 네트워크 인터페이스(750)는 유선 또는 무선 네트워크를 통해 외부 장치와 통신할 수 있다.The I/O device (740) can receive input from a user via traditional input methods such as a keyboard and mouse, and newer input methods such as touch input, voice input, and image input. For example, the I/O device (740) can include a keyboard, a mouse, a touch screen, a microphone, or any other device that can detect input from a user and transmit the detected input to the electronic device (700). The I/O device (740) can provide output of the electronic device (700) to the user via visual, auditory, or tactile channels. The I/O device (740) can include, for example, a display, a touch screen, a speaker, a vibration generating device, or any other device that can provide output to the user. The network interface (750) can communicate with an external device via a wired or wireless network.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다. The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented using a general-purpose computer or a special-purpose computer, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing instructions and responding to them. The processing device may execute an operating system (OS) and software applications running on the OS. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For ease of understanding, the processing device is sometimes described as being used alone, but those skilled in the art will appreciate that the processing device may include multiple processing elements and/or multiple types of processing elements. For example, a processing device may include multiple processors, or a processor and a controller. Other processing configurations, such as parallel processors, are also possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다. The software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing device to perform a desired operation or may independently or collectively command the processing device. The software and/or data may be permanently or temporarily embodied in any type of machine, component, physical device, virtual equipment, computer storage medium or device, or transmitted signal waves, for interpretation by the processing device or for providing instructions or data to the processing device. The software may also be distributed over network-connected computer systems and stored or executed in a distributed manner. The software and data may be stored on a computer-readable recording medium.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 저장할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program commands that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may store program commands, data files, data structures, etc., alone or in combination, and the program commands recorded on the medium may be those specially designed and configured for the embodiment or may be those known to and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and hardware devices specially configured to store and execute program commands such as ROMs, RAMs, and flash memories. Examples of program commands include not only machine language codes generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter, etc.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. Although the embodiments have been described with limited drawings as described above, those skilled in the art can apply various technical modifications and variations based on them. For example, even if the described techniques are performed in a different order than the described method, and/or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or are replaced or substituted by other components or equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also included in the scope of the claims described below.
Claims (20)
딥 러닝 기반의 객체 인식을 수행하여 상기 영상 프레임에 포함된 객체의 객체 인식 정보를 결정하는 단계;
상기 객체 인식 정보에 기초하여 상기 제1 카메라의 뷰 제어(view control)를 수행하여 상기 객체를 추적하는 단계;
상기 뷰 제어로 인해 상기 제1 카메라가 조정된 정도를 나타내는 뷰 상태 정보에 기초하여 상기 객체의 제1 객체 GPS 위치 정보를 결정하는 단계;
상기 제1 객체 GPS 위치 정보에 기초하여 제2 카메라를 포함하는 드론 시스템의 비행을 제어하는 단계;
상기 드론 시스템으로부터 상기 제2 카메라를 이용하여 결정된 객체 감시 정보를 수신하는 단계;
상기 제1 객체 GPS 위치 정보 및 상기 객체 감시 정보에 기초하여 제2 객체 GPS 위치 정보를 생성하는 단계; 및
상기 제2 객체 GPS 위치 정보에 기초하여 상기 드론 시스템의 비행을 제어하는 단계
를 포함하는, 객체 위치 결정 방법.A step of receiving a video frame from a first camera;
A step of performing deep learning-based object recognition to determine object recognition information of an object included in the image frame;
A step of tracking the object by performing view control of the first camera based on the object recognition information;
A step of determining first object GPS location information of the object based on view state information indicating the degree to which the first camera is adjusted due to the view control;
A step of controlling the flight of a drone system including a second camera based on the first object GPS location information;
A step of receiving object surveillance information determined using the second camera from the drone system;
A step of generating second object GPS location information based on the first object GPS location information and the object surveillance information; and
A step for controlling the flight of the drone system based on the second object GPS location information.
A method for determining an object position, comprising:
상기 객체 인식 정보는
상기 객체의 객체 바운딩 박스에 관한 정보를 포함하고,
상기 객체를 추적하는 단계는
상기 객체가 상기 영상 프레임의 중앙에 위치하고, 상기 객체 바운딩 박스의 박스 크기가 미리 정해진 크기가 되도록 상기 제1 카메라의 상기 뷰 제어를 수행하는 단계를 포함하는,
객체 위치 결정 방법.In the first paragraph,
The above object recognition information
Contains information about the object bounding box of the above object,
The steps to track the above object are:
A step of performing view control of the first camera so that the object is positioned at the center of the image frame and the box size of the object bounding box becomes a predetermined size,
How to determine the position of an object.
상기 뷰 제어를 수행하는 단계는
상기 영상 프레임의 중앙과 상기 객체 바운딩 박스의 중앙 사이의 거리 및 상기 제1 카메라의 화각에 기초하여 상기 제1 카메라의 팬(pan) 및 틸트(tilt)를 조정하여 상기 객체를 상기 영상 프레임의 중앙에 위치시키는 단계를 포함하는,
객체 위치 결정 방법.In the second paragraph,
The steps to perform the above view control are:
A step of positioning the object at the center of the image frame by adjusting the pan and tilt of the first camera based on the distance between the center of the image frame and the center of the object bounding box and the angle of view of the first camera,
How to determine the position of an object.
상기 제1 카메라로부터 상기 영상 프레임 다음의 제2 영상 프레임을 수신하는 단계; 및
상기 딥 러닝 기반의 상기 객체 인식을 수행하여 상기 제2 영상 프레임에 포함된 상기 객체의 제2 객체 인식 정보를 결정하는 단계
를 더 포함하고,
상기 제2 객체 인식 정보는
상기 객체의 제2 객체 바운딩 박스에 관한 정보를 포함하고,
상기 객체를 추적하는 단계는
상기 뷰 상태 정보에 기초하여, 상기 객체가 상기 제2 영상 프레임의 중앙에 위치하고, 상기 제2 객체 바운딩 박스의 제2 박스 크기가 상기 미리 정해진 크기가 되도록 상기 제1 카메라의 상기 뷰 제어를 재수행하는 단계
를 더 포함하는, 객체 위치 결정 방법.In the second paragraph,
A step of receiving a second image frame following the image frame from the first camera; and
A step of performing the object recognition based on the deep learning described above to determine second object recognition information of the object included in the second image frame.
Including more,
The above second object recognition information
Contains information about the second object bounding box of the above object,
The steps to track the above object are:
A step of re-performing the view control of the first camera based on the view state information so that the object is located at the center of the second image frame and the size of the second box of the second object bounding box becomes the predetermined size.
A method for determining an object position, the method further comprising:
상기 객체를 추적하는 단계는
상기 제1 카메라의 상기 뷰 제어를 수행하는 뷰 컨트롤러에서 인식할 수 있는 뷰 제어 신호를 생성하는 단계를 포함하고,
상기 뷰 상태 정보는
상기 뷰 컨트롤러에 의해 생성된 뷰 상태 신호를 변환하여 생성되는,
객체 위치 결정 방법.In the first paragraph,
The steps to track the above object are:
A step of generating a view control signal recognizable by a view controller that performs the view control of the first camera,
The above view state information is
Generated by converting the view state signal generated by the above view controller.
How to determine the position of an object.
상기 제1 카메라로부터 상기 영상 프레임 다음의 제2 영상 프레임을 수신하는 단계; 및
상기 딥 러닝 기반의 상기 객체 인식을 수행하여 상기 제2 영상 프레임에 포함된 상기 객체의 제2 객체 인식 정보를 결정하는 단계
를 더 포함하고,
상기 제1 객체 GPS 위치 정보를 결정하는 단계는
상기 제2 객체 인식 정보에 더 기초하여 수행되는,
객체 위치 결정 방법.In the first paragraph,
A step of receiving a second image frame following the image frame from the first camera; and
A step of performing the object recognition based on the deep learning described above to determine second object recognition information of the object included in the second image frame.
Including more,
The step of determining the first object GPS location information is
Further performed based on the second object recognition information,
How to determine the position of an object.
상기 제1 객체 GPS 위치 정보를 결정하는 단계는
상기 뷰 상태 정보 및 상기 제2 객체 인식 정보에 기초하여 상기 제2 영상 프레임의 중앙의 영상 중앙 GPS 위치 정보를 결정하는 단계; 및
상기 제2 객체 인식 정보 및 상기 영상 중앙 GPS 위치 정보에 기초하여 상기 제1 객체 GPS 위치 정보를 결정하는 단계
를 포함하는, 객체 위치 결정 방법.In Article 6,
The step of determining the first object GPS location information is
A step of determining image center GPS location information of the center of the second image frame based on the view state information and the second object recognition information; and
A step of determining the first object GPS location information based on the second object recognition information and the image center GPS location information.
A method for determining an object position, comprising:
상기 영상 중앙 GPS 위치 정보를 결정하는 단계는
상기 제1 카메라 및 상기 객체 사이의 객체 거리를 결정하는 단계;
상기 객체 거리에 기초하여 오프셋들을 결정하는 단계; 및
상기 제1 카메라의 카메라 GPS 위치 정보에 상기 오프셋들을 적용하여 상기 제2 영상 프레임의 중앙의 영상 중앙 GPS 위치 정보를 결정하는 단계
를 포함하는, 객체 위치 결정 방법.In Article 7,
The step of determining the above image center GPS location information is
A step of determining an object distance between the first camera and the object;
a step of determining offsets based on the object distance; and
A step of applying the offsets to the camera GPS location information of the first camera to determine the image center GPS location information of the center of the second image frame.
A method for determining an object position, comprising:
상기 제2 객체 인식 정보는
상기 객체의 제2 객체 바운딩 박스에 관한 정보를 포함하고,
상기 영상 중앙 GPS 위치 정보에 기초하여 상기 제1 객체 GPS 위치 정보를 결정하는 단계는
상기 제2 영상 프레임의 상기 중앙과 상기 제2 객체 바운딩 박스의 중앙 사이의 거리에 기초하여 쉬프트 값들을 결정하는 단계; 및
상기 영상 중앙 GPS 위치 정보에 상기 쉬프트 값들을 적용하여 상기 제1 객체 GPS 위치 정보를 결정하는 단계
를 포함하는, 객체 위치 결정 방법.In Article 7,
The above second object recognition information
Contains information about the second object bounding box of the above object,
The step of determining the first object GPS location information based on the image center GPS location information
A step of determining shift values based on the distance between the center of the second image frame and the center of the second object bounding box; and
A step of determining the first object GPS location information by applying the shift values to the image center GPS location information.
A method for determining an object position, comprising:
하나 이상의 프로세서; 및
상기 하나 이상의 프로세서에서 실행가능한 명령어들을 포함하는 메모리
를 포함하고,
상기 하나 이상의 프로세서에 의해 상기 명령어들이 실행되면, 상기 명령어들은 상기 제어 장치로 하여금,
제1 카메라로부터 영상 프레임을 수신하고,
딥 러닝 기반의 객체 인식을 수행하여 상기 영상 프레임에 포함된 객체의 객체 인식 정보를 결정하고,
상기 객체 인식 정보에 기초하여 상기 제1 카메라의 뷰 제어(view control)를 수행하여 상기 객체를 추적하고,
상기 뷰 제어로 인해 상기 제1 카메라가 조정된 정도를 나타내는 뷰 상태 정보에 기초하여 상기 객체의 제1 객체 GPS 위치 정보를 결정하고,
상기 제1 객체 GPS 위치 정보에 기초하여 제2 카메라를 포함하는 드론 시스템의 비행을 제어하고,
상기 드론 시스템으로부터 상기 제2 카메라를 이용하여 결정된 객체 감시 정보를 수신하고,
상기 제1 객체 GPS 위치 정보 및 상기 객체 감시 정보에 기초하여 제2 객체 GPS 위치 정보를 생성하고,
상기 제2 객체 GPS 위치 정보에 기초하여 상기 드론 시스템의 비행을 제어하도록 하는,
제어 장치.In a control device that performs object positioning,
one or more processors; and
Memory containing instructions executable by one or more of said processors
Including,
When the instructions are executed by the one or more processors, the instructions cause the control device to:
Receive video frames from the first camera,
Perform deep learning-based object recognition to determine object recognition information of the object included in the image frame,
Tracking the object by performing view control of the first camera based on the object recognition information,
Determining first object GPS location information of the object based on view state information indicating the degree to which the first camera is adjusted due to the view control;
Controlling the flight of a drone system including a second camera based on the first object GPS location information,
Receive object surveillance information determined using the second camera from the drone system,
Generate second object GPS location information based on the first object GPS location information and the object surveillance information,
Controlling the flight of the drone system based on the second object GPS location information;
controller.
상기 객체 인식 정보는
상기 객체의 객체 바운딩 박스에 관한 정보를 포함하고,
상기 하나 이상의 프로세서에 의해 상기 명령어들이 실행되면, 상기 명령어들은 상기 제어 장치로 하여금, 상기 객체를 추적하기 위해,
상기 객체가 상기 영상 프레임의 중앙에 위치하고, 상기 객체 바운딩 박스의 박스 크기가 미리 정해진 크기가 되도록 상기 제1 카메라의 상기 뷰 제어를 수행하도록 하는,
제어 장치.In Article 13,
The above object recognition information
Contains information about the object bounding box of the above object,
When the instructions are executed by the one or more processors, the instructions cause the control device to: track the object;
To perform the view control of the first camera so that the object is located at the center of the image frame and the box size of the object bounding box is a predetermined size.
controller.
상기 하나 이상의 프로세서에 의해 상기 명령어들이 실행되면, 상기 명령어들은 상기 제어 장치로 하여금, 상기 뷰 제어를 수행하기 위해,
상기 영상 프레임의 중앙과 상기 객체 바운딩 박스의 중앙 사이의 거리 및 상기 제1 카메라의 화각에 기초하여 상기 제1 카메라의 팬(pan) 및 틸트(tilt)를 조정하여 상기 객체를 상기 영상 프레임의 중앙에 위치시키도록 하는,
제어 장치.In Article 14,
When the instructions are executed by the one or more processors, the instructions cause the control device to perform the view control.
Adjusting the pan and tilt of the first camera based on the distance between the center of the image frame and the center of the object bounding box and the angle of view of the first camera to position the object at the center of the image frame.
controller.
상기 하나 이상의 프로세서에 의해 상기 명령어들이 실행되면, 상기 명령어들은 상기 제어 장치로 하여금,
상기 제1 카메라로부터 상기 영상 프레임 다음의 제2 영상 프레임을 수신하고,
상기 딥 러닝 기반의 상기 객체 인식을 수행하여 상기 제2 영상 프레임에 포함된 상기 객체의 제2 객체 인식 정보를 결정하고,
상기 제2 객체 인식 정보에 더 기초하여 상기 제1 객체 GPS 위치 정보를 결정하도록 하는,
제어 장치.In Article 13,
When the instructions are executed by the one or more processors, the instructions cause the control device to:
Receive a second video frame following the video frame from the first camera,
Performing the object recognition based on the deep learning described above to determine second object recognition information of the object included in the second image frame,
To determine the first object GPS location information based further on the second object recognition information;
controller.
상기 하나 이상의 프로세서에 의해 상기 명령어들이 실행되면, 상기 명령어들은 상기 제어 장치로 하여금, 상기 제1 객체 GPS 위치 정보를 결정하기 위해,
상기 뷰 상태 정보 및 상기 제2 객체 인식 정보에 기초하여 상기 제2 영상 프레임의 중앙의 영상 중앙 GPS 위치 정보를 결정하고,
상기 제2 객체 인식 정보 및 상기 영상 중앙 GPS 위치 정보에 기초하여 상기 제1 객체 GPS 위치 정보를 결정하도록 하는,
제어 장치.In Article 16,
When the instructions are executed by the one or more processors, the instructions cause the control device to determine the first object GPS location information.
Determine the image center GPS location information of the center of the second image frame based on the view state information and the second object recognition information,
Determine the first object GPS location information based on the second object recognition information and the image center GPS location information.
controller.
상기 하나 이상의 프로세서에 의해 상기 명령어들이 실행되면, 상기 명령어들은 상기 제어 장치로 하여금, 상기 영상 중앙 GPS 위치 정보를 결정하기 위해,
상기 제1 카메라 및 상기 객체 사이의 객체 거리를 결정하고,
상기 객체 거리에 기초하여 오프셋들을 결정하고,
상기 제1 카메라의 카메라 GPS 위치 정보에 상기 오프셋들을 적용하여 상기 제2 영상 프레임의 중앙의 영상 중앙 GPS 위치 정보를 결정하도록 하는,
제어 장치.In Article 17,
When the instructions are executed by the one or more processors, the instructions cause the control device to determine the image center GPS location information.
Determining the object distance between the first camera and the object,
Determine the offsets based on the above object distances,
Applying the offsets to the camera GPS location information of the first camera to determine the image center GPS location information of the center of the second image frame.
controller.
상기 제2 객체 인식 정보는
상기 객체의 제2 객체 바운딩 박스에 관한 정보를 포함하고,
상기 하나 이상의 프로세서에 의해 상기 명령어들이 실행되면, 상기 명령어들은 상기 제어 장치로 하여금, 상기 영상 중앙 GPS 위치 정보에 기초하여 상기 제1 객체 GPS 위치 정보를 결정하기 위해,
상기 제2 영상 프레임의 상기 중앙과 상기 제2 객체 바운딩 박스의 중앙 사이의 거리에 기초하여 쉬프트 값들을 결정하고,
상기 영상 중앙 GPS 위치 정보에 상기 쉬프트 값들을 적용하여 상기 제1 객체 GPS 위치 정보를 결정하도록 하는,
제어 장치.In Article 17,
The above second object recognition information
Contains information about the second object bounding box of the above object,
When the instructions are executed by the one or more processors, the instructions cause the control device to determine the first object GPS location information based on the image center GPS location information.
Determine shift values based on the distance between the center of the second image frame and the center of the second object bounding box,
To determine the first object GPS location information by applying the shift values to the above image center GPS location information,
controller.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US18/943,793 US20250157049A1 (en) | 2023-11-09 | 2024-11-11 | Method and apparatus for determining position of moving object |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020230154309 | 2023-11-09 | ||
| KR20230154309 | 2023-11-09 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20250068498A KR20250068498A (en) | 2025-05-16 |
| KR102836813B1 true KR102836813B1 (en) | 2025-07-22 |
Family
ID=95913107
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020240138454A Active KR102836813B1 (en) | 2023-11-09 | 2024-10-11 | Method and apparatus for positioning of moving object |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102836813B1 (en) |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003097914A (en) * | 2001-09-25 | 2003-04-03 | Nippon Hoso Kyokai <Nhk> | Position detecting device and position detecting program |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102470464B1 (en) * | 2016-07-19 | 2022-11-24 | 한화테크윈 주식회사 | Monitoring system wherein location of object is displayed on map |
| KR20230068761A (en) * | 2021-11-11 | 2023-05-18 | 한국항공우주연구원 | Method and apparatus for acquiring stereo images based on multiple unmanned aerial vehicles |
-
2024
- 2024-10-11 KR KR1020240138454A patent/KR102836813B1/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003097914A (en) * | 2001-09-25 | 2003-04-03 | Nippon Hoso Kyokai <Nhk> | Position detecting device and position detecting program |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20250068498A (en) | 2025-05-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20210116943A1 (en) | Systems and methods for uav interactive instructions and control | |
| US10447912B2 (en) | Systems, methods, and devices for setting camera parameters | |
| US10375289B2 (en) | System and method for providing autonomous photography and videography | |
| JP6943988B2 (en) | Control methods, equipment and systems for movable objects | |
| US20170371353A1 (en) | Automatic Tracking Mode For Controlling An Unmanned Aerial Vehicle | |
| US20190064794A1 (en) | Systems and methods for uav flight control | |
| CN112567201A (en) | Distance measuring method and apparatus | |
| KR101959366B1 (en) | Mutual recognition method between UAV and wireless device | |
| JP6265576B1 (en) | Imaging control apparatus, shadow position specifying apparatus, imaging system, moving object, imaging control method, shadow position specifying method, and program | |
| CN113508351A (en) | Control method, intelligent glasses, movable platform, holder, control system and computer-readable storage medium | |
| JP7501535B2 (en) | Information processing device, information processing method, and information processing program | |
| US20190116309A1 (en) | Overhead line image capturing system and overhead line image capturing method | |
| US20210120171A1 (en) | Determination device, movable body, determination method, and program | |
| CN111247389A (en) | Data processing method, device and image processing device for photographing equipment | |
| CN110139038A (en) | It is a kind of independently to surround image pickup method, device and unmanned plane | |
| JP6515423B2 (en) | CONTROL DEVICE, MOBILE OBJECT, CONTROL METHOD, AND PROGRAM | |
| US20180202831A1 (en) | Auxiliary control method and system for unmanned aerial vehicle | |
| KR102836813B1 (en) | Method and apparatus for positioning of moving object | |
| US10778899B2 (en) | Camera control apparatus | |
| KR102181809B1 (en) | Apparatus and method for checking facility | |
| US20250157049A1 (en) | Method and apparatus for determining position of moving object | |
| WO2020088397A1 (en) | Position estimation apparatus, position estimation method, program, and recording medium | |
| JP2024016765A (en) | Processing device, processing program and processing method | |
| WO2022000211A1 (en) | Photography system control method, device, movable platform, and storage medium | |
| US20210218879A1 (en) | Control device, imaging apparatus, mobile object, control method and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PA0302 | Request for accelerated examination |
St.27 status event code: A-1-2-D10-D17-exm-PA0302 St.27 status event code: A-1-2-D10-D16-exm-PA0302 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| F11 | Ip right granted following substantive examination |
Free format text: ST27 STATUS EVENT CODE: A-2-4-F10-F11-EXM-PR0701 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| U11 | Full renewal or maintenance fee paid |
Free format text: ST27 STATUS EVENT CODE: A-2-2-U10-U11-OTH-PR1002 (AS PROVIDED BY THE NATIONAL OFFICE) Year of fee payment: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| Q13 | Ip right document published |
Free format text: ST27 STATUS EVENT CODE: A-4-4-Q10-Q13-NAP-PG1601 (AS PROVIDED BY THE NATIONAL OFFICE) |