KR102201168B1 - Method for tracking a person using an overhead camera - Google Patents
Method for tracking a person using an overhead camera Download PDFInfo
- Publication number
- KR102201168B1 KR102201168B1 KR1020180167679A KR20180167679A KR102201168B1 KR 102201168 B1 KR102201168 B1 KR 102201168B1 KR 1020180167679 A KR1020180167679 A KR 1020180167679A KR 20180167679 A KR20180167679 A KR 20180167679A KR 102201168 B1 KR102201168 B1 KR 102201168B1
- Authority
- KR
- South Korea
- Prior art keywords
- person
- equation
- tracking
- cluster
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 사람 추적 장치를 개시하여, 영상 내에 존재하는 사람을 검출하고, 상기 검출된 사람이 위치한 클러스터를 반환하는 단계, 상기 클러스터 각각에 대하여 하기 (수학식 1)로 표현되는 클러스터 객체()를 생성하는 단계, 각 클러스터 객체()마다 하기 (수학식 2)으로 표현되는 추적 객체()를 생성하는 단계, 상기 추적 객체()를 통하여 하기 (수학식 3)으로 표현되는 추적 오브젝터 목록()을 생성하는 단계, 상기 추적 오브젝터 목록()에서 다음 프레임의 동일한 영역 내 추적 객체를 선택하여, 상기 다음 프레임에서 선택된 추적 객체의 위치를 추정하는 단계, 상기 다음 프레임의 탐색 영역()을 하기 (수학식 4)와 같이 계산하는 단계 및 상기 다음 프레임의 탐색 영역 내에 존재하는 사람을 검출하는 단계를 포함한다.
본 발명은 정지된 사람을 오랜 시간 동안 탐지하는 것이 가능하고, 가려진 것을 처리하는 것, 환경의 급격한 변화를 가져오는 것 등을 보정하여 추적을 효과적이고 정확하게 수행할 수 있다.The present invention discloses a person tracking apparatus, detecting a person present in an image, and returning a cluster in which the detected person is located, a cluster object represented by the following (Equation 1) for each of the clusters ( ) To create each cluster object ( ) For each tracking object represented by the following (Equation 2) ( ), the tracking object ( ) Through the list of tracking objects represented by the following (Equation 3) ( ) Generating, the tracking object list ( Selecting a tracking object in the same area of the next frame in ), estimating the position of the selected tracking object in the next frame, the search area of the next frame ( ) As follows (Equation 4), and detecting a person present in the search area of the next frame.
According to the present invention, it is possible to detect a stationary person for a long time, and to perform tracking effectively and accurately by correcting for processing a hidden object, causing a sudden change in environment, and the like.
Description
본 발명은 오버헤드 카메라를 이용한 사람 추적 방법에 관한 것으로, 더욱 상세하게는 이미지와 비디오를 분석하여 사람을 추적 및 식별하는 방법에 관한 것이다.The present invention relates to a method for tracking a person using an overhead camera, and more particularly, to a method for tracking and identifying a person by analyzing images and videos.
현재의 비디오 분석 기술은 연구 및 기술 개발을 통해 사물 인터넷을 빠르게 변화시키고 있으며, 이에 따라 새로운 기회를 창출하고 있다. 비디오 분석에서 얻어지는 이미지 및 비디오에 기계 학습 알고리즘을 사용하여 카메라가 사람 및 기타 움직이는 물체를 자동으로 인식 할 수 있도록 하는 것은 사물인터넷(IoT)의 응용 분야 중 하나라고 할 수 있다.The current video analysis technology is rapidly changing the Internet of Things through research and technology development, thereby creating new opportunities. It can be said that one of the application fields of the Internet of Things (IoT) is to enable the camera to automatically recognize people and other moving objects by using machine learning algorithms on images and videos obtained from video analysis.
이러한 사물인터넷(IoT)과 컴퓨터에서의 연구 분야 중 하나는 이미지와 비디오에서 사람들을 추적하고 식별하는 기술이다. 사람을 추적하는 기술은 운전 보조 시스템, 사람의 걷기 행동 분석 및 감시 시스템 등과 같은 영역에 적용될 수 있다.One of these areas of research in the Internet of Things (IoT) and computers is the technology of tracking and identifying people in images and videos. The technology of tracking a person can be applied to areas such as driving assistance systems, human walking behavior analysis and monitoring systems, and the like.
한편, 산업 현장에서 근무하는 근로자의 다양한 형세를 관찰하여 실제 환경에서의 작업 흐름을 분석하고자 하는 경우 사람을 식별 및 추적하는 기술이 이용될 수 있다. 이 경우, 사이드/노말 뷰(side/normal view) 또는 오버헤드 뷰(overhead view) 카메라가 이용될 수 있는데, 일반적으로 오버헤드 뷰 카메라가 보다 정확하게 움직임을 추적할 수 있다.On the other hand, when it is desired to analyze the work flow in an actual environment by observing various situations of workers working in industrial sites, a technology for identifying and tracking people can be used. In this case, a side/normal view or an overhead view camera may be used. In general, an overhead view camera may more accurately track the movement.
도 1의 (a)는 사이드/노말 뷰(side/normal view)를 통해 얻은 사람들의 이미지이고, 도 1의 (b)는 오버헤드 뷰(overhead view)를 통해 얻은 사람들의 이미지이다. 도 1 (a)와 (b)는 서로 다른 두 대의 카메라를 통해 동일한 장면을 동시에 촬영한 이미지이다. FIG. 1(a) is an image of people obtained through a side/normal view, and FIG. 1(b) is an image of people obtained through an overhead view. 1 (a) and (b) are images of the same scene simultaneously captured by two different cameras.
도 1의 (a), (b)에서 사람들은 흰 타원으로 표시되었다. 도 1의 (a)를 참조하면, 사람들이 기계, 전선 및 선반 부분 등 다양한 장비로 가려진 것을 확인할 수 있다. 사이드/노말 뷰(side/normal view)를 이용하는 경우, 사람들의 움직임을 완전히 파악할 수 없는데, 예를 들어, 큰 기계 뒤에서 일하는 경우에는 사람을 식별하기 어렵다. 이 경우, 사람들을 식별하고 움직임을 파악하는 것이 매우 어렵다.In (a) and (b) of Fig. 1, people are represented by white ellipses. Referring to Figure 1 (a), it can be seen that people are covered with various equipment such as machines, electric wires, and shelf parts. In the case of using the side/normal view, it is not possible to fully grasp the movement of people. For example, when working behind a large machine, it is difficult to identify the person. In this case, it is very difficult to identify people and identify movements.
도 1의 (b)는 넓은 각도의 렌즈가 구비된 오버헤드 뷰(overhad view, 또는 top view) 카메라를 사용하여 촬영된 이미지를 도시한 것이다. 도 1의 (b)를 참조하면, 넓은 각도의 렌즈가 구비된 오버헤드 카메라가 사용되어 기계 등에 의해 가려져 있는 사람들의 이미지가 명확히 파악되는 것을 확인할 수 있다. 이와 같이, 오버헤드 뷰 카메라가 사용되는 경우, 가려지거나 어수선한 환경에서도 객체를 보다 명확하고 분명하게 투사할 수 있다.1B illustrates an image captured using an overhead view (or top view) camera equipped with a wide-angle lens. Referring to (b) of FIG. 1, it can be seen that an overhead camera equipped with a wide-angle lens is used so that images of people covered by a machine or the like can be clearly grasped. In this way, when an overhead view camera is used, objects can be projected more clearly and clearly even in a hidden or cluttered environment.
한편, 사람을 추적하는 과정을 어렵게 하는 요인으로는 이미지의 노이즈, 물체 모양의 변화, 물체의 급작스러운 움직임. 카메라의 동작 등이 있다. 종래의 사람 추적 방법은 상기의 문제점을 완전히 해결하지 못해 정확도가 매우 떨어진다는 문제점이 있었다.On the other hand, factors that make the process of tracking people difficult are noise in images, changes in the shape of objects, and sudden movements of objects. Such as camera movement. The conventional human tracking method has a problem in that the accuracy is very poor because the above problem cannot be completely solved.
상기의 문제점을 해결하고자 본 발명은 오버헤드 카메라를 이용하여 높은 정확도가 나타나는 사람 추적 방법을 제공하는 것을 목적으로 한다.In order to solve the above problems, an object of the present invention is to provide a method for tracking a person with high accuracy using an overhead camera.
상기 기술적 과제를 해결하기 위하여 본 발명은 사람 추적 장치를 개시하여, 영상 내에 존재하는 사람을 검출하고, 상기 검출된 사람이 위치한 클러스터를 반환하는 단계, 상기 클러스터 각각에 대하여 하기 (수학식 1)로 표현되는 클러스터 객체()를 생성하는 단계, 각 클러스터 객체()마다 하기 (수학식 2)으로 표현되는 추적 객체()를 생성하는 단계, 상기 추적 객체()를 통하여 하기 (수학식 3)으로 표현되는 추적 오브젝터 목록()을 생성하는 단계, 상기 추적 오브젝터 목록()에서 다음 프레임의 동일한 영역 내 추적 객체를 선택하여, 상기 다음 프레임에서 선택된 추적 객체의 위치를 추정하는 단계, 상기 다음 프레임의 탐색 영역()을 하기 (수학식 4)와 같이 계산하는 단계 및 상기 다음 프레임의 탐색 영역 내에 존재하는 사람을 검출하는 단계를 포함한다.In order to solve the above technical problem, the present invention discloses a person tracking device, detects a person present in an image, and returns a cluster in which the detected person is located, as follows (Equation 1) for each of the clusters. The represented cluster object ( ) To create each cluster object ( ) For each tracking object represented by the following (Equation 2) ( ), the tracking object ( ) Through the list of tracking objects represented by the following (Equation 3) ( ) Generating, the tracking object list ( Selecting a tracking object in the same area of the next frame in ), estimating the position of the selected tracking object in the next frame, the search area of the next frame ( ) As follows (Equation 4), and detecting a person present in the search area of the next frame.
또한 상기 클러스터 객체를 생성하는 단계 이후, 상기 클러스터 객체를 통하여 하기 (수학식 5)로 표현되는 클러스터 오브젝터 목록()을 생성하는 단계를 더 포함하는 것을 특징으로 한다.In addition, after the step of creating the cluster object, a list of cluster objects represented by the following (Equation 5) through the cluster object ( It characterized in that it further comprises the step of generating ).
또한 상기 추적 객체의 위치는 하기 (수학식 6)를 통해 계산되는 추적 객체의 속도() 및 속력()을 기초로 추정되는 것을 특징으로 한다.In addition, the location of the tracking object is the speed of the tracking object calculated through the following (Equation 6) ( ) And speed ( It is characterized in that it is estimated based on ).
또한 상기 추적 객체의 위치는 하기 (수학식 7)으로 추정되는 것을 특징으로 한다.In addition, the location of the tracking object is characterized in that it is estimated by the following (Equation 7).
또한 상기 다음 프레임의 탐색 영역내에 존재하는 사람을 검출하는 단계 이후 (a) 사람이 검출되지 않는 경우, 해당 추적 객체를 제거하고, (b) 사람이 검출되는 경우, 이전의 위치와 현재 위치의 거리를 비교하여, (b-1) 상기 거리가 40 픽셀 이하라면 추적 객체 및 클러스터의 중심을 업데이트하고, (b-2) 상기 거리가 40 픽셀보다 크다면 새로운 추적 객체를 생성하는 단계를 더 포함하는 것을 특징으로 한다.In addition, after the step of detecting a person in the search area of the next frame (a) if a person is not detected, the tracking object is removed, and (b) if a person is detected, the distance between the previous location and the current location Comparing, (b-1) updating the center of the tracking object and the cluster if the distance is less than 40 pixels, (b-2) generating a new tracking object if the distance is greater than 40 pixels. It features.
또한 상기 사람을 검출하는 과정은, 하기 (수학식 8)을 통하여 모션맵 이미지를 얻는 단계, 상기 모션맵 이미지를 8 × 8 픽셀의 하위 영역들로 나누고, 상기 하위 영역들의 픽셀 강도 값을 합산하는 단계 및 하기 (수학식 9)를 통하여 사람을 검출하는 단계로 수행되는 것을 특징으로 한다.In addition, the process of detecting the person includes obtaining a motion map image through the following (Equation 8), dividing the motion map image into sub-areas of 8 × 8 pixels, and summing the pixel intensity values of the sub-areas. It characterized in that it is carried out in the step of detecting a person through the step and the following (Equation 9).
본 발명의 실시 예들에 따른 오버헤드 카메라를 이용한 사람 추적 방법 의 효과에 대해 설명하면 다음과 같다.An effect of a method for tracking a person using an overhead camera according to embodiments of the present invention will be described as follows.
본 발명은 종래의 방법의 정확도(48 %)에 비하여, 높은 정확도(약 99 %)가 나타날 수 있다.Compared to the accuracy of the conventional method (48%), the present invention can exhibit high accuracy (about 99%).
또한 본 발명은 종래의 방법과는 달리, 추가적으로 사람이 존재 유무까지 정확하게 식별할 수 있다. In addition, unlike the conventional method, the present invention can further accurately identify the presence or absence of a person.
또한 본 발명은 정지된 사람을 오랜 시간 동안 탐지하는 것이 가능하고, 가려진 것을 처리하는 것, 환경의 급격한 변화를 가져오는 것등을 보정하여 추적을 효과적이고 정확하게 수행할 수 있다.In addition, according to the present invention, it is possible to detect a stationary person for a long period of time, and correcting for processing a hidden object or causing a sudden change in the environment can perform tracking effectively and accurately.
다만, 본 발명의 실시 예들에 따른 오버헤드 카메라를 이용한 사람 추적 방법이 달성할 수 있는 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects that can be achieved by the method for tracking a person using an overhead camera according to the embodiments of the present invention are not limited to those mentioned above, and other effects not mentioned are the technology to which the present invention belongs from the following description. It will be clearly understood by those of ordinary skill in the field.
본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 사상을 설명한다.
도 1의 (a)는 사이드/노말 뷰(side/normal view)를 통해 얻은 사람들의 이미지이고, 도 1의 (b)는 오버헤드 뷰(overhead view)를 통해 얻은 사람들의 이미지이다.
도 2는 본 발명에 따른 사람 추적 방법의 흐름도이다.
도 3은 본 발명에 따른 얼룩 검출 과정을 도시한 것이다.
도 4는 본 발명의 성능을 시험하기 위한 테스트 시퀀스이다.
도 5는 검출된 모든 위치의 거리에 따른 정확도를 나타낸 그래프이다.
도 6은 도 4의 시퀀스 1에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다.
도 7은 도 4의 시퀀스 2에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다.
도 8은 도 4의 시퀀스 3에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다.
도 9는 도 4의 시퀀스 4에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다.The accompanying drawings, which are included as part of the detailed description to aid in understanding of the present invention, provide embodiments for the present invention, and describe the technical idea of the present invention together with the detailed description.
FIG. 1(a) is an image of people obtained through a side/normal view, and FIG. 1(b) is an image of people obtained through an overhead view.
2 is a flowchart of a method for tracking a person according to the present invention.
3 shows a process of detecting spots according to the present invention.
4 is a test sequence for testing the performance of the present invention.
5 is a graph showing accuracy according to distances of all detected locations.
6 is a comparison between the tracking method of the present invention and the MS algorithm in Sequence 1 of FIG. 4.
7 is a comparison between the tracking method of the present invention and the MS algorithm in Sequence 2 of FIG. 4.
8 is a comparison of the tracking method of the present invention and the MS algorithm in Sequence 3 of FIG. 4.
9 is a comparison of the tracking method of the present invention and the MS algorithm in Sequence 4 of FIG. 4.
본 명세서 및 특허청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정하여 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해서 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합되는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 하나의 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다. 이하에서는, 첨부된 도면을 참조하여 본 발명의 실시예에 따른 오버헤드 카메라를 이용한 사람 추적 방법을 상세하게 설명하기로 한다.The terms or words used in this specification and claims are not limited to their usual or dictionary meanings and should not be interpreted, and the inventor should appropriately define the concept of terms in order to describe his own invention in the best way. Based on the principle that it is possible, it should be interpreted as a meaning and concept consistent with the technical idea of the present invention. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are only one of the most preferred embodiments of the present invention, and do not represent all the technical ideas of the present invention, so that they can be replaced at the time of application. It should be understood that there may be various equivalents and variations. Hereinafter, a method for tracking a person using an overhead camera according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 2는 본 발명에 따른 사람 추적 방법의 흐름도이다.2 is a flowchart of a method for tracking a person according to the present invention.
본 발명은 이미지 내의 관련 이동 영역을 검출할 수 있는 추적 알고리즘을 기반으로 한다. 본 발명은 이러한 추적 알고리즘에 그리고 rHOG 알고리즘을 통합함으로써 간단하면서도 효과적인 사람 추적 방법을 제공한다. rHOG 알고리즘은 널리 알려진 알고리즘으로서 여기서의 자세한 설명은 생략한다.The present invention is based on a tracking algorithm capable of detecting the relevant moving area within an image. The present invention provides a simple yet effective human tracking method by incorporating the rHOG algorithm into this tracking algorithm. The rHOG algorithm is a widely known algorithm, and its detailed description is omitted here.
도 2를 참조하여 본 발명에 따른 사람 추적 방법을 설명한다.A method for tracking a person according to the present invention will be described with reference to FIG. 2.
먼저 주어진 영상 내에 존재하는 사람을 검출하고, 상기 검출된 사람이 위치한 클러스터(cluster)를 반환한다. 이 경우, rHOG 알고리즘을 사용하여, 해당 영상을 스캔함으로써 영상 내에 존재하는 사람을 식별할 수 있다. 이 때, rHOG 알고리즘은 계속하여 영상을 스캔하고, 사람이 검출되는 경우, 검출된 사람과 해당 위치의 클러스터 생성을 개시한다.First, a person present in a given image is detected, and a cluster in which the detected person is located is returned. In this case, using the rHOG algorithm, a person present in the image can be identified by scanning the image. At this time, the rHOG algorithm continuously scans the image, and when a person is detected, it starts generating a cluster of the detected person and the corresponding location.
즉, 클러스터 각각에 대하여 하기 (수학식 1)로 표현되는 클러스터 객체()를 생성한다.That is, for each cluster, a cluster object represented by the following (Equation 1) ( ).
(수학식 1)(Equation 1)
여기서 은 캡쳐된 이미지 이름, 는 이미지의 캡쳐 시간, 는 사람이 검출된 위치, 는 클러스터의 중심(centroid)으로 으로 표현되며, 는 클러스터 구성원, 즉 검출된 사람의 구분자 모두이다. 는 클러스터의 모든 검출된 사람의 평균 위치를 나타낸다. 이후, 상기 클러스터 객체를 통하여 하기 (수학식 2)와 같이, 클러스터 오브젝터 목록()을 생성한다.here Is the name of the captured image, Is the capture time of the image, Where the person was detected, Is the centroid of the cluster Is expressed as Is all of the cluster members, i. Represents the average location of all detected people in the cluster. Thereafter, through the cluster object, as shown in the following (Equation 2), the cluster object list ( ).
(수학식 2)(Equation 2)
여기서 은 번째 클러스터 객체이고, 은 자연수이다.here silver Is the first cluster object, Is a natural number.
다음으로, 각 클러스터 객체()마다 하기 (수학식 3)으로 표현되는 추적 객체()를 생성한다.Next, each cluster object ( ) For each tracking object represented by the following (Equation 3) ( ).
(수학식 3)(Equation 3)
여기서 는 프레임이 기록된 시간들, 는 이에 대응한 이미지의 이름들, 은 이에 대응한 사람이 검출된 위치들, 는 해당 클러스터 객체 이름, 는 해당 추적장치의 위치이다.here Is the times the frames were recorded, Is the names of the corresponding images, Is the locations where the corresponding person was detected, Is the corresponding cluster object name, Is the location of the tracking device.
추적 객체는 미리 정의된 각 클러스터 객체마다 도입된다. 이미지 또는 영상의 이름, 사람들이 검출된 위치, 프레임이 기록된 시간, 추적장치의 위치 및 추적 객체와의 연관성으로 구성된 클러스터 객체가 추적 객체의 속성이 될 수 있다. The tracking object is introduced for each predefined cluster object. A cluster object composed of a name of an image or video, a location where people are detected, a time when a frame is recorded, a location of a tracking device, and a relationship with the tracking object may be a property of the tracking object.
상기 추적 객체()를 통해 하기 (수학식 4)와 같이 추적 오브젝터 목록()을 생성한다.The tracking object ( ) Through the list of tracking objects as shown in (Equation 4) below ( ).
(수학식 4)(Equation 4)
여기서 은 번째 추적 객체이고, 은 자연수이다. 이후 추적 객체가 지속적으로 업데이트될 수 있다. 상기 수학식 4는 목록 형식으로 추가된 추적(Tracker) 객체를 보여준다.here silver Is the first tracking object, Is a natural number. Thereafter, the tracking object may be continuously updated. Equation 4 shows a tracker object added in a list format.
다음으로, 상기 추적 오브젝터 목록()에서 다음 프레임의 동일한 영역 내의 추적 대상 객체(사람)를 선택하여, 상기 다음 프레임에서 선택된 추적 대상 객체의 위치를 추정한다. 즉, 다음 프레임의 동일한 영역 내에서, 추적 오브젝터 목록의 각 객체를 선택하여 추적 대상 객체의 위치를 계산한다. 이는 반복적으로 수행될 수 있다. Next, the tracking object list ( In ), a tracking target object (person) within the same area of the next frame is selected, and the location of the selected tracking target object in the next frame is estimated. That is, within the same area of the next frame, each object in the tracked object list is selected and the location of the tracked object is calculated. This can be done repeatedly.
추적 대상 객체의 위치를 계산하기 위한 속도()와 속력()(즉, 속도의 크기)는 하기 (수학식 5)를 통해 계산될 수 있다.The velocity for calculating the position of the object being tracked ( ) And speed ( ) (That is, the magnitude of the velocity) can be calculated through the following (Equation 5).
(수학식 5)(Equation 5)
이후 다음과 같은 과정 중 하나를 따른다.Then follow one of the following steps.
a) 추적 대상 객체가 1 개의 감지된 위치와 동일한 경우 는 0이 된다. 그러나 이는 탐지되는 첫 번째 프레임의 경우에만 해당된다. a) If the object to be tracked is the same as one detected position Becomes 0. However, this only applies to the first frame to be detected.
b) 추적 대상 객체가 2 개의 감지된 위치를 갖는 경우(cluster size=2) 이다. 여기서 와 는 각각 거리와 시간의 차이를 나타낸다. b) When the object to be tracked has two detected locations (cluster size=2) to be. here Wow Represents the difference between distance and time, respectively.
c) 추적 대상 객체가 2개 초과된 감지 위치를 가진다면(cluster size>2), 평균 속도는 최대 10 개(k=1,2,..n=10)의 이전 탐지 위치를 사용하여 결정된다.c) If the object to be tracked has more than 2 detection positions (cluster size>2), the average velocity is determined using a maximum of 10 (k=1,2,..n=10) previous detection positions. .
다음으로, 추적 대상 객체의 위치를 하기 (수학식 6)과 같은 방식으로 추정하여 근사화한다.Next, the location of the object to be tracked is estimated and approximated in the same manner as in (Equation 6) below.
(수학식 6)(Equation 6)
여기서 는 추적 대상 객체의 예상 위치(다음 프레임에서 추정되는 사람의 위치), 는 추적 대상 객체의 이전 위치(이전 프레임들에서의 사람의 위치)이다. 여기서 는 다음 프레임에서의 얼룩의 움직임을 추정하는데 사용된다.here Is the expected position of the object to be tracked (the position of the person estimated in the next frame), Is the previous position of the object to be tracked (the position of the person in the previous frames). here Is used to estimate the motion of the blob in the next frame.
다음으로, 다음 프레임의 탐색 영역()을 하기 (수학식 7)과 같이 계산한다.Next, the search area of the next frame ( ) Is calculated as the following (Equation 7).
(수학식 7)(Equation 7)
여기서 (Pixel Window, 가로 및 세로 픽셀 크기)는 , 는 추적 객체의 위치변화이다. 본 발명에 따른 사람 추적 방법은 사람의 평균 너비를 나타내는 약 64 픽셀의 영역을 분석한다. 검출된 각 얼룩이 적어도 사람의 50 % 크기 이상인 것이 일반적이다. 따라서 이러한 정보를 사용하여 (수학식 7)과 같이 적절한 정사각형(square) 크기의 검색 영역 를 계산한다. 첫째로, 크기가 가 32 × 32 픽셀인 얼룩을 찾는다. 나머지 프레임들 내의 모든 후속 탐색들에 대해, 는 거리의 이전 궤적의 정보를 통해 갱신될 수 있다.here (Pixel Window, horizontal and vertical pixel size) , Is the position change of the tracking object. The person tracking method according to the present invention analyzes an area of about 64 pixels representing an average width of a person. It is common for each spot detected to be at least 50% of the size of a person. Therefore, using this information, a search area of an appropriate square size, such as (Equation 7) Calculate First, the size Finds a blob of 32 × 32 pixels. For all subsequent searches in the remaining frames, May be updated through information on the previous trajectory of the distance.
다음으로, 상기 다음 프레임의 탐색 영역 내에 존재하는 사람을 검출한다. Next, a person present in the search area of the next frame is detected.
탐색 영역 내에 사람이 검출되지 않는 경우, 해당 추적 대상 객체를 제거하고, 사람이 검출되는 경우, 이전의 위치와 현재 위치의 거리를 비교하여, 상기 거리가 40 픽셀 이하라면 추적 대상 객체 및 클러스터의 중심을 업데이트하고, 상기 거리가 40 픽셀보다 크다면 새로운 추적 객체를 생성한다.If a person is not detected in the search area, the object to be tracked is removed, and if a person is detected, the distance between the previous location and the current location is compared, and if the distance is less than 40 pixels, the center of the object to be tracked and the cluster And, if the distance is greater than 40 pixels, a new tracking object is created.
추적된 사람 객체는 프레임에서 사람의 새로운 탐지된 위치를 사용하여 업데이트 된 다음 앞의 단계를 반복한다. 감지된 위치가 기존 추적 객체에서 40 픽셀 이상 떨어져 있는 다른 모든 거리의 경우 추적 모듈의 새로운 추적 객체가 만들어진다. 이후 새로운 추적 객체에 대해 앞의 단계를 반복한다. rHOG 알고리즘이 최대 5개 프레임까지 기존 추적 객체에 대한 적합성을 탐지할 수 없는 경우 해당 객체는 제거된다. 나머지 추적 오브젝터 목록은 적합성 여부를 검사하여, 비어 있지 않은 목록이 발견되거나 추적 과정을 중단할 때 앞의 단계를 거친다. The tracked person object is updated with the person's new detected position in the frame, then repeats the previous step. For all other distances where the detected position is 40 pixels or more away from the existing tracking object, a new tracking object of the tracking module is created. Afterwards, the previous steps are repeated for the new tracking object. If the rHOG algorithm cannot detect the suitability of the existing tracking object up to 5 frames, the object is removed. The rest of the tracking object list is checked for suitability and goes through the previous steps when a non-empty list is found or the tracking process is stopped.
한편, 본 발명은 성능을 높이기 위해 얼룩 탐지 모듈이 추가적으로 보완될 수 있다. 도 3은 본 발명에 따른 얼룩 검출 과정을 도시한 것이다.Meanwhile, in the present invention, a spot detection module may be additionally supplemented to improve performance. 3 shows a process of detecting spots according to the present invention.
이는 이동 가능성이 더 높은 영상 영역만 찾을 수 있다는 점에서 상당한 이점이 있다. 얼룩 탐지 모듈을 통하여 사람을 검출하는 과정은 하기와 같은 단계로 수행된다.This has a significant advantage in that only an image area with a higher possibility of movement can be found. The process of detecting a person through the spot detection module is performed in the following steps.
먼저 하기 (수학식 8)과 같이 연속된 프레임을 통해 모션맵 이미지를 얻는다. 도 3의 (a)는 원본 이미지, (b)는 모션 맵 이미지이다. First, a motion map image is obtained through continuous frames as shown in
(수학식 8)(Equation 8)
여기서 는 모션맵 이미지, , 는 연속된 프레임이다.here Is the motion map image, , Is a continuous frame.
이후 상기 모션맵 이미지를 8 × 8 픽셀의 하위 영역들로 나누고, 상기 하위 영역들의 픽셀 강도 값을 합산한다. 이같은 과정을 거친 이미지가 도 3의 (c)에 도시되어 있다. 이후 합산된 픽셀 강도 값과 임계값을 비교하여 최종적으로 얼룩여부를 판단한다. 이는 (수학식 9)와 같이 표현될 수 있다.Thereafter, the motion map image is divided into sub-areas of 8 × 8 pixels, and pixel intensity values of the sub-areas are summed. The image through this process is shown in (c) of FIG. 3. Thereafter, the summed pixel intensity value and the threshold value are compared to finally determine whether or not the pixel is uneven. This can be expressed as (Equation 9).
(수학식 9)(Equation 9)
여기서 는 상기 하위 영역들의 합산된 픽셀 강도 값, 는 임계값이다. 도 3의 (d)는 임계 값인 을 적용하고 모션맵 이미지 32 × 32 픽셀을 하위영역들로 나누어 검출한 경우를 도시한 것이고, 도 3의 (e)는 임계 값이 적용되고 작은 얼룩이 제거 된 후 분할된 이미지를 도시한 것이다.here Is the summed pixel intensity value of the sub-areas, Is the threshold. Figure 3 (d) is the threshold value Is applied and the motion map image is detected by dividing 32 × 32 pixels into sub-areas, and FIG. 3(e) shows the divided image after a threshold value is applied and small spots are removed.
도 4는 본 발명의 성능을 시험하기 위한 테스트 시퀀스이다. 도 4의 (a)는 시퀀스 1, (b)는 시퀀스 2, (c)는 시퀀스 3, (d)는 시퀀스 4이다.4 is a test sequence for testing the performance of the present invention. 4A shows sequence 1, (b) shows sequence 2, (c) shows sequence 3, and (d) shows sequence 4.
작업 영역을 제한하는 바닥에 특별한 특성이 있지만 사람의 움직임에는 영향일 미치지 않으며, 사람의 옷 색깔은 제한이 없다. 이미지 (640 Х 480 픽셀)는 5m 높이의 PTZ 카메라에서 초당 20 프레임의 비율로 캡처 되었다. PTZ 212 카메라의 사양은 Fujinon 렌즈, F1.8, 고정 조리개, 수직 시야각 : 35°내지 105 ° 및 수평 시야각 : 44 ° 내지 140 °이다.The floor that limits the working area has special characteristics, but it does not affect the movement of people, and the color of people's clothes is not limited. Images (640 x 480 pixels) were captured on a 5m high PTZ camera at a rate of 20 frames per second. The specifications of the PTZ 212 camera are Fujinon lens, F1.8, fixed aperture, vertical viewing angle: 35° to 105° and horizontal viewing angle: 44° to 140°.
알고리즘의 성능을 평가하기 위해 도 4에 도시된 4 가지 테스트 시퀀스를 사용하여 기존의 알고리즘과 비교하였다. 비교를 위해 각 테스트 시퀀스는 수동으로, 즉 실측 자료(ground truth) 를 사용하여) 자동으로 검사되고, 테스트 비디오에서 사람들의 궤적 / 경로를 기반으로 비교되었다. 도 4의 (d)에 도시된 마지막 테스트 시퀀스는 다른 시퀀스들에 비해 비교적 복잡한데, 이는 자동차 조립체에서 용접을 수행하는 동안 사람의 지그재그로의 움직임이 많기 때문이다.In order to evaluate the performance of the algorithm, the four test sequences shown in FIG. 4 were used to compare with the existing algorithm. For comparison, each test sequence was automatically inspected manually, i.e. using ground truth, and compared based on people's trajectory/path in the test video. The last test sequence shown in (d) of FIG. 4 is relatively complex compared to other sequences, because there is a lot of zigzag movement of a person while performing welding in an automobile assembly.
도 5는 검출된 모든 위치의 거리에 따른 정확도를 나타낸 그래프이다.5 is a graph showing accuracy according to distances of all detected locations.
x축은 검출 된 모든 위치의 거리를 나타내고, y축은 검출 속도 또는 적확도를 나타낸다. 도 5를 참조하면, 본 발명에 따른 사람 추적 방법은 기존의 알고리즘과 비교하여 훨씬 높은 적중률이 나타나는 것을 확인할 수 있다. 일 예로 거리가 20 픽셀인 경우 본 발명은 99 %의 정확도가 나타났지만, MS 알고리즘의 경우 64 %의 정확도가 나타났다. 이하에서는 각 시퀀스에 대하여 본원 발명의 추적 방법과 MS 알고리즘을 구체적으로 비교해 본다.The x-axis represents the distances of all detected locations, and the y-axis represents the detection speed or accuracy. Referring to FIG. 5, it can be seen that the method for tracking a person according to the present invention exhibits a much higher hit rate compared to the existing algorithm. For example, when the distance is 20 pixels, the present invention has an accuracy of 99%, but the MS algorithm has an accuracy of 64%. Hereinafter, for each sequence, the tracking method of the present invention and the MS algorithm are compared in detail.
도 6은 도 4의 시퀀스 1에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다. 도 6의 (a), (b)는 본 발명에 따른 추적 방법을 통하여 수행된 것이고, 도 6의 (c), (d)는 MS 알고리즘을 통하여 수행된 결과이다.6 is a comparison between the tracking method of the present invention and the MS algorithm in Sequence 1 of FIG. 4. 6A and 6B are performed through the tracking method according to the present invention, and FIGS. 6C and 6D are results performed through the MS algorithm.
비디오 테스트 세트의 시작시간 점프는 0.5, 0.55, 0.8, 0.65초이다. 누락된 프레임에서 MS 알고리즘은 사용자의 위치를 감지할 수 있다. 도 6의 (b)는 이러한 시간 차이를 보여준다. 시험 시퀀스 동안에, 사람이 일을 시작하고 여러 번 손을 움직이기 시작하면, MS 알고리즘에서는 얼룩의 중심이 사람에서 팔꿈치로 이동된다는 것이 관찰되었다.The start time jumps for the video test set are 0.5, 0.55, 0.8, and 0.65 seconds. In the missed frame, the MS algorithm can detect the user's location. 6B shows this time difference. During the test sequence, it was observed that if a person starts working and starts moving his hand several times, the MS algorithm shifts the center of the blob from the person to the elbow.
이는 이른바 "탐지되지 않은 위치"(undetected positions)로 이어진다. MS 알고리즘의 약점은 소수의 프레임에서 사용자가 전혀 감지하지 못한다는 것이다. 실제 이와 같은 현상이 테스트 시퀀스 중간에 관찰되었다. 즉, 실제 관측 자료에 대한 위치의 검출에 약점이 나타나고 있음을 알 수 있다.This leads to so-called "undetected positions". The weakness of the MS algorithm is that it is completely undetectable by the user in a few frames. In fact, this phenomenon was observed in the middle of the test sequence. In other words, it can be seen that a weakness appears in the detection of the location of the actual observation data.
반면, 본 발명에 따른 추적 방법을 통해 수행된 결과는 도 6의 (c) 및 (d)에 나타나있다. 도 6의 (c), (d)에 나타난 수치를 참조하면, 본 발명은 모든 연속된 프레임에서 사람을 탐지할 수 있는 것을 확인할 수 있다. 이는 본 발명에 따른 추적 방법이 MS 알고리즘 보다 향상된 성능이 나타났음을 의미한다. 구체적으로 MS 알고리즘을 통해 나타난 정확도(55 %) 보다 현저히 향상된 정확도(97 %)가 나타났다. 편차 또한 MS 알고리즘에서 나타난 13 픽셀에 비해 7 픽셀의 더 낮은 편차가 나타난 것으로 확인되었다.On the other hand, the results performed through the tracking method according to the present invention are shown in (c) and (d) of FIG. 6. Referring to the numerical values shown in (c) and (d) of FIG. 6, it can be seen that the present invention can detect a person in all consecutive frames. This means that the tracking method according to the present invention has improved performance compared to the MS algorithm. Specifically, the accuracy (97%) was significantly improved than the accuracy (55%) shown through the MS algorithm. The deviation was also confirmed to have a lower deviation of 7 pixels compared to the 13 pixels shown in the MS algorithm.
도 7은 도 4의 시퀀스 2에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다. 도 7의 (a), (b)는 본 발명에 따른 추적 방법을 통하여 수행된 것이고, 도 7의 (c), (d)는 MS 알고리즘을 통하여 수행된 결과이다.7 is a comparison between the tracking method of the present invention and the MS algorithm in Sequence 2 of FIG. 4. 7A and 7B are performed through the tracking method according to the present invention, and FIGS. 7C and 7D are results performed through the MS algorithm.
테스트 시퀀스 2에서는 MS 알고리즘이 비디오 시퀀스의 많은 위치를 놓친 것을 확인할 수 있다. 또한 감지된 얼룩은 매우 멀리 있고 실측 자료와 다른 것으로 발견되었으며, 크기가 매우 작았다. 이는 그림 7(a)와 (b)에 나타나 있다. MS 알고리즘으로 식별된 얼룩 크기는 8 Х 20 픽셀이었고, 인체의 작은 부위만 차지했기 때문에 얼룩은 사람의 실제 위치에 부합하지 않은 것을 알 수 있다.In test sequence 2, it can be seen that the MS algorithm missed many locations in the video sequence. In addition, the detected stains were found to be very far away from the actual data, and were very small in size. This is shown in Figures 7(a) and (b). The size of the stain identified by the MS algorithm was 8
반면, 본 발명에 따른 추적 방법은 32 Х 32 픽셀 이상의 사람을 나타내는 가정에 기초하였기 때문에, 가령 사람의 몸통에 있는 작은 얼룩들에 의한 영향을 무시할 수 있었다. 따라서 32Х32 픽셀 임계값 아래의 모든 얼룩이 삭제된다. 도 7의 (c) 및 (d)를 참조하면, 본 발명에 따른 추적 방법은 감지된 위치뿐만 아니라 정확도에 있어서도 MS 알고리즘의 성능을 능가한다는 것을 확인할 수 있다. 검출 속도는 MS 알고리즘의 경우, 평균 거리 13 픽셀 내에서 35.8 %로 나타났으나, 본 발명에 따른 추적 방법은 평균 거리 6 픽셀에서 100 %로 나타났다.On the other hand, since the tracking method according to the present invention is based on the assumption representing a person of 32 占32 pixels or more, the influence of small spots on the body of a person can be ignored. Thus, all blobs below the 32Х32 pixel threshold are deleted. Referring to FIGS. 7C and 7D, it can be seen that the tracking method according to the present invention exceeds the performance of the MS algorithm in accuracy as well as the detected position. In the case of the MS algorithm, the detection speed was 35.8% within an average distance of 13 pixels, but the tracking method according to the present invention was found to be 100% at an average distance of 6 pixels.
도 8은 도 4의 시퀀스 3에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다. 도 8의 (a), (b)는 본 발명에 따른 추적 방법을 통하여 수행된 것이고, 도 8의 (c), (d)는 MS 알고리즘을 통하여 수행된 결과이다.8 is a comparison of the tracking method of the present invention and the MS algorithm in Sequence 3 of FIG. 4. 8(a) and (b) are performed through the tracking method according to the present invention, and FIGS. 8(c) and (d) are results performed through the MS algorithm.
도 8의 (a) 및 (b)는 MS 알고리즘에 대한 테스트 시퀀스 3을 나타낸다. 이를 참조하면, 감지된 얼룩이 사람의 몸에 위치하지 않고 대부분 사람의 어깨나 팔 위에 위치하며 크기가 작은 것을 확인할 수 있다. 이러한 이미지에서 대부분의 얼룩은 크기와 위치 때문에 감지되지 않는다. 이는 도 8의 (a)에 도시되어 있다. 도 8의 (b)에는 191 프레임 후에 20회 스캔의 시간 간격을 통해 관찰한 결과가 나타나있다.8A and 8B show test sequence 3 for the MS algorithm. Referring to this, it can be seen that the detected stain is not located on a person's body, but is mostly located on a person's shoulder or arm, and has a small size. Most of the blobs in these images are not detected because of their size and location. This is shown in Figure 8 (a). Figure 8(b) shows the results observed through the time interval of 20 scans after 191 frames.
이러한 MS 알고리즘과 비교하여 본 발명에 따른 추적 방법은 훨씬 개선된 검출 결과를 보여준다. 본 발명에 따른 추적 방법은 처음부터 즉시 탐지를 시작하며, 탐지 대상자의 위치에 대한 실측 자료 측면에서 향상된 탐지 기능을 제공하였다. 본 발명에 따른 추적 방법은 시간 간격 동안 추적을 계속하여 앞서 언급한 20초와 같은 큰 시간 갭을 처리하였다. 정지 상태에서 사람을 감지하지 못한 MS 알고리즘과 비교했을 때, 본 발명은 사람이 정적인 상태를 유지했음에도 불구하고 계속해서 사람을 탐지할 수 있었다. 이러한 탐지 결과는 도 8의 (c) 및 (d)에 나타나 있다. 이를 참조하면, 그래프 어느 지점이든 실측에 가깝게 검출되는 것을 확인할 수 있다.Compared with this MS algorithm, the tracking method according to the present invention shows a much improved detection result. The tracking method according to the present invention starts detection immediately from the beginning, and provides an improved detection function in terms of actual measurement data on the location of a target to be detected. The tracking method according to the present invention handles a large time gap such as the aforementioned 20 seconds by continuing tracking for a time interval. Compared with the MS algorithm, which does not detect a person in a stationary state, the present invention was able to detect a person continuously even though the person was in a static state. These detection results are shown in (c) and (d) of FIG. 8. Referring to this, it can be confirmed that any point in the graph is detected close to the actual measurement.
하기 표 1은 앞서 설명한 시퀀스 1, 2, 3에서 얻은 결과를 비교한 것이다. 여기서 HR은 정확도를 나타내며, MSE는 제곱근 오류를 나타낸다.Table 1 below compares the results obtained in Sequences 1, 2, and 3 described above. Here, HR stands for accuracy and MSE stands for square root error.
(표 1)(Table 1)
그 결과 평균 탐지율이 99.08 %로 나타난 본 발명이 다른 모든 알고리즘보다 높은 것으로 나타났다. 본 발명을 제외한 다른 알고리즘 중에서 가장 높은 정확도는 MS 추적 방법의 48.38 % 방법이었다.As a result, the present invention showed an average detection rate of 99.08%, which was higher than all other algorithms. The highest accuracy among other algorithms except for the present invention was 48.38% of the MS tracking method.
도 9는 도 4의 시퀀스 4에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다. 9 is a comparison of the tracking method of the present invention and the MS algorithm in Sequence 4 of FIG. 4.
시험 시퀀스 번호 4는 시나리오의 갑작스럽고 역동적인 변화 및 프레임 내 데이터의 차이로 인해 복잡한 특성을 가지고 있다. 시퀀스는 관측된 데이터 공백이 있는 1021 개의 프레임으로 구성된다. 이 프레임에서 사람은 약 8초라는 한번의 긴 점프 구간을 제외하고 한 방향으로 40 픽셀 반경으로 유지되었다. 시간이 건너뛰는 동안 사람의 위치 변화는 원래 위치와 동일한 수평 방향으로 관찰되며, 이는 약 100 픽셀이다.Test sequence number 4 has a complex characteristic due to the sudden and dynamic change of the scenario and the difference in data within the frame. The sequence consists of 1021 frames with observed data gaps. In this frame, the person was held at a radius of 40 pixels in one direction, except for one long jump of about 8 seconds. Over time, a person's position change is observed in the same horizontal direction as the original position, which is about 100 pixels.
비디오 총 시간 길이는 76초이며 거의 30초 분량의 데이터가 누락되었다. 누락된 30초는 총 730개의 프레임으로 구성된다. 용접으로 인한 와이어, 기계 및 스파크가 있기 때문에 환경의 복잡성이 나타난다. 사람은 이 환경 안에 가려져 있다. The total length of the video is 76 seconds, and nearly 30 seconds of data are missing. The missing 30 seconds consist of a total of 730 frames. The complexity of the environment arises because there are wires, machinery and sparks from welding. People are hidden in this environment.
본 발명에 따른 추적 방법을 다른 세 개의 알고리즘과 비교한다. 사람의 감지된 위치의 궤적은 도 9에서 확인할 수 있다. 도 9의 (a)를 참조하면, 일부가 한계점 이상의 위치에 있는 것으로 관찰되며, 실제 관측과는 거리가 있는 것으로 나타난다. 이는 용접 기계로 인한 불꽃이 거짓으로 감지된 얼룩을 만들기 때문이다. The tracking method according to the present invention is compared with the other three algorithms. The trajectory of the detected position of the person can be confirmed in FIG. 9. Referring to (a) of FIG. 9, it is observed that some are located above the threshold, and there is a distance from the actual observation. This is because the sparks from the welding machine create falsely perceived spots.
도 9의 (d)는 시퀀스에서 관찰된 시간 간격을 나타내기 위해 x축의 시간 대비 Y축의 실제 관측 자료를 나타낸 것이다. 도 9의 (c) 및 (b)는 각각 본 발명에 따른 추적 방법과 시간 및 실제 관측 자료에 대한 MS 추적 알고리즘을 사용해 검출된 얼룩 위치의 궤적을 나타낸다. 9D shows actual observation data on the Y-axis versus the time on the x-axis to indicate the time interval observed in the sequence. 9C and 9B show trajectories of spot locations detected using a tracking method according to the present invention and an MS tracking algorithm for time and actual observation data, respectively.
이러한 그래프의 결과는 비디오 시퀀스 프레임에서 시간 간격을 가진 사람의 위치를 감지하는 측면에서의 성능을 보여주는 것으로, 이를 표 2에 나타내었다.The result of this graph shows the performance in terms of detecting the position of a person with a time interval in a video sequence frame, and is shown in Table 2.
(표 2)(Table 2)
테스트 시퀀스 4는 용접 등과 같은 환경에서 발생하는 교차 및 기타 방해 요인으로 인해 가장 복잡한 시퀀스이지만, 본 발명에 따른 추적 방법이 다른 검출 알고리즘 보다 높은 정확도를 나타냈다. 본 발명을 제외한 다른 알고리즘에서 나타난 가장 높은 정확도는 31.2 %에 불과하여, 97.8 %의 정확도가 나타난 본원 발명과는 현저한 차이가 존재하는 것을 알 수 있었다. Test sequence 4 is the most complex sequence due to crossover and other disturbing factors occurring in an environment such as welding, but the tracking method according to the present invention exhibited higher accuracy than other detection algorithms. The highest accuracy found in other algorithms other than the present invention was only 31.2%, and it was found that there is a significant difference from the present invention, which showed an accuracy of 97.8%.
본 발명은 오버헤드 카메라를 통하여 사람들을 추적하는 효과적인 방법을 개시한다. 본 발명은 시간 간격이 크더라도 정지된 사람을 효과적으로 탐지하고 추적할 수 있다.The present invention discloses an effective method of tracking people through an overhead camera. The present invention can effectively detect and track a stationary person even if the time interval is large.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Although the exemplary embodiments of the present invention have been described in detail above, those of ordinary skill in the art to which the present invention pertains will understand that various modifications may be made to the above-described embodiments without departing from the scope of the present invention. . Therefore, the scope of the present invention is limited to the described embodiments and should not be determined, and should not be defined by the claims to be described later, but also by those equivalents to the claims.
Claims (6)
(A) 영상 내에서 사람이 검출된 위치의 클러스터에 대하여 (수학식1)로 표현되는 클러스터 객체()를 생성하는 단계;
(수학식 1)
(여기서 은 캡쳐된 이미지 이름, 는 이미지의 캡쳐 시간, 는 사람이 검출된 위치, 클러스터의 중심는 사람이 검출된 위치의 평균, 는 모든 검출된 사람의 구분자)
(B) (수학식 2)로 표현되는 클러스터 오브젝터 목록()을 생성하는 단계;
(수학식 2)
(여기서 은 번째 클러스터 객체()이고, 은 자연수)
(C) 각 클러스터 객체()마다 (수학식 3)으로 표현되는 추적 대상 객체()를 생성하는 단계;
(수학식 3)
(여기서 프레임이 기록된 시간들 에 대응되는,는 이미지의 이름들, 은 추적 대상 객체로서의 사람이 검출된 위치들, 는 클러스터 객체 이름, 는 상기 추적 장치의 위치)
(D) (수학식 4)으로 표현되는 추적 오브젝터 목록()을 생성하는 단계;
(수학식 4)
(여기서 은 번째 추적 대상 객체()이고, 은 자연수)
(E) 상기 추적 오브젝터 목록()에서 다음 프레임의 동일한 영역 내 추적 대상 객체를 선택하여, 해당 추적 대상 객체의 속도 및 속력을 기초로 다음 프레임에서의 위치를 추정하는 단계; 및
(F) 상기 다음 프레임의 탐색 영역()을 하기 (수학식 5)와 같이 계산하여 상기 탐색 영역() 내에 사람이 검출되는지 여부를 판단하는 단계를 포함하고,
(수학식 5)
(여기서 는 소정의 가로 및 세로 픽셀 크기, 는 추적 대상 객체의 위치 변화)
상기 (F) 단계는,
(수학식 6)을 통하여 모션맵 이미지를 얻는 단계;
(수학식 6)
(여기서 는 모션맵 이미지, , 는 연속된 프레임의 이미지들)
상기 모션맵 이미지를 소정의 픽셀수의 하위 영역들로 나누고, 상기 하위 영역들 각각의 픽셀 강도 값을 합산하는 단계; 및
(수학식 7)를 통하여 상기 하위 영역들 각각에 대해 얼룩(Blob) 여부의 판단을 이용함으로써 얼룩(Blob)에 의한 영향을 제거해 사람을 검출하는 단계를 포함하고,
(수학식 7)
(여기서 는 상기 하위 영역들 각각의 합산된 픽셀 강도 값, 는 임계값)이며,
상기 (F) 단계에서, (a) 사람이 검출되지 않는 경우, 해당 추적 대상 객체를 제거하고, (b) 사람이 검출되는 경우, 이전의 위치와 현재 위치의 거리를 비교하여, (b-1) 상기 거리가 임계거리 이하라면 추적 대상 객체 및 클러스터의 중심을 업데이트하고, (b-2) 상기 거리가 상기 임계거리 보다 크다면 새로운 추적 대상 객체를 생성하는, 사람 추적 방법.In a person tracking method in an image captured by a camera in a person tracking device,
(A) A cluster object expressed by (Equation 1) for the cluster at the location where a person is detected in the image ( Generating );
(Equation 1)
(here Is the name of the captured image, Is the capture time of the image, Where the person was detected, the center of the cluster Is the average of the locations where a person was detected, Is the delimiter of all detected persons)
(B) Cluster object list expressed by (Equation 2) ( Generating );
(Equation 2)
(here silver Cluster object ( )ego, Is a natural number)
(C) Each cluster object ( Objects to be tracked (Equation 3) for each) Generating );
(Equation 3)
(Here the frames were recorded Corresponding to, Is the names of the images, Is the locations where a person is detected as the object to be tracked, Is the cluster object name, Is the location of the tracking device)
(D) List of tracking objects expressed by (Equation 4) ( Generating );
(Equation 4)
(here silver Object to be tracked ( )ego, Is a natural number)
(E) List of tracking objects above ( ), selecting a tracking target object in the same area of the next frame and estimating a position in the next frame based on the speed and speed of the tracking target object; And
(F) The search area of the next frame ( ) As follows (Equation 5) to calculate the search area ( ) Determining whether or not a person is detected,
(Equation 5)
(here Is the predetermined horizontal and vertical pixel size, Is the change in the location of the object to be tracked)
The (F) step,
Obtaining a motion map image through (Equation 6);
(Equation 6)
(here Is the motion map image, , Are images of consecutive frames)
Dividing the motion map image into lower regions of a predetermined number of pixels and summing pixel intensity values of each of the lower regions; And
Including the step of detecting a person by removing the influence of the blob by using the determination of whether or not blob for each of the lower regions through (Equation 7),
(Equation 7)
(here Is the summed pixel intensity value of each of the sub-areas, Is the threshold),
In step (F), (a) if a person is not detected, the object to be tracked is removed, and (b) if a person is detected, the distance between the previous location and the current location is compared, (b-1 ) If the distance is less than or equal to a critical distance, the tracking target object and the center of the cluster are updated, and (b-2) if the distance is greater than the critical distance, a new tracking target object is generated.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020180167679A KR102201168B1 (en) | 2018-12-21 | 2018-12-21 | Method for tracking a person using an overhead camera |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020180167679A KR102201168B1 (en) | 2018-12-21 | 2018-12-21 | Method for tracking a person using an overhead camera |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20200078098A KR20200078098A (en) | 2020-07-01 |
| KR102201168B1 true KR102201168B1 (en) | 2021-01-12 |
Family
ID=71601598
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020180167679A Active KR102201168B1 (en) | 2018-12-21 | 2018-12-21 | Method for tracking a person using an overhead camera |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102201168B1 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102684561B1 (en) * | 2023-11-10 | 2024-07-12 | 삼영이엔씨 (주) | Automatic radar plotting aids system |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101439037B1 (en) * | 2013-06-25 | 2014-09-15 | 주식회사 에스원 | Method and apparatus for tracking object in image |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3012777B1 (en) * | 2014-10-23 | 2017-03-15 | Axis AB | Modification of at least one parameter used by a video processing algorithm for monitoring of a scene |
| KR101764845B1 (en) * | 2015-06-08 | 2017-08-03 | 군산대학교 산학협력단 | A video surveillance apparatus for removing overlap and tracking multiple moving objects and method thereof |
-
2018
- 2018-12-21 KR KR1020180167679A patent/KR102201168B1/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101439037B1 (en) * | 2013-06-25 | 2014-09-15 | 주식회사 에스원 | Method and apparatus for tracking object in image |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20200078098A (en) | 2020-07-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN110049206B (en) | Image processing method, image processing apparatus, and computer-readable storage medium | |
| US10417503B2 (en) | Image processing apparatus and image processing method | |
| US10445887B2 (en) | Tracking processing device and tracking processing system provided with same, and tracking processing method | |
| JP7536023B2 (en) | Method for processing information from event-based sensors | |
| KR101180887B1 (en) | Apparatus and method for detecting abnormal behavior | |
| JP5180733B2 (en) | Moving object tracking device | |
| KR101051389B1 (en) | Adaptive background-based object detection and tracking device and method | |
| KR101840042B1 (en) | Multi-Imaginary Fence Line Setting Method and Trespassing Sensing System | |
| CN105046719B (en) | A kind of video frequency monitoring method and system | |
| JP6638723B2 (en) | Image analysis device, image analysis method, and image analysis program | |
| CN112308879A (en) | Image processing apparatus, method of tracking target object, and storage medium | |
| JP6292540B2 (en) | Information processing system, information processing method, and program | |
| JP2018028784A (en) | Movable body group detection program, movable body group detection device, and movable body group detection method | |
| JP4578864B2 (en) | Automatic tracking device and automatic tracking method | |
| JP2016052013A (en) | Image processing device, image processing method, program and recording medium | |
| JP2017063402A5 (en) | ||
| KR102201168B1 (en) | Method for tracking a person using an overhead camera | |
| KR100994722B1 (en) | Continuous Object Tracking on Multiple Cameras Using Camera Handoff | |
| CN110580708B (en) | Rapid movement detection method and device and electronic equipment | |
| KR101290517B1 (en) | Photographing apparatus for tracking object and method thereof | |
| JP6405606B2 (en) | Image processing apparatus, image processing method, and image processing program | |
| JP7332047B2 (en) | Tracking Devices, Tracking Systems, Tracking Methods, and Programs | |
| JP4699056B2 (en) | Automatic tracking device and automatic tracking method | |
| JP2016051236A (en) | Image processing apparatus, image processing method, and inspection method using the same | |
| KR102386673B1 (en) | Method and Apparatus for Detecting Object |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20181221 |
|
| PA0201 | Request for examination | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20200214 Patent event code: PE09021S01D |
|
| PG1501 | Laying open of application | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20200717 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20201124 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20210105 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20210106 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration | ||
| PR1001 | Payment of annual fee |
Payment date: 20231221 Start annual number: 4 End annual number: 4 |
|
| PR1001 | Payment of annual fee |
Payment date: 20241226 Start annual number: 5 End annual number: 5 |