[go: up one dir, main page]

KR102201168B1 - Method for tracking a person using an overhead camera - Google Patents

Method for tracking a person using an overhead camera Download PDF

Info

Publication number
KR102201168B1
KR102201168B1 KR1020180167679A KR20180167679A KR102201168B1 KR 102201168 B1 KR102201168 B1 KR 102201168B1 KR 1020180167679 A KR1020180167679 A KR 1020180167679A KR 20180167679 A KR20180167679 A KR 20180167679A KR 102201168 B1 KR102201168 B1 KR 102201168B1
Authority
KR
South Korea
Prior art keywords
person
equation
tracking
cluster
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020180167679A
Other languages
Korean (ko)
Other versions
KR20200078098A (en
Inventor
전광길
Original Assignee
인천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인천대학교 산학협력단 filed Critical 인천대학교 산학협력단
Priority to KR1020180167679A priority Critical patent/KR102201168B1/en
Publication of KR20200078098A publication Critical patent/KR20200078098A/en
Application granted granted Critical
Publication of KR102201168B1 publication Critical patent/KR102201168B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 사람 추적 장치를 개시하여, 영상 내에 존재하는 사람을 검출하고, 상기 검출된 사람이 위치한 클러스터를 반환하는 단계, 상기 클러스터 각각에 대하여 하기 (수학식 1)로 표현되는 클러스터 객체(

Figure 112018129289318-pat00115
)를 생성하는 단계, 각 클러스터 객체(
Figure 112018129289318-pat00116
)마다 하기 (수학식 2)으로 표현되는 추적 객체(
Figure 112018129289318-pat00117
)를 생성하는 단계, 상기 추적 객체(
Figure 112018129289318-pat00118
)를 통하여 하기 (수학식 3)으로 표현되는 추적 오브젝터 목록(
Figure 112018129289318-pat00119
)을 생성하는 단계, 상기 추적 오브젝터 목록(
Figure 112018129289318-pat00120
)에서 다음 프레임의 동일한 영역 내 추적 객체를 선택하여, 상기 다음 프레임에서 선택된 추적 객체의 위치를 추정하는 단계, 상기 다음 프레임의 탐색 영역(
Figure 112018129289318-pat00121
)을 하기 (수학식 4)와 같이 계산하는 단계 및 상기 다음 프레임의 탐색 영역 내에 존재하는 사람을 검출하는 단계를 포함한다.
본 발명은 정지된 사람을 오랜 시간 동안 탐지하는 것이 가능하고, 가려진 것을 처리하는 것, 환경의 급격한 변화를 가져오는 것 등을 보정하여 추적을 효과적이고 정확하게 수행할 수 있다.The present invention discloses a person tracking apparatus, detecting a person present in an image, and returning a cluster in which the detected person is located, a cluster object represented by the following (Equation 1) for each of the clusters (
Figure 112018129289318-pat00115
) To create each cluster object (
Figure 112018129289318-pat00116
) For each tracking object represented by the following (Equation 2) (
Figure 112018129289318-pat00117
), the tracking object (
Figure 112018129289318-pat00118
) Through the list of tracking objects represented by the following (Equation 3) (
Figure 112018129289318-pat00119
) Generating, the tracking object list (
Figure 112018129289318-pat00120
Selecting a tracking object in the same area of the next frame in ), estimating the position of the selected tracking object in the next frame, the search area of the next frame (
Figure 112018129289318-pat00121
) As follows (Equation 4), and detecting a person present in the search area of the next frame.
According to the present invention, it is possible to detect a stationary person for a long time, and to perform tracking effectively and accurately by correcting for processing a hidden object, causing a sudden change in environment, and the like.

Description

오버헤드 카메라를 이용한 사람 추적 방법{METHOD FOR TRACKING A PERSON USING AN OVERHEAD CAMERA}Person tracking method using overhead camera {METHOD FOR TRACKING A PERSON USING AN OVERHEAD CAMERA}

본 발명은 오버헤드 카메라를 이용한 사람 추적 방법에 관한 것으로, 더욱 상세하게는 이미지와 비디오를 분석하여 사람을 추적 및 식별하는 방법에 관한 것이다.The present invention relates to a method for tracking a person using an overhead camera, and more particularly, to a method for tracking and identifying a person by analyzing images and videos.

현재의 비디오 분석 기술은 연구 및 기술 개발을 통해 사물 인터넷을 빠르게 변화시키고 있으며, 이에 따라 새로운 기회를 창출하고 있다. 비디오 분석에서 얻어지는 이미지 및 비디오에 기계 학습 알고리즘을 사용하여 카메라가 사람 및 기타 움직이는 물체를 자동으로 인식 할 수 있도록 하는 것은 사물인터넷(IoT)의 응용 분야 중 하나라고 할 수 있다.The current video analysis technology is rapidly changing the Internet of Things through research and technology development, thereby creating new opportunities. It can be said that one of the application fields of the Internet of Things (IoT) is to enable the camera to automatically recognize people and other moving objects by using machine learning algorithms on images and videos obtained from video analysis.

이러한 사물인터넷(IoT)과 컴퓨터에서의 연구 분야 중 하나는 이미지와 비디오에서 사람들을 추적하고 식별하는 기술이다. 사람을 추적하는 기술은 운전 보조 시스템, 사람의 걷기 행동 분석 및 감시 시스템 등과 같은 영역에 적용될 수 있다.One of these areas of research in the Internet of Things (IoT) and computers is the technology of tracking and identifying people in images and videos. The technology of tracking a person can be applied to areas such as driving assistance systems, human walking behavior analysis and monitoring systems, and the like.

한편, 산업 현장에서 근무하는 근로자의 다양한 형세를 관찰하여 실제 환경에서의 작업 흐름을 분석하고자 하는 경우 사람을 식별 및 추적하는 기술이 이용될 수 있다. 이 경우, 사이드/노말 뷰(side/normal view) 또는 오버헤드 뷰(overhead view) 카메라가 이용될 수 있는데, 일반적으로 오버헤드 뷰 카메라가 보다 정확하게 움직임을 추적할 수 있다.On the other hand, when it is desired to analyze the work flow in an actual environment by observing various situations of workers working in industrial sites, a technology for identifying and tracking people can be used. In this case, a side/normal view or an overhead view camera may be used. In general, an overhead view camera may more accurately track the movement.

도 1의 (a)는 사이드/노말 뷰(side/normal view)를 통해 얻은 사람들의 이미지이고, 도 1의 (b)는 오버헤드 뷰(overhead view)를 통해 얻은 사람들의 이미지이다. 도 1 (a)와 (b)는 서로 다른 두 대의 카메라를 통해 동일한 장면을 동시에 촬영한 이미지이다. FIG. 1(a) is an image of people obtained through a side/normal view, and FIG. 1(b) is an image of people obtained through an overhead view. 1 (a) and (b) are images of the same scene simultaneously captured by two different cameras.

도 1의 (a), (b)에서 사람들은 흰 타원으로 표시되었다. 도 1의 (a)를 참조하면, 사람들이 기계, 전선 및 선반 부분 등 다양한 장비로 가려진 것을 확인할 수 있다. 사이드/노말 뷰(side/normal view)를 이용하는 경우, 사람들의 움직임을 완전히 파악할 수 없는데, 예를 들어, 큰 기계 뒤에서 일하는 경우에는 사람을 식별하기 어렵다. 이 경우, 사람들을 식별하고 움직임을 파악하는 것이 매우 어렵다.In (a) and (b) of Fig. 1, people are represented by white ellipses. Referring to Figure 1 (a), it can be seen that people are covered with various equipment such as machines, electric wires, and shelf parts. In the case of using the side/normal view, it is not possible to fully grasp the movement of people. For example, when working behind a large machine, it is difficult to identify the person. In this case, it is very difficult to identify people and identify movements.

도 1의 (b)는 넓은 각도의 렌즈가 구비된 오버헤드 뷰(overhad view, 또는 top view) 카메라를 사용하여 촬영된 이미지를 도시한 것이다. 도 1의 (b)를 참조하면, 넓은 각도의 렌즈가 구비된 오버헤드 카메라가 사용되어 기계 등에 의해 가려져 있는 사람들의 이미지가 명확히 파악되는 것을 확인할 수 있다. 이와 같이, 오버헤드 뷰 카메라가 사용되는 경우, 가려지거나 어수선한 환경에서도 객체를 보다 명확하고 분명하게 투사할 수 있다.1B illustrates an image captured using an overhead view (or top view) camera equipped with a wide-angle lens. Referring to (b) of FIG. 1, it can be seen that an overhead camera equipped with a wide-angle lens is used so that images of people covered by a machine or the like can be clearly grasped. In this way, when an overhead view camera is used, objects can be projected more clearly and clearly even in a hidden or cluttered environment.

한편, 사람을 추적하는 과정을 어렵게 하는 요인으로는 이미지의 노이즈, 물체 모양의 변화, 물체의 급작스러운 움직임. 카메라의 동작 등이 있다. 종래의 사람 추적 방법은 상기의 문제점을 완전히 해결하지 못해 정확도가 매우 떨어진다는 문제점이 있었다.On the other hand, factors that make the process of tracking people difficult are noise in images, changes in the shape of objects, and sudden movements of objects. Such as camera movement. The conventional human tracking method has a problem in that the accuracy is very poor because the above problem cannot be completely solved.

상기의 문제점을 해결하고자 본 발명은 오버헤드 카메라를 이용하여 높은 정확도가 나타나는 사람 추적 방법을 제공하는 것을 목적으로 한다.In order to solve the above problems, an object of the present invention is to provide a method for tracking a person with high accuracy using an overhead camera.

상기 기술적 과제를 해결하기 위하여 본 발명은 사람 추적 장치를 개시하여, 영상 내에 존재하는 사람을 검출하고, 상기 검출된 사람이 위치한 클러스터를 반환하는 단계, 상기 클러스터 각각에 대하여 하기 (수학식 1)로 표현되는 클러스터 객체(

Figure 112018129289318-pat00001
)를 생성하는 단계, 각 클러스터 객체(
Figure 112018129289318-pat00002
)마다 하기 (수학식 2)으로 표현되는 추적 객체(
Figure 112018129289318-pat00003
)를 생성하는 단계, 상기 추적 객체(
Figure 112018129289318-pat00004
)를 통하여 하기 (수학식 3)으로 표현되는 추적 오브젝터 목록(
Figure 112018129289318-pat00005
)을 생성하는 단계, 상기 추적 오브젝터 목록(
Figure 112018129289318-pat00006
)에서 다음 프레임의 동일한 영역 내 추적 객체를 선택하여, 상기 다음 프레임에서 선택된 추적 객체의 위치를 추정하는 단계, 상기 다음 프레임의 탐색 영역(
Figure 112018129289318-pat00007
)을 하기 (수학식 4)와 같이 계산하는 단계 및 상기 다음 프레임의 탐색 영역 내에 존재하는 사람을 검출하는 단계를 포함한다.In order to solve the above technical problem, the present invention discloses a person tracking device, detects a person present in an image, and returns a cluster in which the detected person is located, as follows (Equation 1) for each of the clusters. The represented cluster object (
Figure 112018129289318-pat00001
) To create each cluster object (
Figure 112018129289318-pat00002
) For each tracking object represented by the following (Equation 2) (
Figure 112018129289318-pat00003
), the tracking object (
Figure 112018129289318-pat00004
) Through the list of tracking objects represented by the following (Equation 3) (
Figure 112018129289318-pat00005
) Generating, the tracking object list (
Figure 112018129289318-pat00006
Selecting a tracking object in the same area of the next frame in ), estimating the position of the selected tracking object in the next frame, the search area of the next frame (
Figure 112018129289318-pat00007
) As follows (Equation 4), and detecting a person present in the search area of the next frame.

또한 상기 클러스터 객체를 생성하는 단계 이후, 상기 클러스터 객체를 통하여 하기 (수학식 5)로 표현되는 클러스터 오브젝터 목록(

Figure 112018129289318-pat00008
)을 생성하는 단계를 더 포함하는 것을 특징으로 한다.In addition, after the step of creating the cluster object, a list of cluster objects represented by the following (Equation 5) through the cluster object (
Figure 112018129289318-pat00008
It characterized in that it further comprises the step of generating ).

또한 상기 추적 객체의 위치는 하기 (수학식 6)를 통해 계산되는 추적 객체의 속도(

Figure 112018129289318-pat00009
) 및 속력(
Figure 112018129289318-pat00010
)을 기초로 추정되는 것을 특징으로 한다.In addition, the location of the tracking object is the speed of the tracking object calculated through the following (Equation 6) (
Figure 112018129289318-pat00009
) And speed (
Figure 112018129289318-pat00010
It is characterized in that it is estimated based on ).

또한 상기 추적 객체의 위치는 하기 (수학식 7)으로 추정되는 것을 특징으로 한다.In addition, the location of the tracking object is characterized in that it is estimated by the following (Equation 7).

또한 상기 다음 프레임의 탐색 영역내에 존재하는 사람을 검출하는 단계 이후 (a) 사람이 검출되지 않는 경우, 해당 추적 객체를 제거하고, (b) 사람이 검출되는 경우, 이전의 위치와 현재 위치의 거리를 비교하여, (b-1) 상기 거리가 40 픽셀 이하라면 추적 객체 및 클러스터의 중심을 업데이트하고, (b-2) 상기 거리가 40 픽셀보다 크다면 새로운 추적 객체를 생성하는 단계를 더 포함하는 것을 특징으로 한다.In addition, after the step of detecting a person in the search area of the next frame (a) if a person is not detected, the tracking object is removed, and (b) if a person is detected, the distance between the previous location and the current location Comparing, (b-1) updating the center of the tracking object and the cluster if the distance is less than 40 pixels, (b-2) generating a new tracking object if the distance is greater than 40 pixels. It features.

또한 상기 사람을 검출하는 과정은, 하기 (수학식 8)을 통하여 모션맵 이미지를 얻는 단계, 상기 모션맵 이미지를 8 × 8 픽셀의 하위 영역들로 나누고, 상기 하위 영역들의 픽셀 강도 값을 합산하는 단계 및 하기 (수학식 9)를 통하여 사람을 검출하는 단계로 수행되는 것을 특징으로 한다.In addition, the process of detecting the person includes obtaining a motion map image through the following (Equation 8), dividing the motion map image into sub-areas of 8 × 8 pixels, and summing the pixel intensity values of the sub-areas. It characterized in that it is carried out in the step of detecting a person through the step and the following (Equation 9).

본 발명의 실시 예들에 따른 오버헤드 카메라를 이용한 사람 추적 방법 의 효과에 대해 설명하면 다음과 같다.An effect of a method for tracking a person using an overhead camera according to embodiments of the present invention will be described as follows.

본 발명은 종래의 방법의 정확도(48 %)에 비하여, 높은 정확도(약 99 %)가 나타날 수 있다.Compared to the accuracy of the conventional method (48%), the present invention can exhibit high accuracy (about 99%).

또한 본 발명은 종래의 방법과는 달리, 추가적으로 사람이 존재 유무까지 정확하게 식별할 수 있다. In addition, unlike the conventional method, the present invention can further accurately identify the presence or absence of a person.

또한 본 발명은 정지된 사람을 오랜 시간 동안 탐지하는 것이 가능하고, 가려진 것을 처리하는 것, 환경의 급격한 변화를 가져오는 것등을 보정하여 추적을 효과적이고 정확하게 수행할 수 있다.In addition, according to the present invention, it is possible to detect a stationary person for a long period of time, and correcting for processing a hidden object or causing a sudden change in the environment can perform tracking effectively and accurately.

다만, 본 발명의 실시 예들에 따른 오버헤드 카메라를 이용한 사람 추적 방법이 달성할 수 있는 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects that can be achieved by the method for tracking a person using an overhead camera according to the embodiments of the present invention are not limited to those mentioned above, and other effects not mentioned are the technology to which the present invention belongs from the following description. It will be clearly understood by those of ordinary skill in the field.

본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 사상을 설명한다.
도 1의 (a)는 사이드/노말 뷰(side/normal view)를 통해 얻은 사람들의 이미지이고, 도 1의 (b)는 오버헤드 뷰(overhead view)를 통해 얻은 사람들의 이미지이다.
도 2는 본 발명에 따른 사람 추적 방법의 흐름도이다.
도 3은 본 발명에 따른 얼룩 검출 과정을 도시한 것이다.
도 4는 본 발명의 성능을 시험하기 위한 테스트 시퀀스이다.
도 5는 검출된 모든 위치의 거리에 따른 정확도를 나타낸 그래프이다.
도 6은 도 4의 시퀀스 1에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다.
도 7은 도 4의 시퀀스 2에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다.
도 8은 도 4의 시퀀스 3에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다.
도 9는 도 4의 시퀀스 4에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다.
The accompanying drawings, which are included as part of the detailed description to aid in understanding of the present invention, provide embodiments for the present invention, and describe the technical idea of the present invention together with the detailed description.
FIG. 1(a) is an image of people obtained through a side/normal view, and FIG. 1(b) is an image of people obtained through an overhead view.
2 is a flowchart of a method for tracking a person according to the present invention.
3 shows a process of detecting spots according to the present invention.
4 is a test sequence for testing the performance of the present invention.
5 is a graph showing accuracy according to distances of all detected locations.
6 is a comparison between the tracking method of the present invention and the MS algorithm in Sequence 1 of FIG. 4.
7 is a comparison between the tracking method of the present invention and the MS algorithm in Sequence 2 of FIG. 4.
8 is a comparison of the tracking method of the present invention and the MS algorithm in Sequence 3 of FIG. 4.
9 is a comparison of the tracking method of the present invention and the MS algorithm in Sequence 4 of FIG. 4.

본 명세서 및 특허청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정하여 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해서 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합되는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 하나의 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다. 이하에서는, 첨부된 도면을 참조하여 본 발명의 실시예에 따른 오버헤드 카메라를 이용한 사람 추적 방법을 상세하게 설명하기로 한다.The terms or words used in this specification and claims are not limited to their usual or dictionary meanings and should not be interpreted, and the inventor should appropriately define the concept of terms in order to describe his own invention in the best way. Based on the principle that it is possible, it should be interpreted as a meaning and concept consistent with the technical idea of the present invention. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are only one of the most preferred embodiments of the present invention, and do not represent all the technical ideas of the present invention, so that they can be replaced at the time of application. It should be understood that there may be various equivalents and variations. Hereinafter, a method for tracking a person using an overhead camera according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명에 따른 사람 추적 방법의 흐름도이다.2 is a flowchart of a method for tracking a person according to the present invention.

본 발명은 이미지 내의 관련 이동 영역을 검출할 수 있는 추적 알고리즘을 기반으로 한다. 본 발명은 이러한 추적 알고리즘에 그리고 rHOG 알고리즘을 통합함으로써 간단하면서도 효과적인 사람 추적 방법을 제공한다. rHOG 알고리즘은 널리 알려진 알고리즘으로서 여기서의 자세한 설명은 생략한다.The present invention is based on a tracking algorithm capable of detecting the relevant moving area within an image. The present invention provides a simple yet effective human tracking method by incorporating the rHOG algorithm into this tracking algorithm. The rHOG algorithm is a widely known algorithm, and its detailed description is omitted here.

도 2를 참조하여 본 발명에 따른 사람 추적 방법을 설명한다.A method for tracking a person according to the present invention will be described with reference to FIG. 2.

먼저 주어진 영상 내에 존재하는 사람을 검출하고, 상기 검출된 사람이 위치한 클러스터(cluster)를 반환한다. 이 경우, rHOG 알고리즘을 사용하여, 해당 영상을 스캔함으로써 영상 내에 존재하는 사람을 식별할 수 있다. 이 때, rHOG 알고리즘은 계속하여 영상을 스캔하고, 사람이 검출되는 경우, 검출된 사람과 해당 위치의 클러스터 생성을 개시한다.First, a person present in a given image is detected, and a cluster in which the detected person is located is returned. In this case, using the rHOG algorithm, a person present in the image can be identified by scanning the image. At this time, the rHOG algorithm continuously scans the image, and when a person is detected, it starts generating a cluster of the detected person and the corresponding location.

즉, 클러스터 각각에 대하여 하기 (수학식 1)로 표현되는 클러스터 객체(

Figure 112020028280747-pat00011
)를 생성한다.That is, for each cluster, a cluster object represented by the following (Equation 1) (
Figure 112020028280747-pat00011
).

(수학식 1)(Equation 1)

Figure 112018129289318-pat00012
Figure 112018129289318-pat00012

여기서

Figure 112020028280747-pat00013
은 캡쳐된 이미지 이름,
Figure 112020028280747-pat00014
는 이미지의 캡쳐 시간,
Figure 112020028280747-pat00015
는 사람이 검출된 위치,
Figure 112020028280747-pat00016
는 클러스터의 중심(centroid)으로
Figure 112020028280747-pat00017
으로 표현되며,
Figure 112020028280747-pat00018
는 클러스터 구성원, 즉 검출된 사람의 구분자 모두이다.
Figure 112020028280747-pat00019
는 클러스터의 모든 검출된 사람의 평균 위치를 나타낸다. 이후, 상기 클러스터 객체를 통하여 하기 (수학식 2)와 같이, 클러스터 오브젝터 목록(
Figure 112020028280747-pat00020
)을 생성한다.here
Figure 112020028280747-pat00013
Is the name of the captured image,
Figure 112020028280747-pat00014
Is the capture time of the image,
Figure 112020028280747-pat00015
Where the person was detected,
Figure 112020028280747-pat00016
Is the centroid of the cluster
Figure 112020028280747-pat00017
Is expressed as
Figure 112020028280747-pat00018
Is all of the cluster members, i.
Figure 112020028280747-pat00019
Represents the average location of all detected people in the cluster. Thereafter, through the cluster object, as shown in the following (Equation 2), the cluster object list (
Figure 112020028280747-pat00020
).

(수학식 2)(Equation 2)

Figure 112018129289318-pat00021
Figure 112018129289318-pat00021

여기서

Figure 112018129289318-pat00022
Figure 112018129289318-pat00023
번째 클러스터 객체이고,
Figure 112018129289318-pat00024
은 자연수이다.here
Figure 112018129289318-pat00022
silver
Figure 112018129289318-pat00023
Is the first cluster object,
Figure 112018129289318-pat00024
Is a natural number.

다음으로, 각 클러스터 객체(

Figure 112018129289318-pat00025
)마다 하기 (수학식 3)으로 표현되는 추적 객체(
Figure 112018129289318-pat00026
)를 생성한다.Next, each cluster object (
Figure 112018129289318-pat00025
) For each tracking object represented by the following (Equation 3) (
Figure 112018129289318-pat00026
).

(수학식 3)(Equation 3)

Figure 112018129289318-pat00027
Figure 112018129289318-pat00027

여기서

Figure 112020028280747-pat00131
는 프레임이 기록된 시간들,
Figure 112020028280747-pat00132
는 이에 대응한 이미지의 이름들,
Figure 112020028280747-pat00133
은 이에 대응한 사람이 검출된 위치들,
Figure 112020028280747-pat00134
는 해당 클러스터 객체 이름,
Figure 112020028280747-pat00135
는 해당 추적장치의 위치이다.here
Figure 112020028280747-pat00131
Is the times the frames were recorded,
Figure 112020028280747-pat00132
Is the names of the corresponding images,
Figure 112020028280747-pat00133
Is the locations where the corresponding person was detected,
Figure 112020028280747-pat00134
Is the corresponding cluster object name,
Figure 112020028280747-pat00135
Is the location of the tracking device.

추적 객체는 미리 정의된 각 클러스터 객체마다 도입된다. 이미지 또는 영상의 이름, 사람들이 검출된 위치, 프레임이 기록된 시간, 추적장치의 위치 및 추적 객체와의 연관성으로 구성된 클러스터 객체가 추적 객체의 속성이 될 수 있다. The tracking object is introduced for each predefined cluster object. A cluster object composed of a name of an image or video, a location where people are detected, a time when a frame is recorded, a location of a tracking device, and a relationship with the tracking object may be a property of the tracking object.

상기 추적 객체(

Figure 112018129289318-pat00033
)를 통해 하기 (수학식 4)와 같이 추적 오브젝터 목록(
Figure 112018129289318-pat00034
)을 생성한다.The tracking object (
Figure 112018129289318-pat00033
) Through the list of tracking objects as shown in (Equation 4) below (
Figure 112018129289318-pat00034
).

(수학식 4)(Equation 4)

Figure 112018129289318-pat00035
Figure 112018129289318-pat00035

여기서

Figure 112020028280747-pat00036
Figure 112020028280747-pat00037
번째 추적 객체이고,
Figure 112020028280747-pat00038
은 자연수이다. 이후 추적 객체가 지속적으로 업데이트될 수 있다. 상기 수학식 4는 목록 형식으로 추가된 추적(Tracker) 객체를 보여준다.here
Figure 112020028280747-pat00036
silver
Figure 112020028280747-pat00037
Is the first tracking object,
Figure 112020028280747-pat00038
Is a natural number. Thereafter, the tracking object may be continuously updated. Equation 4 shows a tracker object added in a list format.

다음으로, 상기 추적 오브젝터 목록(

Figure 112020028280747-pat00039
)에서 다음 프레임의 동일한 영역 내의 추적 대상 객체(사람)를 선택하여, 상기 다음 프레임에서 선택된 추적 대상 객체의 위치를 추정한다. 즉, 다음 프레임의 동일한 영역 내에서, 추적 오브젝터 목록의 각 객체를 선택하여 추적 대상 객체의 위치를 계산한다. 이는 반복적으로 수행될 수 있다. Next, the tracking object list (
Figure 112020028280747-pat00039
In ), a tracking target object (person) within the same area of the next frame is selected, and the location of the selected tracking target object in the next frame is estimated. That is, within the same area of the next frame, each object in the tracked object list is selected and the location of the tracked object is calculated. This can be done repeatedly.

추적 대상 객체의 위치를 계산하기 위한 속도(

Figure 112020028280747-pat00040
)와 속력(
Figure 112020028280747-pat00041
)(즉, 속도의 크기)는 하기 (수학식 5)를 통해 계산될 수 있다.The velocity for calculating the position of the object being tracked (
Figure 112020028280747-pat00040
) And speed (
Figure 112020028280747-pat00041
) (That is, the magnitude of the velocity) can be calculated through the following (Equation 5).

(수학식 5)(Equation 5)

Figure 112018129289318-pat00042
Figure 112018129289318-pat00042

이후 다음과 같은 과정 중 하나를 따른다.Then follow one of the following steps.

a) 추적 대상 객체가 1 개의 감지된 위치와 동일한 경우

Figure 112020028280747-pat00043
는 0이 된다. 그러나 이는 탐지되는 첫 번째 프레임의 경우에만 해당된다. a) If the object to be tracked is the same as one detected position
Figure 112020028280747-pat00043
Becomes 0. However, this only applies to the first frame to be detected.

b) 추적 대상 객체가 2 개의 감지된 위치를 갖는 경우(cluster size=2)

Figure 112020028280747-pat00044
이다. 여기서
Figure 112020028280747-pat00045
Figure 112020028280747-pat00046
는 각각 거리와 시간의 차이를 나타낸다. b) When the object to be tracked has two detected locations (cluster size=2)
Figure 112020028280747-pat00044
to be. here
Figure 112020028280747-pat00045
Wow
Figure 112020028280747-pat00046
Represents the difference between distance and time, respectively.

c) 추적 대상 객체가 2개 초과된 감지 위치를 가진다면(cluster size>2), 평균 속도는 최대 10 개(k=1,2,..n=10)의 이전 탐지 위치를 사용하여 결정된다.c) If the object to be tracked has more than 2 detection positions (cluster size>2), the average velocity is determined using a maximum of 10 (k=1,2,..n=10) previous detection positions. .

다음으로, 추적 대상 객체의 위치를 하기 (수학식 6)과 같은 방식으로 추정하여 근사화한다.Next, the location of the object to be tracked is estimated and approximated in the same manner as in (Equation 6) below.

(수학식 6)(Equation 6)

Figure 112018129289318-pat00047
Figure 112018129289318-pat00047

여기서

Figure 112020028280747-pat00048
는 추적 대상 객체의 예상 위치(다음 프레임에서 추정되는 사람의 위치),
Figure 112020028280747-pat00049
는 추적 대상 객체의 이전 위치(이전 프레임들에서의 사람의 위치)이다. 여기서
Figure 112020028280747-pat00050
는 다음 프레임에서의 얼룩의 움직임을 추정하는데 사용된다.here
Figure 112020028280747-pat00048
Is the expected position of the object to be tracked (the position of the person estimated in the next frame),
Figure 112020028280747-pat00049
Is the previous position of the object to be tracked (the position of the person in the previous frames). here
Figure 112020028280747-pat00050
Is used to estimate the motion of the blob in the next frame.

다음으로, 다음 프레임의 탐색 영역(

Figure 112018129289318-pat00051
)을 하기 (수학식 7)과 같이 계산한다.Next, the search area of the next frame (
Figure 112018129289318-pat00051
) Is calculated as the following (Equation 7).

(수학식 7)(Equation 7)

Figure 112018129289318-pat00052
Figure 112018129289318-pat00052

여기서

Figure 112020028280747-pat00053
(Pixel Window, 가로 및 세로 픽셀 크기)는
Figure 112020028280747-pat00054
,
Figure 112020028280747-pat00055
는 추적 객체의 위치변화이다. 본 발명에 따른 사람 추적 방법은 사람의 평균 너비를 나타내는 약 64 픽셀의 영역을 분석한다. 검출된 각 얼룩이 적어도 사람의 50 % 크기 이상인 것이 일반적이다. 따라서 이러한 정보를 사용하여 (수학식 7)과 같이 적절한 정사각형(square) 크기의 검색 영역
Figure 112020028280747-pat00056
를 계산한다. 첫째로, 크기가
Figure 112020028280747-pat00057
가 32 × 32 픽셀인 얼룩을 찾는다. 나머지 프레임들 내의 모든 후속 탐색들에 대해,
Figure 112020028280747-pat00058
는 거리의 이전 궤적의 정보를 통해 갱신될 수 있다.here
Figure 112020028280747-pat00053
(Pixel Window, horizontal and vertical pixel size)
Figure 112020028280747-pat00054
,
Figure 112020028280747-pat00055
Is the position change of the tracking object. The person tracking method according to the present invention analyzes an area of about 64 pixels representing an average width of a person. It is common for each spot detected to be at least 50% of the size of a person. Therefore, using this information, a search area of an appropriate square size, such as (Equation 7)
Figure 112020028280747-pat00056
Calculate First, the size
Figure 112020028280747-pat00057
Finds a blob of 32 × 32 pixels. For all subsequent searches in the remaining frames,
Figure 112020028280747-pat00058
May be updated through information on the previous trajectory of the distance.

다음으로, 상기 다음 프레임의 탐색 영역 내에 존재하는 사람을 검출한다. Next, a person present in the search area of the next frame is detected.

탐색 영역 내에 사람이 검출되지 않는 경우, 해당 추적 대상 객체를 제거하고, 사람이 검출되는 경우, 이전의 위치와 현재 위치의 거리를 비교하여, 상기 거리가 40 픽셀 이하라면 추적 대상 객체 및 클러스터의 중심을 업데이트하고, 상기 거리가 40 픽셀보다 크다면 새로운 추적 객체를 생성한다.If a person is not detected in the search area, the object to be tracked is removed, and if a person is detected, the distance between the previous location and the current location is compared, and if the distance is less than 40 pixels, the center of the object to be tracked and the cluster And, if the distance is greater than 40 pixels, a new tracking object is created.

추적된 사람 객체는 프레임에서 사람의 새로운 탐지된 위치를 사용하여 업데이트 된 다음 앞의 단계를 반복한다. 감지된 위치가 기존 추적 객체에서 40 픽셀 이상 떨어져 있는 다른 모든 거리의 경우 추적 모듈의 새로운 추적 객체가 만들어진다. 이후 새로운 추적 객체에 대해 앞의 단계를 반복한다. rHOG 알고리즘이 최대 5개 프레임까지 기존 추적 객체에 대한 적합성을 탐지할 수 없는 경우 해당 객체는 제거된다. 나머지 추적 오브젝터 목록은 적합성 여부를 검사하여, 비어 있지 않은 목록이 발견되거나 추적 과정을 중단할 때 앞의 단계를 거친다. The tracked person object is updated with the person's new detected position in the frame, then repeats the previous step. For all other distances where the detected position is 40 pixels or more away from the existing tracking object, a new tracking object of the tracking module is created. Afterwards, the previous steps are repeated for the new tracking object. If the rHOG algorithm cannot detect the suitability of the existing tracking object up to 5 frames, the object is removed. The rest of the tracking object list is checked for suitability and goes through the previous steps when a non-empty list is found or the tracking process is stopped.

한편, 본 발명은 성능을 높이기 위해 얼룩 탐지 모듈이 추가적으로 보완될 수 있다. 도 3은 본 발명에 따른 얼룩 검출 과정을 도시한 것이다.Meanwhile, in the present invention, a spot detection module may be additionally supplemented to improve performance. 3 shows a process of detecting spots according to the present invention.

이는 이동 가능성이 더 높은 영상 영역만 찾을 수 있다는 점에서 상당한 이점이 있다. 얼룩 탐지 모듈을 통하여 사람을 검출하는 과정은 하기와 같은 단계로 수행된다.This has a significant advantage in that only an image area with a higher possibility of movement can be found. The process of detecting a person through the spot detection module is performed in the following steps.

먼저 하기 (수학식 8)과 같이 연속된 프레임을 통해 모션맵 이미지를 얻는다. 도 3의 (a)는 원본 이미지, (b)는 모션 맵 이미지이다. First, a motion map image is obtained through continuous frames as shown in Equation 8 below. 3A is an original image and (b) is a motion map image.

(수학식 8)(Equation 8)

Figure 112018129289318-pat00059
Figure 112018129289318-pat00059

여기서

Figure 112018129289318-pat00060
는 모션맵 이미지,
Figure 112018129289318-pat00061
,
Figure 112018129289318-pat00062
는 연속된 프레임이다.here
Figure 112018129289318-pat00060
Is the motion map image,
Figure 112018129289318-pat00061
,
Figure 112018129289318-pat00062
Is a continuous frame.

이후 상기 모션맵 이미지를 8 × 8 픽셀의 하위 영역들로 나누고, 상기 하위 영역들의 픽셀 강도 값을 합산한다. 이같은 과정을 거친 이미지가 도 3의 (c)에 도시되어 있다. 이후 합산된 픽셀 강도 값과 임계값을 비교하여 최종적으로 얼룩여부를 판단한다. 이는 (수학식 9)와 같이 표현될 수 있다.Thereafter, the motion map image is divided into sub-areas of 8 × 8 pixels, and pixel intensity values of the sub-areas are summed. The image through this process is shown in (c) of FIG. 3. Thereafter, the summed pixel intensity value and the threshold value are compared to finally determine whether or not the pixel is uneven. This can be expressed as (Equation 9).

(수학식 9)(Equation 9)

Figure 112018129289318-pat00063
Figure 112018129289318-pat00063

여기서

Figure 112020028280747-pat00064
는 상기 하위 영역들의 합산된 픽셀 강도 값,
Figure 112020028280747-pat00065
는 임계값이다. 도 3의 (d)는 임계 값인
Figure 112020028280747-pat00066
을 적용하고 모션맵 이미지 32 × 32 픽셀을 하위영역들로 나누어 검출한 경우를 도시한 것이고, 도 3의 (e)는 임계 값이 적용되고 작은 얼룩이 제거 된 후 분할된 이미지를 도시한 것이다.here
Figure 112020028280747-pat00064
Is the summed pixel intensity value of the sub-areas,
Figure 112020028280747-pat00065
Is the threshold. Figure 3 (d) is the threshold value
Figure 112020028280747-pat00066
Is applied and the motion map image is detected by dividing 32 × 32 pixels into sub-areas, and FIG. 3(e) shows the divided image after a threshold value is applied and small spots are removed.

도 4는 본 발명의 성능을 시험하기 위한 테스트 시퀀스이다. 도 4의 (a)는 시퀀스 1, (b)는 시퀀스 2, (c)는 시퀀스 3, (d)는 시퀀스 4이다.4 is a test sequence for testing the performance of the present invention. 4A shows sequence 1, (b) shows sequence 2, (c) shows sequence 3, and (d) shows sequence 4.

작업 영역을 제한하는 바닥에 특별한 특성이 있지만 사람의 움직임에는 영향일 미치지 않으며, 사람의 옷 색깔은 제한이 없다. 이미지 (640 Х 480 픽셀)는 5m 높이의 PTZ 카메라에서 초당 20 프레임의 비율로 캡처 되었다. PTZ 212 카메라의 사양은 Fujinon 렌즈, F1.8, 고정 조리개, 수직 시야각 : 35°내지 105 ° 및 수평 시야각 : 44 ° 내지 140 °이다.The floor that limits the working area has special characteristics, but it does not affect the movement of people, and the color of people's clothes is not limited. Images (640 x 480 pixels) were captured on a 5m high PTZ camera at a rate of 20 frames per second. The specifications of the PTZ 212 camera are Fujinon lens, F1.8, fixed aperture, vertical viewing angle: 35° to 105° and horizontal viewing angle: 44° to 140°.

알고리즘의 성능을 평가하기 위해 도 4에 도시된 4 가지 테스트 시퀀스를 사용하여 기존의 알고리즘과 비교하였다. 비교를 위해 각 테스트 시퀀스는 수동으로, 즉 실측 자료(ground truth) 를 사용하여) 자동으로 검사되고, 테스트 비디오에서 사람들의 궤적 / 경로를 기반으로 비교되었다. 도 4의 (d)에 도시된 마지막 테스트 시퀀스는 다른 시퀀스들에 비해 비교적 복잡한데, 이는 자동차 조립체에서 용접을 수행하는 동안 사람의 지그재그로의 움직임이 많기 때문이다.In order to evaluate the performance of the algorithm, the four test sequences shown in FIG. 4 were used to compare with the existing algorithm. For comparison, each test sequence was automatically inspected manually, i.e. using ground truth, and compared based on people's trajectory/path in the test video. The last test sequence shown in (d) of FIG. 4 is relatively complex compared to other sequences, because there is a lot of zigzag movement of a person while performing welding in an automobile assembly.

도 5는 검출된 모든 위치의 거리에 따른 정확도를 나타낸 그래프이다.5 is a graph showing accuracy according to distances of all detected locations.

x축은 검출 된 모든 위치의 거리를 나타내고, y축은 검출 속도 또는 적확도를 나타낸다. 도 5를 참조하면, 본 발명에 따른 사람 추적 방법은 기존의 알고리즘과 비교하여 훨씬 높은 적중률이 나타나는 것을 확인할 수 있다. 일 예로 거리가 20 픽셀인 경우 본 발명은 99 %의 정확도가 나타났지만, MS 알고리즘의 경우 64 %의 정확도가 나타났다. 이하에서는 각 시퀀스에 대하여 본원 발명의 추적 방법과 MS 알고리즘을 구체적으로 비교해 본다.The x-axis represents the distances of all detected locations, and the y-axis represents the detection speed or accuracy. Referring to FIG. 5, it can be seen that the method for tracking a person according to the present invention exhibits a much higher hit rate compared to the existing algorithm. For example, when the distance is 20 pixels, the present invention has an accuracy of 99%, but the MS algorithm has an accuracy of 64%. Hereinafter, for each sequence, the tracking method of the present invention and the MS algorithm are compared in detail.

도 6은 도 4의 시퀀스 1에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다. 도 6의 (a), (b)는 본 발명에 따른 추적 방법을 통하여 수행된 것이고, 도 6의 (c), (d)는 MS 알고리즘을 통하여 수행된 결과이다.6 is a comparison between the tracking method of the present invention and the MS algorithm in Sequence 1 of FIG. 4. 6A and 6B are performed through the tracking method according to the present invention, and FIGS. 6C and 6D are results performed through the MS algorithm.

비디오 테스트 세트의 시작시간 점프는 0.5, 0.55, 0.8, 0.65초이다. 누락된 프레임에서 MS 알고리즘은 사용자의 위치를 감지할 수 있다. 도 6의 (b)는 이러한 시간 차이를 보여준다. 시험 시퀀스 동안에, 사람이 일을 시작하고 여러 번 손을 움직이기 시작하면, MS 알고리즘에서는 얼룩의 중심이 사람에서 팔꿈치로 이동된다는 것이 관찰되었다.The start time jumps for the video test set are 0.5, 0.55, 0.8, and 0.65 seconds. In the missed frame, the MS algorithm can detect the user's location. 6B shows this time difference. During the test sequence, it was observed that if a person starts working and starts moving his hand several times, the MS algorithm shifts the center of the blob from the person to the elbow.

이는 이른바 "탐지되지 않은 위치"(undetected positions)로 이어진다. MS 알고리즘의 약점은 소수의 프레임에서 사용자가 전혀 감지하지 못한다는 것이다. 실제 이와 같은 현상이 테스트 시퀀스 중간에 관찰되었다. 즉, 실제 관측 자료에 대한 위치의 검출에 약점이 나타나고 있음을 알 수 있다.This leads to so-called "undetected positions". The weakness of the MS algorithm is that it is completely undetectable by the user in a few frames. In fact, this phenomenon was observed in the middle of the test sequence. In other words, it can be seen that a weakness appears in the detection of the location of the actual observation data.

반면, 본 발명에 따른 추적 방법을 통해 수행된 결과는 도 6의 (c) 및 (d)에 나타나있다. 도 6의 (c), (d)에 나타난 수치를 참조하면, 본 발명은 모든 연속된 프레임에서 사람을 탐지할 수 있는 것을 확인할 수 있다. 이는 본 발명에 따른 추적 방법이 MS 알고리즘 보다 향상된 성능이 나타났음을 의미한다. 구체적으로 MS 알고리즘을 통해 나타난 정확도(55 %) 보다 현저히 향상된 정확도(97 %)가 나타났다. 편차 또한 MS 알고리즘에서 나타난 13 픽셀에 비해 7 픽셀의 더 낮은 편차가 나타난 것으로 확인되었다.On the other hand, the results performed through the tracking method according to the present invention are shown in (c) and (d) of FIG. 6. Referring to the numerical values shown in (c) and (d) of FIG. 6, it can be seen that the present invention can detect a person in all consecutive frames. This means that the tracking method according to the present invention has improved performance compared to the MS algorithm. Specifically, the accuracy (97%) was significantly improved than the accuracy (55%) shown through the MS algorithm. The deviation was also confirmed to have a lower deviation of 7 pixels compared to the 13 pixels shown in the MS algorithm.

도 7은 도 4의 시퀀스 2에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다. 도 7의 (a), (b)는 본 발명에 따른 추적 방법을 통하여 수행된 것이고, 도 7의 (c), (d)는 MS 알고리즘을 통하여 수행된 결과이다.7 is a comparison between the tracking method of the present invention and the MS algorithm in Sequence 2 of FIG. 4. 7A and 7B are performed through the tracking method according to the present invention, and FIGS. 7C and 7D are results performed through the MS algorithm.

테스트 시퀀스 2에서는 MS 알고리즘이 비디오 시퀀스의 많은 위치를 놓친 것을 확인할 수 있다. 또한 감지된 얼룩은 매우 멀리 있고 실측 자료와 다른 것으로 발견되었으며, 크기가 매우 작았다. 이는 그림 7(a)와 (b)에 나타나 있다. MS 알고리즘으로 식별된 얼룩 크기는 8 Х 20 픽셀이었고, 인체의 작은 부위만 차지했기 때문에 얼룩은 사람의 실제 위치에 부합하지 않은 것을 알 수 있다.In test sequence 2, it can be seen that the MS algorithm missed many locations in the video sequence. In addition, the detected stains were found to be very far away from the actual data, and were very small in size. This is shown in Figures 7(a) and (b). The size of the stain identified by the MS algorithm was 8 Х 20 pixels, and because it occupied only a small part of the human body, it can be seen that the stain does not correspond to the actual position of the person.

반면, 본 발명에 따른 추적 방법은 32 Х 32 픽셀 이상의 사람을 나타내는 가정에 기초하였기 때문에, 가령 사람의 몸통에 있는 작은 얼룩들에 의한 영향을 무시할 수 있었다. 따라서 32Х32 픽셀 임계값 아래의 모든 얼룩이 삭제된다. 도 7의 (c) 및 (d)를 참조하면, 본 발명에 따른 추적 방법은 감지된 위치뿐만 아니라 정확도에 있어서도 MS 알고리즘의 성능을 능가한다는 것을 확인할 수 있다. 검출 속도는 MS 알고리즘의 경우, 평균 거리 13 픽셀 내에서 35.8 %로 나타났으나, 본 발명에 따른 추적 방법은 평균 거리 6 픽셀에서 100 %로 나타났다.On the other hand, since the tracking method according to the present invention is based on the assumption representing a person of 32 占32 pixels or more, the influence of small spots on the body of a person can be ignored. Thus, all blobs below the 32Х32 pixel threshold are deleted. Referring to FIGS. 7C and 7D, it can be seen that the tracking method according to the present invention exceeds the performance of the MS algorithm in accuracy as well as the detected position. In the case of the MS algorithm, the detection speed was 35.8% within an average distance of 13 pixels, but the tracking method according to the present invention was found to be 100% at an average distance of 6 pixels.

도 8은 도 4의 시퀀스 3에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다. 도 8의 (a), (b)는 본 발명에 따른 추적 방법을 통하여 수행된 것이고, 도 8의 (c), (d)는 MS 알고리즘을 통하여 수행된 결과이다.8 is a comparison of the tracking method of the present invention and the MS algorithm in Sequence 3 of FIG. 4. 8(a) and (b) are performed through the tracking method according to the present invention, and FIGS. 8(c) and (d) are results performed through the MS algorithm.

도 8의 (a) 및 (b)는 MS 알고리즘에 대한 테스트 시퀀스 3을 나타낸다. 이를 참조하면, 감지된 얼룩이 사람의 몸에 위치하지 않고 대부분 사람의 어깨나 팔 위에 위치하며 크기가 작은 것을 확인할 수 있다. 이러한 이미지에서 대부분의 얼룩은 크기와 위치 때문에 감지되지 않는다. 이는 도 8의 (a)에 도시되어 있다. 도 8의 (b)에는 191 프레임 후에 20회 스캔의 시간 간격을 통해 관찰한 결과가 나타나있다.8A and 8B show test sequence 3 for the MS algorithm. Referring to this, it can be seen that the detected stain is not located on a person's body, but is mostly located on a person's shoulder or arm, and has a small size. Most of the blobs in these images are not detected because of their size and location. This is shown in Figure 8 (a). Figure 8(b) shows the results observed through the time interval of 20 scans after 191 frames.

이러한 MS 알고리즘과 비교하여 본 발명에 따른 추적 방법은 훨씬 개선된 검출 결과를 보여준다. 본 발명에 따른 추적 방법은 처음부터 즉시 탐지를 시작하며, 탐지 대상자의 위치에 대한 실측 자료 측면에서 향상된 탐지 기능을 제공하였다. 본 발명에 따른 추적 방법은 시간 간격 동안 추적을 계속하여 앞서 언급한 20초와 같은 큰 시간 갭을 처리하였다. 정지 상태에서 사람을 감지하지 못한 MS 알고리즘과 비교했을 때, 본 발명은 사람이 정적인 상태를 유지했음에도 불구하고 계속해서 사람을 탐지할 수 있었다. 이러한 탐지 결과는 도 8의 (c) 및 (d)에 나타나 있다. 이를 참조하면, 그래프 어느 지점이든 실측에 가깝게 검출되는 것을 확인할 수 있다.Compared with this MS algorithm, the tracking method according to the present invention shows a much improved detection result. The tracking method according to the present invention starts detection immediately from the beginning, and provides an improved detection function in terms of actual measurement data on the location of a target to be detected. The tracking method according to the present invention handles a large time gap such as the aforementioned 20 seconds by continuing tracking for a time interval. Compared with the MS algorithm, which does not detect a person in a stationary state, the present invention was able to detect a person continuously even though the person was in a static state. These detection results are shown in (c) and (d) of FIG. 8. Referring to this, it can be confirmed that any point in the graph is detected close to the actual measurement.

하기 표 1은 앞서 설명한 시퀀스 1, 2, 3에서 얻은 결과를 비교한 것이다. 여기서 HR은 정확도를 나타내며, MSE는 제곱근 오류를 나타낸다.Table 1 below compares the results obtained in Sequences 1, 2, and 3 described above. Here, HR stands for accuracy and MSE stands for square root error.

(표 1)(Table 1)

Figure 112018129289318-pat00067
Figure 112018129289318-pat00067

그 결과 평균 탐지율이 99.08 %로 나타난 본 발명이 다른 모든 알고리즘보다 높은 것으로 나타났다. 본 발명을 제외한 다른 알고리즘 중에서 가장 높은 정확도는 MS 추적 방법의 48.38 % 방법이었다.As a result, the present invention showed an average detection rate of 99.08%, which was higher than all other algorithms. The highest accuracy among other algorithms except for the present invention was 48.38% of the MS tracking method.

도 9는 도 4의 시퀀스 4에서, 본원 발명의 추적 방법과 MS 알고리즘을 비교한 것이다. 9 is a comparison of the tracking method of the present invention and the MS algorithm in Sequence 4 of FIG. 4.

시험 시퀀스 번호 4는 시나리오의 갑작스럽고 역동적인 변화 및 프레임 내 데이터의 차이로 인해 복잡한 특성을 가지고 있다. 시퀀스는 관측된 데이터 공백이 있는 1021 개의 프레임으로 구성된다. 이 프레임에서 사람은 약 8초라는 한번의 긴 점프 구간을 제외하고 한 방향으로 40 픽셀 반경으로 유지되었다. 시간이 건너뛰는 동안 사람의 위치 변화는 원래 위치와 동일한 수평 방향으로 관찰되며, 이는 약 100 픽셀이다.Test sequence number 4 has a complex characteristic due to the sudden and dynamic change of the scenario and the difference in data within the frame. The sequence consists of 1021 frames with observed data gaps. In this frame, the person was held at a radius of 40 pixels in one direction, except for one long jump of about 8 seconds. Over time, a person's position change is observed in the same horizontal direction as the original position, which is about 100 pixels.

비디오 총 시간 길이는 76초이며 거의 30초 분량의 데이터가 누락되었다. 누락된 30초는 총 730개의 프레임으로 구성된다. 용접으로 인한 와이어, 기계 및 스파크가 있기 때문에 환경의 복잡성이 나타난다. 사람은 이 환경 안에 가려져 있다. The total length of the video is 76 seconds, and nearly 30 seconds of data are missing. The missing 30 seconds consist of a total of 730 frames. The complexity of the environment arises because there are wires, machinery and sparks from welding. People are hidden in this environment.

본 발명에 따른 추적 방법을 다른 세 개의 알고리즘과 비교한다. 사람의 감지된 위치의 궤적은 도 9에서 확인할 수 있다. 도 9의 (a)를 참조하면, 일부가 한계점 이상의 위치에 있는 것으로 관찰되며, 실제 관측과는 거리가 있는 것으로 나타난다. 이는 용접 기계로 인한 불꽃이 거짓으로 감지된 얼룩을 만들기 때문이다. The tracking method according to the present invention is compared with the other three algorithms. The trajectory of the detected position of the person can be confirmed in FIG. 9. Referring to (a) of FIG. 9, it is observed that some are located above the threshold, and there is a distance from the actual observation. This is because the sparks from the welding machine create falsely perceived spots.

도 9의 (d)는 시퀀스에서 관찰된 시간 간격을 나타내기 위해 x축의 시간 대비 Y축의 실제 관측 자료를 나타낸 것이다. 도 9의 (c) 및 (b)는 각각 본 발명에 따른 추적 방법과 시간 및 실제 관측 자료에 대한 MS 추적 알고리즘을 사용해 검출된 얼룩 위치의 궤적을 나타낸다. 9D shows actual observation data on the Y-axis versus the time on the x-axis to indicate the time interval observed in the sequence. 9C and 9B show trajectories of spot locations detected using a tracking method according to the present invention and an MS tracking algorithm for time and actual observation data, respectively.

이러한 그래프의 결과는 비디오 시퀀스 프레임에서 시간 간격을 가진 사람의 위치를 감지하는 측면에서의 성능을 보여주는 것으로, 이를 표 2에 나타내었다.The result of this graph shows the performance in terms of detecting the position of a person with a time interval in a video sequence frame, and is shown in Table 2.

(표 2)(Table 2)

Figure 112018129289318-pat00068
Figure 112018129289318-pat00068

테스트 시퀀스 4는 용접 등과 같은 환경에서 발생하는 교차 및 기타 방해 요인으로 인해 가장 복잡한 시퀀스이지만, 본 발명에 따른 추적 방법이 다른 검출 알고리즘 보다 높은 정확도를 나타냈다. 본 발명을 제외한 다른 알고리즘에서 나타난 가장 높은 정확도는 31.2 %에 불과하여, 97.8 %의 정확도가 나타난 본원 발명과는 현저한 차이가 존재하는 것을 알 수 있었다. Test sequence 4 is the most complex sequence due to crossover and other disturbing factors occurring in an environment such as welding, but the tracking method according to the present invention exhibited higher accuracy than other detection algorithms. The highest accuracy found in other algorithms other than the present invention was only 31.2%, and it was found that there is a significant difference from the present invention, which showed an accuracy of 97.8%.

본 발명은 오버헤드 카메라를 통하여 사람들을 추적하는 효과적인 방법을 개시한다. 본 발명은 시간 간격이 크더라도 정지된 사람을 효과적으로 탐지하고 추적할 수 있다.The present invention discloses an effective method of tracking people through an overhead camera. The present invention can effectively detect and track a stationary person even if the time interval is large.

이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Although the exemplary embodiments of the present invention have been described in detail above, those of ordinary skill in the art to which the present invention pertains will understand that various modifications may be made to the above-described embodiments without departing from the scope of the present invention. . Therefore, the scope of the present invention is limited to the described embodiments and should not be determined, and should not be defined by the claims to be described later, but also by those equivalents to the claims.

Claims (6)

사람 추적 장치에서 카메라가 캡쳐하는 영상 내의 사람 추적 방법에 있어서,
(A) 영상 내에서 사람이 검출된 위치의 클러스터에 대하여 (수학식1)로 표현되는 클러스터 객체(
Figure 112021500061661-pat00136
)를 생성하는 단계;
(수학식 1)
Figure 112021500061661-pat00137

(여기서
Figure 112021500061661-pat00138
은 캡쳐된 이미지 이름,
Figure 112021500061661-pat00139
는 이미지의 캡쳐 시간,
Figure 112021500061661-pat00140
는 사람이 검출된 위치, 클러스터의 중심
Figure 112021500061661-pat00141
는 사람이 검출된 위치의 평균,
Figure 112021500061661-pat00142
는 모든 검출된 사람의 구분자)
(B) (수학식 2)로 표현되는 클러스터 오브젝터 목록(
Figure 112021500061661-pat00143
)을 생성하는 단계;
(수학식 2)
Figure 112021500061661-pat00144

(여기서
Figure 112021500061661-pat00145
Figure 112021500061661-pat00146
번째 클러스터 객체(
Figure 112021500061661-pat00147
)이고,
Figure 112021500061661-pat00148
은 자연수)
(C) 각 클러스터 객체(
Figure 112021500061661-pat00149
)마다 (수학식 3)으로 표현되는 추적 대상 객체(
Figure 112021500061661-pat00150
)를 생성하는 단계;
(수학식 3)
Figure 112021500061661-pat00151

(여기서 프레임이 기록된 시간들
Figure 112021500061661-pat00152
에 대응되는,
Figure 112021500061661-pat00153
는 이미지의 이름들,
Figure 112021500061661-pat00154
은 추적 대상 객체로서의 사람이 검출된 위치들,
Figure 112021500061661-pat00155
는 클러스터 객체 이름,
Figure 112021500061661-pat00156
는 상기 추적 장치의 위치)
(D) (수학식 4)으로 표현되는 추적 오브젝터 목록(
Figure 112021500061661-pat00157
)을 생성하는 단계;
(수학식 4)
Figure 112021500061661-pat00158

(여기서
Figure 112021500061661-pat00159
Figure 112021500061661-pat00160
번째 추적 대상 객체(
Figure 112021500061661-pat00161
)이고,
Figure 112021500061661-pat00162
은 자연수)
(E) 상기 추적 오브젝터 목록(
Figure 112021500061661-pat00163
)에서 다음 프레임의 동일한 영역 내 추적 대상 객체를 선택하여, 해당 추적 대상 객체의 속도 및 속력을 기초로 다음 프레임에서의 위치를 추정하는 단계; 및
(F) 상기 다음 프레임의 탐색 영역(
Figure 112021500061661-pat00164
)을 하기 (수학식 5)와 같이 계산하여 상기 탐색 영역(
Figure 112021500061661-pat00165
) 내에 사람이 검출되는지 여부를 판단하는 단계를 포함하고,
(수학식 5)
Figure 112021500061661-pat00166

(여기서
Figure 112021500061661-pat00167
는 소정의 가로 및 세로 픽셀 크기,
Figure 112021500061661-pat00168
는 추적 대상 객체의 위치 변화)
상기 (F) 단계는,
(수학식 6)을 통하여 모션맵 이미지를 얻는 단계;
(수학식 6)
Figure 112021500061661-pat00176

(여기서
Figure 112021500061661-pat00177
는 모션맵 이미지,
Figure 112021500061661-pat00178
,
Figure 112021500061661-pat00179
는 연속된 프레임의 이미지들)
상기 모션맵 이미지를 소정의 픽셀수의 하위 영역들로 나누고, 상기 하위 영역들 각각의 픽셀 강도 값을 합산하는 단계; 및
(수학식 7)를 통하여 상기 하위 영역들 각각에 대해 얼룩(Blob) 여부의 판단을 이용함으로써 얼룩(Blob)에 의한 영향을 제거해 사람을 검출하는 단계를 포함하고,
(수학식 7)
Figure 112021500061661-pat00180

(여기서
Figure 112021500061661-pat00181
는 상기 하위 영역들 각각의 합산된 픽셀 강도 값,
Figure 112021500061661-pat00182
는 임계값)이며,
상기 (F) 단계에서, (a) 사람이 검출되지 않는 경우, 해당 추적 대상 객체를 제거하고, (b) 사람이 검출되는 경우, 이전의 위치와 현재 위치의 거리를 비교하여, (b-1) 상기 거리가 임계거리 이하라면 추적 대상 객체 및 클러스터의 중심을 업데이트하고, (b-2) 상기 거리가 상기 임계거리 보다 크다면 새로운 추적 대상 객체를 생성하는, 사람 추적 방법.
In a person tracking method in an image captured by a camera in a person tracking device,
(A) A cluster object expressed by (Equation 1) for the cluster at the location where a person is detected in the image (
Figure 112021500061661-pat00136
Generating );
(Equation 1)
Figure 112021500061661-pat00137

(here
Figure 112021500061661-pat00138
Is the name of the captured image,
Figure 112021500061661-pat00139
Is the capture time of the image,
Figure 112021500061661-pat00140
Where the person was detected, the center of the cluster
Figure 112021500061661-pat00141
Is the average of the locations where a person was detected,
Figure 112021500061661-pat00142
Is the delimiter of all detected persons)
(B) Cluster object list expressed by (Equation 2) (
Figure 112021500061661-pat00143
Generating );
(Equation 2)
Figure 112021500061661-pat00144

(here
Figure 112021500061661-pat00145
silver
Figure 112021500061661-pat00146
Cluster object (
Figure 112021500061661-pat00147
)ego,
Figure 112021500061661-pat00148
Is a natural number)
(C) Each cluster object (
Figure 112021500061661-pat00149
Objects to be tracked (Equation 3) for each)
Figure 112021500061661-pat00150
Generating );
(Equation 3)
Figure 112021500061661-pat00151

(Here the frames were recorded
Figure 112021500061661-pat00152
Corresponding to,
Figure 112021500061661-pat00153
Is the names of the images,
Figure 112021500061661-pat00154
Is the locations where a person is detected as the object to be tracked,
Figure 112021500061661-pat00155
Is the cluster object name,
Figure 112021500061661-pat00156
Is the location of the tracking device)
(D) List of tracking objects expressed by (Equation 4) (
Figure 112021500061661-pat00157
Generating );
(Equation 4)
Figure 112021500061661-pat00158

(here
Figure 112021500061661-pat00159
silver
Figure 112021500061661-pat00160
Object to be tracked (
Figure 112021500061661-pat00161
)ego,
Figure 112021500061661-pat00162
Is a natural number)
(E) List of tracking objects above (
Figure 112021500061661-pat00163
), selecting a tracking target object in the same area of the next frame and estimating a position in the next frame based on the speed and speed of the tracking target object; And
(F) The search area of the next frame (
Figure 112021500061661-pat00164
) As follows (Equation 5) to calculate the search area (
Figure 112021500061661-pat00165
) Determining whether or not a person is detected,
(Equation 5)
Figure 112021500061661-pat00166

(here
Figure 112021500061661-pat00167
Is the predetermined horizontal and vertical pixel size,
Figure 112021500061661-pat00168
Is the change in the location of the object to be tracked)
The (F) step,
Obtaining a motion map image through (Equation 6);
(Equation 6)
Figure 112021500061661-pat00176

(here
Figure 112021500061661-pat00177
Is the motion map image,
Figure 112021500061661-pat00178
,
Figure 112021500061661-pat00179
Are images of consecutive frames)
Dividing the motion map image into lower regions of a predetermined number of pixels and summing pixel intensity values of each of the lower regions; And
Including the step of detecting a person by removing the influence of the blob by using the determination of whether or not blob for each of the lower regions through (Equation 7),
(Equation 7)
Figure 112021500061661-pat00180

(here
Figure 112021500061661-pat00181
Is the summed pixel intensity value of each of the sub-areas,
Figure 112021500061661-pat00182
Is the threshold),
In step (F), (a) if a person is not detected, the object to be tracked is removed, and (b) if a person is detected, the distance between the previous location and the current location is compared, (b-1 ) If the distance is less than or equal to a critical distance, the tracking target object and the center of the cluster are updated, and (b-2) if the distance is greater than the critical distance, a new tracking target object is generated.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020180167679A 2018-12-21 2018-12-21 Method for tracking a person using an overhead camera Active KR102201168B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180167679A KR102201168B1 (en) 2018-12-21 2018-12-21 Method for tracking a person using an overhead camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180167679A KR102201168B1 (en) 2018-12-21 2018-12-21 Method for tracking a person using an overhead camera

Publications (2)

Publication Number Publication Date
KR20200078098A KR20200078098A (en) 2020-07-01
KR102201168B1 true KR102201168B1 (en) 2021-01-12

Family

ID=71601598

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180167679A Active KR102201168B1 (en) 2018-12-21 2018-12-21 Method for tracking a person using an overhead camera

Country Status (1)

Country Link
KR (1) KR102201168B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102684561B1 (en) * 2023-11-10 2024-07-12 삼영이엔씨 (주) Automatic radar plotting aids system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101439037B1 (en) * 2013-06-25 2014-09-15 주식회사 에스원 Method and apparatus for tracking object in image

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3012777B1 (en) * 2014-10-23 2017-03-15 Axis AB Modification of at least one parameter used by a video processing algorithm for monitoring of a scene
KR101764845B1 (en) * 2015-06-08 2017-08-03 군산대학교 산학협력단 A video surveillance apparatus for removing overlap and tracking multiple moving objects and method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101439037B1 (en) * 2013-06-25 2014-09-15 주식회사 에스원 Method and apparatus for tracking object in image

Also Published As

Publication number Publication date
KR20200078098A (en) 2020-07-01

Similar Documents

Publication Publication Date Title
CN110049206B (en) Image processing method, image processing apparatus, and computer-readable storage medium
US10417503B2 (en) Image processing apparatus and image processing method
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
JP7536023B2 (en) Method for processing information from event-based sensors
KR101180887B1 (en) Apparatus and method for detecting abnormal behavior
JP5180733B2 (en) Moving object tracking device
KR101051389B1 (en) Adaptive background-based object detection and tracking device and method
KR101840042B1 (en) Multi-Imaginary Fence Line Setting Method and Trespassing Sensing System
CN105046719B (en) A kind of video frequency monitoring method and system
JP6638723B2 (en) Image analysis device, image analysis method, and image analysis program
CN112308879A (en) Image processing apparatus, method of tracking target object, and storage medium
JP6292540B2 (en) Information processing system, information processing method, and program
JP2018028784A (en) Movable body group detection program, movable body group detection device, and movable body group detection method
JP4578864B2 (en) Automatic tracking device and automatic tracking method
JP2016052013A (en) Image processing device, image processing method, program and recording medium
JP2017063402A5 (en)
KR102201168B1 (en) Method for tracking a person using an overhead camera
KR100994722B1 (en) Continuous Object Tracking on Multiple Cameras Using Camera Handoff
CN110580708B (en) Rapid movement detection method and device and electronic equipment
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
JP6405606B2 (en) Image processing apparatus, image processing method, and image processing program
JP7332047B2 (en) Tracking Devices, Tracking Systems, Tracking Methods, and Programs
JP4699056B2 (en) Automatic tracking device and automatic tracking method
JP2016051236A (en) Image processing apparatus, image processing method, and inspection method using the same
KR102386673B1 (en) Method and Apparatus for Detecting Object

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20181221

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20200214

Patent event code: PE09021S01D

PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20200717

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20201124

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20210105

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20210106

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20231221

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20241226

Start annual number: 5

End annual number: 5