[go: up one dir, main page]

KR101970442B1 - Illegal parking enforcement system Using Fast R-CNN based on Vehicle detection - Google Patents

Illegal parking enforcement system Using Fast R-CNN based on Vehicle detection Download PDF

Info

Publication number
KR101970442B1
KR101970442B1 KR1020180154464A KR20180154464A KR101970442B1 KR 101970442 B1 KR101970442 B1 KR 101970442B1 KR 1020180154464 A KR1020180154464 A KR 1020180154464A KR 20180154464 A KR20180154464 A KR 20180154464A KR 101970442 B1 KR101970442 B1 KR 101970442B1
Authority
KR
South Korea
Prior art keywords
vehicle
image
region
area
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020180154464A
Other languages
Korean (ko)
Inventor
김태경
Original Assignee
주식회사 넥스파시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥스파시스템 filed Critical 주식회사 넥스파시스템
Priority to KR1020180154464A priority Critical patent/KR101970442B1/en
Application granted granted Critical
Publication of KR101970442B1 publication Critical patent/KR101970442B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • G06K9/3258
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • G06K2209/15
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 시스템에 관한 것이다. 본 발명의 일 양상인 불법 주정차 단속 방법은, 카메라를 통해 영상을 획득하는 제 1 단계; 영상 내에 미리 지정된 기준선을 기초로, 영상의 전체 영역을 근거리 영역과 원거리 영역으로 구분하는 제 2 단계; 상기 영상을 미리 설정된 복수의 블록 단위로 구획하는 제 3 단계; 컨볼루션 신경망(Convolutional Neural Network, CNN)의 복수의 컨볼루션 레이어(Convolutio layer) 중 적어도 하나를 이용하여, 상기 복수의 블록 단위를 적용한 특징 맵(feature map)을 도출하는 제 4 단계; 상기 특징 맵을 이용하여 상기 영상에 포함된 객체가 차량인지 여부를 판단하는 제 5 단계; 및 상기 객체가 차량인 경우, 상기 차량의 차량번호 영역으로부터 차량 번호를 인식하는 제 6 단계;를 포함하되, 상기 객체가 상기 원거리 영역에 포함된 경우, 상기 복수의 컨볼루션 레이어를 이용하여 상기 객체가 포함된 영역에 대한 특징 맵을 도출하고, 상기 객체가 상기 근거리 영역에 포함된 경우, 상기 복수의 컨볼루션 레이어 중 미리 지정된 개수의 레이어만을 이용하여 상기 객체가 포함된 영역에 대한 특징 맵을 도출할 수 있다.The present invention relates to an illegal parking intervention system using Fast R-CNN based vehicle detection. According to an aspect of the present invention, there is provided an illegal driving method of an illegal driving vehicle, comprising: a first step of acquiring an image through a camera; A second step of dividing the entire region of the image into a near region and a far region on the basis of a predetermined reference line in the image; A third step of dividing the image into a plurality of predetermined blocks; A fourth step of deriving a feature map to which the plurality of block units are applied by using at least one of a plurality of convolution layers of a Convolution Neural Network (CNN); A fifth step of determining whether the object included in the image is a vehicle using the feature map; And if the object is a vehicle, recognizing the vehicle number from the vehicle number area of the vehicle. If the object is included in the remote area, And if the object is included in the near region, deriving a feature map for the region containing the object using only a predetermined number of layers among the plurality of convolution layers can do.

Description

Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 시스템 {Illegal parking enforcement system Using Fast R-CNN based on Vehicle detection}[0001] The present invention relates to an illegal parking enforcement system using Fast R-CNN based vehicle detection,

본 발명은 Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 시스템에 관한 것이다.The present invention relates to an illegal parking intervention system using Fast R-CNN based vehicle detection.

경제성장과 소득증가로 인해 차량의 수요가 급증하고 있는 데 반하여 도로 사정이나 교통상황을 관리하는 인력은 이에 미치지 못하고 있다. 따라서 제한된 인원으로 현재의 열악한 교통 관리 체계를 극복하고자 하는 노력들이 많이 이루어지고 있다.In spite of the rapid growth of demand for automobiles due to economic growth and income increase, the manpower to manage the road situation and traffic situation is insufficient. Therefore, efforts are being made to overcome the existing poor traffic management system with limited personnel.

이러한 노력의 일환으로서 차량의 자동인식(번호인식 포함) 시스템의 개발이 활발하게 진행되고 있다. 차량 인식 혹은 차량의 번호(문자) 인식을 통해 교통 단속은 물론 교통량 조사, 도난 차량 검거, 출입 차량 통제, 주차 시설 관리 등의 다양한 분야에 효과적으로 이용할 수 있으며, 현재까지 많은 연구가 이루어져 왔다.As a part of this effort, the development of a system for automatic recognition (including number recognition) of vehicles is actively under way. Through the recognition of the vehicle or the recognition of the number (character) of the vehicle, it can be used effectively in various fields such as traffic control, traffic volume investigation, arresting of the stolen vehicle, control of access vehicles, parking facility management, and so on.

특히, 차량 번호판의 문자를 인식하기 위한 과정은 다른 문자 인식과는 달리 주변 환경적인 영향으로 카메라 잡음, 조명변화, 날씨 등으로 인해 왜곡된 현상이 발생하기 때문에 강인한 처리방법들이 고려되어야 한다. 하지만 차량의 번호판 영역의 경우 그 고유의 특성상 내용이 제한되어 있고, 일반적인 문자 인식(패턴인식)에 비해 구조가 단순하다. 이러한 이유로 인해서 차량 번호 인식(License Plate Recognition: LPR)은 환경적인 특성, 차량의 수요 증가, 인력수급 및 주차공간의 자원 관리를 효율적으로 운영하기 위한 가장 보편적인 시스템이라고 할 수 있다.In particular, the processes for recognizing characters on the license plate differ from those of other characters, and therefore, robust processing methods must be considered because distortion occurs due to camera noise, illumination change, weather, and the like due to environmental influences. However, in the case of a license plate area of a vehicle, its contents are limited due to its inherent characteristics, and its structure is simpler than general character recognition (pattern recognition). For this reason, License Plate Recognition (LPR) is the most common system for efficiently managing environmental characteristics, increasing demand for vehicles, manpower supply and management of parking space resources.

LPR 시스템 또는 번호인식 기술은 영국에서 1976년에 가장 먼저 개발되었다. 그 이후 수십 년 동안, 기술이 진화하고 시장 수요가 증가함에 따라 LPR 시스템은 꾸준히 성장하였고, 동남아시아를 비롯한 유럽 국가에서 점차 확대되었다. 이로 인해 미국 북미 지역에서도 LPR 시스템 시장이 크게 성장하고 있다. 이는 효율적인 범죄 진압 및 예방 기술에 대한 강한 동기부여로 이어져서 더 넓은 시장으로 활성화되는 계기가 되었다.The LPR system or number recognition technology was first developed in the UK in 1976. Over the following decades, as technology evolved and market demand grew, LPR systems grew steadily and expanded steadily in Southeast Asia and other European countries. As a result, the LPR system market is growing significantly in North America. This led to strong motivation for effective crime prevention and prevention technologies, which enabled them to become more active in the wider market.

과거의 차량 번호 인식(LPR) 또는 ALPR(Automated LPR) 시스템은 차량 번호판을 판독하기 위해 카메라로부터 획득된 이미지(영상)에서 광학문자인식(Optical Character Recognition: OCR)을 사용하여 감시방법(Surveillance Method)에 적용되었다. 최근에는 주차관리 시스템이란 명칭으로 주차공간의 효율적인 업무를 진행하고 있다. 현재 LPR 시스템은 주차환경과 관련하여 관리인이 주차 요금을 정산함으로써 인력수급 및 인건비 부담과 요금 누수현상을 해결하고 있고, LPR 시스템의 수요는 끊임없이 증가되고 가면서 기술의 변화 및 개발이 지속적으로 이어지고 있다.Previous Vehicle Number Identification (LPR) or Automated LPR (ALPR) systems use the Surveillance Method using Optical Character Recognition (OCR) in images (images) obtained from cameras to read vehicle license plates. . In recent years, the name of the parking management system has been working efficiently for parking spaces. Currently, LPR system is solving manpower supply, labor cost burden, and charge leakage problem by adjusting the parking charge in relation to the parking environment. As the demand of LPR system is constantly increasing, technological change and development are continuing.

또한, 공공안전과 개인보안 등의 이유로 현대에는 곳곳에 CCTV(closed circuit television)가 설치되어 있고, 현재도 진행 중이며, CCTV 등을 통해 기록된 자료는 범죄 예방과 범죄 발생 시에 증거자료로 활용되고 있다.In addition, CCTV (closed circuit television) has been installed in various places in the world because of public safety and personal security, and data currently being recorded through CCTV is used as evidence for crime prevention and crime have.

대한민국 특허청 등록번호 제10-1565978호Korean Intellectual Property Office Registration No. 10-1565978

본 발명은 Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 시스템을 사용자에게 제공하고자 한다.SUMMARY OF THE INVENTION The present invention provides a user with an illegal parking regulation system using Fast R-CNN based vehicle detection.

본 발명은 불법 주정차 단속시스템 내의 대상차량을 검출하기 위한 효과적인 방법과 관련된 것으로, 기존 CNN(Convolution Neural Network) 환경에서 객체 검출에 대한 크기와 위치 그리고 거리차이에 따른 Max-Pooling 내의 Bounding Box 계산 문제를 해결하고자 한다. The present invention relates to an effective method for detecting a target vehicle in an illegal parking intermittent system, and relates to a problem of calculation of a bounding box in Max-Pooling according to size, position and distance difference of object detection in existing CNN (Convolution Neural Network) environment .

구체적으로, 대부분의 종래기술의 경우, 불법 주정차 대상차량의 경우는 특징성분을 분석하기 위해 패턴화된 형태로 대상 객체를 검출한 반면, 본 발명에서는 크기에 따른 특징벡터와 위치에 따라 동일한 객체 변화 그리고 거리에 따라 특징벡터 분포를 다르게 분석하도록 설정함으로써 기존 방법 대비 효과적으로 처리할 수 있다.Specifically, in the case of most prior arts, in the case of an illegally parked vehicle, a target object is detected in a patterned form in order to analyze a feature component, whereas in the present invention, the same object change By setting the feature vector distribution to be different according to the distance, it can be processed effectively compared with the existing method.

한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are not intended to limit the invention to the precise form disclosed. It can be understood.

상기의 기술적 과제를 달성하기 위한 본 발명의 일 양상인 불법 주정차 단속 방법은, 카메라를 통해 영상을 획득하는 제 1 단계; 영상 내에 미리 지정된 기준선을 기초로, 영상의 전체 영역을 근거리 영역과 원거리 영역으로 구분하는 제 2 단계; 상기 영상을 미리 설정된 복수의 블록 단위로 구획하는 제 3 단계; 컨볼루션 신경망(Convolutional Neural Network, CNN)의 복수의 컨볼루션 레이어(Convolutio layer) 중 적어도 하나를 이용하여, 상기 복수의 블록 단위를 적용한 특징 맵(feature map)을 도출하는 제 4 단계; 상기 특징 맵을 이용하여 상기 영상에 포함된 객체가 차량인지 여부를 판단하는 제 5 단계; 및 상기 객체가 차량인 경우, 상기 차량의 차량번호 영역으로부터 차량 번호를 인식하는 제 6 단계;를 포함하되, 상기 객체가 상기 원거리 영역에 포함된 경우, 상기 복수의 컨볼루션 레이어를 이용하여 상기 객체가 포함된 영역에 대한 특징 맵을 도출하고, 상기 객체가 상기 근거리 영역에 포함된 경우, 상기 복수의 컨볼루션 레이어 중 미리 지정된 개수의 레이어만을 이용하여 상기 객체가 포함된 영역에 대한 특징 맵을 도출할 수 있다.According to an aspect of the present invention, there is provided an illegal driving method for an illegal driving vehicle, comprising: a first step of acquiring an image through a camera; A second step of dividing the entire region of the image into a near region and a far region on the basis of a predetermined reference line in the image; A third step of dividing the image into a plurality of predetermined blocks; A fourth step of deriving a feature map to which the plurality of block units are applied by using at least one of a plurality of convolution layers of a Convolution Neural Network (CNN); A fifth step of determining whether the object included in the image is a vehicle using the feature map; And if the object is a vehicle, recognizing the vehicle number from the vehicle number area of the vehicle. If the object is included in the remote area, And if the object is included in the near region, deriving a feature map for the region containing the object using only a predetermined number of layers among the plurality of convolution layers can do.

또한, 상기 제 2 단계에서 상기 객체가 상기 원거리 영역에 포함된 경우, 상기 제 2 단계 및 상기 제 3 단계 사이에는, 상기 원거리 영역의 스케일을 변환하는 제 2-1 단계;를 더 포함할 수 있다.The method may further include a second step of, when the object is included in the remote area in the second step, converting the scale of the remote area between the second step and the third step .

또한, 상기 제 5 단계는, 상기 객체와 관련된 특징 맵을 상기 복수의 블록 단위 별로 비교하는 제 5-1 단계; 상기 복수의 블록 단위 중 상기 객체가 가장 빈번하게 존재하는 맥스 풀링(max pooling) 영역을 결정하는 제 5-2 단계; 및 상기 맥스 풀링 영역을 기초로 상기 차량의 특징 값을 이용하여 상기 객체가 차량인지 여부를 판단하는 제 5-3 단계;를 포함할 수 있다.In addition, the fifth step may include a step 5-1 of comparing the feature maps related to the object for each of the plurality of block units. A 5-2 step of determining a max pooling area in which the object is most frequently present among the plurality of block units; And a fifth step of determining whether the object is a vehicle using the feature value of the vehicle based on the maximum pulling area.

또한, 상기 제 5-3 단계는, 상기 맥스 풀링 영역을 기초로 ROI(region of interest)를 설정하는 5-4 단계; 상기 설정한 ROI를 기초로 경계 박스(bounding box)를 설정하는 제 5-5 단계; 및 상기 경계 박스 내의 객체의 특징 값과 상기 차량의 특징 값을 비교하여, 상기 객체가 상기 차량인지 여부를 판단하는 제 5-6 단계;를 포함할 수 있다.In addition, the step 5-3 may further include: 5-4 setting a region of interest (ROI) based on the max pooling region; A fifth step of setting a bounding box based on the set ROI; And comparing the feature value of the object in the bounding box with the feature value of the vehicle to determine whether the object is the vehicle.

상기의 기술적 과제를 달성하기 위한 본 발명의 다른 일 양상인 Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 시스템은, 영상을 획득하는 카메라; 영상 내에 미리 지정된 기준선을 기초로, 영상의 전체 영역을 근거리 영역과 원거리 영역으로 구분하고, 상기 영상을 미리 설정된 복수의 블록 단위로 구획하는 제어부;를 포함하고, 상기 제어부는, 컨볼루션 신경망(Convolutional Neural Network, CNN)의 복수의 컨볼루션 레이어(Convolutio layer) 중 적어도 하나를 이용하여, 상기 복수의 블록 단위를 적용한 특징 맵(feature map)을 도출하고, 상기 특징 맵을 이용하여 상기 영상에 포함된 객체가 차량인지 여부를 판단하며, 상기 객체가 차량인 경우, 상기 차량의 차량번호 영역으로부터 차량 번호를 인식하고, 상기 객체가 상기 원거리 영역에 포함된 경우, 상기 복수의 컨볼루션 레이어를 이용하여 상기 객체가 포함된 영역에 대한 특징 맵을 도출하며, 상기 객체가 상기 근거리 영역에 포함된 경우, 상기 복수의 컨볼루션 레이어 중 미리 지정된 개수의 레이어만을 이용하여 상기 객체가 포함된 영역에 대한 특징 맵을 도출할 수 있다.According to another aspect of the present invention, there is provided an illegal parking regulation system using Fast R-CNN based vehicle detection, comprising: a camera for acquiring an image; And a control unit for dividing the entire region of the image into a near region and a far region on the basis of a predetermined reference line in the image and dividing the image into a plurality of predetermined block units, The method comprising: deriving a feature map to which the plurality of block units are applied by using at least one of a plurality of convolution layers of a neural network (CNN) The method comprising the steps of: determining whether the object is a vehicle, recognizing a vehicle number from the vehicle number area of the vehicle when the object is a vehicle, and, if the object is included in the remote area, Deriving a feature map for an area containing an object, and when the object is included in the close range, Using only a layer of a predetermined number of layers we can obtain the characteristic map for the area including the object.

또한, 상기 객체가 상기 원거리 영역에 포함된 경우, 상기 제어부는, 상기 원거리 영역의 스케일을 변환할 수 있다.Also, when the object is included in the remote area, the control unit may convert the scale of the remote area.

또한, 상기 제어부는, 상기 객체와 관련된 특징 맵을 상기 복수의 블록 단위 별로 비교하고, 상기 복수의 블록 단위 중 상기 객체가 가장 빈번하게 존재하는 맥스 풀링(max pooling) 영역을 결정하며, 상기 맥스 풀링 영역을 기초로 상기 차량의 특징 값을 이용하여 상기 객체가 차량인지 여부를 판단할 수 있다.Also, the controller compares the feature map associated with the object for each of the plurality of block units, determines a max pooling area in which the object is most frequently present among the plurality of block units, It is possible to determine whether the object is a vehicle by using the feature value of the vehicle based on the area.

또한, 상기 제어부는, 상기 맥스 풀링 영역을 기초로 ROI(region of interest)를 설정하고, 상기 설정한 ROI를 기초로 경계 박스(bounding box)를 설정하며, 상기 경계 박스 내의 객체의 특징 값과 상기 차량의 특징 값을 비교하여, 상기 객체가 상기 차량인지 여부를 판단할 수 있다.The controller may set a region of interest (ROI) based on the max pooling region, set a bounding box based on the set ROI, It is possible to determine whether the object is the vehicle by comparing feature values of the vehicle.

본 발명은 Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 시스템을 사용자에게 제공할 수 있다.The present invention can provide the user with an illegal parking regulation system using Fast R-CNN based vehicle detection.

본 발명은 불법 주정차 단속시스템 내의 대상차량을 검출하기 위한 효과적인 방법과 관련된 것으로, 기존 CNN(Convolution Neural Network) 환경에서 객체 검출에 대한 크기와 위치 그리고 거리차이에 따른 Max-Pooling 내의 Bounding Box 계산 문제를 해결할 수 있다.The present invention relates to an effective method for detecting a target vehicle in an illegal parking intermittent system, and relates to a problem of calculation of a bounding box in Max-Pooling according to size, position and distance difference of object detection in existing CNN (Convolution Neural Network) environment Can be solved.

구체적으로, 대부분의 종래기술의 경우, 불법 주정차 대상차량의 경우는 특징성분을 분석하기 위해 패턴화된 형태로 대상 객체를 검출한 반면, 본 발명에서는 크기에 따른 특징벡터와 위치에 따라 동일한 객체 변화 그리고 거리에 따라 특징벡터 분포를 다르게 분석하도록 설정함으로써 기존 방법 대비 효과적으로 처리할 수 있다.Specifically, in the case of most prior arts, in the case of an illegally parked vehicle, a target object is detected in a patterned form in order to analyze a feature component, whereas in the present invention, the same object change By setting the feature vector distribution to be different according to the distance, it can be processed effectively compared with the existing method.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It should be understood, however, that the effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those skilled in the art to which the present invention belongs It will be possible.

도 1은 본 발명에 적용될 수 있는 불법 주정차 단속 시스템의 블록 구성도의 일례를 나타낸 것이다.
도 2는 본 발명에 적용될 수 있는 제어부의 블록 구성도의 일례를 나타낸다.
도 3a 및 도 3b는 본 발명의 일례와 관련된 불법 주정차 단속 시스템이 설치된 구조의 평면도 및 측면도이다.
도 4는 본 발명과 관련된 신경망 네트워크 구조의 일례를 도시한 것이다.
도 5는 본 발명과 관련된 컨볼루션 신경망의 일례를 도시한 것이다.
도 6은 본 발명이 제안하는 개선된(Improved F-CNNs)기반의 시스템 흐름도를 도시한 것이다.
도 7은 본 발명과 관련하여, Fast R-CNN기반의 객체 검출의 일례를 도시한 것이다.
도 8은 본 발명과 관련하여, 이미지 내의 블록단위를 설정하는 일례를 도시한 것이다.
도 9는 본 발명에 적용되는 AlexNet 구조의 일례를 도시한 것이다.
도 10은 본 발명과 관련하여, Faster R-CNN 구조에서 영역크기 고정을 위한 구조의 일례를 도시한 것이다.
도 11은 본 발명과 관련하여, 고정영역 출력값의 일례를 도시한 것이다.
도 12는 본 발명과 관련하여, 이미지내의 공간위치 영역검출을 위한 컨볼루션 레이어 구조의 일례를 도시한 것이다.
도 13은 본 발명과 관련하여, 객체영역을 검출하기 위해 공간내의 특징벡터 성분의 일례를 도시한 것이다.
도 14는 본 발명에 적용되는 객체 검출 단계의 순서도를 도시한 것이다.
도 15는 실험결과를 도시한 것이고, 도 16은 객체 손실에 따른 실험결과를 도시한 것이며, 도 17은 개선된 처리결과를 보이는 실험 결과를 도시한 것이다.
FIG. 1 shows an example of a block diagram of an illegal parking intermittent system that can be applied to the present invention.
Fig. 2 shows an example of a block diagram of a control section that can be applied to the present invention.
FIGS. 3A and 3B are a plan view and a side view of a structure in which an illegal parking intermittent system related to an example of the present invention is installed.
4 shows an example of a neural network structure related to the present invention.
Fig. 5 shows an example of a convolutional neural network related to the present invention.
Figure 6 illustrates a system flow diagram based on Improved F-CNNs proposed by the present invention.
FIG. 7 shows an example of object detection based on Fast R-CNN in the context of the present invention.
FIG. 8 shows an example of setting a block unit in an image according to the present invention.
Fig. 9 shows an example of the AlexNet structure applied to the present invention.
10 shows an example of a structure for area size fixing in a Faster R-CNN structure in connection with the present invention.
11 shows an example of the fixed area output value in the context of the present invention.
Fig. 12 shows an example of a convolution layer structure for spatial location area detection in an image, in the context of the present invention.
Fig. 13 shows an example of characteristic vector components in a space for detecting an object region, in the context of the present invention.
FIG. 14 shows a flowchart of an object detection step applied to the present invention.
FIG. 15 shows experimental results, FIG. 16 shows experimental results according to object loss, and FIG. 17 shows experimental results showing improved processing results.

불법 주정차 단속 시스템Illegal parking regulation system

이하, 도면을 참조하여 본 발명의 바람직한 일 실시례에 대해서 설명한다. 또한, 이하에 설명하는 일 실시례는 특허청구범위에 기재된 본 발명의 내용을 부당하게 한정하지 않으며, 본 실시 형태에서 설명되는 구성 전체가 본 발명의 해결 수단으로서 필수적이라고는 할 수 없다.Hereinafter, a preferred embodiment of the present invention will be described with reference to the drawings. In addition, the embodiment described below does not unduly limit the contents of the present invention described in the claims, and the entire configuration described in this embodiment is not necessarily essential as the solution means of the present invention.

종래에는 불법 주정차 차량으로 인한 교통 정체와 혼잡을 방지하고자 주정차 금지구역에 감시 카메라를 설치하여 불법 주정차 차량을 단속하였다. Conventionally, in order to prevent traffic congestion and congestion caused by illegal parking vehicles, a surveillance camera was installed in a prohibited area to control illegal parking vehicles.

그러나, 주정차 금지구역 주변에 존재하는 차량 이외의 물체가 검지 카메라에 의하여 촬영된 영상에 포함되어 차량이 아닌 물체가 검지되는 오검지의 문제가 빈번하게 발생할 수 있다는 문제점이 있었다. 또한, 검지 카메라로부터 멀리 떨어진 곳에 주정차된 차량의 경우 단속이 어렵다는 문제점도 있었다.However, there has been a problem that an object other than a vehicle existing in the vicinity of an emergency stop zone is included in an image photographed by a detection camera, and thus, a problem of erroneous detection of an object other than the vehicle frequently occurs. In addition, there is a problem that it is difficult to control the vehicle that is parked far away from the detection camera.

이하에서는, 본 발명이 제안하는 불법 주정차 단속 시스템을 구체적으로 설명한다.Hereinafter, the illegal parking regulation system proposed by the present invention will be described in detail.

도 1은 본 발명에 적용될 수 있는 불법 주정차 단속 시스템의 블록 구성도의 일례를 나타낸 것이다.FIG. 1 shows an example of a block diagram of an illegal parking intermittent system that can be applied to the present invention.

상기 불법 주정차 단속 시스템(10)은 카메라 모듈(100), 출력부(200), 통신부(300), 메모리(400), 인터페이스부(500), 전원공급부(600), 제어부(700) 등을 포함할 수 있다. The illegal driving control system 10 includes a camera module 100, an output unit 200, a communication unit 300, a memory 400, an interface unit 500, a power supply unit 600, a control unit 700, can do.

단, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 불법 주정차 단속 시스템이 구현될 수도 있다.However, the components shown in FIG. 1 are not essential, and an illegal preliminary intermittent system having more or fewer components may be implemented.

이하 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

카메라 모듈(100)은 주정차 금지구역을 촬영하여 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 카메라 모듈(100)에서 처리된 화상 프레임은 메모리(400)에 저장되거나 통신부(300)를 통하여 외부로 전송될 수 있다. 처리된 화상 프레임은 디스플레이부(210)에 표시될 수도 있다. The camera module 100 processes an image frame such as a still image or a moving image obtained by photographing a parking space prohibited area. The image frame processed by the camera module 100 may be stored in the memory 400 or may be transmitted to the outside through the communication unit 300. The processed image frame may be displayed on the display unit 210. [

이때, 카메라 모듈(100)에 사용되는 카메라는 사용 환경에 따라 2개 이상이 구비될 수 있다.At this time, two or more cameras used in the camera module 100 may be provided, depending on the use environment.

일례로, 카메라 모듈(100)은 검지 카메라(110)와 단속 카메라(120) 등을 포함할 수 있다. 다만, 본 발명은 이러한 구성으로 한정되는 것은 아니며, 다른 촬영수단을 구비하는 구성도 포함될 수 있다. For example, the camera module 100 may include a detection camera 110, an intermittent camera 120, and the like. However, the present invention is not limited to such a configuration, and may include a configuration including other shooting means.

검지 카메라(110)는 주정차 금지구역을 촬영하며, 이렇게 촬영된 검지영상을 이용하여 주정차 금지구역 내로 차량이 진입하는지 여부를 검지할 수 있다. The detection camera 110 photographs the prohibited area and can detect whether or not the vehicle enters the prohibited area using the sensed image.

상기 검지 카메라(110)는 어안렌즈(Fisheye Lens)가 장착된 카메라를 사용하여 구현될 수도 있다. 넓은 화각을 갖는 어안렌즈를 사용하는 경우에는 검지 카메라(110)를 중심으로 전방위(360˚) 영역의 영상을 촬영하여 검지영상으로 활용할 수 있다.The detection camera 110 may be implemented using a camera equipped with a fisheye lens. In the case of using a fisheye lens having a wide angle of view, it is possible to take an image of an omnidirectional (360) region around the detection camera 110 and utilize it as a detection image.

다만, 상기 검지 카메라(110)가 설치되어 있더라도 주정차 금지구역의 특정 지점을 확대하여 볼 수 있는 것은 아니므로 팬, 틸트, 줌 동작을 수행할 수 있는 단속 카메라(120)가 필요하다.However, even if the detection camera 110 is installed, it is not possible to enlarge and view a specific point of the pseudo range-prohibited area, and therefore, an intermittent camera 120 capable of performing a pan, tilt, and zoom operation is needed.

단속 카메라(120)는 팬(Pan), 틸트(Tilt) 및 줌(Zoom) 동작 중 적어도 하나를 수행하여 주정차 금지구역 내에 불법으로 주정차하고 있는 차량의 번호판을 촬영할 수 있다. 이러한 단속 카메라(120)는 바람직하게는 LPR(License Plate Recognition) 카메라를 사용할 수 있다. The intermittent camera 120 may perform at least one of a pan operation, a tilt operation, and a zoom operation to photograph a license plate of a vehicle illegally parked in the prohibited area. The intermittent camera 120 may preferably use an LPR (License Plate Recognition) camera.

LPR 카메라는 x축, y축, z축 방향으로 각각 틸팅할 수 있는 틸팅장치를 구비하고 있으며, 이러한 구성은 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 용이한 사항이므로 구체적인 설명을 생략하기로 한다. 이와 같은 LPR 카메라는 지정된 x, y 좌표로 카메라를 회전시켜 차량에 대해 줌인(zoom-in) 영상 또는 줌아웃(zoom-out) 영상을 촬영할 수 있는 구성을 갖고 있다.The LPR camera is provided with a tilting device capable of tilting in the x-axis, the y-axis and the z-axis direction, respectively. Such a configuration is easy for those having ordinary skill in the art to which the present invention belongs. . Such an LPR camera has a configuration capable of photographing a zoom-in image or a zoom-out image with respect to the vehicle by rotating the camera at designated x, y coordinates.

한편, 출력부(200)는 시각 또는 청각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(210), 경고부(220) 등이 포함될 수 있다.Meanwhile, the output unit 200 generates an output related to a visual or auditory sense, and may include a display unit 210, a warning unit 220, and the like.

디스플레이부(210)는 불법 주정차 단속 시스템(10)에서 처리되는 정보를 표시(출력)할 수 있다. 예를 들어, 불법 주정차 단속 시스템(10)과 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 카메라 모듈(100)에서 촬영된 정지영상이나 동영상, 통신부(300)를 통하여 송/수신된 영상, UI, GUI 등을 표시할 수 있다. The display unit 210 can display (output) the information processed in the illegal parking intermittent system 10. For example, a UI (User Interface) or a GUI (Graphic User Interface) associated with the illegal parking intermittent system 10 is displayed. A still image or moving image photographed by the camera module 100, a video image transmitted / received through the communication unit 300, a UI, a GUI, and the like.

또한, 디스플레이부(210)는 야간이나 어두운 공간에서 불법으로 주정차한 차량을 단속하거나 불법 주정차 단속 시스템(10)을 방범용으로 사용하는 경우 방범영역을 단속하기 위한 조명등으로 이용될 수도 있다.In addition, the display unit 210 may be used as an illumination light for interrupting the illegally parked vehicle at night or in a dark space, or for controlling the crime prevention area when the illegal parking intermittent system 10 is used for crime prevention.

상기 디스플레이부(210)는 액정 디스플레이(Liquid Crystal Display, LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display, TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode, OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display) 중에서 적어도 하나를 포함할 수 있다.The display unit 210 may be a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED) A flexible display, and a three-dimensional display (3D display).

경고부(220)는 불법 주정차 단속 시스템(10)의 이벤트 발생을 알리기 위한 신호를 출력한다. 불법 주정차 단속 시스템(10)에서 발생 되는 이벤트의 예로는 주정차 금지구역에 차량의 불법 주정차 등이 있다. The warning unit 220 outputs a signal for notifying the occurrence of the event of the illegal parking system control system 10. Examples of events that occur in the illegal parking control system (10) include illegal parking of vehicles in the prohibited parking area.

경고부(220)는 오디오 신호나 비디오 신호 이외에 다른 형태, 예를 들어 경고 안내 문서 등을 출력할 수도 있으며, 이 경우 경고 안내 문서를 출력하기 위한 프린터가 연결될 수 있다.The warning unit 220 may output a form other than an audio signal or a video signal, for example, a warning notice document. In this case, a printer for outputting a warning notice document may be connected.

상기 비디오 신호는 디스플레이부(210)를 통해서도 출력될 수 있으므로, 이 경우 상기 디스플레이부(210)는 경고부(220)의 일종으로 분류될 수도 있다.The video signal may be output through the display unit 210. In this case, the display unit 210 may be classified as a kind of the warning unit 220. [

한편, 통신부(300)는 불법 주정차 단속 시스템(10)과 유/무선 통신 시스템 사이 또는 불법 주정차 단속 시스템(10)과 불법 주정차 단속 시스템(10)이 위치한 네트워크 사이의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 통신부(300)는 유/무선 인터넷 모듈(310), 근거리 통신 모듈(320) 및 위치정보 모듈(330) 등을 포함할 수 있다.The communication unit 300 may include one or more modules that enable communication between the illegal parking intermittent system 10 and the wire / wireless communication system or between the illegal parking intermittent system 10 and the network in which the illegal parking intermittent system 10 is located. . ≪ / RTI > For example, the communication unit 300 may include a wired / wireless Internet module 310, a short distance communication module 320, a location information module 330, and the like.

유/무선 인터넷 모듈(310)은 유/무선 인터넷 접속을 위한 모듈을 말하는 것으로, 불법 주정차 시스템에 내장되거나 외장될 수 있다.The wired / wireless Internet module 310 refers to a module for wired / wireless Internet access, and may be built in or enclosed in an illegal parking system.

상기 무선 인터넷의 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), WCDMA(Wideband Code Division Multiple Access), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution) 등이 이용될 수 있다.WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), WCDMA (Wideband Code Division Multiple Access), HSDPA (High Speed Downlink Packet Access) , LTE (Long Term Evolution), or the like can be used.

근거리 통신 모듈(320)은 근거리 통신을 위한 모듈을 말한다. 상기 근거리 통신(short range communication)의 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 320 is a module for short-range communication. Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used as the technique of the short range communication.

위치 정보 모듈(330)은 불법 주정차 시스템(10)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에 따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고 있다. 또한, GPS 모듈은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다. The position information module 330 is a module for obtaining the position of the illegal parking system 10, and a representative example thereof is a global positioning system (GPS) module. According to the present technology, the GPS module calculates distance information and accurate time information from three or more satellites, and then applies trigonometry to the calculated information to obtain three-dimensional current position information according to latitude, longitude, and altitude It can be calculated accurately. At present, a method of calculating position and time information using three satellites and correcting an error of the calculated position and time information using another satellite is widely used. In addition, the GPS module can calculate speed information by continuously calculating the current position in real time.

한편, 메모리(400)는 제어부(700)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 정지영상, 동영상 등의 특징벡터 정보)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리(400)에는 상기 데이터들 각각에 대한 사용 빈도(예를 들면, 각 특징벡터 정보에 대한 사용빈도)도 함께 저장될 수 있다. Meanwhile, the memory 400 may store a program for processing and controlling the control unit 700, and may store a program for temporarily storing input / output data (e.g., feature vector information such as still images and moving images) Function may be performed. The memory 400 may also store the frequency of use of each of the data (for example, frequency of use for each feature vector information).

상기와 같은 메모리(400)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 불법 주정차 단속 시스템(10)은 인터넷(internet) 상에서 상기 메모리(400)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 400 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory, etc.) ), A random access memory (RAM), a static random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a programmable read- A magnetic disk, an optical disk, a memory, a magnetic disk, or an optical disk. The illegal parking intermittent system 10 may operate in connection with a web storage that performs the storage function of the memory 400 on the Internet.

한편, 인터페이스부(500)는 불법 주정차 단속 시스템(10)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(500)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 불법 주정차 단속 시스템(10) 내부의 각 구성 요소에 전달하거나, 불법 주정차 단속 시스템(10) 내부의 데이터가 외부 기기로 전송되도록 한다. On the other hand, the interface unit 500 serves as a pathway to all the external devices connected to the illegal parking intermittent system 10. The interface unit 500 receives data from an external device or receives power from the external device and transmits the data to each component in the illegal parking intermittent system 10 or transmits data in the illegal intermittent intermittent intermittent system 10 to an external device do.

예를 들어, 카메라 모듈(100)로 촬영된 이미지 또는 영상을 외부로 연결하는 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트 등이 인터페이스부(500)에 포함될 수 있다. For example, a port for connecting an image or an image photographed by the camera module 100 to an external device, an external charger port, a wired / wireless data port, a memory card port, An audio I / O port, a video I / O port, and the like may be included in the interface unit 500.

한편, 전원공급부(600)는 제어부(700)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.Meanwhile, the power supply unit 600 receives external power and internal power under the control of the controller 700, and supplies power required for operation of the respective components.

한편, 제어부(controller)(700)는 통상적으로 불법 주정차 단속 시스템(10)의 전반적인 동작을 제어한다. 예를 들어 영상 촬영, 불법 주정차 차량 검지, 단속자료 생성 등을 위한 관련된 제어 및 처리를 수행한다. On the other hand, the controller (700) typically controls the overall operation of the illegal parking system (10). For example, related control and processing are performed for video shooting, detection of illegally parked vehicle, and creation of intervention data.

예를 들어, 제어부(700)는 검지 카메라(110)가 촬영한 영상을 수신받으며, 주정차 금지구역에 차량이 주정차를 하는 경우 상기 차량을 단속할지 여부를 판단할 수 있다. 또한, 제어부(700)는 주정차 금지구역의 조도가 불균일한 경우, 조도를 검지하여 밝은 영역을 향하는 디스플레이부(210)의 투광 세기는 약하게 조절하고, 어두운 영역을 향하는 디스플레이부(210)의 투광 세기는 강하게 조절할 수 있다.For example, the control unit 700 receives the image photographed by the detection camera 110, and can determine whether to intercept the vehicle when the vehicle is parked in the prohibited area. In addition, when the illuminance of the diaphragm-prohibited area is not uniform, the control unit 700 detects the illuminance and adjusts the light intensity of the display unit 210 toward the bright area to be weak and adjusts the light intensity of the display unit 210 Can be strongly controlled.

여기에 설명되는 다양한 실시례는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시례는 ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices), FPGAs (Field Programmable Gate Arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시례들이 제어부(700) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of a processor, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions. In some cases, The embodiments described may be implemented by the control unit 700 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시례들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰인 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(400)에 저장되고, 제어부(700)에 의해 실행될 수 있다.According to a software implementation, embodiments such as the procedures and functions described herein may be implemented in separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code may be implemented in a software application written in a suitable programming language. The software code is stored in the memory 400 and can be executed by the control unit 700. [

한편, 도 2는 본 발명에 적용될 수 있는 제어부의 블록 구성도의 일례를 나타낸다.Meanwhile, FIG. 2 shows an example of a block diagram of a control unit that can be applied to the present invention.

도 2에 도시된 것과 같이, 발명의 일례에 적용될 수 있는 제어부(700)는 차량 인식수단(710), 불법 주정차 판단수단(720), 번호판 인식수단(730), 필터링 수단(740), 카메라 제어수단(750), 메모리 제어수단(760) 등이 포함될 수 있다. 단, 제어부(700)의 구성이 이에 한정되는 것은 아니며, 이보다 많거나 이보다 적은 구성요소들로 구현하는 것도 가능하다.2, the control unit 700 which can be applied to an example of the invention includes a vehicle recognition unit 710, an illegal parking distance determination unit 720, a license plate recognition unit 730, a filtering unit 740, Means 750, memory control means 760, and the like. However, the configuration of the controller 700 is not limited thereto, and it is possible to implement the configuration with more or fewer components.

먼저, 차량 인식수단(710)은 검지 카메라(110)가 촬영한 주정차 금지구역에 대한 검지영상을 수신받으며, 특징벡터를 이용하여 상기 검지영상으로부터 특징벡터 정보를 분석할 수 있다.First, the vehicle recognition unit 710 receives the detection image for the prohibited area for the emergency stop camera 110, and can analyze the feature vector information from the detection image using the feature vector.

상기 특징벡터는 불법 주정차 단속 시스템(10)의 단속 대상인 차량을 인식하기 위한 특징벡터를 추출하고 분석하는 방법으로서, SIFT(Scale-Invariant Feature Transform), SURF(Speeded Up Robust Features), Adaboost, BMA(Block Matching Algorithm), HOG(Histogram of Oriented Gradients), Haar-like features 및 Gabor Wavelet(filter) 중 어느 하나를 이용할 수 있다.The characteristic vector is a method of extracting and analyzing a feature vector for recognizing a vehicle to be interrupted by the illegal parking regulation system 10. The feature vector is classified into a Scale-Invariant Feature Transform (SIFT), a Speed Up Robust Feature (SURF) Block Matching Algorithm, Histogram of Oriented Gradients, Haar-like features, and Gabor Wavelet (filter).

여기서, SIFT 알고리즘은 영상의 특징벡터를 추출하는 대표적인 알고리즘으로서, 이미지 회전, 스케일링, 이동, 부분 조명 변화 및 투영변환(projective transform)에 불변인 특성을 지니고 있다. SIFT 알고리즘은 로컬 이미지의 특성을 고려하여 특징의 위치, 스케일 및 방향 등의 속성을 추출할 수 있다.Here, the SIFT algorithm is a typical algorithm for extracting a feature vector of an image, and has characteristics that are invariant to image rotation, scaling, movement, partial illumination change, and projective transform. The SIFT algorithm can extract attributes such as position, scale, and direction of a feature in consideration of the characteristics of the local image.

즉, 첫 번째 단계로, DOG(Difference-Of-Gaussian) 함수를 통해 생성한 스케일 공간에서 최대·최소(extrema)를 검색하여 샘플점(또는 후보 픽셀)을 선택한다(Scale-space extrema detection). That is, the first step is to select the sample points (or candidate pixels) by searching the maximum and minimum (extrema) in the scale space generated by the DOG (Difference-Of-Gaussian) function (Scale-space extreme detection).

두 번째 단계로, 안정도(stability) 수치에 기반하여 키포인트들을 선택한다(Keypoint localization). In the second step, keypoints are selected based on the stability value (Keypoint localization).

세 번째 단계로, 각각의 키포인트에 대하여 1 이상의 방향을 할당한다(Orientation assignment).In the third step, one or more directions are assigned to each keypoint (Orientation assignment).

마지막 단계로, 로컬 이미지 기울기(local image gradient)들을 이용하여 키포인트 기술자를 생성한다(Keypoint descriptor).As a final step, a keypoint descriptor is created using local image gradients.

상기 SIFT 알고리즘에 관한 상세한 설명은 "Distinctive image features from scale-invariant keypoints" 논문에 자세하게 나와있다.A detailed description of the SIFT algorithm is given in detail in the article " Distinctive image features from scale-invariant keypoints ".

또한, SURF 알고리즘은 여러 개의 영상으로부터 크기, 조명, 시점 등의 환경 변화를 고려하여 환경 변화에 불변하는 특징을 찾는 알고리즘으로서, 일반적으로 성능이 우수하다고 알려진 SIFT 알고리즘과 견줄만한 성능을 보이면서 동시에 속도를 크게 향상시킨 알고리즘이다.In addition, the SURF algorithm is an algorithm that finds characteristics that are invariant to environmental changes by taking into account environment changes such as size, illumination, and viewpoint from multiple images. It is similar to the SIFT algorithm, which is generally known to have excellent performance, It is a greatly improved algorithm.

상기 SURF 알고리즘에 관한 상세한 설명은 "Robust Interest Point Detection and Descriptor" 논문에 자세하게 나와있다.A detailed description of the SURF algorithm is given in detail in the " Robust Interest Point Detection and Descriptor " paper.

또한, HOG 알고리즘은 영상 내에서 특정 물체의 외관과 형상은 기울기 크기나 모서리 방향의 분포에 의하여 결정될 수 있다는 점을 기반으로 한다. In addition, the HOG algorithm is based on the fact that the appearance and shape of a specific object in an image can be determined by the gradient magnitude or the distribution in the corner direction.

HOG 알고리즘은 영상을 셀(cell)이라고 지칭되는 다수의 영역으로 분할하고, 각 셀마다 기울기나 모서리의 방향의 히스토그램을 작성하여 특정 물체를 인식할 수 있다.The HOG algorithm divides an image into a plurality of regions called cells and can recognize a specific object by creating a histogram of a slope or a corner direction for each cell.

상기 HOG 알고리즘에 관한 상세한 설명은 "Histograms of oriented gradients for human detection" 논문에 자세하게 나와있다.A detailed description of the HOG algorithm is given in detail in the article " Histograms of oriented gradients for human detection ".

또한, Haar-like features 알고리즘은 모서리의 특징 정보를 나타내는 포로토타입과 선의 특징 정보를 나타내는 프로토타입을 이용하여 특정 물체를 인식할 수 있다. 이에 대한 자세한 설명은 "An Extended Set of Haar-like Features for Rapid Object Detection" 논문에 설명되어 있다.In addition, the Haar-like features algorithm can recognize a specific object by using a prototype representing the characteristic information of the edge and a prototype representing the characteristic information of the line. A detailed description is given in the article "An Extended Set of Haar-like Features for Rapid Object Detection".

또한, Gabor Wavelet(filter) 알고리즘에 관한 상세한 설명은 "Uncertainty relation for resolution in space, spatial frequency, and orientation optimized by two-dimensional visual cortical filters."에 자세하게 나와있다.A detailed description of the Gabor Wavelet (filter) algorithm is given in detail in "Uncertainty relation for resolution in space, spatial frequency, and orientation optimized by two-dimensional visual cortical filters."

또한, BMA 알고리즘에 관한 상세한 설명은 "Combined shape and feature-based video analysis and its application to non-regid object tracking"에 자세하게 나와 있다.Further, a detailed description of the BMA algorithm is given in detail in " Combined shape and feature-based video analysis and its application to non-regid object tracking ".

이러한 특징벡터에 의하여 추출된 특징벡터 정보는 메모리(400)에 저장되어 있는 학습 데이터와 비교된다.The feature vector information extracted by the feature vector is compared with the learning data stored in the memory 400.

상기 학습 데이터는 일반적인 차량의 영상에 대한 특징벡터의 벡터성분들의 정보를 포함하고 있으므로, 차량 인식수단(710)은 검지영상에 촬영된 객체 중 차량이 있는지 판단할 수 있으며 차량에 대한 인식을 할 수 있다.Since the learning data includes information of vector components of a feature vector of a general vehicle image, the vehicle recognizing unit 710 can determine whether there is a vehicle among the objects photographed in the detected image, have.

또한, 검지영상으로부터 차량을 인식하는 과정에서는 선형 최근접점 탐색이 사용될 수 있으며, 이는 비교되는 특징벡터 중 유사도가 높은 특징벡터의 개수에 따라 결정하는 방법이다. 하지만 선형 최근접점 탐색은 메모리(400)에 저장된 모든 학습 데이터와 비교하여야 하므로 연산량이 너무 많으며 계산 속도가 느릴 수 있다. 따라서, 학습 데이터에 특징벡터 정보와 관련된 색인(index)을 만들어 탐색을 고속화하는 방법이 이용될 수도 있다.Also, in the process of recognizing the vehicle from the detected image, the linear nearest point search can be used, which is a method of determining the number of feature vectors with high similarity among the compared feature vectors. However, since the linear nearest point search must be compared with all the learning data stored in the memory 400, the calculation amount is too large and the calculation speed may be slow. Therefore, a method of creating an index related to the feature vector information in the learning data to speed up the search may be used.

또한, 차량 인식수단(710)은 차량이 주정차 금지구역에 진입하는지 여부와 상기 차량이 주정차 금지구역에 정지한 위치를 판단할 수 있다. Further, the vehicle recognizing means 710 can determine whether the vehicle enters the prohibited area and whether the vehicle has stopped in the prohibited area.

이를 위하여 차량의 모션을 검지하는 모션 검지 알고리즘 또는 주정차 금지구역의 배경 영상과 차량 주차 시 영상을 대비하는 영상 검지 알고리즘이 사용될 수 있으며, 바람직하게는 더 정확한 차량 검지를 위해 두 개의 알고리즘을 모두 사용할 수 있다.For this purpose, a motion detection algorithm for detecting the motion of the vehicle or a video image detection algorithm for comparing the background image of the prohibited area with the parking time image can be used. Preferably, both algorithms can be used for more accurate vehicle detection have.

한편, 불법 주정차 판단수단(720)은 차량이 주정차 금지구역 상에 주정차하였는지 여부를 판단할 수 있다.On the other hand, the illegal parking discrimination unit 720 can judge whether or not the vehicle is parked on the parking prohibited area.

즉, 차량 인식수단(710)이 검지 카메라(110)가 촬영한 검지영상을 수신하여 주정차 금지구역에 있는 차량을 인식한 경우, 불법 주정차 판단수단(720)은 이 차량이 불법 주정차하였는지 여부를 판단하여 단속처리를 수행할지 여부를 결정할 수 있다.That is, when the vehicle recognizing unit 710 receives the detection image photographed by the detection camera 110 and recognizes the vehicle in the prohibited area, the illegal parking distance judging unit 720 judges whether or not the vehicle is illegally parked It is possible to decide whether or not to perform intermittent processing.

검지영상에 차량이 인식되었다는 사정만으로 그 차량이 불법 주정차하였다고 단정할 수 없으며, 차량이 기 설정된 시간 이상 주정차 금지구역에 정지한 경우에야 비로소 그 차량이 불법 주정차를 하였다고 할 수 있다.It can not be concluded that the vehicle was illegally parked only on the basis of the recognition of the vehicle on the detection image, and it can be said that the vehicle was illegally parked only when the vehicle stopped in the prohibited parking area for a predetermined period of time.

따라서, 통상적으로 불법 주정차 판단수단(720)은 기 설정된 시간의 간격으로 촬영된 검지영상을 이용하여 차량의 불법 주정차 여부를 판단할 수 있다.Therefore, the illegal parking distance determining means 720 can determine whether the vehicle is illegally parked by using the sensing images photographed at predetermined intervals of time.

즉, 불법 주정차 판단수단(720)은 초기에 주정차 금지구역에 차량의 존재를 인식한 경우, 기 설정된 시간이 경과한 후에 검지 카메라(110)가 다시 주정차 금지구역을 촬영하도록 제어한다. 이를 위하여 카메라 제어수단(750)이 검지 카메라(110)의 동작을 함께 제어할 수 있다.That is, when the illegal parking distance determination unit 720 recognizes the presence of the vehicle in the parking space prohibited area at the beginning, the detection camera 110 controls to shoot the parking space prohibited area again after a predetermined time elapses. For this, the camera control unit 750 can control the operation of the detection camera 110 at the same time.

차량 인식수단(710)은 상기 기 설정된 시간 경과 후 촬영된 검지영상을 수신하고, 다시 특징벡터를 분석하여 상기 검지영상으로부터 특징벡터 정보를 추출한다. The vehicle recognizing means 710 receives the sensed image photographed after the lapse of the predetermined time, analyzes the feature vector again, and extracts the feature vector information from the sensed image.

이렇게 추출된 특징벡터는 메모리(400)에 저장되어 있는 학습 데이터와 비교되며, 차량 인식수단(710)은 기 설정된 시간 경과 후 촬영된 검지영상에 촬영된 객체 중 차량이 있는지 판단할 수 있으며 차량에 대한 인식을 할 수 있다.The extracted feature vector is compared with the learning data stored in the memory 400. The vehicle recognition unit 710 can determine whether there is a vehicle among the objects photographed in the detection image photographed after a predetermined time elapses, Can be recognized.

불법 주정차 판단수단(720)이 기 설정된 시간 경과 후의 검지영상에서 인식된 차량이 초기의 검지영상에서 인식된 차량과 동일하다고 판단하는 경우, 상기 차량은 불법 주정차를 한 것이라고 간주된다.When the illegal parking distance determining means 720 determines that the vehicle recognized in the detection image after the lapse of the preset time is the same as the recognized vehicle in the initial detection image, the vehicle is regarded as having made illegal parking.

반대로, 기 설정된 시간 경과 후의 검지영상에서 인식된 차량과 초기의 검지영상에서 인식된 차량이 동일하지 않다고 판단하는 경우에는 상기 차량은 불법 주정차하지 않은 것이라고 인정되며, 다시 검지 카메라(110)를 이용하여 주정차 금지구역을 촬영하며 차량의 진입 여부를 탐색한다.On the other hand, when it is judged that the vehicle recognized in the detection image after the lapse of the predetermined time and the vehicle recognized in the initial detection image are not the same, the vehicle is recognized as having not illegally parked the vehicle, Photograph the prohibited area and search for entry of the vehicle.

한편, 번호판 인식수단(730)은 단속 카메라(120)가 촬영한 영상을 수신하여 불법 주정차 차량의 번호판의 문자를 인식할 수 있다. On the other hand, the license plate recognizing means 730 can recognize the characters of the license plate of the illegally parked vehicle by receiving the image photographed by the intermittent camera 120.

문자 인식을 위하여 우선 차량 번호판 위치의 3가지 검출방법 중 하나가 실행될 수 있다.For character recognition, one of the three detection methods of the license plate position can be executed first.

첫째는 촬영된 영상으로부터 수직 및 수평 가장자리 정보를 이용하여 번호판의 특징영역을 검출하는 것이다.First, the feature region of the license plate is detected using the vertical and horizontal edge information from the photographed image.

두 번째는 스캔 데이터 분석에 의해 차량 번호판의 위치를 검출하는 것이다.The second is to detect the position of the license plate by the scan data analysis.

세 번째는 숫자와 문자를 직접 검색하여 정확한 차량 번호판을 검출하는 것이다.The third is to detect the exact license plates by directly searching for numbers and letters.

차량 번호판의 위치가 검출되면, 템플렛 정합에 의한 문자 인식(한글자음 + 번호), 구조적 특징에 의한 문자 인식(한글모음)을 하고, 오인식을 줄이기 위하여 내부의 인식 알고리즘은 숫자, 문자(자음, 모음) 등 특징을 상세하게 분류하여 인식된 문자를 재확인처리를 함으로써 문자 해독 시 오류를 최소화할 수 있다.When the position of the license plate is detected, the recognition algorithm uses the numbers, letters (consonants, vowels, and vowels) to recognize the characters by template matching (Hangul consonant + number) ) Are classified in detail and the recognized characters are re-confirmed, thereby minimizing the error in decoding the characters.

한편, 필터링 수단(740)은 검지영상에 찍힌 차량의 크기를 고려하여 단속 대상에서 제외할 것인지 여부를 결정할 수 있다.On the other hand, the filtering means 740 can decide whether or not to exclude from the object of interception in consideration of the size of the vehicle captured on the detection image.

검지 카메라(110)를 이용하여 주정차 금지구역에 대한 검지영상을 촬영하는 경우, 촬영된 검지영상에 찍힌 차량의 크기는 검지 카메라(110)로부터 실제 차량의 위치까지의 거리에 따라서 달라진다.In the case of photographing the detection image for the prohibited area using the detection camera 110, the size of the vehicle photographed on the photographed detection image varies depending on the distance from the detection camera 110 to the actual vehicle position.

즉, 검지영상의 하단 부분은 불법 주정차 단속 시스템(10)이 설치된 지주에서 가까운 공간이므로, 실제 차량이 검지 카메라(110)에 가까운 곳에 위치한다면, 검지영상에 찍힌 차량은 검지영상의 하단 부분에 위치할 것이며, 검지영상에 찍힌 차량의 크기는 크게 나타날 것이다.That is, since the lower end portion of the detection image is a space near the support where the illegal parking regulation system 10 is installed, if the actual vehicle is located close to the detection camera 110, the vehicle captured on the detection image is positioned at the lower end portion , And the size of the vehicle on the detection image will be large.

반대로, 실제 차량이 검지 카메라(110)에서 먼 곳에 위치한다면, 검지영상에 찍힌 차량은 검지영상의 상단 부분에 위치할 것이며, 검지영상에 찍힌 차량의 크기는 작게 나타날 것이다.On the other hand, if the actual vehicle is located far from the detection camera 110, the vehicle captured on the detection image will be positioned at the upper part of the detection image, and the size of the vehicle captured on the detection image will be smaller.

이렇게, 필터링 수단(740)은 차량 인식수단(710)에 의하여 인식된 차량의 검지영상에서의 위치를 이용하여 검지 카메라(110)로부터 실제 차량의 위치까지의 거리를 계산할 수 있다.In this way, the filtering means 740 can calculate the distance from the detection camera 110 to the position of the actual vehicle using the position of the detected image of the vehicle recognized by the vehicle recognition means 710. [

또한, 필터링 수단(740)은 상기 계산된 거리를 이용하여 검지영상에서의 예상되는 차량 영상의 크기를 산출할 수 있으며, 검지영상 상의 차량 영상의 크기가 예상되는 차량 영상의 크기와 차이가 많이 난다면 이를 단속 대상에서 제외함으로써 오검지를 방지할 수 있다.Further, the filtering means 740 can calculate the expected vehicle image size in the detected image using the calculated distance, and the size of the vehicle image on the detected image is much different from the expected size of the vehicle image It is possible to prevent misjudgment by excluding it from the object of interception.

즉, 차량 인식수단(710)에 의하여 인식된 차량이 검지영상의 하단 부분에 찍혀 있어서 검지 카메라(110)로부터 가까운 곳에 있다고 계산되었는데, 검지영상 상의 차량 영상의 크기가 작게 찍혀있는 경우에는, 상기 인식된 차량은 실제로는 차량이 아니고 오검지일 가능성이 많기 때문에 이를 단속 대상에서 제외시킬 수 있다.That is, it is calculated that the vehicle recognized by the vehicle recognition means 710 is located at the lower end portion of the detection image and is located close to the detection camera 110. If the size of the vehicle image on the detection image is small, The vehicle is not actually a vehicle and is likely to be an error, so it can be excluded from the control.

반대로, 차량 인식수단(710)에 의하여 인식된 차량이 검지영상의 상단 부분에 찍혀 있어서 검지 카메라(110)로부터 먼 곳에 있다고 계산되었는데, 검지영상 상의 차량 영상의 크기가 크게 찍혀있는 경우에는, 상기 인식된 차량은 실제로는 차량이 아니고 오검지일 가능성이 많기 때문에 이 또한 단속 대상에서 제외시킬 수 있다.Conversely, if it is calculated that the vehicle recognized by the vehicle recognition means 710 is located at the upper portion of the detection image and is located far from the detection camera 110, if the size of the vehicle image on the detection image is large, The vehicle is not actually a vehicle but is likely to be an error, so it can also be excluded from the control.

한편, 카메라 제어수단(750)은 카메라 모듈(100)에 속하는 검지 카메라(110)와 단속 카메라(120)의 전반적인 동작을 제어할 수 있다.Meanwhile, the camera control unit 750 can control the overall operation of the detection camera 110 and the intermittent camera 120 belonging to the camera module 100.

카메라 제어수단(750)은 불법 주정차 단속 시스템(10)이 주정차 금지구역에 정지하는 차량을 단속하도록 검지 카메라(110)를 이용하여 주정차 금지구역에 대한 검지영상을 촬영하도록 제어할 수 있다.The camera control unit 750 can control the detection camera 110 to photograph the detection image of the illegal parking prohibited area so that the illegal parking intermittent system 10 interrupts the vehicle stopping in the illegal parking prohibited area.

또한, 카메라 제어수단(750)은 주정차 금지구역에 정지한 차량이 주정차 금지구역 상에 주정차한 것인지 여부를 판단할 수 있도록 기 설정된 시간 이후에 다시 주정차 금지구역에 대한 검지영상을 촬영하도록 제어할 수 있다. 이는 불법 주정차 판단수단(720)과 함께 제어될 수 있다.In addition, the camera control means 750 can control to shoot a detection image for the forbidden zone again after a predetermined time so as to judge whether or not the vehicle stopped in the prohibited area is on the prohibited area have. This can be controlled together with the illegal parking discrimination means 720.

또한, 카메라 제어수단(750)은 차량 인식수단(710)에 의하여 판단된 정지된 차량의 위치 정보를 수신하며, 이를 이용하여 단속 카메라(120)가 주정차 금지구역에 정지한 차량의 번호판을 촬영할 수 있도록 단속 카메라(120)의 팬, 틸트, 줌 동작 중 적어도 하나를 수행하도록 제어를 할 수 있다.The camera control unit 750 receives the positional information of the stopped vehicle determined by the vehicle recognition unit 710 and can photograph the license plate of the vehicle stopped by the intermittent camera 120 in the prohibited area Tilt, and zoom operations of the intermittent camera 120 so that the intermittent camera 120 may be controlled by the intermittent operation.

한편, 메모리 제어수단(760)은 메모리(400)로 입/출력되는 각종 데이터에 대한 전반적인 동작을 제어할 수 있다.On the other hand, the memory control means 760 can control the overall operation of various data input / output to / from the memory 400.

제어부(700)의 차량 인식수단(710)은 검지영상으로부터 특징벡터를 추출하며, 상기 추출된 특징벡터를 메모리(400)의 일반적인 차량 영상에 대한 특징벡터 정보와 비교한다.The vehicle recognition unit 710 of the control unit 700 extracts a feature vector from the detected image and compares the extracted feature vector with feature vector information of a general vehicle image of the memory 400. [

이를 위하여, 메모리 제어수단(760)은 메모리(400)가 일반적인 차량 영상에 대한 특징벡터 정보가 포함된 학습 데이터를 차량 인식수단(710)으로 출력하도록 제어할 수 있다.For this, the memory control means 760 can control the memory 400 to output the learning data including the feature vector information about the general vehicle image to the vehicle recognition means 710. [

또한, 차량 인식수단(710) 및/또는 필터링 수단(750)에 의하여 인식된 차량에 대한 특징벡터 정보가 메모리(400)의 학습 데이터에 존재하지 않는 경우, 이를 다음 학습 데이터와의 비교에 사용할 수 있도록 상기 특징벡터 정보를 메모리(400)에 저장할 수 있다.If the feature vector information for the vehicle recognized by the vehicle recognition means 710 and / or the filtering means 750 does not exist in the learning data of the memory 400, it can be used for comparison with the next learning data The feature vector information may be stored in the memory 400.

이를 위하여, 메모리 제어수단(760)은 차량 인식수단(710) 및/또는 필터링 수단(750)에 의하여 인식된 차량에 대한 특징벡터 정보를 메모리(400)로 입력되도록 제어할 수 있다.To this end, the memory control means 760 may control the feature vector information for the vehicle recognized by the vehicle recognition means 710 and / or the filtering means 750 to be input to the memory 400. [

이하에서는, 상기 설시한 구성을 갖는 불법 주정차 단속 시스템의 설치 구조를 도면을 참조하여 살펴본다.Hereinafter, an installation structure of an illegal parking regulation system having the above-described configuration will be described with reference to the drawings.

도 3a 및 도 3b는 본 발명의 일례와 관련된 불법 주정차 단속 시스템이 설치된 구조의 평면도 및 측면도이다.FIGS. 3A and 3B are a plan view and a side view of a structure in which an illegal parking intermittent system related to an example of the present invention is installed.

도 3a 및 도 3b에서 볼 수 있듯이, 본 발명의 불법 주정차 단속 시스템(10) 구조는 지주(12), 가로대(14), 검지 카메라(110), 단속 카메라(120) 등을 포함할 수 있다.3A and 3B, the illegal parking system system 10 of the present invention may include a support 12, a crossbar 14, a detection camera 110, an intermittent camera 120, and the like.

단, 도 3a 및 도 3b에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 불법 주정차 단속 시스템이 구성될 수도 있다. 이하, 도 3a 및 도 3b의 설치 구조를 살펴본다.However, the constituent elements shown in Figs. 3A and 3B are not essential, and an illegal preliminary intermittent interrupting system having more or fewer components may be constructed. Hereinafter, the installation structure of FIGS. 3A and 3B will be described.

지주(12)는 주정차 금지구역 안이나 근처의 지면에 고정되게 설치되며, 볼트에 의해 지면에 고정되거나 지중에 삽입 고정되는 것이 바람직하다. 지주(12)는 단속 카메라(120)가 넓은 지역을 촬영할 수 있도록 충분한 높이로 설치될 수 있다.It is preferable that the column 12 is fixedly installed on the ground within the prohibited area or near the ground, and is fixed to the ground by a bolt or inserted and fixed in the ground. The post 12 can be installed at a sufficient height to allow the intermittent camera 120 to take a wide area.

지주(12)는 검지 카메라(110)나 단속 카메라(120), 출력부(200), 통신부(300) 등에 전원을 공급하기 위해 지중으로부터 연결되는 전선이 관통될 수 있도록 내부는 중공으로 형성될 수 있으며, 그 재질은 빗물 등에 부식되지 않는 금속 재질로 형성되는 것이 바람직하다.The support 12 may be formed hollow so that electric wires connected to the detector camera 110, the intermittent camera 120, the output unit 200, the communication unit 300, And the material thereof is preferably made of a metal material which is not corroded by rainwater or the like.

지주(12)의 상부에는 적어도 하나의 가로대(14)가 연결되어 설치될 수 있으며, 상기 지주(12)와 마찬가지로 그 내부는 중공으로 형성될 수 있으며, 그 재질은 금속 재질로 형성되는 것이 바람직하다.At least one cross bar 14 may be connected to the upper part of the column 12 and the inside of the column 12 may be hollow as in the case of the column 12, .

가로대(14)는 지면과 수평 하게 위치될 수 있고, 바람직하게는 주정차 금지구역 위에 배치될 수 있다.The crossbar 14 may be positioned horizontally with the ground, preferably above the anti-vehicular zone.

검지 카메라(110)와 단속 카메라(120)는 주정차 금지구역을 촬영하여 얻어지는 정지영상 또는 동영상 등의 화상을 처리할 수 있다. 상기 검지 카메라(110)와 단속 카메라(120)는 상기 가로대(14)의 단부에 설치될 수 있고, 바람직하게는 단속하고자 하는 주정차 금지구역 위에 배치될 수 있다.The detection camera 110 and the intermittent camera 120 can process an image such as a still image or a moving image obtained by photographing the prohibited area. The detection camera 110 and the intermittent camera 120 may be installed at the end of the crossbar 14, and preferably disposed on a prohibited area for intermission.

상기 불법 주정차 단속 시스템(10)이 설치된 주정차 금지구역에는 도 3a에 도시한 바와 같이 검지 카메라(110)로부터 가까운 곳에 주정차된 차량(21)과 검지 카메라(110)로부터 먼 곳에 주정차된 차량(22)이 있을 수 있다.As shown in FIG. 3A, in the illegal parking intermittent system 10 in which the illegal parking intermittent system 10 is installed, a car 21 parked near the detection camera 110 and a vehicle 22 parked away from the detection camera 110, This can be.

앞서 설명한 바와 같이, 검지 카메라(110)를 이용하여 주정차 금지구역에 대한 검지영상을 촬영하는 경우, 검지 카메라(110)로부터 가까운 곳에 주정차된 차량(21)은 검지영상의 하단에 위치하게 된다. As described above, when the detection camera 110 is used to photograph a detection image for a pseudo range-prohibited area, the vehicle 21 that has been parked near the detection camera 110 is positioned at the lower end of the detection image.

따라서 필터링 수단(740)은 상기 검지영상에 찍힌 차량의 위치를 이용하여 검지 카메라(110)로부터 상기 차량(21)까지의 거리를 계산할 수 있다. Therefore, the filtering unit 740 can calculate the distance from the detection camera 110 to the vehicle 21 using the position of the vehicle on the detection image.

또한, 검지 카메라(110)로부터 먼 곳에 주정차된 차량(22)은 검지영상의 상단에 위치하게 되며, 이로부터 검지 카메라(110)로부터 상기 차량(22)까지의 거리가 계산될 수 있다.The distance between the detection camera 110 and the vehicle 22 can be calculated from the top of the detection image.

Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 시스템Illegal parking control system using Fast R-CNN based vehicle detection

공공안전과 시설물 및 개인의 안전으로부터 위협받거나 생활의 편의를 도모하기 위한 이유로 현대에는 곳곳에 CCTV(closed circuit television)가 설치되어 있고 현재도 진행 중이다. CCTV (closed circuit television) has been installed and is still in progress in modern times as a reason to be threatened by public safety, facility and personal safety, and convenience of living.

이러한 배경에는 CCTV 지능형 영상보안은 영상내의 객체 검출과 행동분석을 통해 영상감시 및 재난, 재해 방지 등의 역할을 하고 있다.In this background, CCTV intelligent video security plays a role of video surveillance, disaster prevention and disaster prevention through object detection and behavior analysis of images.

기존 객체 검출 방법 및 방식에는 Background modeling을 통해 배경과 전경의 차이값으로 인한 검출을 하고 HoG, LBP, Color Histogram을 이용하여 feature를 추출하고 Adaboost, SVM, ASEF Filter 등의 기계학습을 통해 검출하여 사용하고 있다. Existing object detection methods and methods are based on background modeling, and they are detected by differences of foreground and background. Extracting features using HoG, LBP, and Color Histogram are detected through machine learning such as Adaboost, SVM and ASEF Filter. .

이후 객체 추적에서는 Basian tracking, Particle filtering, Mean-shift, Cam-Shift등의 여러 Machine learning 기법들을 사용한다.Then object tracking uses several machine learning techniques such as Basian tracking, Particle filtering, Mean-shift, and Cam-Shift.

도 4는 신경망 네트워크 구조의 일례를 도시한 것이다.Fig. 4 shows an example of a neural network structure.

최근의 Deep Learning 영상인식 기술은 도 4에 도시된 것과 같이, CNN을 기반으로 발전을 거듭하여 RCNN, Fast R-CNN, Faster R-CNN을 거쳐 YOLO 등의 빠르고 검출율이 높은 단계까지 발전하고 있다. As shown in FIG. 4, the recent Deep Learning image recognition technology has been developed on the basis of CNN and has been developed to a fast and high detection rate such as YOLO through RCNN, Fast R-CNN, and Faster R-CNN .

이러한 객체검출 및 추적(분석) 알고리즘은 꾸준히 발전하여 인간의 인지능력에 대체할 수준까지 발전하고 있으며 무인자동차를 비롯한 산업계 전반에 활용 및 응용되고 있는 추세이다.Such object detection and tracking (analysis) algorithms have been steadily developed and are being developed to replace human cognitive abilities, and are being utilized and applied to the entire industry including unmanned vehicles.

CCTV영상에서 기존의 방식을 벗어나 최근의 CNN기반의 Deep Learning 알고리즘을 적용하여 인식율을 높이고 영상보안의 완성도를 높이는 개발 및 적용되고 있다. It is developed and applied to enhance the recognition rate and improve the completeness of image security by applying the CNN based Deep Learning algorithm out of the existing method in the CCTV image.

이러한 기술의 발전들과 함께 차량을 대상으로 한 응용 서비스에 도입이 되고 있는 추세이며, 모바일 앱, 자율주행 자동차에 이르기까지 다양한 시스템에서 영상, 자연어, 음성, 제어, 통신의 내용을 인식하는데 사용되고 있고, 복잡한 자료 및 다양한 데이터 유형들을 분석하는데 활용되고 있다. With the advances of these technologies, there is a tendency to be introduced into application services for vehicles, and it is used to recognize contents of video, natural language, voice, control, and communication in various systems ranging from mobile apps to autonomous vehicles , Complex data and various data types.

특히, 불법 주정차 차량단속, 버스전용로의 주행차량 단속, 주차관제 및 자율주행 등 다양한 산업분야에서 차량검지의 정확도를 높이고 이를 활용 및 도입하고 있는 추세이다.Especially, it is a tendency to increase the accuracy of vehicle detection in various industrial fields such as illegal parking control, bus control, parking control, and autonomous driving.

기존의 불법주정차 단속시스템내의 차량검지부에 해당하는 검출기는 특징정보를 추출하고 이를 기준으로 설정된 임계치 값에 따라 차량을 검출하는 방식을 선택하고 있거나, 배경 성분과 차량 정보가 포함된 성분간의 차이를 이용하여 차량을 검출하는 방식 등으로 구분되어 사용되고 있다.Detectors corresponding to the vehicle detection unit in the existing illegal parking intermittent system extract feature information and select a method of detecting the vehicle according to a threshold value set as a reference, or use a difference between a background component and a component containing vehicle information And a method of detecting a vehicle.

이와 같은 방식들은 특징정보의 손실여부에 따라 차량이 아닌 다른 대상(사람, 유사특징을 보이는 물체 등)형태로 인지하게 되는 오검출이 될 수 있고, 특징정보의 취득과정에서 조명의 변화, 계절, 날씨, 시간대별 환경의 변화에 취약하여 원하는 대상의 차량정보를 검출하기가 어렵다.Such a method may be an erroneous detection in the form of a target other than a vehicle depending on whether the feature information is lost or not (a person or a similar object) It is difficult to detect vehicle information of a desired object because it is vulnerable to change of environment by weather and time frame.

따라서 차량검출을 위한 기존 방법들과 달리 본 개발에서는 딥러닝과 같은 기반의 머신러닝 학습을 이용한 방법을 이용하여 차량의 특징을 탐지하는 검출방법을 적용하고 정확도를 높이기 위한 다양한 학습패턴들을 적용함으로써 실제 도로환경에서 복잡하고 다양한 형태의 차량을 검출한다.Therefore, unlike existing methods for vehicle detection, in this development, we apply detection method to detect features of vehicle using method based on machine learning learning such as deep learning and apply various learning patterns to improve accuracy. It detects complex and various types of vehicles in road environment.

대부분의 일반적인 용어로 정의된 딥러닝(Deeplearning) 방식은 기본구조내의 적용기술 방식에 따라 달리 적용되고 학습데이터 구조(레이아웃)의 크기에 따라 검출의 정확도가 상이한 반면, 처리속도 및 거리의 차량검출에 효과적으로 나타날 수 있는 장-단점이 있다. 또한 적용방법에 따른 기술의 내용이 상이하더라도 보편적으로 동일한 시스템 구조내의 구성으로 인해서 흔히 딥러닝이란 의미를 갖는다.Deeplearning methods defined in most general terms are applied differently according to the application technique in the basic structure and the accuracy of detection is different according to the size of the learning data structure (layout) There are drawbacks that can appear effectively. Even though the content of the technique according to the application method is different, it is commonly referred to as deep run due to the configuration in the same system structure.

먼저 딥러닝에 대한 의미를 소개한다면, 딥러닝은 머신러닝의 한 종류이고, 이미지 인식, 음성 인식뿐만 아니라 자연언어처리 등의 다양한 분야에 활용되고 성능 또한 좋은 결과를 도출하고 있다. 기존의 차량특징 정보를 추출하는 방식과 달리 딥러닝에서는 “특징량 추출”로써 기존 방법에서는 사람이 이미지 내부에 있는 특징을 하나하나 지정해야 했지만 딥러닝의 경우는 학습데이터에서 기계가 자동으로 특징추출에 대한 학습을 하는 것이 큰 차이점이라 할 수 있다.Deep learning is a kind of machine learning. Deep learning is used in various fields such as image recognition, speech recognition, and natural language processing. Unlike the method of extracting the existing vehicle feature information, in the deep learning, "feature extraction" is used. In the existing method, a person has to designate each feature in the image, but in the case of the deep learning, Learning is a big difference.

이와 같은 특징은 과거 신경망(뉴럴네트워크, NN: Neural network) 네트워크 구조의 의미를 갖고 있기 때문에 특징추출에 대한 학습으로 이어질 수 있으며 이는 인간의 뇌에서 수많은 신경세포(뉴런)이 있고 하나의 뉴런은 다른 뉴런에게 신호를 받거나 전달하는 신호의 흐름으로 연결되어 다양한 정보를 만들 수 있게 된다. This feature can lead to learning of feature extraction since it has the meaning of the network structure of the past neural network (NN: Neural network), which means that there are many neurons (neurons) in the human brain and one neuron It is connected to the flow of signals that receive or transmit signals to the neurons, allowing them to create a variety of information.

이러한 구조를 연상하여 구현된 부분이 신경망(뉴럴네트워크, NN: Neural network) 이다.The neural network (NN: Neural network) is a part that is reminiscent of this structure.

도 4에 도시한 구조를 신경망의 여러 뉴런이 연결돼 있어서 망(네트워크)라고 말하고 입력층(Input layer)에 학습시키고 싶은 데이터가 들어가면 중간층(Hidden layer)의 구조에서 여러 입력을 받아지게 되고 이때 입력에 따라 하나의 다른 노드(유닛, 연결강도)로 신호를 보내고 출력층(Output layer)에서 출력한다. The structure shown in FIG. 4 is referred to as a network because a plurality of neurons of a neural network are connected to each other. When input data is input to the input layer, various inputs are received from the structure of the hidden layer, (Unit, connection strength) according to the number of nodes and output from the output layer.

이러한 신경망을 3개 이상 중첩하면 깊은 신경망(Deep Neural Network: DNN)이라고 부르고 이를 활용한 기계학습을 딥러닝이라고 말한다. When three or more neural networks are superimposed, they are called Deep Neural Network (DNN), and machine learning using them is called deep learning.

대량의 데이터를 입력해서 학습시키는 구조에서 뉴런의 가중치를 조정함으로써 연결강도의 가중치 합 혹은 곱 등의 연산에 따라 출력의 신호세기에 연관이 되므로 학습에 대한 효율성 및 효과를 극대화시키는 방법으로 설계도 가능하다. In the structure that learns by inputting a large amount of data, it can be designed by maximizing the efficiency and effect of learning because it adjusts the weight of the neuron and is related to the signal intensity of the output according to the operation such as weight sum or product of connection strength .

이와 같은 구조는 방대한 데이터들을 처리하기 위한 변형이 필요하며, 학습 데이터의 량이 방대해졌을 때 더 복잡한 구조이어도 가능하게 된다. 이러한 구조의 특징중의 하나인 컨볼루션 신경망(Convolutional Neural Network: CNN)은 뉴런들의 연결 패턴을 구성한 전 방향 신경망으로서 레이어들간의 처리수행을 할 수 있도록 설계가 되어 있고 여러 개의 컨볼루션 레이어들로 구성된다. Such a structure requires modification to process vast amounts of data, and even when the amount of learning data is enormous, a more complex structure is possible. Convolutional Neural Network (CNN), which is one of the features of this structure, is an omnidirectional neural network that constitutes a connection pattern of neurons and is designed to perform processing between layers and is composed of several convolution layers do.

CNN의 구조는 2차원 입력 데이터에 적합한 구조로써 CCTV 카메라와 같은 영상분야에 활용 및 적용이 가능하다.The structure of CNN is suitable for 2D input data and can be applied and applied to video field such as CCTV camera.

도 5는 본 발명에 적용되는 컨볼루션 신경망의 일례를 도시한 것이다.Fig. 5 shows an example of a convolutional neural network applied to the present invention.

도 5는 CNN 구조로써 기존의 신경망 구조와 비슷하지만 컨볼루션을 통해 의미있는 특징을 추출한다는 점과 여러 레이어들이 스태킹(stacking)되어 있으므로 특징추출, 서브샘플링을 통한 차원축소(dimensionality reduction), 최상위 레이어와 하위 레이어에서 전달되는 특징분류 등의 역할을 수행하고 있다. FIG. 5 is a CNN structure similar to the conventional neural network structure. However, since it extracts meaningful features through convolution and many layers are stacked, feature extraction, dimensionality reduction through sub-sampling, And feature classification from the lower layer.

이러한 복잡한 구조에서 각각의 레이어들마다 학습과정을 가지게 되고, 학습된 내용을 기반으로 새로운 입력에 대해 답을 얻어내는 과정을 갖게되며, 학습 파라미터(가중치)등을 설정하여 학습모델을 다양하게 제공 및 적용할 수 있다. In this complex structure, each layer has a learning process, and it has a process of obtaining an answer to a new input based on the learned contents, and provides various learning models by setting learning parameters (weights) Can be applied.

예를 들어, 다층 퍼셉트론(Feedforward Multilayer perceptron: MLP), 딥 빌리프 네트워크(Convolutional Deep Belief Network: CDBN) 등의 모델들이 있다. For example, there are models such as a Feedforward Multilayer Perceptron (MLP) and a Convolutional Deep Belief Network (CDBN).

이러한 모델들은 영상(이미지)내에서 객체를 검출하는 것보다 분류하는 방식으로 활용되고 있으며 학습된 데이터와 입력데이터간의 유사도를 계산하여 분석 및 분류한다.These models are used instead of detecting objects in images (images), and the similarity between learned data and input data is calculated, analyzed and classified.

본 개발내용에서는 차량정보 추출을 위해서 분류보다는 탐지 혹은 검출 방식을 대상으로하는 학습 모델을 사용해야 되므로 기존의 CNN 방법보다 영상(이미지)내에서 찾는 방식인 RCNN(Region-based Convolution Networks)을 기반한 접근에서 진행한다. In this development, we need to use a learning model that targets detection or detection methods rather than classification methods for vehicle information extraction. Therefore, we use the RCNN (Region-based Convolution Networks) approach Go ahead.

이때 R-CNN의 경우 사전 찾고자 하는 대상을 중심으로 영역을 지정을 하게 되고 이를 기준하여 객체를 검출한다. In this case, in the case of R-CNN, an area is designated based on the object to be searched in advance, and the object is detected based on the area.

하지만 대상객체의 수가 복수 개로 지정될 경우 처리시간에 따른 비용이 커서 실시간성 보장이 어렵다. However, when the number of target objects is plural, it is difficult to guarantee the real-time property because the cost is high according to the processing time.

또한 차량의 정보를 추출하기 위한 영상(이미지)내에서 복수 개의 대상차량이 존재하게 되고, 경우에 따라서는 차량과 유사한 속성을 갖는 물체(포장박스, 이륜차, 자전거, 수레 등)들도 존재하기 때문에 영역내의 정확도가 중요하지만 실시간성 확보를 위해 Fast RCNN(Fast RCNN)과 같은 처리속도가 반영되어야 할 시스템들도 있다.In addition, a plurality of target vehicles exist in an image (image) for extracting information of a vehicle, and in some cases, there are objects (package box, two-wheeled vehicle, bicycle, cart, etc.) Although accuracy within the area is important, there are some systems that need to reflect processing speed such as Fast RCNN (Fast RCNN) in order to secure real-time performance.

일반적으로 R-CNN과 Fast RCNN 접근방법에서 영상(이미지)내의 객체를 검출(탐지)하기 위해서 높은 정확도와 처리속도를 개선시킬 수 있는 반면에서 실제 환경에서 다채널(Multi-Channel)간의 스트리밍 처리에는 정확도와 처리속도의 문제를 해결하지 못하며, 특히 카메라위치에서 대상물체 간의 거리에 따른 정확도 성능의 차이변화가 많고, 영상(이미지) 크기에 따른 처리속도도 달리 측정되므로 이를 해결하기 위한 최적화된 개발이 필요하다.In general, the R-CNN and Fast RCNN approach can improve the accuracy and processing speed to detect (detect) the objects in the image (image). On the other hand, in multi-channel streaming processing Especially, since there are many changes in the accuracy performance depending on the distance between the object and the object in the camera position and the processing speed according to the image (image) size is measured differently, need.

따라서 본 개발에서는 처리속도와 함께 높은 정확성을 요구하기 위한 실시간 처리에 따른 다채널(Multi-Channel) 카메라기반에서 시스템 구성을 확보해야 되기 때문에 기본 구조내의 구조적인 개선과 시스템의 최적화에 따른 성능을 보이도록 하였다. 특히 차량검출을 위해 특정 레이어층에 대한 선택적인 결정과 거리에 따른 위치구간에서의 정확도 및 식별, 그리고 번호인식을 통한 차량인식을 하였다.Therefore, in this development, it is necessary to secure the system configuration based on the multi-channel camera based on the real-time processing in order to request the high accuracy along with the processing speed. Respectively. Especially, for vehicle detection, selective decision for a specific layer layer, accuracy and identification in a position interval according to distance, and vehicle recognition through number recognition are performed.

도 6은 본 발명이 제안하는 개선된(Improved F-CNNs)기반의 시스템 흐름도를 도시한 것이다.Figure 6 illustrates a system flow diagram based on Improved F-CNNs proposed by the present invention.

도 6을 참조하면, 일반적으로 CNN에서 convolutional기반 특징(feature)이 가로와 세로 블록의 차이만을 해석하는 Haar-like기반의 특징(feature)보다 복잡하고 정교하며 추상적인 정보를 얻을 수 있기 때문에 영상의 한 위치를 기준으로 적은 수의 검색 크기(kernel)로 얻어지는 Haar-like feature보다 처리속도에서 유용하다.Referring to FIG. 6, since convolutional-based features in CNN are generally more complicated and sophisticated and abstract information than Haar-like-based features that only analyze the difference between horizontal and vertical blocks, It is useful at processing speeds than Haar-like features obtained with a small number of search kernels based on one location.

다만, 얻어진 특징(feature)은 단순한 정보만을 포함을 갖게 된다.However, the obtained features contain only information.

이에 비해 CNN에서는 다양한 검색 크기(kernel)을 사용하고 특징(feature)을 얻어 수 있으며 Haar-like feature 보다 처리속도는 느리지만 복잡하고 정교한 정보로써의 특징(feature)을 갖는다.CNN, on the other hand, can use various search kernels and get features, and have features that are complex and elaborate information, though the processing speed is slower than Haar-like features.

이러한 특징은 convolutional layer들을 여러 층을 사용함으로써 Haar-like feature에 대한 정확도가 높게 된다. This feature makes the accuracy of the Haar-like feature high by using multiple layers of convolutional layers.

그렇지만 CNN은 특징(feature)을 찾는 처리속도가 문제이므로 이를 해결하기 위해서는 convolutional layer 층에 대한 변형이 필요시 되고 대상 물체(차량)가 영상내에 존재하는 비율(크기)이나 거리(카메라로부터 대상 물체간 거리) 위치에 따라 처리속도 및 정확성에 영향을 받게 되므로 전체 layer층을 사용하지 않고 상대적으로 차량의 크기로 구분이 가능한 범위의 layer층만을 선택하여 처리속도 및 효과적인 검출 방법으로 개발한다.However, in order to solve this problem, the CNN requires a modification to the convolutional layer, and the ratio (size) or distance (the distance from the camera to the target object Distance). Therefore, only the layer layer which can be divided into the size of the vehicle can be selected without using the entire layer layer and developed as a processing speed and an effective detection method.

도 6의 각 단계에 대해 구체적으로 이하, 설명한다.Each step in Fig. 6 will be described in detail below.

먼저, S10 단계 및 S11 단계인 입력과 영상보정(Input & Image Calibration) 단계를 설명한다.First, the input and image calibration steps S10 and S11 will be described.

영상의 입력은 카메라로부터 취득된 디지털화 된 데이터이다. 동영상이 대상이 되고, 각 프레임(영상)은 2차원의 데이터로 구성이 된다.The input of the image is digitized data acquired from the camera. A moving image is a target, and each frame (image) is composed of two-dimensional data.

또한, 영상보정은 사전 관심대상의 객체(차량)를 검지하기 위해 입력좌표간의 검지영역을 지정한다. In addition, the image correction specifies the detection area between the input coordinates to detect the object (vehicle) of interest in advance.

이때 영역내의 구간을 두 개의 영역으로 구분할 수 있도록 재정의 하고, 각 영역에 대해서 객체(차량) 검지 영역을 수행하게 된다.At this time, the region within the region is redefined to be divided into two regions, and the object (vehicle) detection region is performed for each region.

두 개의 영역으로 설정한 부분은 원거리와 근거리로 구분하기 위함이다. The two areas are set to distinguish between distant and near.

이러한 이유는 동일한 객체(차량)가 영상 내에 존재하여도 객체(차량) 크기가 서로 다른 크기를 갖기 때문에 특징추출에 있어서 객체(차량)의 질감(texture)가 달리 보이게 되고, 형태 혹은 모양이 없던 특징정보들이 나타나게 되어서 처리결과의 입력데이터에 대한 신뢰성을 갖도록 한다.The reason for this is that even if the same object (vehicle) exists in the image, the size of the object (vehicle) is different from each other, so that the texture of the object (vehicle) Information is displayed so that the processing result input data is reliable.

또한, 두 개의 영역중에서 첫 번째 영역인 경우, 즉 근거리의 객체(차량)를 검지하게 되고 객체(차량)의 크기가 카메라로부터의 거리가 가까워서 크기가 큰 객체 영역을 갖게 된다.In addition, when the first area is detected from two areas, that is, a near object (vehicle) is detected, and the object (vehicle) has an object area having a large size because the distance from the camera is short.

또한, 두 개의 영역중에서 두 번째 영역인 경우, 즉 원거리의 객체(차량)를 검지하게 되고, 객체(차량)의 크기가 카메라로부터의 거리가 멀어서 작은 객체 영역들이 존재하므로 관심대상의 객체(차량)이 불특정 물체간의 크기 차이(분포)가 유사하게 되므로 영역내의 특징정보를 쉽게 식별할 수 있도록 카메라 설정(기능)에서 스케일의 변환 혹은 카메라의 줌(Zoom In/OUT)에 의한 영역으로 설정하게 된다.Also, since the object (vehicle) is distant from the camera and there are small object areas, the object (vehicle) of interest is detected because the object is located in the second area among the two areas, Since the size difference (distribution) between the unspecified objects becomes similar to each other, it is set as an area by zooming in / out of the camera or conversion of the scale in the camera setting (function) so that the feature information in the area can be easily identified.

다음으로, S12 단계를 설명한다.Next, step S12 will be described.

S12 ESKRP는 Optional(Selected) layers within F-CNNs 단계로서, 입력데이터와 영상보정 설정 이후의 단계로써 원하는 대상 객체(차량)을 검지하기 위한 딥러닝 기술을 적용한다. S12 ESKRP is an optional layer within F-CNNs. It applies deep-learning technology to detect desired object (vehicle) as a step after input data and image correction setting.

대부분의 경우 딥러닝을 활용하는 범위가 물 체를 검지 및 인식하는 범위내에서 범주를 설정하게 되고 이를 정의하여 조건들에 대한 값들과 분포를 계산하게 된다.In most cases, a range that utilizes deep learning sets categories within the scope of sensing and recognizing objects and defines them to calculate values and distributions for the conditions.

본 시스템에서는 대상객체(차량)과 비대상 객체(사람)이 포함된 검출기를 CNN기반에서 처리한다. In this system, a CNN-based detector is used to process a target object (vehicle) and a non-target object (human).

이때, 객체들에 대한 학습데이터는 VOC Pascal 2007, VOC Pascal 2012, MS COCO, Caltech pedestrian dataset, ImageNet 2012, 2014, MIOTCD dataset 으로 학습에 활용한다.At this time, the learning data for the objects are used for learning with VOC Pascal 2007, VOC Pascal 2012, MS COCO, Caltech pedestrian dataset, ImageNet 2012, 2014, MIOTCD dataset.

본 시스템에 적용된 CNN기반에서 처리속도의 개선을 위한 Fast-CNN의 일반적인 경우는 다음의 도 7과 같다.The general case of Fast-CNN for improving processing speed based on CNN applied to this system is shown in FIG.

도 7은 본 발명과 관련하여, Fast R-CNN기반의 객체 검출의 일례를 도시한 것이다.FIG. 7 shows an example of object detection based on Fast R-CNN in the context of the present invention.

도 7을 참조하면, 객체(차량)검지를 위해서는 CNN기반의 각 레이어(layer)들로부터 결과를 영역 형태로 출력하게 되고, 해당 값들에 대해서 전체(Fully-connected)네트워크 형태로 재구성한 후 다시 각 레이어(layer)층에 대한 영역결과에서 대상 객체(차량)의 크기와 위치를 기반으로 재 설정(재 위치)로 설정한다.Referring to FIG. 7, in order to detect an object (vehicle), a result is output in an area form from each layer based on CNN, and after reconstructing the values in a form of a fully-connected network, (Repositioning) based on the size and position of the target object (vehicle) in the area result for the layer layer.

또한, Fully-Connected layer의 구성은 convolution layer, pooling layer와 함께 구성되고, 매개변수들에 따라 서로 연결(connect 또는 weight) 구조로 되어 있으며, convolution과 pooling layer에서 특징을 추출하고 fully-connected layer에서 어떤 클래스(class, 범주)에 속하는지를 판단하는 과정을 말한다.In addition, the Fully-Connected layer is composed of a convolution layer and a pooling layer, and has a connect or weight structure according to the parameters. The Fully-Connected layer extracts features from the convolution and pooling layers, It is the process of judging which class (category) belongs.

이때, 입력데이터의 이미지를 작은 블록단위로 나눠지고 CNN 구조내의 각각의 네트워크(connect)를 통해 블록들에 대해서 특징 정보를 추출한다. At this time, the image of the input data is divided into small blocks and feature information is extracted from the blocks through each network in the CNN structure.

도 8은 본 발명과 관련하여, 이미지 내의 블록단위를 설정하는 일례를 도시한 것이다.FIG. 8 shows an example of setting a block unit in an image according to the present invention.

도 8에 도시된 것과 같이, 블록단위의 형태로 처리하는 이유는 구조적인 특성상 출력의 개수가 고정형태로 처리하기 위한 것이며 물체(특징정보, 객체차량)검출 결과에 있어서 해당 위치 및 크기 정보를 출력할 때 위치설정이 용이하기 때문이다.As shown in FIG. 8, the reason for processing in the form of a block unit is to process the number of outputs in a fixed form due to its structural characteristics, and to output the position and size information of the object (feature information, object vehicle) This is because the position setting is easy.

또한, 도 7에서 특징맵(feature map)에서 영역 추출을 위한 방법으로는 selective search 방법을 사용하고 특징추출에서는 AlexNet을 사용한다. 7, a selective search method is used as a method of extracting a region from a feature map, and AlexNet is used as a feature extraction method.

이때 fully connected layer에서 n개의 출력에 대한 특징벡터로 사용하며 분류는 SVM(Support Vector Machine)을 이용하여 학습한다.In this case, it is used as feature vector for n outputs in fully connected layer. Classification is done using SVM (Support Vector Machine).

한편, 도 9는 본 발명에 적용되는 AlexNet 구조의 일례를 도시한 것이다.Meanwhile, FIG. 9 shows an example of the AlexNet structure applied to the present invention.

도 9를 참조하면, AlexNet 구조는 총 8개의 레이어로 구성되어 있고, 첫 번째에서 다섯 번째는 Convolutional layer이고 다음 3개의 레이어는 Fully connected layer이다. Referring to FIG. 9, the AlexNet structure is composed of a total of eight layers. The first to fifth layers are Convolutional layers and the next three layers are Fully connected layers.

병렬 레이어들마다 이미지에 대한 각각의 독립적으로 특징을 추출하고 학습을 시킨다.Each parallel layer extracts and learns each independent feature for the image.

또한, 결과적으로 영역 추출을 위해서는 특징맵(feature map)의 크기를 AlexNet 특징 벡터와 분류기의 순서에 따라 입력 데이터로 하게 되며 이때 고정된 크기형태로 크기변환을 해줘야 된다. As a result, in order to extract the region, the size of the feature map is converted into the input data according to the sequence of the AlexNet feature vector and the classifier.

결과적으로 블록단위의 형태에서 크기 변환으로 인한 왜곡은 있으나 입력의 크기와 처리속도문제로 인한 특징 영역에서 손실 또한 존재하게 된다.As a result, there is distortion due to size conversion in the form of block unit, but there is also loss in feature region due to input size and processing speed problem.

또한, 입력데이터의 크기가 크거나 작을 경우 특징맵(feature map)에서의 각각의 레이어마다 특징 추출하는 과정에서 손실되는 정보들로 인한 결과 영역의 위치와 크기가 영향을 받게 되고, 학습패턴들(특징정보)마다 영향을 줌으로 인해 크기정보의 선택이 중요하다.In addition, when the size of the input data is large or small, the position and size of the result area due to information lost in the process of extracting features for each layer in the feature map are affected, Feature information), it is important to select the size information.

이러한 단계에서 근거리의 객체정보 또는 원거리 객체정보의 위치형태에 따라 출력된 위치와 크기정보가 다르게 결정될 수 있으므로 이를 해결해야 한다.In this step, the position and size information output according to the location information of the near object information or the remote object information may be determined differently.

본 발명에서는 객체 특징맵(feature map)과 각각의 레이어들에서 처리되는 과정 에서 입력데이터를 크게 두 영역으로 나눠서 설정하고 이를 각각 입력으로 처리한다.In the present invention, the input data is largely divided into two areas in the process of being processed in the object feature map and the respective layers, and the input data are processed as inputs.

또한, 입력데이터가 서로 다른 이유는 근거리와 원거리에서 존재하는 객체특징이 다르게 존재하는 부분을 정확도와 처리속도를 엄격히 구분하여 처리할 수 있도록 설정하고 AlexNet구조내의 레이어들간에 연결구조에서 손실되는 형태를 최소한다.The reason why the input data is different is that it is possible to strictly distinguish between the accuracy and the processing speed in the case where the object features existing in the near and far ranges are differently processed and the form lost in the link structure between the layers in the AlexNet structure Minimize.

또한, 객체특징추출에 있어서는 검출영역의 위치와 크기 정보를 출력 개수의 고정에 맞게 출력위치를 설정하기 위해서 레이어층마다 검출된 영역과 분류기의 형태를 단일 구조로 변경하고 이때 해당 객체위치의 최대 출력 개수를 정의하여 최종의 출력 영역에 대한 객체검출 영역으로 표시한다.In addition, in the object feature extraction, in order to set the output position in accordance with the fixing of the position and size information of the detection area to the output number, the shape of the area and the classifier detected in each layer layer is changed into a single structure, The number is defined and displayed as the object detection area for the final output area.

도 10은 본 발명과 관련하여, Faster R-CNN 구조에서 영역크기 고정을 위한 구조의 일례를 도시한 것이다.10 shows an example of a structure for area size fixing in a Faster R-CNN structure in connection with the present invention.

도 10은 객체검출결과에서 서로 다른 위치의 크기 영역값들이 존재할 때 각각의 크기 위치가 다르게 분포되고 이를 하나의 출력값으로 계산하여 정확도에 대한 개선 방법으로 선택한다.FIG. 10 illustrates a method of improving the accuracy by calculating the output values of the respective size positions when the size values of the different positions exist in the object detection result.

각각의 영역들에 대한 출력값들의 분포와 해당 영역들이 객체정보내의 영역에서 표현된 출력값은 다음의 도 11과 같다.The distribution of the output values for each of the regions and the output values represented by the regions in the object information are as shown in FIG. 11 below.

도 11은 본 발명과 관련하여, 고정영역 출력값의 일례를 도시한 것이다.11 shows an example of the fixed area output value in the context of the present invention.

그림 10과 11에서 n개의 영역 값들에서 해당 위치에서의 표현할 수 있는 최대 출력 객체 개수를 설정하기 위해서 각각의 영역내의 중심위치에 대한 설정값을 갖도록 재구성하고 이때 크기에 따른 출력신호를 1차 배열공간의 위치로 설정함으로써 최종 객체영역의 위치를 선택한다.In Figures 10 and 11, in order to set the maximum number of output objects that can be represented at the corresponding positions in the n region values, the output signals are rearranged to have the set values for the center positions in the respective regions, The position of the final object area is selected.

도 11과 같은 결과를 위해서는 convolution layer에서 이미지를 픽셀로 입력할 경우, 일반적으로 행렬식 NxNx3, 가로와 세로 그리고 채널(차원)으로 구성되고, 각 채널은 R, G, B로 구성된다. For the same result as in FIG. 11, when an image is input as a pixel in a convolution layer, it is generally composed of a matrix NxNx3, a horizontal and a vertical, and a channel (dimension), and each channel is composed of R, G,

또한, Convolution layer에서 각각의 채널에 대한 특징패턴을 계산할 때 행렬식의 표현으로 계산되고 이는 크기와는 무관하다.Also, when calculating the feature pattern for each channel in the convolution layer, it is calculated as a determinant expression, which is independent of the size.

도 12는 convolution layer에서 영역 추출에 대한 재구성된 영역들로 객체 특징 정보를 모두 포함하는 객체 위치와 크기를 갖는다. FIG. 12 shows an object location and size including all object feature information as reconstructed regions for region extraction in the convolution layer.

이때 특징영역의 검출에 대한 특징맵(feature map)의 형태는 도 13과 같다.The feature map for detecting the feature region is shown in FIG.

이로써 특징벡터의 계산과 CNN내의 컨볼루션 레이어들간의 고정크기에 따른 위치 출력의 재구성 구조를 개선한 방법을 이용하여 객체(차량특징)검출의 세부 단계는 도 14에 표시된 것과 같다.The detailed steps of the object (vehicle characteristic) detection are as shown in Fig. 14 by using the method of calculating the feature vector and improving the reconstruction structure of the position output according to the fixed size between the convolution layers in CNN.

도 14는 본 발명에 적용되는 객체 검출 단계의 순서도를 도시한 것이다.FIG. 14 shows a flowchart of an object detection step applied to the present invention.

도 14를 참조하면, 입력영상을 획득하고(S21), 블록단위를 생성하며(S22), Faster T-CNN을 적용하고(S23), ROI 특징을 계산하며(S24), Bounding box를 설정하고(S25), 객체 인식을 수행하게 된다(S26).14, an input image is acquired (S21), a block unit is generated (S22), a Faster T-CNN is applied (S23), an ROI feature is calculated (S24), a bounding box is set S25), and performs object recognition (S26).

한편, 불법 주정차 단속내의 객체 검출과 관련하여, 객체 검출 단계에서 Fast R-CNN구조내의 Pooling(풀링) 레이어의 계산은 하기의 수학식 1 및 수학식 2에 따라 결정된다.On the other hand, regarding the object detection in the illegal parking control, calculation of the pooling layer in the Fast R-CNN structure in the object detection step is determined according to the following equations (1) and (2).

수학식 1Equation 1

Figure 112018121369308-pat00001
Figure 112018121369308-pat00001

수학식 2Equation 2

Figure 112018121369308-pat00002
Figure 112018121369308-pat00002

수학식 1은 풀링 계산을 위한 물체(객체 차량)의 영역으로

Figure 112019014633719-pat00003
로 정의한다.Equation 1 is an area of an object (object vehicle) for pooling calculation
Figure 112019014633719-pat00003
.

수학식 1에서 k -th는 이미지내의 블록단위의 영역으로 학습데이터간의 비교하기 위해서 사용된다. In Equation (1), k-th is used to compare the learning data to the area of the block unit in the image.

이때 물체(객체 차량) 영역의 풀링결과는 j -th의 풀링계층(layer)에 출력된다. At this time, the pooling result of the object (object vehicle) region is output to the pooling layer of j-th.

Figure 112018121369308-pat00004
는 필터계수이고 이미지내의 블록단위에서 필터계수와의 컨볼루션을 의미하며 영역내의 후보영역을 찾고, 해당 높은 값을 계산하여 Max-pooling 영역을 계산한다.
Figure 112018121369308-pat00004
Is a filter coefficient, which means convolution with a filter coefficient in a block unit in an image, finds a candidate region within the image, and calculates a corresponding high value to calculate a Max-pooling region.

이때 문제점으로 최소한 영역에 관심객체가 포함되어 있을 것으로 판단하지만 객체영역보다는 배경성분의 영역들로 문제 그리고 관심 객체의 크기에 적은 경우의 문제에서 특징벡터의 부정확한 영역으로 선택될 수 있다.In this case, although it is determined that the object of interest is included at least in the problem, it can be selected as an inaccurate region of the feature vector in the case of the problem of the background component region rather than the object region and the size of the interest object.

이러한 왜곡(손실)된 정보를 보정하기 위해서는 하기의 수학식 3으로 계산한다.In order to correct such distorted (lost) information, the following equation (3) is used.

수학식 3Equation 3

Figure 112018121369308-pat00005
Figure 112018121369308-pat00005

상기 수학식 3에서는 입력변수

Figure 112018121369308-pat00006
에 대해서 손실정보를
Figure 112018121369308-pat00007
로 나타내며, 수학식 1에 의해
Figure 112018121369308-pat00008
는 max-pooling 인텍스를 나타낸다. In Equation (3)
Figure 112018121369308-pat00006
Loss information for
Figure 112018121369308-pat00007
, And is expressed by Equation 1
Figure 112018121369308-pat00008
Represents the max-pooling index.

이는 컨볼루션 계산 후 각 영역들에서 찾았던 위치정보를 나타낸다.This shows the position information found in each area after the convolution calculation.

Figure 112018121369308-pat00009
는 미분에 의해서 계산되고 손실값을 나타낸다.
Figure 112018121369308-pat00009
Is calculated by the derivative and represents the loss value.

이때, 모든 ROI에 대한 영역추출 결과는

Figure 112018121369308-pat00010
에 누적된다.At this time, the region extraction result for all ROIs is
Figure 112018121369308-pat00010
.

이러한 반복과정을 통해서 RPN(Region proposal network)이 생성한 RoI(Region of Interest)에 대해서 RoI(Region of Interest) Pooling을 하게 되고, 각 Region에 대한 특징 맵이 모두 다 동일하게 고정된 사이즈로 생성된다. 이를 통해서 각 RoI(Region of Interest) 내 물체(객체)들의 분류한다. 객체 분류는 SVM(Support Vector Machine)을 통해서 간단하게 객체인지 아닌지, 객체가 맞는다면 어떤 객체인지만을 대상으로 하고 본 시스템에서는 차량객체만을 대상으로 결정하였다.Through this iterative process, RoI (Region of Interest) pooling is performed on the RoI (Region of Interest) generated by the RPN (Region proposal network), and all feature maps for each Region are generated in the same fixed size . Through this, objects (objects) within each Region of Interest (RoI) are classified. Object classification is based on SVM (Support Vector Machine) and it is determined whether the object is a simple object or not.

마지막으로 대상물체(객체)에 대해서는 최종 출력을 위해서 Bounding Box를 계산하고 이때 단순히 linear regression을 이용한다.Finally, for the object (object), calculate the bounding box for the final output and simply use linear regression.

Bounding Box의 계산은 하기의 수학식 4 및 수학식 5와 같다.The calculation of the bounding box is shown in Equation (4) and Equation (5).

수학식 4에서는 BBO는 가장 이상적인 bounding box를 나타낸다.In Equation (4), BBO represents the most ideal bounding box.

수학식 4Equation 4

Figure 112018121369308-pat00011
Figure 112018121369308-pat00011

수학식 5Equation 5

Figure 112018121369308-pat00012
Figure 112018121369308-pat00012

수학식 4에서 G는 Ground truth box이고,

Figure 112018121369308-pat00013
는 Max pooling에서 인덱스된 영역을 말한다. In Equation (4), G is a ground truth box,
Figure 112018121369308-pat00013
Refers to the area indexed by Max pooling.

수학식 5는 해당 영역간의 중첩에 의한 범위를 산출하여 가장 이상적인 bounding box를 생성하게 된다.Equation (5) produces the ideal bounding box by calculating the range by overlapping the corresponding regions.

본 시스템은 이러한 과정을 입력단계에서 두 영역으로 나눠서 설정하고 풀링의 문제를 개선하여 원거리, 근거리의 대상물체에 대한 정확도를 개선하였다.The system divides the process into two areas at the input stage and improves the accuracy of the object at a distance and near by improving the pooling problem.

다시 도 6으로복귀하여, S12 단계 이후, 번호 판 영역을 추출하는 단계(S13)가 진행되고, 성공하면 번호를 인식하고(S14), 실패하는 경우에는 검출된 프레임을 저장하게 된다(S15).6, the step S13 of extracting the number plate area is performed after the step S12. If the number is succeeded, the number is recognized (S14). If the number is succeeded, the detected frame is stored (S15).

이하에서는, 실험 결과 및 본 발명이 불법 주정차에 적용된 결과를 설명한다.Hereinafter, experimental results and results of applying the present invention to illegal parking vehicles will be described.

도 15는 실험결과를 도시한 것이고, 도 16은 객체 손실에 따른 실험결과를 도시한 것이며, 도 17은 개선된 처리결과를 보이는 실험 결과를 도시한 것이다.FIG. 15 shows experimental results, FIG. 16 shows experimental results according to object loss, and FIG. 17 shows experimental results showing improved processing results.

불법 주정차 단속내의 차량검지 방법으로 Fast R-CNN기반에서 컨볼루션 레이어층들의 특징벡터 계산 후 풀링 단계에서 bounding box 설정으로 인한 객체 검출이 객체 크기에 따라서 다르게 분포된 결과를 나타내고 이를 객체검출의 결과에 영향을 줌으로써 시스템의 성능이 저하 될 수 있는 요인으로 발생하였다. In this paper, we propose a method to detect objects in the fast R-CNN based on the method of detecting vehicles in illegal parking regulations. The performance of the system is deteriorated.

이러한 문제를 개선하고자 입력단계에서 영역을 나눠 설정함으로써 원, 근거리내의 객체검출에 대한 성능을 향상시킬 수 있었다.In order to solve this problem, it is possible to improve the performance of objects detection in the circle and near by dividing the region in the input step.

그림 15는 실제 환경에서 불법주정차 단속 대상의 차량을 검출하기 위해서 제안된 방법(Fast R-CNN기반)을 이용한 결과이다. Figure 15 shows the result of using the proposed method (based on Fast R-CNN) to detect illegally parked vehicles in real environment.

이때, 영상 내의 두 영역으로 구분하지 않고 입력데이터를 활용하였으나, 근거리의 경우 대상차량을 검출하는데 있어서는 문제가 나타나지 않았으나, 원거리의 경우 차량의 간격 혹은 단일 차량형태로 구분이 모호한 경계로 인한 특성과 ROI Pooling 결과에서 Max Pooling의 결과가 서로 다르므로 부정확한 데이터를 갖게 된 요인으로 분석하였다.In this case, although the input data was used without dividing into two regions in the image, there was no problem in detecting the target vehicle in the near distance, but in the case of the distance, the characteristic due to the ambiguous boundaries or the ROI As the result of Max Pooling is different from the result of pooling, it is analyzed as a factor that has inaccurate data.

도 16의 경우에서도 도 15의 결과처럼 작은 물체들중에서 일부 영역들에 대한 특징분포가 주변 영역과 비슷하거나 크기에 따른 특징벡터 성분이 다르게 분포되어 부정확한 결과를 얻었다.In the case of FIG. 16 as well, as shown in FIG. 15, the characteristic distribution of some regions among the small objects is similar to that of the surrounding region, or the characteristic vector components are distributed differently depending on the size.

또한, 도 17의 경우는, 도 15 및 도 16의 결과를 개선하기 위해 입력데이터의 두 영역을 나누고 동일한 개선된 방법에 의해 수행하였으며, 객체크기와 POI 풀링에 의한 차이를 구분함으로써 원하는 대상차량의 검출에 있어서 정확도를 개선시킨 결과이다.In the case of FIG. 17, in order to improve the results of FIGS. 15 and 16, the two regions of the input data are divided and the same improved method is performed. By distinguishing the difference between the object size and the POI pooling, This is a result of improving the accuracy in detection.

전술한 것과 같이, 본 발명은 Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 시스템을 사용자에게 제공할 수 있다.As described above, the present invention can provide a user with an illegal parking intervention system using Fast R-CNN based vehicle detection.

또한, 본 발명은 불법 주정차 단속시스템 내의 대상차량을 검출하기 위한 효과적인 방법과 관련된 것으로, 기존 CNN(Convolution Neural Network) 환경에서 객체 검출에 대한 크기와 위치 그리고 거리차이에 따른 Max-Pooling 내의 Bounding Box 계산 문제를 해결할 수 있다.In addition, the present invention relates to an effective method for detecting a target vehicle in an illegal parking control system. In the conventional CNN (Convolution Neural Network) environment, Bounding Box calculation in Max-Pooling according to size, I can solve the problem.

구체적으로, 대부분의 종래기술의 경우, 불법 주정차 대상차량의 경우는 특징성분을 분석하기 위해 패턴화된 형태로 대상 객체를 검출한 반면, 본 발명에서는 크기에 따른 특징벡터와 위치에 따라 동일한 객체 변화 그리고 거리에 따라 특징벡터 분포를 다르게 분석하도록 설정함으로써 기존 방법 대비 효과적으로 처리할 수 있다.Specifically, in the case of most prior arts, in the case of an illegally parked vehicle, a target object is detected in a patterned form in order to analyze a feature component, whereas in the present invention, the same object change By setting the feature vector distribution to be different according to the distance, it can be processed effectively compared with the existing method.

상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. The above-described embodiments of the present invention can be implemented by various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to embodiments of the present invention may be implemented in one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs) , FPGAs (Field Programmable Gate Arrays), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, the method according to embodiments of the present invention may be implemented in the form of a module, a procedure or a function for performing the functions or operations described above. The software code can be stored in a memory unit and driven by the processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor by various well-known means.

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The foregoing description of the preferred embodiments of the invention disclosed herein has been presented to enable any person skilled in the art to make and use the present invention. While the present invention has been particularly shown and described with reference to preferred embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. For example, those skilled in the art can utilize each of the configurations described in the above-described embodiments in a manner of mutually combining them. Accordingly, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention. The present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that do not have an explicit citation in the claims may be combined to form an embodiment or be included in a new claim by amendment after the filing.

Claims (8)

카메라를 통해 영상을 획득하는 제 1 단계;
영상 내에 미리 지정된 기준선을 기초로, 영상의 전체 영역을 근거리 영역과 원거리 영역으로 구분하는 제 2 단계;
상기 영상을 미리 설정된 복수의 블록 단위로 구획하는 제 3 단계;
컨볼루션 신경망(Convolutional Neural Network, CNN)의 복수의 컨볼루션 레이어(Convolutio layer) 중 적어도 하나를 이용하여, 상기 복수의 블록 단위를 적용한 특징 맵(feature map)을 도출하는 제 4 단계;
상기 특징 맵을 이용하여 상기 영상에 포함된 객체가 차량인지 여부를 판단하는 제 5 단계; 및
상기 객체가 차량인 경우, 상기 차량의 차량번호 영역으로부터 차량 번호를 인식하는 제 6 단계;를 포함하되,
상기 객체가 상기 원거리 영역에 포함된 경우, 상기 복수의 컨볼루션 레이어를 이용하여 상기 객체가 포함된 영역에 대한 특징 맵을 도출하고,
상기 객체가 상기 근거리 영역에 포함된 경우, 상기 복수의 컨볼루션 레이어 중 미리 지정된 개수의 레이어만을 이용하여 상기 객체가 포함된 영역에 대한 특징 맵을 도출하는 것을 특징으로 하는 Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 방법.
A first step of acquiring an image through a camera;
A second step of dividing the entire region of the image into a near region and a far region on the basis of a predetermined reference line in the image;
A third step of dividing the image into a plurality of predetermined blocks;
A fourth step of deriving a feature map to which the plurality of block units are applied by using at least one of a plurality of convolution layers of a Convolution Neural Network (CNN);
A fifth step of determining whether the object included in the image is a vehicle using the feature map; And
And if the object is a vehicle, recognizing the vehicle number from the vehicle number area of the vehicle,
Deriving a feature map for an area including the object using the plurality of convolution layers when the object is included in the remote area,
Wherein when the object is included in the near region, a feature map for an area including the object is derived using only a predetermined number of layers among the plurality of convolution layers. An illegal parking control method using.
제 1항에 있어서,
상기 제 2 단계에서 상기 객체가 상기 원거리 영역에 포함된 경우,
상기 제 2 단계 및 상기 제 3 단계 사이에는, 상기 원거리 영역의 스케일을 변환하는 제 2-1 단계;를 더 포함하는 것을 특징으로 하는 Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 방법.
The method according to claim 1,
If the object is included in the remote area in the second step,
And a second step of converting the scale of the long distance area between the second step and the third step.
제 1항에 있어서,
상기 제 5 단계는,
상기 객체와 관련된 특징 맵을 상기 복수의 블록 단위 별로 비교하는 제 5-1 단계;
상기 복수의 블록 단위 중 상기 객체가 가장 빈번하게 존재하는 맥스 풀링(max pooling) 영역을 결정하는 제 5-2 단계; 및
상기 맥스 풀링 영역을 기초로 상기 차량의 특징 값을 이용하여 상기 객체가 차량인지 여부를 판단하는 제 5-3 단계;를 포함하는 것을 특징으로 하는 Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 방법.
The method according to claim 1,
In the fifth step,
Comparing the feature maps associated with the object for each of the plurality of block units;
A 5-2 step of determining a max pooling area in which the object is most frequently present among the plurality of block units; And
And determining whether the object is a vehicle based on the feature value of the vehicle on the basis of the maximum pulling area. The fast R-CNN based vehicle detection method .
제 3항에 있어서,
상기 제 5-3 단계는,
상기 맥스 풀링 영역을 기초로 ROI(region of interest)를 설정하는 5-4 단계;
상기 설정한 ROI를 기초로 경계 박스(bounding box)를 설정하는 제 5-5 단계; 및
상기 경계 박스 내의 객체의 특징 값과 상기 차량의 특징 값을 비교하여, 상기 객체가 상기 차량인지 여부를 판단하는 제 5-6 단계;를 포함하는 것을 특징으로 하는 Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 방법.
The method of claim 3,
In the step 5-3,
Setting a region of interest (ROI) based on the maximum pulling region;
A fifth step of setting a bounding box based on the set ROI; And
And comparing the feature value of the object in the bounding box with the feature value of the vehicle to determine whether the object is the vehicle or not. Illegal parking regulations.
영상을 획득하는 카메라;
영상 내에 미리 지정된 기준선을 기초로, 영상의 전체 영역을 근거리 영역과 원거리 영역으로 구분하고, 상기 영상을 미리 설정된 복수의 블록 단위로 구획하는 제어부;를 포함하고,
상기 제어부는,
컨볼루션 신경망(Convolutional Neural Network, CNN)의 복수의 컨볼루션 레이어(Convolutio layer) 중 적어도 하나를 이용하여, 상기 복수의 블록 단위를 적용한 특징 맵(feature map)을 도출하고,
상기 특징 맵을 이용하여 상기 영상에 포함된 객체가 차량인지 여부를 판단하며,
상기 객체가 차량인 경우, 상기 차량의 차량번호 영역으로부터 차량 번호를 인식하고,
상기 객체가 상기 원거리 영역에 포함된 경우, 상기 복수의 컨볼루션 레이어를 이용하여 상기 객체가 포함된 영역에 대한 특징 맵을 도출하며,
상기 객체가 상기 근거리 영역에 포함된 경우, 상기 복수의 컨볼루션 레이어 중 미리 지정된 개수의 레이어만을 이용하여 상기 객체가 포함된 영역에 대한 특징 맵을 도출하는 것을 특징으로 하는 Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 시스템.
A camera for acquiring an image;
And a controller for dividing the entire region of the image into a near region and a far region on the basis of a predetermined reference line in the image and dividing the image into a plurality of predetermined blocks,
Wherein,
A feature map to which the plurality of block units are applied is derived using at least one of a plurality of convolution layers of a Convolution Neural Network (CNN)
Determines whether the object included in the image is a vehicle using the feature map,
When the object is a vehicle, recognizing the vehicle number from the vehicle number area of the vehicle,
Deriving a feature map for an area including the object using the plurality of convolution layers when the object is included in the remote area,
Wherein when the object is included in the near region, a feature map for an area including the object is derived using only a predetermined number of layers among the plurality of convolution layers. Illegal parking regulation system using.
제 5항에 있어서,
상기 객체가 상기 원거리 영역에 포함된 경우,
상기 제어부는, 상기 원거리 영역의 스케일을 변환하는 것을 특징으로 하는 Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 시스템.
6. The method of claim 5,
When the object is included in the remote area,
Wherein the control unit converts the scale of the long distance region.
제 5항에 있어서,
상기 제어부는,
상기 객체와 관련된 특징 맵을 상기 복수의 블록 단위 별로 비교하고,
상기 복수의 블록 단위 중 상기 객체가 가장 빈번하게 존재하는 맥스 풀링(max pooling) 영역을 결정하며,
상기 맥스 풀링 영역을 기초로 상기 차량의 특징 값을 이용하여 상기 객체가 차량인지 여부를 판단하는 것을 특징으로 하는 Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 시스템.
6. The method of claim 5,
Wherein,
Comparing feature maps associated with the object for each of the plurality of block units,
Determining a max pooling region in which the object most frequently exists among the plurality of block units,
And determining whether the object is a vehicle based on the feature value of the vehicle based on the maximum pulling area.
제 7항에 있어서,
상기 제어부는,
상기 맥스 풀링 영역을 기초로 ROI(region of interest)를 설정하고,
상기 설정한 ROI를 기초로 경계 박스(bounding box)를 설정하며,
상기 경계 박스 내의 객체의 특징 값과 상기 차량의 특징 값을 비교하여, 상기 객체가 상기 차량인지 여부를 판단하는 것을 특징으로 하는 Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 시스템.
8. The method of claim 7,
Wherein,
Setting a region of interest (ROI) based on the max pooling region,
Sets a bounding box based on the set ROI,
And comparing the feature value of the object in the bounding box with the feature value of the vehicle to determine whether the object is the vehicle, based on Fast R-CNN based vehicle detection.
KR1020180154464A 2018-12-04 2018-12-04 Illegal parking enforcement system Using Fast R-CNN based on Vehicle detection Active KR101970442B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180154464A KR101970442B1 (en) 2018-12-04 2018-12-04 Illegal parking enforcement system Using Fast R-CNN based on Vehicle detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180154464A KR101970442B1 (en) 2018-12-04 2018-12-04 Illegal parking enforcement system Using Fast R-CNN based on Vehicle detection

Publications (1)

Publication Number Publication Date
KR101970442B1 true KR101970442B1 (en) 2019-04-19

Family

ID=66283337

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180154464A Active KR101970442B1 (en) 2018-12-04 2018-12-04 Illegal parking enforcement system Using Fast R-CNN based on Vehicle detection

Country Status (1)

Country Link
KR (1) KR101970442B1 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101986592B1 (en) * 2019-04-22 2019-06-10 주식회사 펜타게이트 Recognition method of license plate number using anchor box and cnn and apparatus using thereof
CN110223341A (en) * 2019-06-14 2019-09-10 北京国信华源科技有限公司 A kind of Intelligent water level monitoring method based on image recognition
CN110309301A (en) * 2019-05-09 2019-10-08 上海泰豪迈能能源科技有限公司 Classification method, device and the intelligent terminal of enterprise sort
KR102095685B1 (en) * 2019-12-02 2020-04-01 주식회사 넥스파시스템 vehicle detection method and device
CN111160316A (en) * 2020-01-06 2020-05-15 电子科技大学 License plate recognition method based on lightweight neural network
CN111429727A (en) * 2020-04-23 2020-07-17 深圳智优停科技有限公司 License plate identification method and system in open type parking space
CN111444911A (en) * 2019-12-13 2020-07-24 珠海大横琴科技发展有限公司 Training method and device of license plate recognition model and license plate recognition method and device
KR102161949B1 (en) * 2020-06-29 2020-10-06 이홍기 Integrated parking management method and system using vehicle number plate recognition technology using neural network
KR20200132714A (en) * 2019-05-17 2020-11-25 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and device for detecting illegal parking, electronic device, and computer-readable medium
CN112133100A (en) * 2020-09-16 2020-12-25 北京影谱科技股份有限公司 Vehicle detection method based on R-CNN
KR102240638B1 (en) * 2019-11-01 2021-04-15 주식회사 누리콘 Parking guidance method and system using boundary pixel data estimated in vehicle image and analysis of vehicle model viewpoint
KR20210063569A (en) * 2019-11-25 2021-06-02 김종원 Method and aooaratus for object regobnition using thermal imaging sensor and imaging sensor
CN113269074A (en) * 2021-05-19 2021-08-17 陕西科技大学 Target detection method and security inspection robot
KR102291602B1 (en) * 2020-03-25 2021-08-19 연세대학교 산학협력단 Apparatus and method for detecting intussusception on abdominal radiographs of young children based on deep learning
KR20210105141A (en) * 2020-02-18 2021-08-26 금오공과대학교 산학협력단 Method for monitering number of passengers in vehicle using camera
KR20220038879A (en) * 2020-09-21 2022-03-29 엔에이치엔 주식회사 Method and system for deep learning-based parking management
WO2022065547A1 (en) * 2020-09-24 2022-03-31 주식회사 키센스 Method for recognizing license plate by using hybrid technique, and system therefor
CN114530056A (en) * 2022-02-15 2022-05-24 超级视线科技有限公司 Parking management method and system based on positioning information and image information
KR102421033B1 (en) * 2021-12-27 2022-07-14 주식회사 인텔리빅스 Apparatus for Deep Learning-based Object Detection with Moving ROI Method and Driving Method Thereof
KR20220107952A (en) * 2021-01-26 2022-08-02 주식회사 플랫팜 Appratus and method for monitoring creator`s copyright
CN118424441A (en) * 2024-04-28 2024-08-02 太原易思软件技术有限公司 Unmanned vehicle weighing method, system, device and storage medium based on AI

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101359332B1 (en) * 2013-12-05 2014-02-24 (주)엔토스정보통신 Method of tracking and recognizing number plate for a crackdown on illegal parking/stop
KR101565978B1 (en) 2015-03-18 2015-11-05 (주)테라테코 Method of identifying vehicle number and extracting photographic evidences using long distance captured image
KR101784449B1 (en) * 2016-12-29 2017-11-06 주식회사 경림이앤지 Parking enforcement system and method embedded with the number plate detection alarm service module of a vehicle
JP2018181273A (en) * 2017-04-21 2018-11-15 キヤノン株式会社 IMAGE PROCESSING APPARATUS, METHOD THEREOF, AND PROGRAM

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101359332B1 (en) * 2013-12-05 2014-02-24 (주)엔토스정보통신 Method of tracking and recognizing number plate for a crackdown on illegal parking/stop
KR101565978B1 (en) 2015-03-18 2015-11-05 (주)테라테코 Method of identifying vehicle number and extracting photographic evidences using long distance captured image
KR101784449B1 (en) * 2016-12-29 2017-11-06 주식회사 경림이앤지 Parking enforcement system and method embedded with the number plate detection alarm service module of a vehicle
JP2018181273A (en) * 2017-04-21 2018-11-15 キヤノン株式会社 IMAGE PROCESSING APPARATUS, METHOD THEREOF, AND PROGRAM

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101986592B1 (en) * 2019-04-22 2019-06-10 주식회사 펜타게이트 Recognition method of license plate number using anchor box and cnn and apparatus using thereof
CN110309301A (en) * 2019-05-09 2019-10-08 上海泰豪迈能能源科技有限公司 Classification method, device and the intelligent terminal of enterprise sort
KR102391840B1 (en) 2019-05-17 2022-04-27 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and device for detecting illegal parking, electronic device, and computer-readable medium
KR20200132714A (en) * 2019-05-17 2020-11-25 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and device for detecting illegal parking, electronic device, and computer-readable medium
CN110223341A (en) * 2019-06-14 2019-09-10 北京国信华源科技有限公司 A kind of Intelligent water level monitoring method based on image recognition
CN110223341B (en) * 2019-06-14 2024-05-28 北京国信华源科技有限公司 Intelligent water level monitoring method based on image recognition
KR102240638B1 (en) * 2019-11-01 2021-04-15 주식회사 누리콘 Parking guidance method and system using boundary pixel data estimated in vehicle image and analysis of vehicle model viewpoint
KR102341471B1 (en) * 2019-11-25 2021-12-21 김종원 Method and aooaratus for object regobnition using thermal imaging sensor and imaging sensor
KR20210063569A (en) * 2019-11-25 2021-06-02 김종원 Method and aooaratus for object regobnition using thermal imaging sensor and imaging sensor
KR102095685B1 (en) * 2019-12-02 2020-04-01 주식회사 넥스파시스템 vehicle detection method and device
CN111444911A (en) * 2019-12-13 2020-07-24 珠海大横琴科技发展有限公司 Training method and device of license plate recognition model and license plate recognition method and device
CN111444911B (en) * 2019-12-13 2021-02-26 珠海大横琴科技发展有限公司 Training method and device of license plate recognition model and license plate recognition method and device
CN111160316B (en) * 2020-01-06 2022-07-08 电子科技大学 License plate recognition method based on lightweight neural network
CN111160316A (en) * 2020-01-06 2020-05-15 电子科技大学 License plate recognition method based on lightweight neural network
KR20210105141A (en) * 2020-02-18 2021-08-26 금오공과대학교 산학협력단 Method for monitering number of passengers in vehicle using camera
KR102338777B1 (en) 2020-02-18 2021-12-10 금오공과대학교 산학협력단 Method for monitering number of passengers in vehicle using camera
KR102291602B1 (en) * 2020-03-25 2021-08-19 연세대학교 산학협력단 Apparatus and method for detecting intussusception on abdominal radiographs of young children based on deep learning
CN111429727B (en) * 2020-04-23 2021-04-02 深圳智优停科技有限公司 License plate identification method and system in open type parking space
CN111429727A (en) * 2020-04-23 2020-07-17 深圳智优停科技有限公司 License plate identification method and system in open type parking space
KR102161949B1 (en) * 2020-06-29 2020-10-06 이홍기 Integrated parking management method and system using vehicle number plate recognition technology using neural network
CN112133100B (en) * 2020-09-16 2022-04-22 北京影谱科技股份有限公司 Vehicle detection method based on R-CNN
CN112133100A (en) * 2020-09-16 2020-12-25 北京影谱科技股份有限公司 Vehicle detection method based on R-CNN
KR20220038879A (en) * 2020-09-21 2022-03-29 엔에이치엔 주식회사 Method and system for deep learning-based parking management
KR102448710B1 (en) 2020-09-21 2022-09-29 엔에이치엔클라우드 주식회사 Deep learning-based exit management method and system
WO2022065547A1 (en) * 2020-09-24 2022-03-31 주식회사 키센스 Method for recognizing license plate by using hybrid technique, and system therefor
KR20220107952A (en) * 2021-01-26 2022-08-02 주식회사 플랫팜 Appratus and method for monitoring creator`s copyright
KR102733300B1 (en) * 2021-01-26 2024-11-25 주식회사 플랫팜 Appratus and method for monitoring creator`s copyright
CN113269074A (en) * 2021-05-19 2021-08-17 陕西科技大学 Target detection method and security inspection robot
KR102421033B1 (en) * 2021-12-27 2022-07-14 주식회사 인텔리빅스 Apparatus for Deep Learning-based Object Detection with Moving ROI Method and Driving Method Thereof
CN114530056A (en) * 2022-02-15 2022-05-24 超级视线科技有限公司 Parking management method and system based on positioning information and image information
CN114530056B (en) * 2022-02-15 2023-05-02 超级视线科技有限公司 Parking management method and system based on positioning information and image information
CN118424441A (en) * 2024-04-28 2024-08-02 太原易思软件技术有限公司 Unmanned vehicle weighing method, system, device and storage medium based on AI

Similar Documents

Publication Publication Date Title
KR101970442B1 (en) Illegal parking enforcement system Using Fast R-CNN based on Vehicle detection
KR102095685B1 (en) vehicle detection method and device
Wang et al. Traffic light recognition with high dynamic range imaging and deep learning
CN109740478B (en) Vehicle detection and recognition method, device, computer equipment and readable storage medium
Gudigar et al. A review on automatic detection and recognition of traffic sign
Olmeda et al. Pedestrian detection in far infrared images
KR102011624B1 (en) Improved vehicle detection method abnormal illegal parking vehicle system
Putra et al. HOG feature extraction and KNN classification for detecting vehicle in the highway
Olmeda et al. Contrast invariant features for human detection in far infrared images
Varghese et al. An efficient algorithm for detection of vacant spaces in delimited and non-delimited parking lots
KR101355201B1 (en) The system and the method for monitoring illegal stopping and parking vehicles based spatio-temporal feature vector-based vehicle recognition
Singh et al. Smart traffic monitoring through real-time moving vehicle detection using deep learning via aerial images for consumer application
Guan et al. Road marking extraction in UAV imagery using attentive capsule feature pyramid network
Zhang et al. Fast and robust road sign detection in driver assistance systems
Mammeri et al. North-American speed limit sign detection and recognition for smart cars
Du et al. Vision-based traffic light detection for intelligent vehicles
Arthi et al. Object detection of autonomous vehicles under adverse weather conditions
Bulla Traffic sign detection and recognition based on convolutional neural network
Takarli et al. Combination of high-level features with low-level features for detection of pedestrian
KR101319508B1 (en) The system and the method for monitoring illegal stopping and parking vehicles using an enhanced focus degradation method
KR102141781B1 (en) Object Re-IdentificatioApparatus Using Locally Matching Method and Its Method
Yao et al. A real-time pedestrian counting system based on rgb-d
Nguwi et al. Number plate recognition in noisy image
Yazdian et al. Automatic Ontario license plate recognition using local normalization and intelligent character classification
Gou et al. License plate recognition using MSER and HOG based on ELM

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20181204

PA0201 Request for examination
PA0302 Request for accelerated examination

Patent event date: 20181210

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

Patent event date: 20181204

Patent event code: PA03021R01I

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20190209

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20190306

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20190412

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20190412

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20220411

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20240404

Start annual number: 6

End annual number: 6