[go: up one dir, main page]

KR102482427B1 - system and method for recognizing and extracting traffic safety signs for generating precision road maps - Google Patents

system and method for recognizing and extracting traffic safety signs for generating precision road maps Download PDF

Info

Publication number
KR102482427B1
KR102482427B1 KR1020200166245A KR20200166245A KR102482427B1 KR 102482427 B1 KR102482427 B1 KR 102482427B1 KR 1020200166245 A KR1020200166245 A KR 1020200166245A KR 20200166245 A KR20200166245 A KR 20200166245A KR 102482427 B1 KR102482427 B1 KR 102482427B1
Authority
KR
South Korea
Prior art keywords
safety sign
road
detected
object detection
road safety
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020200166245A
Other languages
Korean (ko)
Other versions
KR20220077370A (en
Inventor
최인구
박재형
박영국
김상욱
박호준
Original Assignee
한국도로공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국도로공사 filed Critical 한국도로공사
Priority to KR1020200166245A priority Critical patent/KR102482427B1/en
Publication of KR20220077370A publication Critical patent/KR20220077370A/en
Application granted granted Critical
Publication of KR102482427B1 publication Critical patent/KR102482427B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템은 도로주행영상을 입력받는 입력부; 도로주행영상의 이미지 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 정보를 분석 및 분류하는 차선 검출부; 서로 다른 탐지방식으로 이미지 객체를 탐지하는 적어도 2개 이상의 딥러닝 알고리즘 각각의 탐지영역들을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 도로안전표지 오브젝트 검출부; 및 검출된 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 세부형상을 분석하는 오브젝트 분석부를 포함한다.A traffic safety sign recognition/extraction system for generating a high-precision map according to an embodiment of the present invention includes an input unit for receiving a road driving image; a lane detection unit that detects a lane within an image frame of the road driving image using a deep learning algorithm, and then analyzes and classifies information of the detected lane; After creating an integrated object detection area by merging and expanding the detection areas of at least two or more deep learning algorithms that detect image objects with different detection methods, the image frame in which the lane is detected according to the preset detection area condition value a road safety sign object detection unit for detecting a road safety sign object located in the integrated object detection area within the vehicle; and an object analyzer for analyzing detailed shapes based on feature points extracted according to color, saturation, and brightness of the detected road safety sign object.

Description

정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법 및 시스템{system and method for recognizing and extracting traffic safety signs for generating precision road maps}Traffic safety sign recognition/extraction method and system for generating precision road maps {system and method for recognizing and extracting traffic safety signs for generating precision road maps}

본 발명은 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for recognizing/extracting traffic safety signs for generating a high-precision map.

근래에 들어 정보처리 및 통신기술이 비약적으로 발달함에 따라 지리 정보를 지도 정보 데이터로 구축하여 교통에 활용하는 방법이 많이 이용되고 있다. 이러한 지도 정보 데이터는 실체 촬영된 지리 정보를 바탕으로 제작되어 네비게이션을 통한 길 찾기나 안전 운행, 자동 운행 등에 활용되고 있다.Recently, with the rapid development of information processing and communication technology, a method of constructing geographic information as map information data and using it for transportation has been widely used. Such map information data is produced based on physically photographed geographic information and is used for wayfinding through navigation, safe driving, and automatic driving.

이러한 지도 데이터를 활용하는 내비게이션은 차량 자동항법장치로서, 위성을 이용해 현 위치를 파악하는 GPS를 이용해 목적지까지 길 안내를 음성 및 모니터 화면으로 제공하는 장치이다. 이러한 내비게이션 장치에는 GPS 위성으로부터 차량의 현재 위치 정보를 제공받는 GPS 수신기와 도로안전표지판 등의 지도(MAP) 정보가 등록되는 맵 DB와, GPS 수신기를 통하여 파악되는 현재 위치에 따라 지도 정보를 맵핑시켜 화면에 표시하는 운영 프로그램 등이 구비된다.A navigation system that utilizes such map data is an automatic vehicle navigation system, and is a device that provides route guidance to a destination through voice and monitor screens using GPS that determines the current location using satellites. These navigation devices include a GPS receiver receiving current location information of the vehicle from GPS satellites, a map DB in which map information such as road safety signs is registered, and map information according to the current location identified through the GPS receiver. An operating program displayed on the screen is provided.

상기 내비게이션의 맵 DB에 구축되는 지도 정보는 실제 지리 정보의 계측을 통하여 생성되는데, 이러한 지도 정보는 도로의 신설이나 교통 체계의 변경 등에 따라 변화하기 때문에 정기적 또는 비정기적으로 지도 정보를 갱신(Update) 하여야 한다. 이러한 내비게이션의 지도 정보 갱신은 통상적으로 수작업에 의해 진행되는데, 특히 교통표지판의 경우 지속적으로 변경되기 때문에 맵 관리자가 수시로 지도상 위치로 이동하면서 도로안전표지판을 일일이 확인한 후, 지도 정보에 포함되는 도로안전표지판의 정보를 갱신하여야 하는 번거로운 문제점이 있었다.Map information constructed in the map DB of the navigation system is generated through measurement of actual geographic information. As such map information changes according to new construction of roads or changes in the transportation system, regular or irregular update of map information shall. Updating map information of such navigation is usually done manually. In particular, since traffic signs constantly change, the map manager frequently moves to the location on the map to check the road safety signs one by one, and then the road safety included in the map information. There was a cumbersome problem of updating the information on the sign.

등록특허공보 제10-1199959호Registered Patent Publication No. 10-1199959

본 발명이 해결하고자 하는 과제는 종래의 문제점을 해결할 수 있는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법 및 시스템을 제공하는 데 그 목적이 있다.An object of the present invention is to provide a method and system for recognizing/extracting traffic safety signs for generating a high-precision map that can solve the conventional problems.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템은 도로주행영상을 입력받는 입력부; 도로주행영상의 이미지 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 정보를 분석 및 분류하는 차선 검출부; 서로 다른 탐지방식으로 이미지 객체를 탐지하는 적어도 2개 이상의 딥러닝 객체감지 알고리즘 각각의 탐지영역들을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 도로안전표지 오브젝트 검출부; 검출된 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 세부형상을 분석하는 오브젝트 분석부; 및 전/후 이미지 프레임 내에서 검출된 도로안전표지 오브젝트의 매칭유무를 비교판단한 후, 매칭되면 도로안전표지 오브젝트에 할당된 ID, 세부정보 차선정보를 Queue 형태로 제공하는 오브젝트 트랙킹부를 포함하고, 상기 오브젝트 트랙킹부는 상기 오브젝트 분석부로부터 제n+1 이미지 프레임 내에 도로표지 오브젝트 검출 유무 및 ID 할당 유무를 확인한 후, 제n 이미지 프레임의 중심과 제n+1 이미지 프레임의 중심의 오프셋 벡터의 최적값을 산출한 후, 오프셋 벡터의 최적값을 기초로 상기 도로표지 오브젝트의 매칭 유무를 판단하고, 동일한 도로안전표지 오브젝트가 검출된 이미지 프레임을 적층한 후, 적층값이 기준값을 초과하면 적층된 이미지 프레임들의 도로안전표지 오브젝트 ID, 세그먼트, 객체탐지영역 및 차선정보를 Queue 형태로 저장 및 전송하는 것을 특징으로 한다.A traffic safety sign recognition/extraction system for generating a high-precision map according to an embodiment of the present invention for solving the above problems includes an input unit for receiving a road driving image; a lane detection unit that detects a lane within an image frame of the road driving image using a deep learning algorithm, and then analyzes and classifies information of the detected lane; After generating an integrated object detection area by merging and expanding the detection areas of each of at least two or more deep learning object detection algorithms that detect image objects with different detection methods, the lane is detected according to the preset detection area condition value a road safety sign object detector detecting a road safety sign object located in the integrated object detection area within an image frame; an object analyzer that analyzes detailed shapes based on feature points extracted according to color, saturation, and brightness of the detected road safety sign object; and an object tracking unit that compares and determines whether road safety sign objects detected in the front/back image frame match, and if matched, provides an ID assigned to the road safety sign object and detailed lane information in the form of a queue. The object tracking unit checks whether or not a road sign object is detected in the n+1 th image frame and whether an ID is allocated from the object analysis unit, and then calculates an optimal value of an offset vector between the center of the n th image frame and the center of the n+1 th image frame. After calculation, it is determined whether the road sign objects are matched based on the optimal value of the offset vector, and after stacking image frames in which the same road safety sign object is detected, if the stacking value exceeds the reference value, the stacked image frames It is characterized by storing and transmitting road safety sign object ID, segment, object detection area and lane information in the form of a queue.

상기 과제를 해결하기 위한 본 발명의 일 실시에에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법은 도로주행영상의 이미지 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 정보를 분석 및 분류하는 단계; 적어도 2개 이상의 딥러닝 객체감지 알고리즘의 객체탐지영역을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 단계; 검출된 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 도로안전표지 오브젝트의 이미지를 분석하는 단계; 상기 이미지 프레임 내에서 검출된 도로안전표지 오브젝트를 식별하기 위한 검출 ID를 이미지 프레임에 할당하는 단계 및 전/후 이미지 프레임 내에서 검출된 도로안전표지 오브젝트의 매칭유무를 비교판단한 후, 매칭되면 도로안전표지 오브젝트에 할당된 ID, 세부정보 차선정보를 Queue 형태로 제공하는 단계를 포함하고, 상기 Queue 형태로 제공하는 단계는 동일한 도로안전표지 오브젝트가 검출된 이미지 프레임을 적층한 후, 적층값이 기준값을 초과하면 적층된 이미지 프레임들의 도로안전표지 오브젝트 ID, 세그먼트, 객체탐지영역 및 차선정보를 Queue 형태로 저장 및 전송하는 단계인 것을 특징으로 한다.A traffic safety sign recognition/extraction method for generating a road map with precision according to an embodiment of the present invention to solve the above problems is to detect a lane in an image frame of a road driving image using a deep learning algorithm, and then the detected lane Analyzing and classifying information of; After creating an integrated object detection area by merging and extending the object detection areas of at least two or more deep learning object detection algorithms, the integrated object detection area is detected in the image frame in which the lane is detected according to the preset detection area condition value. Detecting a road safety sign object located thereon; Analyzing an image of a road safety sign object based on feature points extracted according to color, saturation, and brightness of the detected road safety sign object; After allocating a detection ID for identifying the road safety sign object detected in the image frame to the image frame and comparing and determining whether or not the road safety sign object detected in the previous/post image frame matches, if they are matched, road safety A step of providing an ID assigned to a sign object and detailed lane information in the form of a queue, wherein the step of providing in the form of a queue stacks image frames in which the same road safety sign object is detected, and then the stacked value exceeds the reference value. If it exceeds, it is characterized in that it is a step of storing and transmitting the road safety sign object ID, segment, object detection area, and lane information of the stacked image frames in the form of a queue.

따라서, 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템 및 방법을 이용하면, 2개의 딥러닝 객체탐지알고리즘을 이용하여 탐지영역을 확장시켜 도로안전표지의 검출정확도를 향상시키고, 도로안전표지의 탐지영역에 대한 필터링 과정을 세분화하고, 연속되는 프레임의 오브젝트를 트랙킹함으로써, 도로주행영상 내의 도로안전표지의 검출위치에 대한 정확도를 향상시킬 수 있다는 이점을 제공한다.Therefore, using the traffic safety sign recognition/extraction system and method for generating a precision road map according to an embodiment of the present invention, the detection accuracy of road safety signs is increased by expanding the detection area using two deep learning object detection algorithms. , subdividing the filtering process for the detection area of the road safety sign, and tracking objects in successive frames, thereby providing an advantage of improving the accuracy of the detection position of the road safety sign in the road driving image.

도 1은 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템의 블록도이다.
도 2는 도 1에 도시된 차선 검출부의 동작을 설명한 예시도이다.
도 3은 도 1에 도시된 오브젝트 검출부의 세부블럭도이다.
도 4는 노면 표지영역 내에 위치한 오브젝트를 오브젝트 분석부에서 분석하는 진행과정을 설명한 흐름도이고, 도 5는 노면 표지영역 이외의 영역에 위치한 오브젝트의 이미지를 오브젝트 분석부에서 분석하는 진행과정을 설명한 흐름도이다.
도 6은 도 1에 도시된 오브젝트 트랙킹부의 동작을 설명한 예시도이다.
도 7은 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법을 설명한 흐름도이다.
도 8은 도 7에 도시된 S720 과정의 세부흐름도이다.
도 9는 도 7에 도시된 S730 과정의 세부흐름도이다.
도 10 및 도 11은 도 7에 도시된 S740 과정의 세부흐름도이다.
도 12는 도 7에 도시된 S760 과정의 세부흐름도이다.
도 13은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시한 도이다.
1 is a block diagram of a traffic safety sign recognition/extraction system for generating a precision map according to an embodiment of the present invention.
FIG. 2 is an exemplary diagram explaining the operation of the lane detecting unit shown in FIG. 1 .
FIG. 3 is a detailed block diagram of an object detection unit shown in FIG. 1 .
4 is a flow chart explaining a process of analyzing an object located within a road marking area by an object analysis unit, and FIG. 5 is a flowchart explaining a process of analyzing an image of an object located in an area other than a road marking area by an object analysis unit. .
FIG. 6 is an exemplary view illustrating an operation of an object tracking unit shown in FIG. 1 .
7 is a flowchart illustrating a method for recognizing/extracting traffic safety signs for generating a precision road map according to an embodiment of the present invention.
FIG. 8 is a detailed flowchart of the process S720 shown in FIG. 7 .
FIG. 9 is a detailed flowchart of the process S730 shown in FIG. 7 .
10 and 11 are detailed flowcharts of the process S740 shown in FIG. 7 .
FIG. 12 is a detailed flowchart of the process S760 shown in FIG. 7 .
13 is an illustration of an example computing environment in which one or more embodiments set forth herein may be implemented.

본 명세서 또는 출원에 개시되어 있는 본 발명의 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 본 발명에 따른 실시 예들은 다양한 형태로 실시될 수 있으며 본 명세서 또는 출원에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다. Specific structural or functional descriptions of the embodiments of the present invention disclosed in this specification or application are merely exemplified for the purpose of explaining the embodiments according to the present invention, and the embodiments according to the present invention may be implemented in various forms. and should not be construed as being limited to the embodiments described in this specification or application.

본 발명에 따른 실시예는 다양한 변경을 가할 수 있고 여러가지 형태를 가질 수 있으므로 특정실시 예들을 도면에 예시하고 본 명세서 또는 출원에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예를 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Embodiments according to the present invention can apply various changes and can have various forms, so specific embodiments are illustrated in the drawings and described in detail in this specification or application. However, this is not intended to limit the embodiments according to the concept of the present invention to a specific disclosed form, and should be understood to include all modifications, equivalents, or substitutes included in the spirit and technical scope of the present invention.

제1 및/또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다. Terms such as first and/or second may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another component, e.g., without departing from the scope of rights according to the concept of the present invention, a first component may be termed a second component, and similarly The second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle. Other expressions describing the relationship between elements, such as "between" and "directly between" or "adjacent to" and "directly adjacent to", etc., should be interpreted similarly.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that a specified feature, number, step, operation, component, part, or combination thereof exists, but that one or more other features or numbers, It should be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this specification, it should not be interpreted in an ideal or excessively formal meaning. don't

이하, 첨부된 도면들에 기초하여 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법 및 시스템을 보다 상세하게 설명하도록 한다.Hereinafter, a traffic safety sign recognition/extraction method and system for generating a precision map according to an embodiment of the present invention will be described in more detail based on the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템의 블록도이고, 도 2는 도 1에 도시된 차선 검출부의 동작을 설명한 예시도이고, 도 3은 도 1에 도시된 오브젝트 검출부의 세부블럭도이고, 도 4는 노면 표지영역 내에 위치한 오브젝트를 오브젝트 분석부에서 분석하는 진행과정을 설명한 흐름도이고, 도 5는 노면 표지영역 이외의 영역에 위치한 오브젝트의 이미지를 오브젝트 분석부에서 분석하는 진행과정을 설명한 흐름도이고, 도 6은 도 1에 도시된 오브젝트 트랙킹부의 동작을 설명한 예시도이다.1 is a block diagram of a traffic safety sign recognition/extraction system for generating a high-precision map according to an embodiment of the present invention, FIG. 2 is an exemplary diagram explaining the operation of a lane detection unit shown in FIG. 1, and FIG. A detailed block diagram of the object detection unit shown in FIG. 1, FIG. 4 is a flow chart explaining a process of analyzing an object located within the road marking area in the object analysis unit, and FIG. 5 is an image of an object located in an area other than the road marking area. It is a flow chart explaining the process of analyzing in the object analyzing unit, and FIG. 6 is an exemplary diagram explaining the operation of the object tracking unit shown in FIG. 1 .

먼저, 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템(100)은 입력부(110), 차선 검출부(120), 도로안전표지 오브젝트 검출부(130), 오브젝트 분석부(140), ID 할당부(150) 및 오브젝트 트랙킹부(160)를 포함한다.First, as shown in FIG. 1, the traffic safety sign recognition/extraction system 100 for generating a precision road map according to an embodiment of the present invention includes an input unit 110, a lane detection unit 120, and a road safety sign object. It includes a detection unit 130, an object analysis unit 140, an ID allocation unit 150 and an object tracking unit 160.

한편, 본 발명은 도로주행영상의 이미지 프레임에 대한 전처리 과정을 수행하는 전처리 구성을 포함할 수 있고, 전처리 구성은 입력된 도로주행영상의 이미지 프레임 각각의 명암 값의 분포의 균일화를 위해 히스토그램 평활화, 예컨대, 명도값의 빈도수 계산, 빈도수를 이용하여 축적 히스토그램 값을 산출한 후, 정규화하고, 정규화된 축적 히스토그램을 그레이 스케일 사상 함수를 적용하여 그레이 레벨 값을 맵핑하는 구성일 수 있다.On the other hand, the present invention may include a preprocessing component for performing a preprocessing process on an image frame of a road driving image, and the preprocessing component is histogram smoothing to uniformize the distribution of contrast values of each image frame of the input road driving image, For example, it may be configured to calculate the frequency of lightness values, calculate the accumulated histogram value using the frequency, normalize it, and apply a gray scale mapping function to the normalized accumulated histogram to map gray level values.

본 발명에서 언급하는 전처리 과정은 이미지 프레임을 전처리하는 방식 중 대표적인 일 예를 설명한 것일 뿐, 다른 방식의 전처리 과정 또한 본 발명에서 적용할 수 있다.The preprocessing process mentioned in the present invention is only a representative example of a method of preprocessing an image frame, and other preprocessing methods can also be applied in the present invention.

상기 입력부(110)는 도로주행영상을 입력받는 구성이다.The input unit 110 is a component that receives a road driving image.

다음으로, 차선 검출부(120)는 도 2를 참조하면, 전처리된 각 이미지 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 정보를 분석 및 분류하는 구성일 수 있다.Next, referring to FIG. 2 , the lane detection unit 120 may be configured to detect lanes in each preprocessed image frame using a deep learning algorithm, and then analyze and classify information of the detected lanes.

보다 구체적으로, 차선 검출부(120)는 딥러닝 알고리즘을 이용하여 차선을 검출한 후, 검출된 차선들 간의 노면표지 및 평균넓이를 모폴로지(Morphology) 필터링(연산) 과정을 통해 보정한 후, 보정된 차선 영역 이외의 영역 및 중복 노면표지를 제거한 후, 보정된 차선을 점선, 실선, 전용차선 및 중앙선 중 어느 하나로 분류하는 구성일 수 있다. 딥러닝 알고리즘으로서 Convolutional LSTM(Long Short-Term Memory)이 이용될 수 있으며, 그 외에도 다양한 딥러닝 알고리즘이 이용될 수 있음은 물론이다.More specifically, the lane detection unit 120 detects lanes using a deep learning algorithm, corrects the road markings and average width between the detected lanes through a morphology filtering (calculation) process, and then corrects the After removing areas other than the lane area and redundant road markings, the corrected lane may be classified into one of a dotted line, a solid line, an exclusive lane, and a center line. As a deep learning algorithm, convolutional LSTM (Long Short-Term Memory) can be used, and various other deep learning algorithms can be used, of course.

참고로, 모폴로지(Morphology)는 형태에 따라 영상을 처리하는 광범위한 영상 처리 연산 집합으로, 모폴로지(Morphology) 연산에서는 영상의 각 픽셀이 이웃의 다른 픽셀값에 따라 조정되고, 이웃의 크기와 형태를 선택하여 대상 영상의 특정 형태로 연산처리하는 것을 의미한다.For reference, Morphology is a set of extensive image processing operations that process images according to their shapes. In Morphology operations, each pixel of an image is adjusted according to the values of other neighboring pixels, and the size and shape of its neighbors are selected. This means that the target image is calculated and processed in a specific form.

기본적으로, 모폴로지 연산은 침식(erode)과 팽창(dilate) 연산 과정으로, 현재 픽셀을 기준으로 필터를 적용하되, 필터 영역 안의 값을 확인하고, 현재 픽셀의 값을 수정하는 연산과정이다.Basically, morphology calculation is an erode and dilate calculation process, which applies a filter based on the current pixel, checks the value within the filter area, and modifies the value of the current pixel.

여기서, 침식은 필터 영역 내 픽셀 중 최소 픽셀값을 현재 픽셀값에 대입하는 것을 의미하며, 팽창은 필터 영역 내 픽셀 중 최대 픽셀값을 현재 픽셀값에 대입하는 것을 의미하며, 모폴로지 연산은 공지된 기술임으로, 보다 상세한 설명은 생략하도록 한다.Here, erosion means substituting the minimum pixel value among pixels within the filter area to the current pixel value, dilation means substituting the maximum pixel value among pixels within the filter area to the current pixel value, and morphology operation is a known technique. Optionally, a more detailed description will be omitted.

다음으로, 도 3을 참조, 도로안전표지 오브젝트 검출부(130)는 2개의 서로 다른 딥러닝 객체감지 알고리즘의 객체탐지영역(detection bounding box)을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 구성일 수 있다.Next, referring to FIG. 3, the road safety sign object detection unit 130 generates an integrated object detection area by merging and expanding the detection bounding boxes of two different deep learning object detection algorithms, It may be configured to detect a road safety sign object located in the integrated object detection area within the image frame in which the lane is detected according to a set detection area condition value.

보다 구체적으로, 도로안전표지 오브젝트 검출부(130)는 객체탐지영역 조정부(131) 및 객체탐지영역 필터링부(132)를 포함한다.More specifically, the road safety sign object detection unit 130 includes an object detection area adjusting unit 131 and an object detection area filtering unit 132 .

객체탐지영역 조정부(131)는 제1 딥러닝 객체감지 알고리즘 및 제2 딥러닝 객체감지 알고리즘 각각의 객체탐지영역(bounding box)을 오버랩(overlap)하여 기 설정된 오버랩 수치, 바람직하게는 60%를 초과하는 상기 통합객체탐지영역을 생성하는 구성일 수 있다.The object detection area adjusting unit 131 overlaps the object detection area (bounding box) of each of the first deep learning object detection algorithm and the second deep learning object detection algorithm to exceed a preset overlap value, preferably 60%. may be a configuration for generating the integrated object detection area.

참고로, 제1 딥러닝 객체감지 알고리즘은 객체탐지속도가 빠른 반면에 인식 정확도가 낮고, 제2 딥러닝 객체감지 알고리즘은 객체탐지속도가 느린 반면에 인식 정확도가 높다는 특징이 있다. 제1 딥러닝 객체감지 알고리즘으로서 Gaussian YOLO v3가 이용될 수 있고, 제2 딥러닝 객체감지 알고리즘으로서 MASK R-CNN 이 이용될 수 있다. Gaussian YOLO v3 및 MASK R-CNN 알고리즘은 제1 및 제2 딥러닝 객체 알고리즘의 예시로서, 이에 한정되지 않고 알고리즘의 특징에 맞는 다른 적절한 딥러닝 객체 알고리즘이 이용될 수 있음은 물론이다.For reference, the first deep learning object detection algorithm has a fast object detection speed but low recognition accuracy, and the second deep learning object detection algorithm has a slow object detection speed but high recognition accuracy. Gaussian YOLO v3 may be used as the first deep learning object detection algorithm, and MASK R-CNN may be used as the second deep learning object detection algorithm. The Gaussian YOLO v3 and MASK R-CNN algorithms are examples of the first and second deep learning object algorithms, but are not limited thereto, and other appropriate deep learning object algorithms suitable for the characteristics of the algorithm may be used.

이에 본 발명에서는 2개의 딥러닝 객체감지 알고리즘의 감지 바운딩 박스(detection Bounding Box)를 통합하여 확장시켜 2개의 딥러닝 객체감지 알고리즘의 장점이 도출 가능하도록 통합객체탐지영역을 생성하여 이용한다.Therefore, in the present invention, an integrated object detection area is created and used so that the advantages of the two deep learning object detection algorithms can be derived by integrating and extending the detection bounding boxes of the two deep learning object detection algorithms.

한편, 객체탐지영역 조정부(131)는 오버랩된 통합객체탐지영역이 기 설정된 오버랩 수치(60%)보다 작을 경우, 제2 딥러닝 객체감지 알고리즘으로 도로안전표지 오브젝트를 검출할 수 있다.Meanwhile, the object detection area adjusting unit 131 may detect a road safety sign object using a second deep learning object detection algorithm when the overlapped integrated object detection area is smaller than a preset overlap value (60%).

상기 객체탐지영역 필터링부(132)는 상기 통합객체탐지영역 내에 검출된 도로안전표지 오브젝트의 위치를 기 설정된 탐지영역 조건값으로 필터링하는 구성으로, 여기서, 상기 기 설정된 탐지영역 조건값은 상기 도로안전표지 오브젝트의 검출 위치에 대한 영역 값이고, 상기 영역 값은 노면 표지 영역, 중앙선 좌측 영역, 연석우측 영역을 포함한다.The object detection area filtering unit 132 is configured to filter the location of the road safety sign object detected in the integrated object detection area to a preset detection area condition value, wherein the preset detection area condition value is the road safety sign. An area value for a detection position of a marker object, and the area value includes a road surface area, a left area of the center line, and a right curb area.

보다 구체적으로, 객체탐지영역 필터링부(132)는 통합객체탐지영역의 위치를 노면 표지 영역인지를 1차 판단하고, 노면표지 영역이 아닐 경우, 중앙선 좌측인지를 2차 판단하고, 중앙선 좌측이 아닐 경우, 연석 우측인지를 3차 판단함으로써, 통합객체탐지영역이 생성된 위치 영역을 구체화시킴으로서 도로안전표지 오브젝트의 검출률의 오류를 줄이고, 정확도를 향상시킬 수 있다.More specifically, the object detection area filtering unit 132 first determines whether the location of the integrated object detection area is a road sign area, and if it is not a road sign area, secondly determines whether the location of the integrated object detection area is to the left of the center line, and if not to the left of the center line. In this case, it is possible to reduce an error in the detection rate of the road safety sign object and improve the accuracy by specifying the location area where the integrated object detection area is generated by thirdly determining whether it is on the right side of the curb.

다음으로, 도 4 및 도 5를 참조, 오브젝트 분석부(140)는 필터링된 통합객체탐지영역 내의 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 세부형상을 분석(판단)하는 구성일 수 있다.Next, referring to FIGS. 4 and 5, the object analysis unit 140 analyzes (determines) the detailed shape based on the feature points extracted according to the color, saturation, and brightness of the road safety sign object in the filtered integrated object detection area. can be a composition.

보다 구체적으로, 도 5 참조, 오브젝트 분석부(140)는 도로안전표지 오브젝트가 감지된 통합객체탐지영역(bounding box) 위치가 노면 표지영역에 위치할 경우, 상기 통합객체탐지영역(bounding box)의 픽셀 RGB 값을 HSV(색상, 채도, 밝기)로 변환한 후, 기 설정된 임계값 알고리즘을 통해 도로안전표지 오브젝트의 임계값을 생성한 후, 생성된 임계값을 기초로 상기 오브젝트와 노면 표지영역을 백과 흑으로 구분한 후, 모폴로지(Morphology) 필터링을 통해 노이즈를 제거하고, 검출된 도로안전표지 오브젝트의 윤곽선(contours)을 추출 및 피팅처리한 후, 피팅처리된 윤곽선의 특징점을 기초로 노면 표지영역에 위치하는 도로표지 오브젝트의 형상을 판단한다. 전술한 임계값 알고리즘으로 Otsu Algorithm이 이용될 수 있으며, 그 외에도 다른 적절한 알고리즘이 이용될 수 있음은 물론이다.More specifically, referring to FIG. 5 , the object analysis unit 140 determines the location of the integrated object detection area (bounding box) where the road safety sign object is detected when the location of the bounding box is located in the road surface area. After converting the pixel RGB values into HSV (hue, saturation, brightness), generating a threshold of the road safety sign object through a preset threshold algorithm, and then determining the object and the road sign area based on the generated threshold After dividing into white and black, noise is removed through morphology filtering, contours of the detected road safety sign object are extracted and fitted, and the road marking area is based on the feature points of the fitted contour. Determine the shape of the road sign object located at . Of course, the Otsu Algorithm may be used as the above-described threshold value algorithm, and other appropriate algorithms may be used.

또한, 도 4를 참조, 오브젝트 분석부(140)는 도로안전표지 오브젝트가 감지된 객체탐지영역(bounding box)의 위치가 노면 표지영역 이외의 영역에 위치할 경우, 상기 객체탐지영역에 대한 컬러 히스토그램(픽셀들에 대한 명암값 분포도)을 산출하고, 상기 객체탐지영역의 픽셀 RGB값을 HSV(색상, 채도, 밝기)로 변환 및 상기 객체탐지영역을 CIE(Commission Internationale d' Eclairage) 색 공간좌표로 변환한 후, 상기 컬러 히스토그램 및 상기 HSV 값을 이용하여 상기 객체탐지영역의 Red, blue, green의 색 대역을 카운트하고, 상기 CIE(Commission Internationale d' Eclairage) 색 공간좌표 상에서 L(밝기), A(녹색에서 적색의 보색), B(노란색에서 파란색의 보색) 값을 추출하고, 상기 색 공간좌표의 LAB 값 및 상기 RGB 밴드의 카운트값을 포함하는 객체탐지영역을 그레이 스케일(Gray scale) 이미지로 변환한 후, 기 설정된 임계값 알고리즘(Otsu Algorithm)을 통해 도로안전표지 오브젝트의 임계값을 생성한 후, 생성된 임계값을 기초로 상기 오브젝트와 전경영역을 구분한 후, 모폴로지(Morphology) 필터링을 통해 노이즈를 제거하고, 검출된 도로안전표지 오브젝트의 윤관선(contours)을 추출한 후, 상기 윤곽선의 특징점의 위치를 기초로 상기 도로안전표지 오브젝트의 형상(색 포함)을 판단한다.In addition, referring to FIG. 4, the object analysis unit 140, when the location of the object detection area (bounding box) where the road safety sign object is detected is located in an area other than the road surface area, the color histogram for the object detection area Calculate (contrast value distribution for pixels), convert RGB values of pixels in the object detection area into HSV (hue, saturation, brightness), and convert the object detection area into CIE (Commission Internationale d'Eclairage) color space coordinates After conversion, the red, blue, and green color bands of the object detection area are counted using the color histogram and the HSV value, and L (brightness) and A on the CIE (Commission Internationale d'Eclairage) color space coordinates (Complementary color from green to red) and B (complementary color from yellow to blue) are extracted, and the object detection area including the LAB value of the color space coordinates and the count value of the RGB band is converted into a gray scale image. After conversion, a threshold value of the road safety sign object is generated through a preset threshold value algorithm (Otsu Algorithm), and after dividing the object and foreground area based on the generated threshold value, morphology filtering is performed. After noise is removed and contours of the detected road safety sign object are extracted, the shape (including color) of the road safety sign object is determined based on the location of feature points of the contour.

다음으로, ID 할당부(160)는 오브젝트 분석부(150)에서 분석한 이미지 프레임 내에서 검출된 도로안전표지 오브젝트를 식별하기 위한 검출 ID를 이미지 프레임에 할당하는 구성일 수 있다.Next, the ID allocator 160 may be a component that allocates a detection ID for identifying the road safety sign object detected in the image frame analyzed by the object analyzer 150 to the image frame.

다음으로, 도 6을 참조, 오브젝트 트랙킹부(170)는 도로주행영상의 전/후 이미지 프레임 내에서 검출된 도로안전표지 오브젝트의 매칭 유무를 비교판단한 후, 매칭되면 도로안전표지 오브젝트에 할당된 ID, 세부정보 차선정보를 Queue 형태로 제공하는 구성일 수 있다.Next, referring to FIG. 6, the object tracking unit 170 compares and determines whether the road safety sign objects detected in the before and after image frames of the road driving video match, and if matched, the ID assigned to the road safety sign object. , It may be configured to provide detailed information and lane information in the form of a queue.

보다 구체적으로, 오브젝트 트랙킹부(170)는 오브젝트 분석부(150)로부터 제n+1 이미지 프레임 내에 도로표지 오브젝트 검출 유무 및 ID 할당 유무를 확인한 후, 제n 이미지 프레임의 중심과 제n+1 이미지 프레임의 중심의 오프셋 벡터의 최적값을 산출한 후, 오프셋 벡터의 최적값을 기초로 상기 도로표지 오브젝트의 매칭 유무를 판단한다.More specifically, the object tracking unit 170 checks whether or not a road sign object is detected and an ID is allocated in the n+1 th image frame from the object analyzer 150, and then the center of the n th image frame and the n+1 th image frame. After calculating the optimum value of the offset vector at the center of the frame, whether or not the road sign object is matched is determined based on the optimum value of the offset vector.

또한, 상기 오브젝트 트랙킹부(170)는 동일한 도로표지 오브젝트가 검출된 이미지 프레임을 적층한 후, 적층값이 기준값을 초과하면 적층된 이미지 프레임들의 도로안전표지 오브젝트 ID, 세그먼트, 객체탐지영역(bounding box) 및 차선정보를 Queue 형태로 저장하여 외부서버로 제공한다.In addition, the object tracking unit 170 stacks image frames in which the same road sign object is detected, and if the stacking value exceeds a reference value, the road safety sign object ID, segment, and object detection area (bounding box) of the stacked image frames ) and lane information are stored in the form of a queue and provided to an external server.

도 7은 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법을 설명한 흐름도이고, 도 8은 도 7에 도시된 S720 과정의 세부흐름도이고, 도 9는 도 7에 도시된 S730 과정의 세부흐름도이고, 도 10 및 도 11은 도 7에 도시된 S740 과정의 세부흐름도이고, 도 12는 도 7에 도시된 S760 과정의 세부흐름도이다.7 is a flowchart illustrating a method for recognizing/extracting traffic safety signs for generating a precision road map according to an embodiment of the present invention, FIG. 8 is a detailed flowchart of process S720 shown in FIG. 7, and FIG. 10 and 11 are detailed flowcharts of the process S740 shown in FIG. 7 , and FIG. 12 is a detailed flow chart of the process S760 shown in FIG. 7 .

먼저, 도 7을 참조하면, 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법(S700)은 먼저, 입력부에서 입력한 도로주행영상의 이미지 프레임을 전처리부(120)에서 전처리(S710)한다. First, referring to FIG. 7 , in the traffic safety sign recognition/extraction method (S700) for generating a precision road map according to an embodiment of the present invention, first, an image frame of a road driving image input from an input unit is converted into a pre-processing unit 120 ) in preprocessing (S710).

여기서, 상기 S710 과정은 입력된 도로주행영상의 이미지 프레임 각각의 명암 값의 분포의 균일화를 위해 히스토그램 평활화, 예컨대, 명도값의 빈도수 계산, 빈도수를 이용하여 축적 히스토그램 값을 산출한 후, 정규화하고, 정규화된 축적 히스토그램을 그레이 스케일 사상 함수를 적용하여 그레이 레벨 값을 맵핑하는 과정을 포함한다.Here, in the step S710, histogram equalization is performed to uniformize the distribution of brightness values of each image frame of the input road driving image, for example, calculating the frequency of brightness values, calculating the accumulated histogram value using the frequency, and then normalizing, and mapping gray level values by applying a gray scale mapping function to the normalized accumulation histogram.

상기 S710 과정이 완료되면, 전처리된 각 영상 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 종류를 분석 및 분류(S720)한다.When the process S710 is completed, lanes in each preprocessed image frame are detected using a deep learning algorithm, and then types of detected lanes are analyzed and classified (S720).

보다 구체적으로, 상기 S720 과정은 딥러닝 알고리즘을 이용하여 차선을 검출한 후, 검출된 차선들 간의 노면표지 및 평균넓이를 모폴로지(Morphology) 필터링(연산) 과정을 통해 보정한 후, 보정된 차선 영역 이외의 영역 및 중복 노면표지를 제거한 후, 보정된 차선을 점선, 실선, 전용차선 및 중앙선 중 어느 하나로 분류하는 과정일 수 있다. 전술한 것처럼, 딥러닝 알고리즘으로서 Convolutional LSTM(Long Short-Term Memory)이 이용될 수 있으며, 그 외에도 다양한 딥러닝 알고리즘이 이용될 수 있음은 물론이다.More specifically, in the step S720, lanes are detected using a deep learning algorithm, road markings and average widths between the detected lanes are corrected through a morphology filtering (calculation) process, and then the corrected lane area is corrected. It may be a process of classifying the corrected lane into one of a dotted line, a solid line, an exclusive lane, and a center line after removing other areas and redundant road markings. As described above, convolutional long short-term memory (LSTM) can be used as a deep learning algorithm, and various other deep learning algorithms can be used, of course.

참고로, 모폴로지(Morphology)는 형태에 따라 영상을 처리하는 광범위한 영상 처리 연산 집합으로, 모폴로지(Morphology) 연산에서는 영상의 각 픽셀이 이웃의 다른 픽셀값에 따라 조정되고, 이웃의 크기와 형태를 선택하여 대상 영상의 특정 형태로 연산처리하는 것을 의미한다.For reference, Morphology is a set of extensive image processing operations that process images according to their shapes. In Morphology operations, each pixel of an image is adjusted according to the values of other neighboring pixels, and the size and shape of its neighbors are selected. This means that the target image is calculated and processed in a specific form.

기본적으로, 모폴로지 연산은 침식(erode)과 팽창(dilate) 연산 과정으로, 현재 픽셀을 기준으로 필터를 적용하되, 필터 영역 안의 값을 확인하고, 현재 픽셀의 값을 수정하는 연산과정이다.Basically, morphology calculation is an erode and dilate calculation process, which applies a filter based on the current pixel, checks the value within the filter area, and modifies the value of the current pixel.

여기서, 침식은 필터 영역 내 픽셀 중 최소 픽셀값을 현재 픽셀값에 대입하는 것을 의미하며, 팽창은 필터 영역 내 픽셀 중 최대 픽셀값을 현재 픽셀값에 대입하는 것을 의미하며, 모폴로지 연산은 공지된 기술임으로, 보다 상세한 설명은 생략하도록 한다.Here, erosion means substituting the minimum pixel value among pixels within the filter area to the current pixel value, dilation means substituting the maximum pixel value among pixels within the filter area to the current pixel value, and morphology operation is a known technique. Optionally, a more detailed description will be omitted.

상기 S720 과정이 완료되면, 2개의 서로 다른 딥러닝 객체감지 알고리즘의 객체탐지영역을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출(S730)한다.When the S720 process is completed, an integrated object detection area is created by merging and expanding the object detection areas of the two different deep learning object detection algorithms, and then within the image frame in which the lane is detected according to the preset detection area condition value. Detects a road safety sign object located in the integrated object detection area (S730).

보다 구체적으로, 상기 S730 과정은 제1 딥러닝 객체감지 알고리즘 및 제2 딥러닝 객체감지 알고리즘 각각의 객체탐지영역(bounding box)을 오버랩(overlap)하여 기 설정된 오버랩 수치, 바람직하게는 60%를 초과하는 통합객체탐지영역을 생성하는 단계(S731)를 포함한다.More specifically, the step S730 overlaps the bounding boxes of each of the first deep learning object detection algorithm and the second deep learning object detection algorithm to exceed a predetermined overlap value, preferably 60%. and generating an integrated object detection area (S731).

참고로, 제1 딥러닝 객체감지 알고리즘은 객체탐지속도가 빠른 반면에 인식 정확도가 낮고, 제2 딥러닝 객체감지 알고리즘은 객체탐지속도가 느린 반면에 인식 정확도가 높다는 특징이 있다. 제1 딥러닝 객체감지 알고리즘으로서 Gaussian YOLO v3가 이용될 수 있고, 제2 딥러닝 객체감지 알고리즘으로서 MASK R-CNN 이 이용될 수 있다. Gaussian YOLO v3 및 MASK R-CNN 알고리즘은 제1 및 제2 딥러닝 객체 알고리즘의 예시로서, 이에 한정되지 않고 알고리즘의 특징에 맞는 다른 적절한 딥러닝 객체 알고리즘이 이용될 수 있음은 물론이다.For reference, the first deep learning object detection algorithm has a fast object detection speed but low recognition accuracy, and the second deep learning object detection algorithm has a slow object detection speed but high recognition accuracy. Gaussian YOLO v3 may be used as the first deep learning object detection algorithm, and MASK R-CNN may be used as the second deep learning object detection algorithm. The Gaussian YOLO v3 and MASK R-CNN algorithms are examples of the first and second deep learning object algorithms, but are not limited thereto, and other appropriate deep learning object algorithms suitable for the characteristics of the algorithm may be used.

이에 본 발명에서는 2개의 딥러닝 객체감지 알고리즘의 감지 바운딩 박스(detection Bounding Box)를 통합하여 확장시켜 2개의 딥러닝 객체감지 알고리즘의 장점이 도출가능하도록 통합객체탐지영역을 생성하여 이용하고, 오버랩된 통합객체탐지영역이 기 설정된 오버랩 수치(60%)보다 작을 경우, 제2 딥러닝 객체감지 알고리즘으로 도로안전표지 오브젝트를 검출하는 과정을 수행한다.Accordingly, in the present invention, an integrated object detection area is created and used so that the advantages of the two deep learning object detection algorithms can be derived by integrating and extending the detection bounding boxes of the two deep learning object detection algorithms, and overlapping When the integrated object detection area is smaller than the preset overlap value (60%), a process of detecting a road safety sign object is performed with the second deep learning object detection algorithm.

한편, 상기 S730 과정은 통합객체탐지영역 내에 검출된 도로안전표지 오브젝트의 위치를 기 설정된 탐지영역 조건값으로 객체탐지영역을 필터링하는 단계(S732)를 포함한다.Meanwhile, the process S730 includes a step of filtering the object detection area with a predetermined detection area condition value based on the position of the road safety sign object detected in the integrated object detection area (S732).

상기 S732 과정은 통합객체탐지영역의 위치를 노면 표지 영역인지를 1차 판단하고, 노면표지 영역이 아닐 경우, 중앙선 좌측인지를 2차 판단하고, 중앙선 좌측이 아닐 경우, 연석 우측인지를 3차 판단하는 과정을 포함하면, 상술한 영역 필터링 과정을 통해 통합객체탐지영역(bounding box)이 생성된 위치영역을 구체화시킴으로서 도로안전표지 오브젝트의 검출률의 오류를 줄이고, 정확도를 향상시킬 수 있다.The S732 process first determines whether the integrated object detection area is a road sign area, secondly determines whether it is on the left side of the center line if it is not a road sign area, and thirdly determines whether it is on the right side of the curb if it is not on the left side of the center line. Including the process of doing, it is possible to reduce errors in the detection rate of road safety sign objects and improve accuracy by specifying the location area where the integrated object detection area (bounding box) is generated through the above-described area filtering process.

한편, 상기 S730 과정이 완료되면, 오브젝트 분석부(150)에서 필터링된 통합객체탐지영역 내의 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 세부형상을 오브젝트 분석부(150)에서 분석(판단)(S740)한다.On the other hand, when the S730 process is completed, the object analysis unit 150 determines the detailed shape based on the feature points extracted according to the color, saturation, and brightness of the road safety sign object in the integrated object detection area filtered by the object analysis unit 150. Analysis (judgment) (S740).

여기서, 상기 S740 과정은 도로안전표지 오브젝트가 감지된 객체탐지영역(bounding box) 위치가 노면 표지영역에 위치할 경우, 상기 객체탐지영역(bounding box)의 픽셀 RGB 값을 HSV(색상, 채도, 밝기)로 변환한 후, 기 설정된 임계값 알고리즘을 통해 도로안전표지 오브젝트의 임계값을 생성한 후, 생성된 임계값을 기초로 상기 오브젝트와 노면 표지영역을 백과 흑으로 구분한 후, 모폴로지 필터링을 통해 노이즈를 제거하고, 검출된 도로안전표지 오브젝트의 윤곽선(contours)을 추출 및 피팅처리한 후, 피팅처리된 윤곽선의 특징점을 기초로 노면 표지영역에 위치하는 도로표지 오브젝트의 형상을 판단하는 과정들을 포함한다. 전술한 것처럼, 임계값 알고리즘으로 Otsu Algorithm이 이용될 수 있으며, 그 외에도 다른 적절한 알고리즘이 이용될 수 있음은 물론이다.Here, in the step S740, when the location of the object detection area (bounding box) where the road safety sign object is detected is located in the road marking area, the pixel RGB values of the object detection area (bounding box) are converted into HSV (hue, saturation, brightness) ), after generating the threshold value of the road safety sign object through a preset threshold algorithm, and then classifying the object and the road sign area into white and black based on the generated threshold value, through morphology filtering After removing noise, extracting and fitting the contours of the detected road safety sign object, and then determining the shape of the road sign object located in the road marking area based on the feature points of the fitted contour. do. As described above, the Otsu Algorithm can be used as the threshold algorithm, and other suitable algorithms can be used as well.

또한, 상기 S740 과정은 도로안전표지 오브젝트가 감지된 객체탐지영역(bounding box)의 위치가 노면 표지영역 이외의 영역에 위치할 경우, 상기 객체탐지영역에 대한 컬러 히스토그램(픽셀들에 대한 명암값 분포도) 산출, 상기 객체탐지영역의 픽셀 RGB값을 HSV(색상, 채도, 밝기)로 변환 및 상기 객체탐지영역을 CIE(Commission Internationale d' Eclairage) 색 공간좌표로 변환한 후, 상기 컬러 히스토그램 및 상기 HSV 값을 이용하여 상기 객체탐지영역의 Red, blue, green의 색 대역을 카운트하고, 상기 CIE(Commission Internationale d' Eclairage) 색 공간좌표 상에서 L(밝기), A(녹색에서 적색의 보색), B(노란색에서 파란색의 보색) 값을 추출하고, 상기 색 공간좌표의 LAB 값 및 상기 RGB 밴드의 카운트값을 포함하는 객체탐지영역을 그레이 스케일(Gray scale) 이미지로 변환한 후, 기 설정된 임계값 알고리즘(Otsu Algorithm)을 통해 도로안전표지 오브젝트의 임계값을 생성한 후, 생성된 임계값을 기초로 상기 오브젝트와 전경영역을 구분한 후, 모폴로지 필터링을 통해 노이즈를 제거하고, 검출된 도로안전표지 오브젝트의 윤곽선(contours)을 추출한 후, 상기 윤곽선의 특징점의 위치를 기초로 상기 도로안전표지 오브젝트의 형상(색 포함)을 판단하는 과정들을 포함한다.In addition, in the S740 process, when the location of the object detection area (bounding box) where the road safety sign object is detected is located in an area other than the road marking area, the color histogram (contrast value distribution chart for pixels) for the object detection area ) Calculation, conversion of pixel RGB values of the object detection area into HSV (hue, saturation, brightness) and conversion of the object detection area into CIE (Commission Internationale d'Eclairage) color space coordinates, the color histogram and the HSV Red, blue, and green color bands of the object detection area are counted using the values, and L (brightness), A (complementary color from green to red), and B ( Complementary color of yellow to blue) is extracted, and the object detection area including the LAB value of the color space coordinates and the count value of the RGB band is converted into a gray scale image, and then a preset threshold algorithm ( Otsu Algorithm), after generating the threshold value of the road safety sign object, dividing the object and the foreground area based on the generated threshold value, removing noise through morphological filtering, and After extracting the contours, the process of determining the shape (including color) of the road safety sign object based on the location of feature points of the contours is included.

이후, 상기 S740 과정이 완료되면, ID 할당부(150)에서 상기 S740 과정에서 분석한 이미지 프레임 내에서 검출된 도로안전표지 오브젝트를 식별하기 위한 검출 ID를 이미지 프레임에 할당(S750)한다.Thereafter, when the process of S740 is completed, the ID allocation unit 150 allocates a detection ID for identifying the road safety sign object detected in the image frame analyzed in the process of S740 to the image frame (S750).

다음으로, 상기 S750 과정이 완료되면, 오브젝트 트랙킹부(160)에서 도로주행영상의 전/후 이미지 프레임 내에서 검출된 도로안전표지 오브젝트의 매칭유무를 비교판단한 후, 매칭되면 도로안전표지 오브젝트에 할당된 ID, 세부정보 차선정보를 Queue 형태로 제공(S760)한다.Next, when the S750 process is completed, the object tracking unit 160 compares and determines whether or not the road safety sign object detected in the before and after image frames of the road driving image is matched, and if it is matched, it is assigned to the road safety sign object. Provided ID, detailed information and lane information in the form of a queue (S760).

보다 구체적으로, 상기 S760 과정은 오브젝트 분석부(140)로부터 제n+1 이미지 프레임 내에 도로표지 오브젝트 검출 유무 및 ID 할당 유무를 확인한 후, 제n 이미지 프레임의 중심과 제n+1 이미지 프레임의 중심의 오프셋 벡터의 최적값을 산출한 후, 오프셋 벡터의 최적값을 기초로 상기 도로표지 오브젝트의 매칭 유무를 판단하고, 동일한 도로표지 오브젝트가 검출된 이미지 프레임을 적층한 후, 적층값이 기준값을 초과하면 적층된 이미지 프레임들의 도로안전표지 오브젝트 ID, 세그먼트, 객체탐지영역(bounding box) 및 차선정보를 Queue 형태로 저장하여 외부서버로 제공하는 일련의 과정을 포함한다.More specifically, in the step S760, after confirming whether or not a road sign object has been detected and ID assigned in the n+1 th image frame from the object analyzer 140, the center of the n th image frame and the center of the n+1 th image frame After calculating the optimal value of the offset vector of , determining whether or not the road sign object is matched based on the optimal value of the offset vector, stacking image frames in which the same road sign object is detected, and then stacking the stacked value exceeds the reference value. The bottom includes a series of processes of storing the road safety sign object ID, segment, object detection area (bounding box) and lane information of the stacked image frames in the form of a queue and providing them to an external server.

따라서, 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법 및 시스템을 이용하면, 도로주행영상 내에 탐지되는 도로안전표지 오브젝트의 탐지영역을 세분화시켜 탐지오류를 최소화함으로써, 촬영된 교통안전표지의 식별력을 향상시킬 수 있고, 탐지오류정보를 조기에 발견할 수 있다는 이점을 제공한다.Therefore, using the traffic safety sign recognition/extraction method and system for generating a high-precision road map according to an embodiment of the present invention, by minimizing detection errors by subdividing the detection area of a road safety sign object detected in a road driving image, However, it can improve the discrimination of the photographed traffic safety signs, and provides the advantage of early detection of detection error information.

도 13은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시하는 도면으로, 상술한 하나 이상의 실시예를 구현하도록 구성된 컴퓨팅 디바이스(1100)를 포함하는 시스템(1000)의 예시를 도시한다. 예를 들어, 컴퓨팅 디바이스(1100)는 차량에 장착될 수 있으며, 개인 컴퓨터, 서버 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 모바일 디바이스(모바일폰, PDA, 미디어 플레이어 등), 멀티프로세서 시스템, 소비자 전자기기, 미니 컴퓨터, 메인프레임 컴퓨터, 임의의 전술된 시스템 또는 디바이스를 포함하는 분산 컴퓨팅 환경 등을 포함하지만, 이것으로 한정되는 것은 아니다.13 is a diagram illustrating an example computing environment in which one or more embodiments set forth herein may be implemented, an illustration of a system 1000 that includes a computing device 1100 configured to implement one or more embodiments described above. shows For example, computing device 1100 may be vehicle-mounted, a personal computer, server computer, handheld or laptop device, mobile device (mobile phone, PDA, media player, etc.), multiprocessor system, consumer electronic device, minicomputers, mainframe computers, distributed computing environments that include any of the foregoing systems or devices, and the like.

컴퓨팅 디바이스(1100)는 적어도 하나의 프로세싱 유닛(1110) 및 메모리(1120)를 포함할 수 있다. 여기서, 프로세싱 유닛(1110)은 예를 들어 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 주문형 반도체(Application Specific Integrated Circuit, ASIC), Field Programmable Gate Arrays(FPGA) 등을 포함할 수 있으며, 복수의 코어를 가질 수 있다. 메모리(1120)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있다. 또한, 컴퓨팅 디바이스(1100)는 추가적인 스토리지(1130)를 포함할 수 있다. 스토리지(1130)는 자기 스토리지, 광학 스토리지 등을 포함하지만 이것으로 한정되지 않는다. 스토리지(1130)에는 본 명세서에 개진된 하나 이상의 실시예를 구현하기 위한 컴퓨터 판독 가능한 명령이 저장될 수 있고, 운영 시스템, 애플리케이션 프로그램 등을 구현하기 위한 다른 컴퓨터 판독 가능한 명령도 저장될 수 있다. 스토리지(1130)에 저장된 컴퓨터 판독 가능한 명령은 프로세싱 유닛(1110)에 의해 실행되기 위해 메모리(1120)에 로딩될 수 있다. 또한, 컴퓨팅 디바이스(1100)는 입력 디바이스(들)(1140) 및 출력 디바이스(들)(1150)을 포함할 수 있다. Computing device 1100 may include at least one processing unit 1110 and memory 1120 . Here, the processing unit 1110 may include, for example, a central processing unit (CPU), a graphics processing unit (GPU), a microprocessor, an Application Specific Integrated Circuit (ASIC), a Field Programmable Gate Arrays (FPGA), and the like. and may have a plurality of cores. The memory 1120 may be volatile memory (eg, RAM, etc.), non-volatile memory (eg, ROM, flash memory, etc.), or a combination thereof. Additionally, computing device 1100 may include additional storage 1130 . Storage 1130 includes, but is not limited to, magnetic storage, optical storage, and the like. The storage 1130 may store computer readable instructions for implementing one or more embodiments disclosed herein, and may also store other computer readable instructions for implementing an operating system, application programs, and the like. Computer readable instructions stored in storage 1130 may be loaded into memory 1120 for execution by processing unit 1110 . Computing device 1100 can also include input device(s) 1140 and output device(s) 1150 .

여기서, 입력 디바이스(들)(1140)은 예를 들어 키보드, 마우스, 펜, 음성 입력 디바이스, 터치 입력 디바이스, 적외선 카메라, 비디오 입력 디바이스 또는 임의의 다른 입력 디바이스 등을 포함할 수 있다. 또한, 출력 디바이스(들)(1150)은 예를 들어 하나 이상의 디스플레이, 스피커, 프린터 또는 임의의 다른 출력 디바이스 등을 포함할 수 있다. 또한, 컴퓨팅 디바이스(1100)는 다른 컴퓨팅 디바이스에 구비된 입력 디바이스 또는 출력 디바이스를 입력 디바이스(들)(1140) 또는 출력 디바이스(들)(1150)로서 사용할 수도 있다. 또한, 컴퓨팅 디바이스(1100)는 컴퓨팅 디바이스(1100)가 다른 디바이스(예를 들어, 컴퓨팅 디바이스(1300))와 통신할 수 있게 하는 통신접속(들)(1160)을 포함할 수 있다. Here, input device(s) 1140 may include, for example, a keyboard, mouse, pen, voice input device, touch input device, infrared camera, video input device, or any other input device. Output device(s) 1150 may also include, for example, one or more displays, speakers, printers, or any other output devices, or the like. Additionally, computing device 1100 may use an input device or output device included in another computing device as input device(s) 1140 or output device(s) 1150 . Computing device 1100 may also include communication connection(s) 1160 that allow computing device 1100 to communicate with other devices (eg, computing device 1300).

여기서, 통신 접속(들)(1160)은 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송신기/수신기, 적외선 포트, USB 접속 또는 컴퓨팅 디바이스(1100)를 다른 컴퓨팅 디바이스에 접속시키기 위한 다른 인터페이스를 포함할 수 있다. 또한, 통신 접속(들)(1160)은 유선 접속 또는 무선 접속을 포함할 수 있다. 상술한 컴퓨팅 디바이스(1100)의 각 구성요소는 버스 등의 다양한 상호접속(예를 들어, 주변 구성요소 상호접속(PCI), USB, 펌웨어(IEEE 1394), 광학적 버스 구조 등)에 의해 접속될 수도 있고, 네트워크(1200)에 의해 상호접속 될 수도 있다. 본 명세서에서 사용되는 "구성요소", "시스템" 등과 같은 용어들은 일반적으로 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어, 또는 실행중인 소프트웨어인 컴퓨터 관련 엔티티를 지칭하는 것이다. Here, communication connection(s) 1160 may be a modem, network interface card (NIC), integrated network interface, radio frequency transmitter/receiver, infrared port, USB connection, or other device for connecting computing device 1100 to other computing devices. May contain interfaces. Further, communication connection(s) 1160 may include a wired connection or a wireless connection. Each component of the aforementioned computing device 1100 may be connected by various interconnections such as a bus (eg, peripheral component interconnection (PCI), USB, firmware (IEEE 1394), optical bus structure, etc.) and may be interconnected by the network 1200. Terms such as "component" and "system" as used herein generally refer to a computer-related entity that is hardware, a combination of hardware and software, software, or software in execution.

예를 들어, 구성요소는 프로세서상에서 실행중인 프로세스, 프로세서, 객체, 실행 가능물(executable), 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만, 이것으로 한정되는 것은 아니다. 예를 들어, 컨트롤러 상에서 구동중인 애플리케이션 및 컨트롤러 모두가 구성요소일 수 있다. 하나 이상의 구성요소는 프로세스 및/또는 실행의 스레드 내에 존재할 수 있으며, 구성요소는 하나의 컴퓨터상에서 로컬화될 수 있고, 둘 이상의 컴퓨터 사이에서 분산될 수도 있다.For example, a component may be, but is not limited to, a process running on a processor, a processor, an object, an executable, a thread of execution, a program, and/or a computer. For example, both the application running on the controller and the controller may be components. One or more components can reside within a process and/or thread of execution and a component can be localized on one computer or distributed between two or more computers.

본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다The present invention is not limited by the foregoing embodiments and accompanying drawings. It will be clear to those skilled in the art that the components according to the present invention can be substituted, modified, and changed without departing from the technical spirit of the present invention.

100: 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템
110: 입력부
120: 차선 검출부
130: 도로안전표지 오브젝트 검출부
140: 오브젝트 분석부
150: ID 할당부
160: 오브젝트 트랙킹부
100: Traffic safety sign recognition/extraction system for generating maps with precision
110: input unit
120: lane detection unit
130: road safety sign object detection unit
140: object analysis unit
150: ID allocation unit
160: object tracking unit

Claims (20)

도로주행영상을 입력받는 입력부;
도로주행영상의 이미지 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 정보를 분석 및 분류하는 차선 검출부;
서로 다른 탐지방식으로 이미지 객체를 탐지하는 적어도 2개 이상의 딥러닝 객체감지 알고리즘 각각의 탐지영역들을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 도로안전표지 오브젝트 검출부;
검출된 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 세부형상을 분석하는 오브젝트 분석부; 및
전/후 이미지 프레임 내에서 검출된 도로안전표지 오브젝트의 매칭유무를 비교판단한 후, 매칭되면 도로안전표지 오브젝트에 할당된 ID, 세부정보 차선정보를 Queue 형태로 제공하는 오브젝트 트랙킹부를 포함하고,
상기 오브젝트 트랙킹부는
상기 오브젝트 분석부로부터 제n+1 이미지 프레임 내에 도로표지 오브젝트 검출 유무 및 ID 할당 유무를 확인한 후, 제n 이미지 프레임의 중심과 제n+1 이미지 프레임의 중심의 오프셋 벡터의 최적값을 산출한 후, 오프셋 벡터의 최적값을 기초로 상기 도로표지 오브젝트의 매칭 유무를 판단하고,
동일한 도로안전표지 오브젝트가 검출된 이미지 프레임을 적층한 후, 적층값이 기준값을 초과하면 적층된 이미지 프레임들의 도로안전표지 오브젝트 ID, 세그먼트, 객체탐지영역 및 차선정보를 Queue 형태로 저장 및 전송하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
an input unit for receiving a road driving image;
a lane detection unit that detects a lane within an image frame of the road driving image using a deep learning algorithm, and then analyzes and classifies information of the detected lane;
After generating an integrated object detection area by merging and expanding the detection areas of each of at least two or more deep learning object detection algorithms that detect image objects with different detection methods, the lane is detected according to the preset detection area condition value a road safety sign object detector detecting a road safety sign object located in the integrated object detection area within an image frame;
an object analyzer that analyzes detailed shapes based on feature points extracted according to color, saturation, and brightness of the detected road safety sign object; and
An object tracking unit that compares and determines whether the road safety sign objects detected in the front and rear image frames are matched, and if matched, provides the ID assigned to the road safety sign object and detailed lane information in the form of a queue,
The object tracking unit
After confirming whether or not a road sign object has been detected and assigned an ID in the n+1 th image frame from the object analyzer, an optimal value of an offset vector between the center of the n th image frame and the center of the n+1 th image frame is calculated. , determining whether or not the road sign object is matched based on the optimum value of the offset vector,
Accuracy of storing and transmitting the road safety sign object ID, segment, object detection area, and lane information of the stacked image frames in a queue form after stacking image frames in which the same road safety sign object is detected and the stacking value exceeds the reference value Traffic safety sign recognition/extraction system for log map creation.
제1항에 있어서,
상기 이미지 프레임 내에서 검출된 도로안전표지 오브젝트를 식별하기 위한 검출 ID를 이미지 프레임에 할당하는 검출 ID 할당부를 더 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
According to claim 1,
The traffic safety sign recognition/extraction system for generating a map with precision, further comprising a detection ID allocator for allocating a detection ID for identifying the road safety sign object detected in the image frame to the image frame.
삭제delete 제1항에 있어서,
상기 차선 검출부는
딥러닝 알고리즘을 이용하여 차선을 검출한 후, 검출된 차선들 간의 노면표지 및 평균넓이로부터 상기 차선을 점선, 실선, 전용차선 및 중앙선 중 어느 하나로 분류하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
According to claim 1,
The lane detection unit
After detecting lanes using a deep learning algorithm, traffic safety sign recognition/recognition for generating maps with precision classifying the lanes into one of dotted lines, solid lines, exclusive lanes, and center lines from the road surface and average width between the detected lanes extraction system.
제1항에 있어서,
상기 오브젝트 검출부는
상기 적어도 2개 이상의 딥러닝 객체감지 알고리즘 각각의 객체탐지영역을 오버랩하여 기 설정된 오버랩 수치를 초과하는 상기 통합객체탐지영역을 생성하는 객체탐지영역 조정부를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
According to claim 1,
The object detection unit
Traffic safety sign recognition for precision map creation including an object detection area adjustment unit that overlaps the object detection area of each of the at least two deep learning object detection algorithms to generate the integrated object detection area exceeding a preset overlap value /extract system.
제5항에 있어서,
상기 오브젝트 검출부는
상기 통합객체탐지영역 내에 검출된 도로안전표지 오브젝트의 식별유무를 기 설정된 탐지영역 조건값으로 필터링하는 객체탐지영역 필터링부를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
According to claim 5,
The object detection unit
A traffic safety sign recognition/extraction system for generating a high-precision map including an object detection area filtering unit for filtering the presence or absence of identification of road safety sign objects detected in the integrated object detection area with a preset detection area condition value.
제6항에 있어서,
상기 기 설정된 탐지영역 조건값은
상기 도로안전표지 오브젝트의 검출 위치에 대한 영역 값이고, 상기 영역 값은 노면 표지 영역, 중앙선 좌측 영역, 연석우측 영역을 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
According to claim 6,
The preset detection area condition value is
An area value for a detection position of the road safety sign object, wherein the area value includes a road surface area, a left area of a center line, and a right curb area.
제5항에 있어서,
상기 오브젝트 검출부는
상기 적어도 2개 이상의 딥러닝 객체감지 알고리즘 각각의 객체탐지영역을 오버랩한 수치가, 상기 기 설정된 오버랩 수치보다 작을 경우,
상기 적어도 2개 이상의 딥러닝 객체감지 알고리즘 중 검출 정확도가 높은 딥러닝 객체감지 알고리즘으로 상기 도로안전표지 오브젝트를 검출하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
According to claim 5,
The object detection unit
When the value obtained by overlapping the object detection area of each of the at least two or more deep learning object detection algorithms is smaller than the preset overlap value,
A traffic safety sign recognition/extraction system for generating maps with precision for detecting the road safety sign object with a deep learning object detection algorithm having high detection accuracy among the at least two or more deep learning object detection algorithms.
제1항에 있어서,
상기 오브젝트 분석부는
상기 오브젝트 검출부에서 검출된 도로안전표지 오브젝트의 윤곽선을 추출한 후, 상기 윤곽선의 특징점의 위치를 기초로 상기 도로안전표지 오브젝트의 형상 및 컬러 중 적어도 하나 이상을 분석하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
According to claim 1,
The object analysis unit
After extracting the outline of the road safety sign object detected by the object detection unit, based on the location of feature points of the outline, at least one of the shape and color of the road safety sign object is analyzed to create a traffic safety sign for map generation with precision. Recognition/extraction system.
삭제delete 삭제delete 도로주행영상의 이미지 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 정보를 분석 및 분류하는 단계;
적어도 2개 이상의 딥러닝 객체감지 알고리즘의 객체탐지영역을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 단계;
검출된 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 도로안전표지 오브젝트의 이미지를 분석하는 단계;
상기 이미지 프레임 내에서 검출된 도로안전표지 오브젝트를 식별하기 위한 검출 ID를 이미지 프레임에 할당하는 단계 및
전/후 이미지 프레임 내에서 검출된 도로안전표지 오브젝트의 매칭유무를 비교판단한 후, 매칭되면 도로안전표지 오브젝트에 할당된 ID, 세부정보 차선정보를 Queue 형태로 제공하는 단계를 포함하고,
상기 Queue 형태로 제공하는 단계는
동일한 도로안전표지 오브젝트가 검출된 이미지 프레임을 적층한 후, 적층값이 기준값을 초과하면 적층된 이미지 프레임들의 도로안전표지 오브젝트 ID, 세그먼트, 객체탐지영역 및 차선정보를 Queue 형태로 저장 및 전송하는 단계인 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
After detecting lanes within the image frame of the road driving image using a deep learning algorithm, analyzing and classifying information on the detected lanes;
After creating an integrated object detection area by merging and extending the object detection areas of at least two or more deep learning object detection algorithms, the integrated object detection area is detected in the image frame in which the lane is detected according to the preset detection area condition value. Detecting a road safety sign object located thereon;
Analyzing an image of a road safety sign object based on feature points extracted according to color, saturation, and brightness of the detected road safety sign object;
Allocating a detection ID for identifying a road safety sign object detected in the image frame to an image frame; and
Comparing and judging the matching of the road safety sign objects detected in the front and back image frames, and then providing the ID assigned to the road safety sign object and detailed lane information in the form of a queue when matching,
The step of providing in the form of a queue
After stacking the image frames in which the same road safety sign object is detected, storing and transmitting the road safety sign object ID, segment, object detection area, and lane information of the stacked image frames in a queue form when the stacking value exceeds the reference value Traffic safety sign recognition/extraction method for map generation with phosphorus precision.
제12항에 있어서,
상기 탐지된 차선의 정보를 분석 및 분류하는 단계는
상기 딥러닝 알고리즘을 이용하여 차선을 검출한 후, 검출된 차선들 간의 노면표지 및 평균넓이로부터 상기 차선을 점선, 실선, 전용차선 및 중앙선 중 어느 하나로 분류하는 단계인, 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
According to claim 12,
Analyzing and classifying the information of the detected lane
After detecting the lane using the deep learning algorithm, traffic for generating a precision road map is a step of classifying the lane into one of a dotted line, a solid line, an exclusive lane, and a center line from the road surface and average width between the detected lanes. Safety mark recognition/extraction method.
제12항에 있어서,
상기 도로안전표지 오브젝트를 검출하는 단계는
상기 적어도 2개 이상의 객체감지 알고리즘 각각의 객체탐지영역을 오버랩하여 기 설정된 오버랩 수치를 초과하는 상기 통합객체탐지영역을 생성하는 단계를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
According to claim 12,
Detecting the road safety sign object
A method of recognizing/extracting traffic safety signs for generating maps with precision, comprising overlapping the object detection areas of each of the at least two or more object detection algorithms to generate the integrated object detection area exceeding a preset overlap value.
제14항에 있어서,
상기 도로안전표지 오브젝트를 검출하는 단계는
상기 통합객체탐지영역 내에 검출된 도로안전표지 오브젝트의 식별유무를 기 설정된 탐지영역 조건값으로 필터링하는 단계를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
According to claim 14,
Detecting the road safety sign object
A method for recognizing/extracting traffic safety signs for generating maps with precision, comprising the step of filtering the identification of road safety sign objects detected in the integrated object detection area with a preset detection area condition value.
제15항에 있어서,
상기 기 설정된 탐지영역 조건값은
상기 도로안전표지 오브젝트의 검출 위치에 대한 영역 값이고, 상기 영역 값은 노면 표지 영역, 중앙선 좌측 영역, 연석우측 영역을 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
According to claim 15,
The preset detection area condition value is
An area value for a detection position of the road safety sign object, wherein the area value includes a road surface area, a left area of a center line, and a right curb area.
제12항에 있어서,
상기 도로안전표지 오브젝트를 검출하는 단계는
상기 적어도 2개 이상의 딥러닝 객체감지 알고리즘 각각의 객체탐지영역을 오버랩한 수치가, 상기 기 설정된 오버랩 수치보다 작을 경우,
상기 적어도 2개 이상의 딥러닝 객체감지 알고리즘 중 검출 정확도가 높은 딥러닝 객체감지 알고리즘으로 상기 도로안전표지 오브젝트를 검출하는 단계를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
According to claim 12,
Detecting the road safety sign object
When the value obtained by overlapping the object detection area of each of the at least two or more deep learning object detection algorithms is smaller than the preset overlap value,
Detecting the road safety sign object with a deep learning object detection algorithm having high detection accuracy among the at least two deep learning object detection algorithms.
제12항에 있어서,
상기 도로안전표지 오브젝트의 이미지를 분석하는 단계는
검출된 도로안전표지 오브젝트의 윤곽선을 추출한 후, 상기 윤곽선의 특징점의 위치를 기초로 상기 도로안전표지 오브젝트의 형상 및 컬러 중 적어도 하나 이상을 분석하는 단계를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
According to claim 12,
Analyzing the image of the road safety sign object
After extracting the contour of the detected road safety mark object, based on the position of feature points of the contour, at least one of the shape and color of the road safety mark object is analyzed for a traffic safety sign for generating a map with precision. Recognition/extraction method.
제12항에 있어서,
상기 도로안전표지 오브젝트의 매칭유무를 비교판단하는 단계는
오브젝트 분석부로부터 제n+1 이미지 프레임 내에 도로표지 오브젝트 검출 유무 및 ID 할당 유무를 확인한 후, 제n 이미지 프레임의 중심과 제n+1 이미지 프레임의 중심의 오프셋 벡터의 최적값을 산출한 후, 오프셋 벡터의 최적값을 기초로 상기 도로표지 오브젝트의 매칭 유무를 판단하는 단계인 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
According to claim 12,
The step of comparing and determining the matching of the road safety sign object
After confirming whether or not a road sign object is detected and assigned an ID in the n+1 th image frame from the object analyzer, an optimal value of an offset vector between the center of the n th image frame and the center of the n+1 th image frame is calculated, A traffic safety sign recognition/extraction method for generating a map with precision, which is a step of determining whether the road sign object matches on the basis of an optimal value of an offset vector.
삭제delete
KR1020200166245A 2020-12-02 2020-12-02 system and method for recognizing and extracting traffic safety signs for generating precision road maps Active KR102482427B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200166245A KR102482427B1 (en) 2020-12-02 2020-12-02 system and method for recognizing and extracting traffic safety signs for generating precision road maps

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200166245A KR102482427B1 (en) 2020-12-02 2020-12-02 system and method for recognizing and extracting traffic safety signs for generating precision road maps

Publications (2)

Publication Number Publication Date
KR20220077370A KR20220077370A (en) 2022-06-09
KR102482427B1 true KR102482427B1 (en) 2022-12-29

Family

ID=81985921

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200166245A Active KR102482427B1 (en) 2020-12-02 2020-12-02 system and method for recognizing and extracting traffic safety signs for generating precision road maps

Country Status (1)

Country Link
KR (1) KR102482427B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116740674B (en) * 2023-05-30 2025-09-26 西安理工大学 Traffic sign detection method based on normalized attention mechanism YOLOv7

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102031503B1 (en) * 2018-11-23 2019-11-08 유니셈(주) Method and system for detecting multi-object

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090055848A (en) * 2007-11-29 2009-06-03 한국전자통신연구원 Traffic light recognition device and method
KR101199959B1 (en) 2011-09-09 2012-11-12 이엔지정보기술 주식회사 System for reconnizaing road sign board of image
KR101992398B1 (en) * 2017-11-10 2019-06-24 연세대학교 산학협력단 Method and Apparatus for Recognizing Road Symbols and Lanes

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102031503B1 (en) * 2018-11-23 2019-11-08 유니셈(주) Method and system for detecting multi-object

Also Published As

Publication number Publication date
KR20220077370A (en) 2022-06-09

Similar Documents

Publication Publication Date Title
US12374126B2 (en) Obstacle detection method and apparatus, computer device, and storage medium
US10319096B2 (en) Automated tattoo recognition techniques
CN107330376B (en) Lane line identification method and system
KR101992398B1 (en) Method and Apparatus for Recognizing Road Symbols and Lanes
US10290219B2 (en) Machine vision-based method and system for aircraft docking guidance and aircraft type identification
EP2811423B1 (en) Method and apparatus for detecting target
CN104778721B (en) The distance measurement method of conspicuousness target in a kind of binocular image
CN107506760B (en) Traffic signal detection method and system based on GPS positioning and visual image processing
US7920721B2 (en) Vehicle-use image processing system, vehicle-use image processing method, vehicle-use image processing program, vehicle, and method of formulating vehicle-use image processing system
EP3876189A1 (en) Geographic object detection device, geographic object detection method, and geographic object detection program
CN110502983B (en) Method and device for detecting obstacles in expressway and computer equipment
CN110502982B (en) Method and device for detecting obstacles in expressway and computer equipment
US10552706B2 (en) Attachable matter detection apparatus and attachable matter detection method
CN109002795A (en) Method for detecting lane lines, device and electronic equipment
Tian et al. A two-stage character segmentation method for Chinese license plate
CN114299247B (en) Road traffic signs and markings rapid detection and troubleshooting methods
US11145089B2 (en) Method for measuring antenna downtilt based on multi-scale detection algorithm
CN114331986A (en) A method of dam crack identification and measurement based on unmanned aerial vehicle vision
CN106803066B (en) Vehicle yaw angle determination method based on Hough transformation
CN111149131A (en) Area marking line recognition device
KR101294347B1 (en) Mehtod for brick path recognition using image shape pattern and texture feature
EP4235576B1 (en) Aircraft steering angle determination
CN112927283A (en) Distance measuring method and device, storage medium and electronic equipment
KR101461108B1 (en) Recognition device, vehicle model recognition apparatus and method
KR102482427B1 (en) system and method for recognizing and extracting traffic safety signs for generating precision road maps

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000