[go: up one dir, main page]

WO2018101526A1 - Method for detecting road region and lane by using lidar data, and system therefor - Google Patents

Method for detecting road region and lane by using lidar data, and system therefor Download PDF

Info

Publication number
WO2018101526A1
WO2018101526A1 PCT/KR2016/014565 KR2016014565W WO2018101526A1 WO 2018101526 A1 WO2018101526 A1 WO 2018101526A1 KR 2016014565 W KR2016014565 W KR 2016014565W WO 2018101526 A1 WO2018101526 A1 WO 2018101526A1
Authority
WO
WIPO (PCT)
Prior art keywords
lidar
lane
vehicle
points
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2016/014565
Other languages
French (fr)
Korean (ko)
Inventor
정지영
김남일
민재식
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Corp
Original Assignee
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naver Corp filed Critical Naver Corp
Publication of WO2018101526A1 publication Critical patent/WO2018101526A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/076Slope angle of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/15Road slope, i.e. the inclination of a road segment in the longitudinal direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/35Road bumpiness, e.g. potholes

Definitions

  • the following description relates to a technology for detecting a road area and a lane in which a vehicle can travel.
  • a lane detection method may be classified into a model-based, feature point-based, and area-based detection method.
  • Korean Patent Laid-Open Publication No. 10-2011-0046607 (published May 06, 2011) uses a HSV color model and an edge model to extract a lane feature from a camera image and then extracts a bay from the lane feature.
  • a technique for detecting a lane through a decision rule is disclosed.
  • a method and system that can accurately detect lanes on a driveable area of a road using lidar data.
  • a computer-implemented method comprising the steps of: acquiring point-type lidar data from a multichannel lidar sensor mounted on a vehicle; And detecting a road area in which the vehicle may travel using the inclination of the lidar point between neighboring channels at the lidar point acquired from the multi-channel lidar sensor.
  • the acquiring may include acquiring a lidar point of a radial form according to an omnidirectional scan through the multichannel lidar sensor.
  • the detecting of the road area may include: calculating an inclination of a lidar point between neighboring channels for each scan angle of the multichannel lidar sensor; And detecting the road area by classifying a rider point having the slope less than or equal to a predetermined threshold value.
  • the step of calculating the inclination it is possible to calculate the inclination of the lidar point between the neighboring channels in a direction away from the vehicle from the lidar point scanning the closest to the vehicle.
  • the threshold value may be set according to a road surface requirement including a shape of a road or irregularities.
  • the method may further include detecting a lane in the road area by using the reflection intensity of a lidar point included in the road area.
  • the detecting of the lane may detect the lane by classifying a lidar point having a reflection intensity of a predetermined value or more among the lidar points included in the road area.
  • the detecting of the lane may include: classifying a lidar point having a reflection intensity of a predetermined value or more among lidar points included in the road area; Setting a straight line parameter based on the position and driving direction of the vehicle; And classifying a lidar point included in a line of the parameter or located within a set range among the classified lidar points into a lane area.
  • the setting of the straight line parameter may include: setting a straight line parameter corresponding to a driving direction of the vehicle as an initial value on both sides of a lane width based on the position of the vehicle; And updating the straight line parameter by using a Lidar point classified into the lane area.
  • the method may further include calculating and providing a Lidar point detected as the lane as a coordinate value to be displayed on a map.
  • the road area and lane detection method is obtained from a multichannel lidar sensor mounted on a vehicle.
  • Acquiring LiDAR data in the form of points Detecting a road area in which the vehicle can travel using the inclination of the rider points between neighboring channels at the rider points acquired from the multichannel rider sensors; And detecting a lane on the corresponding road area by classifying a rider point corresponding to a linear parameter set based on the position and driving direction of the vehicle among the rider points included in the road area. do.
  • a computer-implemented system comprising: at least one processor configured to execute computer-readable instructions, the at least one processor being configured to perform an omni-directional scan from a multichannel lidar sensor mounted on a vehicle.
  • a rider data acquisition unit for obtaining rider data in the form of points;
  • a road area detector configured to detect a road area in which the vehicle may travel by using an inclination of a rider point between neighboring channels at a rider point obtained from the multichannel rider sensor.
  • the slope or partial loss of the road itself is detected by detecting the road region based on the inclination between points using LiDAR data, instead of simply detecting the road region satisfying the plane condition.
  • the driving area on the road can be more robustly detected.
  • the lane is classified in the lane capable of driving on the road by classifying the lidar data on the road included in the straight line into lanes. It can be accurately distinguished from other road surface markings such as arrows, crosswalks, crosswalk notices, stop lines, and the like.
  • FIG. 1 is a block diagram illustrating an example of an internal configuration of a computer system according to an embodiment of the present invention.
  • FIG. 2 illustrates an example of components that may be included in a processor of a computer system according to an exemplary embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating an example of a road area and a lane detection method which may be performed by a computer system according to an exemplary embodiment of the present invention.
  • FIG. 4 illustrates an example of a multichannel lidar sensor in one embodiment of the present invention.
  • FIG. 5 is an exemplary diagram for describing a process of classifying a road area that may be driven according to an embodiment of the present invention.
  • FIG. 6 is an exemplary diagram for describing a process of classifying road markings according to an exemplary embodiment of the present invention.
  • FIG. 7 is an exemplary diagram for describing a process of classifying a lane among road markings according to an exemplary embodiment of the present invention.
  • Embodiments of the present invention relate to a technique for detecting a road area and a lane capable of driving a vehicle using lidar data.
  • Embodiments can achieve accurate road area and lane detection using lidar data, thereby achieving significant advantages in terms of accuracy, efficiency, speed, cost savings, and the like. .
  • FIG. 1 is a block diagram illustrating an example of an internal configuration of a computer system according to an embodiment of the present invention.
  • a road area and lane detection system may be implemented through the computer system 100 of FIG. 1.
  • the computer system 100 is a processor 110, a memory 120, a permanent storage device 130, a bus 140, and input / output as components for executing a road area and lane detection method. It may include an interface 150 and a network interface 160.
  • the processor 110 may include or be part of any device capable of processing a sequence of instructions as a component for detecting a road area and lane capable of driving using lidar data.
  • Processor 110 may include, for example, a processor within a computer processor, mobile device or other electronic device, and / or a digital processor.
  • the processor 110 may be included in, for example, a server computing device, a server computer, a series of server computers, a server farm, a cloud computer, a content platform, and the like.
  • the processor 110 may be connected to the memory 120 through the bus 140.
  • Memory 120 may include volatile memory, permanent, virtual, or other memory for storing information used by or output by computer system 100.
  • the memory 120 may include, for example, random access memory (RAM) and / or dynamic RAM (DRAM).
  • RAM random access memory
  • DRAM dynamic RAM
  • Memory 120 may be used to store any information, such as status information of computer system 100.
  • the memory 120 may also be used to store instructions of the computer system 100, including, for example, instructions for detecting a driveable area of a road and a lane.
  • Computer system 100 may include one or more processors 110 as needed or where appropriate.
  • Bus 140 may include a communication infrastructure that enables interaction between various components of computer system 100.
  • Bus 140 may carry data, for example, between components of computer system 100, for example, between processor 110 and memory 120.
  • Bus 140 may include wireless and / or wired communication media between components of computer system 100 and may include parallel, serial, or other topology arrangements.
  • Persistent storage 130 is a component, such as a memory or other persistent storage, such as used by computer system 100 to store data for some extended period of time (eg, relative to memory 120). Can include them. Persistent storage 130 may include non-volatile main memory as used by processor 110 in computer system 100. Persistent storage 130 may include, for example, flash memory, hard disk, optical disk, or other computer readable medium.
  • the input / output interface 150 may include interfaces for a keyboard, mouse, voice command input, display, or other input or output device. Configuration commands and / or inputs for road area and lane detection may be received via the input / output interface 150.
  • Network interface 160 may include one or more interfaces to networks such as a local area network or the Internet.
  • Network interface 160 may include interfaces for wired or wireless connections. Configuration commands and / or input for road area and lane detection may be received via network interface 160.
  • computer system 100 may include more components than the components of FIG. 1. However, it is not necessary to clearly show most of the prior art components.
  • the computer system 100 may be implemented to include at least some of the input / output devices connected to the input / output interface 150 described above, or may include a transceiver, a global positioning system (GPS) module, a camera, various sensors, It may further include other components such as a database.
  • GPS global positioning system
  • Embodiments of the present invention relate to a technology for detecting a road area and a lane that can be driven using LiDAR data, which may be applied to a vehicle driving assistance system such as free driving or unmanned driving, but is not limited thereto.
  • FIG. 2 is a diagram illustrating an example of components that may be included in a processor of a computer system according to an embodiment of the present invention
  • FIG. 3 is a road area that may be performed by the computer system according to an embodiment of the present invention.
  • an example of a lane detection method is also included in a processor of a computer system according to an embodiment of the present invention.
  • the processor 110 may include a LiDAR data acquisition unit 210, a road area detection unit 220, a lane detection unit 230, and a lane coordinate providing unit 240.
  • the components of such a processor 110 may be representations of different functions performed by the processor 110 in accordance with a control instruction provided by at least one program code.
  • the lidar data acquisition unit 210 can be used as a functional representation that the processor 110 operates to control the computer system 100 to acquire lidar data.
  • the processor 110 and the components of the processor 110 may perform steps S310 to S350 included in the road area and lane detection method of FIG. 3.
  • the processor 110 and the components of the processor 110 may be implemented to execute instructions according to the code of the operating system included in the memory 120 and the at least one program code described above.
  • the at least one program code may correspond to a code of a program implemented to process the road area and the lane detection method.
  • the road area and lane detection methods may not occur in the order shown, and some of the steps may be omitted or additional processes may be included.
  • the processor 110 may load program code stored in a program file for a road area and a lane detection method, into the memory 120.
  • the program file for the road area and the lane detection method may be stored in the persistent storage 130 described with reference to FIG. 1, and the processor 110 may store the program stored in the persistent storage 130 through a bus.
  • Computer system 110 may be controlled such that program code from a file is loaded into memory 120.
  • each of the processor 110 and the lidar data acquisition unit 210, the road area detection unit 220, the lane detection unit 230, and the lane coordinate providing unit 240 included in the memory 120 is included in the memory 120.
  • processor 110 may be different functional representations of the processor 110 for executing instructions of a corresponding portion of the program code loaded in to execute subsequent steps S320 to S350.
  • the processor 110 and the components of the processor 110 may directly process an operation according to a control command or control the computer system 100.
  • the lidar data acquisition unit 210 performs a point-type lidar data according to an omnidirectional scan around the vehicle from the multichannel lidar sensor through a wired or wireless connection with the multichannel lidar sensor mounted in the vehicle. (Hereinafter referred to as 'lidar point') can be obtained.
  • the lidar data acquisition unit 210 may control a multi-channel lidar sensor having a scan angle of 360 degrees to acquire a lidar point according to the omnidirectional scan.
  • the lidar point may include a value indicating a distance from the lidar sensor and a value indicating the reflection intensity.
  • the multi-channel lidar sensor used in the present invention, laser scanners as many as the number of channels are arranged in a line in the up and down direction to shoot light and return the light to measure distance and reflection intensity for each channel.
  • the multi-channel lidar sensor has a mirror that reflects light in the sensor for omnidirectional scanning, so that the mirror rotates 360 degrees to measure the distance and reflection intensity of the omnidirectional surrounding the vehicle.
  • the lidar data acquisition unit 210 may acquire lidar points having the same scan angle at the same time as the number of channels. As the mirror rotates within the sensor, ie the scanning angle changes, the LiDa points accumulate at a high rate.
  • the degree of denseness of the scan angle is different for each lidar sensor.
  • the lidar data is used.
  • the acquisition unit 210 may acquire 32 LiDa points in units of 1.33 degrees through the multi-channel LiDAR sensor 40.
  • the lidar points acquired through 32 channels while the mirror rotates 360 degrees in the multi-channel lidar sensor 40 form a radial shape according to the omnidirectional scan around the sensor position.
  • the road area detection unit 220 has a rider point having an inclination less than or equal to a threshold value based on the inclination of the rider points between neighboring channels at the rider point acquired from the multichannel rider sensor.
  • a threshold value based on the inclination of the rider points between neighboring channels at the rider point acquired from the multichannel rider sensor.
  • the road area detector 220 may calculate the inclination between the lidar points scanned in the neighboring channels for the same point in time and the same scan angle among the lidar points in order to calculate the inclination between the lidar points in a radial form.
  • the road area detection unit 220 calculates the inclination of the rider points between neighboring channels from the rider point nearest to the position of the rider sensor, and the rider points between neighboring channels from the position of the rider sensor.
  • the road region may be classified to a point before the slope of the crossover exceeds a predetermined threshold value.
  • the road area detection unit 220 may classify the road area for 360 degrees by repeating the above method for each scan angle.
  • FIG. 5 is an exemplary diagram for describing a process of classifying a road area according to an embodiment of the present invention. Assuming that the vehicle 50 equipped with the multi-channel lidar sensor is currently located on the road, the lidar points in the radial form according to the 360-degree omnidirectional scan about the vehicle 50 through the multi-channel lidar sensor 501 can be obtained.
  • a threshold value which is a criterion for classifying road areas, may be set in consideration of road requirements such as the shape of a road and general unevenness.
  • the road area detector 220 calculates the inclination of the lidar point X between neighboring channels at the same scan angle 51, and when the inclination exceeds a specific threshold, the scan angle 51. ) Can be classified into the road area 503 from the position of the vehicle 50 to the lidar point just before the threshold is exceeded, and this process is repeated for each scan angle to form the road area for 360 degrees. Can be classified.
  • the inclination between the points is calculated in a radial form around the sensor position (that is, the vehicle), and when the distribution of the points is maintained below a specific inclination, it may be classified as a road area that can be driven.
  • This method still classifies some of the irregularities caused by the convex shape of a typical road or partial breakage or renovation into the road area, but it can be classified as a low but abrupt slope change point such as a road curb, a road divider, a sight bar, or a parked area. After the point where obstacles such as other vehicles are located, it is possible to effectively classify the non-driving area.
  • the lane detection unit 230 classifies the rider points corresponding to the linear parameters set based on the position and the driving direction of the vehicle among the rider points classified as the road areas in step S340. Lanes can be detected.
  • the lidar point may include a value indicating a reflection intensity, together with a value indicating a distance to the multichannel lidar sensor.
  • Various road markings such as direction arrows, crosswalks, pedestrian crossing notices, stop lines, etc., including lanes in the road area are made by painting with paint, and the paint on the road markings has a certain intensity of reflection over the lidar. do.
  • 6 to 7 are exemplary diagrams for describing a process of detecting a lane according to an embodiment of the present invention.
  • the lane detection unit 230 includes a rider point corresponding to a road surface display of rider points 605 having a reflection intensity of a predetermined value or more, among the rider points classified as the road area 503. Can be classified as
  • the lane detecting unit 230 first classifies the position of the current lidar sensor, that is, the vehicle 50, in order to classify the lidar point corresponding to the lane among the lidar points 605 corresponding to the road surface display, as shown in FIG. 7.
  • the straight line parameter 707 extending in the driving direction of the vehicle 50 may be set as an initial value at both sides of the standard space to the lane width of the standard.
  • the lane detector 230 may classify the lidar points included in the line of the linear parameter 707 among the lidar points 605 corresponding to the road surface display or located within a predetermined range as the lane area.
  • the lane detection unit 230 may update the straight line parameter 707 by using a Lidar point classified into the lane area.
  • the lane detection unit 230 may repeatedly apply an prediction-maximization algorithm that updates the linear parameter 707 with a newly found lidar point in the lane area.
  • the surrounding environment of the vehicle 50 changes as the vehicle 50 travels until the omnidirectional scan of the next cycle is made, and since the position of the lane is likely to be similar to the previous position, the lidar data included in the previous straight line parameter is included. Repeat the classification and update of straight line parameters. Using this method, even if the vehicle 50 changes lanes while driving, the lanes may be continuously detected based on the updated straight line parameters while continuously updating the straight line parameters as the reference for lane detection. According to the performance of the lidar sensor, it is possible to stably classify four lanes corresponding to three lanes at a time, and since the parameter update occurs frequently in the scan area close to the lidar sensor, processing for the curved lane is not necessary. .
  • the lane coordinate providing unit 240 may calculate coordinates corresponding to Lidar points classified as lanes and provide them as coordinate values for lane marking on a map.
  • the lane coordinate providing unit 240 may store LiDAR points classified into lane areas based on a straight line parameter and calculate points connecting them at regular intervals, and calculate GPS coordinates corresponding to the calculated points. Can be specified as a coordinate value for lane marking on the map.
  • the lane coordinate providing unit 240 may calculate and provide a point divided into lanes as a set of GPS coordinate points to be expressed as a lane on the map.
  • the road area may be detected by detecting the road area based on the inclination between points using lidar data, instead of simply detecting the road area satisfying the plane condition.
  • the roadside area can be detected more robustly.
  • the lidar data on the road included in the straight line is classified as a lane, and the lane in the available area on the road. Can be accurately distinguished from other road surface markings such as directional arrows, crosswalks, crosswalk notices, stop lines, and the like.
  • the apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components.
  • the devices and components described in the embodiments may include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable PLU (programmable). It can be implemented using one or more general purpose or special purpose computers, such as logic units, microprocessors, or any other device capable of executing and responding to instructions.
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
  • OS operating system
  • the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
  • processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include.
  • the processing device may include a plurality of processors or one processor and one controller.
  • other processing configurations are possible, such as parallel processors.
  • the software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device.
  • Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. It can be embodied in.
  • the software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner.
  • Software and data may be stored on one or more computer readable recording media.
  • the method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the medium may be to continuously store a program executable by the computer, or to temporarily store for execution or download.
  • the medium may be a variety of recording means or storage means in the form of a single or several hardware combined, not limited to a medium directly connected to any computer system, it may be distributed on the network. Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And ROM, RAM, flash memory, and the like, configured to store program instructions.
  • examples of another medium may include a recording medium or a storage medium managed by an app store that distributes an application, a site that supplies or distributes various software, a server, or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

A method for detecting a road region and a lane by using lidar data, and a system therefor are disclosed. Provided is a method implemented by a computer, comprising the steps of: obtaining point type lidar data from a multi-channel lidar sensor mounted on a vehicle; and detecting a road region in which the vehicle can travel, by using a gradient of a lidar point between neighboring channels in a lidar point obtained from the multi-channel lidar sensor.

Description

라이다 데이터를 이용하여 도로 영역과 차선을 검출하는 방법 및 그 시스템Method and system for detecting road area and lane using lidar data

아래의 설명은 차량의 주행이 가능한 도로 영역과 차선을 검출하는 기술에 관한 것이다.The following description relates to a technology for detecting a road area and a lane in which a vehicle can travel.

최근에는 자유 주행, 무인 주행 등의 차량 운전 보조 시스템이 연구 및 개발되고 있다. 따라서, 차량 운전 보조 시스템을 위해 도로에 그려진 차선을 검출할 필요가 있으며 이에 대한 다양한 방법들이 함께 연구되고 있다.Recently, vehicle driving assistance systems such as free running and unmanned driving have been researched and developed. Therefore, there is a need to detect a lane drawn on a road for a vehicle driving assistance system, and various methods have been studied together.

종래의 경우 차선을 검출하는 방법은 모델 기반, 특징점 기반, 영역 기반의 검출 방식으로 분류가 가능하다. 차선 검출 기술의 일례로, 한국 공개특허공보 제10-2011-0046607호(공개일 2011년 05월 06일)에는 HSV 색상 모델과 에지 모델을 이용하여 카메라 영상에서 차선 특징을 추출한 후 차선 특징으로부터 베이즈 결정 규칙을 통해 차선을 검출하는 기술이 개시되어 있다.In the conventional case, a lane detection method may be classified into a model-based, feature point-based, and area-based detection method. As an example of lane detection technology, Korean Patent Laid-Open Publication No. 10-2011-0046607 (published May 06, 2011) uses a HSV color model and an edge model to extract a lane feature from a camera image and then extracts a bay from the lane feature. A technique for detecting a lane through a decision rule is disclosed.

기존에는 카메라 영상에서 차선을 검출하기 위해서는 여러 단계의 복잡한 영상 처리를 수행해야 하며 비교적 많은 처리 절차에 따라 연산 시간이 많이 소요되는 단점이 있다. 또한, 카메라의 경우 빛이 존재하지 않는 어두운 환경과 빛이 매우 강한 환경 모두에서 장애물의 유무와 종류 등 어떠한 데이터도 획득할 수 없기 때문에 외부 환경 조건에 따라 차선 검출이 어려운 문제가 있다.Conventionally, in order to detect a lane in a camera image, a complicated image processing of several steps must be performed, and computational time is required according to a relatively large number of processing procedures. In addition, since the camera cannot acquire any data such as the presence and type of obstacles in both a dark environment where light does not exist and a very strong light environment, lane detection is difficult according to external environmental conditions.

이에, 최근에는 라이다(lidar, laser radar) 데이터를 기반으로 한 차선 검출 기술에 대한 연구가 진행되고 있다.Recently, research on lane detection technology based on lidar (laser radar) data has been conducted.

라이다 데이터를 이용하여 도로의 실질적인 주행 가능 영역을 정확하게 검출할 수 있는 방법 및 시스템을 제공한다.Provided are methods and systems that can accurately detect a substantial driveable area of a roadway using lidar data.

라이다 데이터를 이용하여 도로의 주행 가능 영역 상의 차선을 정확하게 검출할 수 있는 방법 및 시스템을 제공한다.Provided is a method and system that can accurately detect lanes on a driveable area of a road using lidar data.

컴퓨터로 구현되는 방법에 있어서, 차량에 탑재된 다채널 라이다(lidar) 센서로부터 포인트 형태의 라이다 데이터를 취득하는 단계; 및 상기 다채널 라이다 센서로부터 취득한 라이다 포인트에서 이웃하는 채널 간의 라이다 포인트의 경사도를 이용하여 상기 차량이 주행 가능한 도로 영역을 검출하는 단계를 포함하는 방법을 제공한다.A computer-implemented method comprising the steps of: acquiring point-type lidar data from a multichannel lidar sensor mounted on a vehicle; And detecting a road area in which the vehicle may travel using the inclination of the lidar point between neighboring channels at the lidar point acquired from the multi-channel lidar sensor.

일 측면에 따르면, 상기 취득하는 단계는, 상기 다채널 라이다 센서를 통한 전방위 스캔에 따른 방사 형태의 라이다 포인트를 취득할 수 있다.According to an aspect, the acquiring may include acquiring a lidar point of a radial form according to an omnidirectional scan through the multichannel lidar sensor.

다른 측면에 따르면, 상기 도로 영역을 검출하는 단계는, 상기 다채널 라이다 센서의 스캔 각도 각각에 대하여 이웃하는 채널 간의 라이다 포인트의 경사도를 산출하는 단계; 및 상기 경사도가 사전에 정해진 문턱 값 이하인 라이다 포인트를 분류함으로써 상기 도로 영역을 검출하는 단계를 포함할 수 있다.According to another aspect, the detecting of the road area may include: calculating an inclination of a lidar point between neighboring channels for each scan angle of the multichannel lidar sensor; And detecting the road area by classifying a rider point having the slope less than or equal to a predetermined threshold value.

또 다른 측면에 따르면, 상기 경사도를 산출하는 단계는, 상기 차량과 가장 가까운 곳을 스캔한 라이다 포인트부터 상기 차량에서 멀어지는 방향으로 이웃하는 채널 간의 라이다 포인트의 경사도를 산출할 수 있다.According to another aspect, the step of calculating the inclination, it is possible to calculate the inclination of the lidar point between the neighboring channels in a direction away from the vehicle from the lidar point scanning the closest to the vehicle.

또 다른 측면에 따르면, 상기 문턱 값은 도로의 모양이나 요철을 포함하는 노면 요건에 따라 설정될 수 있다.According to another aspect, the threshold value may be set according to a road surface requirement including a shape of a road or irregularities.

또 다른 측면에 따르면, 상기 도로 영역에 포함된 라이다 포인트의 반사 강도를 이용하여 상기 도로 영역 내에서 차선을 검출하는 단계를 더 포함할 수 있다.According to another aspect, the method may further include detecting a lane in the road area by using the reflection intensity of a lidar point included in the road area.

또 다른 측면에 따르면, 상기 차선을 검출하는 단계는, 상기 도로 영역에 포함된 라이다 포인트 중 사전에 정해진 일정 값 이상의 반사 강도를 가지는 라이다 포인트를 분류함으로써 상기 차선을 검출할 수 있다.According to another aspect, the detecting of the lane may detect the lane by classifying a lidar point having a reflection intensity of a predetermined value or more among the lidar points included in the road area.

또 다른 측면에 따르면, 상기 차선을 검출하는 단계는, 상기 도로 영역에 포함된 라이다 포인트 중 사전에 정해진 일정 값 이상의 반사 강도를 가지는 라이다 포인트를 분류하는 단계; 상기 차량의 위치와 주행 방향을 기준으로 직선의 파라미터를 설정하는 단계; 및 상기 분류된 라이다 포인트 중 상기 파라미터의 선 상에 포함되거나 설정 범위 이내에 위치한 라이다 포인트를 차선 영역으로 분류하는 단계를 포함할 수 있다.According to another aspect, the detecting of the lane may include: classifying a lidar point having a reflection intensity of a predetermined value or more among lidar points included in the road area; Setting a straight line parameter based on the position and driving direction of the vehicle; And classifying a lidar point included in a line of the parameter or located within a set range among the classified lidar points into a lane area.

또 다른 측면에 따르면, 상기 직선의 파라미터를 설정하는 단계는, 상기 차량의 위치를 기준으로 차선 너비에 따른 양쪽에 상기 차량의 주행 방향에 대응되는 직선 파라미터를 초기값으로 설정하는 단계; 및 상기 차선 영역으로 분류된 라이다 포인트를 이용하여 상기 직선 파라미터를 업데이트 하는 단계를 포함할 수 있다.According to another aspect, the setting of the straight line parameter may include: setting a straight line parameter corresponding to a driving direction of the vehicle as an initial value on both sides of a lane width based on the position of the vehicle; And updating the straight line parameter by using a Lidar point classified into the lane area.

또 다른 측면에 따르면, 상기 차선으로 검출된 라이다 포인트를 지도에 표기할 좌표 값으로 계산하여 제공하는 단계를 더 포함할 수 있다.According to another aspect, the method may further include calculating and providing a Lidar point detected as the lane as a coordinate value to be displayed on a map.

컴퓨터 시스템과 결합되어 도로 영역과 차선 검출 방법을 실행시키기 위해 컴퓨터 판독 가능한 기록 매체에 기록된 컴퓨터 프로그램에 있어서, 상기 도로 영역과 차선 검출 방법은, 차량에 탑재된 다채널 라이다(lidar) 센서로부터 포인트 형태의 라이다 데이터를 취득하는 단계; 상기 다채널 라이다 센서로부터 취득한 라이다 포인트에서 이웃하는 채널 간의 라이다 포인트의 경사도를 이용하여 상기 차량이 주행 가능한 도로 영역을 검출하는 단계; 및 상기 도로 영역에 포함된 라이다 포인트 중 상기 차량의 위치와 주행 방향을 기준으로 설정된 직선 파리미터와 대응되는 라이다 포인트를 분류함으로써 해당 도로 영역 상의 차선을 검출하는 단계를 포함하는, 컴퓨터 프로그램을 제공한다.In a computer program coupled to a computer system and recorded on a computer-readable recording medium for executing a road area and lane detection method, the road area and lane detection method is obtained from a multichannel lidar sensor mounted on a vehicle. Acquiring LiDAR data in the form of points; Detecting a road area in which the vehicle can travel using the inclination of the rider points between neighboring channels at the rider points acquired from the multichannel rider sensors; And detecting a lane on the corresponding road area by classifying a rider point corresponding to a linear parameter set based on the position and driving direction of the vehicle among the rider points included in the road area. do.

컴퓨터로 구현되는 시스템에 있어서, 컴퓨터가 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 차량에 탑재된 다채널 라이다(lidar) 센서로부터 전방위 스캔에 따른 포인트 형태의 라이다 데이터를 취득하는 라이다 데이터 취득부; 및 상기 다채널 라이다 센서로부터 취득한 라이다 포인트에서 이웃하는 채널 간의 라이다 포인트의 경사도를 이용하여 상기 차량이 주행 가능한 도로 영역을 검출하는 도로 영역 검출부를 포함하는 시스템을 제공한다.A computer-implemented system, comprising: at least one processor configured to execute computer-readable instructions, the at least one processor being configured to perform an omni-directional scan from a multichannel lidar sensor mounted on a vehicle. A rider data acquisition unit for obtaining rider data in the form of points; And a road area detector configured to detect a road area in which the vehicle may travel by using an inclination of a rider point between neighboring channels at a rider point obtained from the multichannel rider sensor.

본 발명의 실시예들에 따르면, 단순히 평면 조건을 만족시키는 도로 영역을 검출하는 것이 아닌, 라이다 데이터를 이용한 포인트 간 경사도를 바탕으로 도로 영역을 검출함으로써 도로 자체가 가지고 있는 경사도, 혹은 부분적인 손실이나 보수 공사로 인한 울퉁불퉁함이나 과속 방지 턱 등의 여러 노면 요건에도 불구하고 도로 상의 주행 가능 영역을 더욱 강인하게 검출할 수 있다.According to the embodiments of the present invention, the slope or partial loss of the road itself is detected by detecting the road region based on the inclination between points using LiDAR data, instead of simply detecting the road region satisfying the plane condition. In spite of various road surface requirements such as bumps or speed bumps caused by renovation work, the driving area on the road can be more robustly detected.

본 발명의 실시예들에 따르면, 차량의 위치와 주행 방향을 기준으로 한 직선의 파라미터를 이용하여 해당 직선에 포함되는 도로 상의 라이다 데이터를 차선으로 분류함으로써 도로 상의 주행 가능 영역에서 차선을 방향 지시 화살표, 횡단보도, 횡단보도 예고, 정지선 등과 같은 다른 노면 표시(road surface marking)와 정확히 구별하여 검출할 수 있다.According to embodiments of the present invention, by using the parameters of a straight line on the basis of the position and the driving direction of the vehicle, the lane is classified in the lane capable of driving on the road by classifying the lidar data on the road included in the straight line into lanes. It can be accurately distinguished from other road surface markings such as arrows, crosswalks, crosswalk notices, stop lines, and the like.

도 1은 본 발명의 일 실시예에 있어서 컴퓨터 시스템의 내부 구성의 일례를 설명하기 위한 블록도이다.1 is a block diagram illustrating an example of an internal configuration of a computer system according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 컴퓨터 시스템의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이다.2 illustrates an example of components that may be included in a processor of a computer system according to an exemplary embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 컴퓨터 시스템이 수행할 수 있는 도로 영역과 차선 검출 방법의 예를 도시한 순서도이다.3 is a flowchart illustrating an example of a road area and a lane detection method which may be performed by a computer system according to an exemplary embodiment of the present invention.

도 4는 본 발명의 일 실시예에 있어서 다채널 라이다 센서의 예시를 도시한 것이다.4 illustrates an example of a multichannel lidar sensor in one embodiment of the present invention.

도 5는 본 발명의 일 실시예에 있어서 주행 가능한 도로 영역을 분류하는 과정을 설명하기 위한 예시 도면이다.FIG. 5 is an exemplary diagram for describing a process of classifying a road area that may be driven according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 있어서 노면 표시를 분류하는 과정을 설명하기 위한 예시 도면이다.6 is an exemplary diagram for describing a process of classifying road markings according to an exemplary embodiment of the present invention.

도 7은 본 발명의 일 실시예에 있어서 노면 표시 중 차선을 분류하는 과정을 설명하기 위한 예시 도면이다.FIG. 7 is an exemplary diagram for describing a process of classifying a lane among road markings according to an exemplary embodiment of the present invention.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 실시예들은 라이다 데이터를 이용하여 차량 주행이 가능한 도로 영역과 차선을 검출하는 기술에 관한 것이다.Embodiments of the present invention relate to a technique for detecting a road area and a lane capable of driving a vehicle using lidar data.

본 명세서에서 구체적으로 개시되는 것들을 포함하는 실시예들은 라이다 데이터를 이용하여 정확한 도로 영역과 차선 검출을 달성할 수 있고 이를 통해 정확성, 효율성, 신속성, 비용 절감 등의 측면에 있어서 상당한 장점들을 달성한다.Embodiments, including those specifically disclosed herein, can achieve accurate road area and lane detection using lidar data, thereby achieving significant advantages in terms of accuracy, efficiency, speed, cost savings, and the like. .

도 1은 본 발명의 일 실시예에 있어서 컴퓨터 시스템의 내부 구성의 일례를 설명하기 위한 블록도이다. 예를 들어, 본 발명의 실시예들에 따른 도로 영역과 차선 검출 시스템이 도 1의 컴퓨터 시스템(100)을 통해 구현될 수 있다. 도 1에 도시한 바와 같이, 컴퓨터 시스템(100)은 도로 영역과 차선 검출 방법을 실행하기 위한 구성요소로서 프로세서(110), 메모리(120), 영구 저장 장치(130), 버스(140), 입출력 인터페이스(150) 및 네트워크 인터페이스(160)를 포함할 수 있다.1 is a block diagram illustrating an example of an internal configuration of a computer system according to an embodiment of the present invention. For example, a road area and lane detection system according to embodiments of the present invention may be implemented through the computer system 100 of FIG. 1. As shown in FIG. 1, the computer system 100 is a processor 110, a memory 120, a permanent storage device 130, a bus 140, and input / output as components for executing a road area and lane detection method. It may include an interface 150 and a network interface 160.

프로세서(110)는 라이다 데이터를 이용하여 주행 가능한 도로 영역과 차선을 검출하기 위한 구성요소로서 명령어들의 시퀀스를 처리할 수 있는 임의의 장치를 포함하거나 그의 일부일 수 있다. 프로세서(110)는 예를 들어 컴퓨터 프로세서, 이동 장치 또는 다른 전자 장치 내의 프로세서 및/또는 디지털 프로세서를 포함할 수 있다. 프로세서(110)는 예를 들어, 서버 컴퓨팅 디바이스, 서버 컴퓨터, 일련의 서버 컴퓨터들, 서버 팜, 클라우드 컴퓨터, 컨텐츠 플랫폼 등에 포함될 수 있다. 프로세서(110)는 버스(140)를 통해 메모리(120)에 접속될 수 있다.The processor 110 may include or be part of any device capable of processing a sequence of instructions as a component for detecting a road area and lane capable of driving using lidar data. Processor 110 may include, for example, a processor within a computer processor, mobile device or other electronic device, and / or a digital processor. The processor 110 may be included in, for example, a server computing device, a server computer, a series of server computers, a server farm, a cloud computer, a content platform, and the like. The processor 110 may be connected to the memory 120 through the bus 140.

메모리(120)는 컴퓨터 시스템(100)에 의해 사용되거나 그에 의해 출력되는 정보를 저장하기 위한 휘발성 메모리, 영구, 가상 또는 기타 메모리를 포함할 수 있다. 메모리(120)는 예를 들어 랜덤 액세스 메모리(RAM: random access memory) 및/또는 다이내믹 RAM(DRAM: dynamic RAM)을 포함할 수 있다. 메모리(120)는 컴퓨터 시스템(100)의 상태 정보와 같은 임의의 정보를 저장하는 데 사용될 수 있다. 메모리(120)는 예를 들어 도로의 주행 가능 영역과 차선을 검출하기 위한 명령어들을 포함하는 컴퓨터 시스템(100)의 명령어들을 저장하는 데에도 사용될 수 있다. 컴퓨터 시스템(100)은 필요에 따라 또는 적절한 경우에 하나 이상의 프로세서(110)를 포함할 수 있다.Memory 120 may include volatile memory, permanent, virtual, or other memory for storing information used by or output by computer system 100. The memory 120 may include, for example, random access memory (RAM) and / or dynamic RAM (DRAM). Memory 120 may be used to store any information, such as status information of computer system 100. The memory 120 may also be used to store instructions of the computer system 100, including, for example, instructions for detecting a driveable area of a road and a lane. Computer system 100 may include one or more processors 110 as needed or where appropriate.

버스(140)는 컴퓨터 시스템(100)의 다양한 컴포넌트들 사이의 상호작용을 가능하게 하는 통신 기반 구조를 포함할 수 있다. 버스(140)는 예를 들어 컴퓨터 시스템(100)의 컴포넌트들 사이에, 예를 들어 프로세서(110)와 메모리(120) 사이에 데이터를 운반할 수 있다. 버스(140)는 컴퓨터 시스템(100)의 컴포넌트들 간의 무선 및/또는 유선 통신 매체를 포함할 수 있으며, 병렬, 직렬 또는 다른 토폴로지 배열들을 포함할 수 있다.Bus 140 may include a communication infrastructure that enables interaction between various components of computer system 100. Bus 140 may carry data, for example, between components of computer system 100, for example, between processor 110 and memory 120. Bus 140 may include wireless and / or wired communication media between components of computer system 100 and may include parallel, serial, or other topology arrangements.

영구 저장 장치(130)는 (예를 들어, 메모리(120)에 비해) 소정의 연장된 기간 동안 데이터를 저장하기 위해 컴퓨터 시스템(100)에 의해 사용되는 바와 같은 메모리 또는 다른 영구 저장 장치와 같은 컴포넌트들을 포함할 수 있다. 영구 저장 장치(130)는 컴퓨터 시스템(100) 내의 프로세서(110)에 의해 사용되는 바와 같은 비휘발성 메인 메모리를 포함할 수 있다. 영구 저장 장치(130)는 예를 들어 플래시 메모리, 하드 디스크, 광 디스크 또는 다른 컴퓨터 판독 가능 매체를 포함할 수 있다.Persistent storage 130 is a component, such as a memory or other persistent storage, such as used by computer system 100 to store data for some extended period of time (eg, relative to memory 120). Can include them. Persistent storage 130 may include non-volatile main memory as used by processor 110 in computer system 100. Persistent storage 130 may include, for example, flash memory, hard disk, optical disk, or other computer readable medium.

입출력 인터페이스(150)는 키보드, 마우스, 음성 명령 입력, 디스플레이 또는 다른 입력 또는 출력 장치에 대한 인터페이스들을 포함할 수 있다. 구성 명령들 및/또는 도로 영역과 차선 검출을 위한 입력이 입출력 인터페이스(150)를 통해 수신될 수 있다.The input / output interface 150 may include interfaces for a keyboard, mouse, voice command input, display, or other input or output device. Configuration commands and / or inputs for road area and lane detection may be received via the input / output interface 150.

네트워크 인터페이스(160)는 근거리 네트워크 또는 인터넷과 같은 네트워크들에 대한 하나 이상의 인터페이스를 포함할 수 있다. 네트워크 인터페이스(160)는 유선 또는 무선 접속들에 대한 인터페이스들을 포함할 수 있다. 구성 명령들 및/또는 도로 영역과 차선 검출을 위한 입력이 네트워크 인터페이스(160)를 통해 수신될 수 있다.Network interface 160 may include one or more interfaces to networks such as a local area network or the Internet. Network interface 160 may include interfaces for wired or wireless connections. Configuration commands and / or input for road area and lane detection may be received via network interface 160.

또한, 다른 실시예들에서 컴퓨터 시스템(100)은 도 1의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 컴퓨터 시스템(100)은 상술한 입출력 인터페이스(150)와 연결되는 입출력 장치들 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.In addition, in other embodiments, computer system 100 may include more components than the components of FIG. 1. However, it is not necessary to clearly show most of the prior art components. For example, the computer system 100 may be implemented to include at least some of the input / output devices connected to the input / output interface 150 described above, or may include a transceiver, a global positioning system (GPS) module, a camera, various sensors, It may further include other components such as a database.

본 발명명의 실시예들은 라이다 데이터를 이용하여 주행 가능한 도로 영역과 차선을 검출하는 기술에 관한 것으로, 이는 자유 주행, 무인 주행 등의 차량 운전 보조 시스템에 적용될 수 있으며, 이에 한정되는 것은 아니다.Embodiments of the present invention relate to a technology for detecting a road area and a lane that can be driven using LiDAR data, which may be applied to a vehicle driving assistance system such as free driving or unmanned driving, but is not limited thereto.

도 2는 본 발명의 일 실시예에 따른 컴퓨터 시스템의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이고, 도 3은 본 발명의 일 실시예에 따른 컴퓨터 시스템이 수행할 수 있는 도로 영역과 차선 검출 방법의 예를 도시한 순서도이다.2 is a diagram illustrating an example of components that may be included in a processor of a computer system according to an embodiment of the present invention, and FIG. 3 is a road area that may be performed by the computer system according to an embodiment of the present invention. And an example of a lane detection method.

도 2에 도시된 바와 같이, 프로세서(110)는 라이다 데이터 취득부(210), 도로 영역 검출부(220), 차선 검출부(230), 및 차선 좌표 제공부(240)를 포함할 수 있다. 이러한 프로세서(110)의 구성요소들은 적어도 하나의 프로그램 코드에 의해 제공되는 제어 명령에 따라 프로세서(110)에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 프로세서(110)가 라이다 데이터를 취득하도록 컴퓨터 시스템(100)을 제어하기 위해 동작하는 기능적 표현으로서 라이다 데이터 취득부(210)가 사용될 수 있다. 프로세서(110) 및 프로세서(110)의 구성요소들은 도 3의 도로 영역과 차선 검출 방법이 포함하는 단계들(S310 내지 S350)을 수행할 수 있다. 예를 들어, 프로세서(110) 및 프로세서(110)의 구성요소들은 메모리(120)가 포함하는 운영체제의 코드와 상술한 적어도 하나의 프로그램 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 적어도 하나의 프로그램 코드는 도로 영역과 차선 검출 방법을 처리하기 위해 구현된 프로그램의 코드에 대응될 수 있다.As illustrated in FIG. 2, the processor 110 may include a LiDAR data acquisition unit 210, a road area detection unit 220, a lane detection unit 230, and a lane coordinate providing unit 240. The components of such a processor 110 may be representations of different functions performed by the processor 110 in accordance with a control instruction provided by at least one program code. For example, the lidar data acquisition unit 210 can be used as a functional representation that the processor 110 operates to control the computer system 100 to acquire lidar data. The processor 110 and the components of the processor 110 may perform steps S310 to S350 included in the road area and lane detection method of FIG. 3. For example, the processor 110 and the components of the processor 110 may be implemented to execute instructions according to the code of the operating system included in the memory 120 and the at least one program code described above. Here, the at least one program code may correspond to a code of a program implemented to process the road area and the lane detection method.

도로 영역과 차선 검출 방법은 도시된 순서대로 발생하지 않을 수 있으며, 단계들 중 일부가 생략되거나 추가의 과정이 더 포함될 수 있다.The road area and lane detection methods may not occur in the order shown, and some of the steps may be omitted or additional processes may be included.

단계(S310)에서 프로세서(110)는 도로 영역과 차선 검출 방법을 위한 프로그램 파일에 저장된 프로그램 코드를 메모리(120)에 로딩할 수 있다. 예를 들어, 도로 영역과 차선 검출 방법을 위한 프로그램 파일은 도 1을 통해 설명한 영구 저장 장치(130)에 저장되어 있을 수 있고, 프로세서(110)는 버스를 통해 영구 저장 장치(130)에 저장된 프로그램 파일로부터 프로그램 코드가 메모리(120)에 로딩되도록 컴퓨터 시스템(110)을 제어할 수 있다. 이때, 프로세서(110) 및 프로세서(110)가 포함하는 라이다 데이터 취득부(210), 도로 영역 검출부(220), 차선 검출부(230), 및 차선 좌표 제공부(240) 각각은 메모리(120)에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(S320 내지 S350)을 실행하기 위한 프로세서(110)의 서로 다른 기능적 표현들일 수 있다. 단계들(S320 내지 S350)의 실행을 위해, 프로세서(110) 및 프로세서(110)의 구성요소들은 직접 제어 명령에 따른 연산을 처리하거나 또는 컴퓨터 시스템(100)을 제어할 수 있다.In operation S310, the processor 110 may load program code stored in a program file for a road area and a lane detection method, into the memory 120. For example, the program file for the road area and the lane detection method may be stored in the persistent storage 130 described with reference to FIG. 1, and the processor 110 may store the program stored in the persistent storage 130 through a bus. Computer system 110 may be controlled such that program code from a file is loaded into memory 120. At this time, each of the processor 110 and the lidar data acquisition unit 210, the road area detection unit 220, the lane detection unit 230, and the lane coordinate providing unit 240 included in the memory 120 is included in the memory 120. It may be different functional representations of the processor 110 for executing instructions of a corresponding portion of the program code loaded in to execute subsequent steps S320 to S350. In order to execute the steps S320 to S350, the processor 110 and the components of the processor 110 may directly process an operation according to a control command or control the computer system 100.

단계(S320)에서 라이다 데이터 취득부(210)는 차량에 탑재된 다채널 라이다 센서와의 유선 또는 무선 접속을 통해 다채널 라이다 센서로부터 차량 주변의 전방위 스캔에 따른 포인트 형태의 라이다 데이터(이하, '라이다 포인트'라 칭함)를 취득할 수 있다. 라이다 데이터 취득부(210)는 전방위 스캔에 따른 라이다 포인트를 취득하기 위해 360도의 스캔 각도를 가진 다채널 라이다 센서를 제어할 수 있다. 라이다 포인트는 라이다 센서와의 거리를 나타내는 값과 반사 강도를 나타내는 값을 포함할 수 있다.In step S320, the lidar data acquisition unit 210 performs a point-type lidar data according to an omnidirectional scan around the vehicle from the multichannel lidar sensor through a wired or wireless connection with the multichannel lidar sensor mounted in the vehicle. (Hereinafter referred to as 'lidar point') can be obtained. The lidar data acquisition unit 210 may control a multi-channel lidar sensor having a scan angle of 360 degrees to acquire a lidar point according to the omnidirectional scan. The lidar point may include a value indicating a distance from the lidar sensor and a value indicating the reflection intensity.

본 발명에서 사용되는 다채널 라이다 센서는 채널 개수만큼의 레이저 스캐너가 위아래 방향으로 일렬로 나열되어 빛을 쏘고 되돌아온 빛을 감지하여 각 채널 별로 거리와 반사 강도를 측정할 수 있다. 이때, 다채널 라이다 센서는 전방위 스캔을 위해 센서 안에 빛을 반사하는 거울이 설치되어 거울이 360도 회전하면서 차량 주변의 전방위에 대한 거리와 반사 강도를 측정할 수 있다. 이러한 다채널 라이다 센서가 탑재된 차량이 주행하면서 차량 주변을 스캔할 때 라이다 데이터 취득부(210)는 동일한 스캔 각도를 가진 라이다 포인트들을 한번에 채널 개수만큼 취득할 수 있고, 이때 다채널 라이다 센서 내에서 거울이 회전하면서, 즉 스캔 각도가 변하면서 빠른 속도로 라이다 포인트가 쌓이게 된다.In the multi-channel lidar sensor used in the present invention, laser scanners as many as the number of channels are arranged in a line in the up and down direction to shoot light and return the light to measure distance and reflection intensity for each channel. In this case, the multi-channel lidar sensor has a mirror that reflects light in the sensor for omnidirectional scanning, so that the mirror rotates 360 degrees to measure the distance and reflection intensity of the omnidirectional surrounding the vehicle. When the vehicle equipped with the multi-channel lidar sensor scans around the vehicle while driving, the lidar data acquisition unit 210 may acquire lidar points having the same scan angle at the same time as the number of channels. As the mirror rotates within the sensor, ie the scanning angle changes, the LiDa points accumulate at a high rate.

스캔 각도의 조밀한 정도는 라이다 센서마다 다르며, 예를 들어, 도 4에 도시한 바와 같이 채널 개수가 32개이고 스캔 각도가 1.33도씩 변하는 다채널 라이다 센서(40)를 사용하는 경우 라이다 데이터 취득부(210)는 다채널 라이다 센서(40)를 통해 1.33도의 단위로 32개씩 라이다 포인트를 취득할 수 있다. 다채널 라이다 센서(40) 내에서 거울이 360도 회전하면서 32개의 채널을 통해 취득한 라이다 포인트들은 센서 위치를 중심으로 전방위 스캔에 따른 방사 형태를 이루게 된다.The degree of denseness of the scan angle is different for each lidar sensor. For example, as shown in FIG. 4, when using the multi-channel lidar sensor 40 in which the number of channels is 32 and the scan angle is changed by 1.33 degrees, the lidar data is used. The acquisition unit 210 may acquire 32 LiDa points in units of 1.33 degrees through the multi-channel LiDAR sensor 40. The lidar points acquired through 32 channels while the mirror rotates 360 degrees in the multi-channel lidar sensor 40 form a radial shape according to the omnidirectional scan around the sensor position.

다시 도 3에서, 단계(S330)에서 도로 영역 검출부(220)는 다채널 라이다 센서로부터 취득한 라이다 포인트에서 이웃하는 채널 간의 라이다 포인트의 경사도를 바탕으로 문턱 값 이하의 경사도를 가진 라이다 포인트를 분류함으로써 주행 가능한 도로 영역을 검출할 수 있다. 라이다 데이터를 이용하여 차량이 주행 가능한 도로 영역을 분류하는 방법의 일례로, 도로 영역 검출부(220)는 라이다 센서에서 차량과 가장 가까운 곳을 스캔한 라이다 포인트들로부터 멀어지는 방향의 방사 형태로 라이다 포인트 간의 경사도를 순차적으로 산출할 수 있다. 도로 영역 검출부(220)는 방사 형태로 라이다 포인트 간의 경사도를 산출하기 위해 라이다 포인트 중 같은 시점, 동일한 스캔 각도에 대해 이웃한 채널에서 스캔된 라이다 포인트 간의 경사도를 산출할 수 있다. 도로 영역 검출부(220)는 라이다 센서의 위치를 중심으로 가장 가까운 곳의 라이다 포인트로부터 이웃한 채널 간의 라이다 포인트의 경사도를 산출해 나가되, 라이다 센서의 위치부터 이웃하는 채널 간의 라이다 포인트의 경사도가 사전에 정해진 특정 문턱 값을 넘어서기 이전의 지점까지를 도로 영역으로 분류할 수 있다. 도로 영역 검출부(220)는 스캔 각도 각각에 대해 상기한 방법을 반복함으로써 360도 전방위에 대하여 도로 영역을 분류할 수 있다.In FIG. 3, in step S330, the road area detection unit 220 has a rider point having an inclination less than or equal to a threshold value based on the inclination of the rider points between neighboring channels at the rider point acquired from the multichannel rider sensor. By classifying, it is possible to detect a road area that can travel. As an example of a method of classifying a road area on which a vehicle may travel using lidar data, the road area detection unit 220 may radiate in a direction away from the lidar points scanned by the lidar sensor nearest to the vehicle. The inclination between the lidar points can be calculated sequentially. The road area detector 220 may calculate the inclination between the lidar points scanned in the neighboring channels for the same point in time and the same scan angle among the lidar points in order to calculate the inclination between the lidar points in a radial form. The road area detection unit 220 calculates the inclination of the rider points between neighboring channels from the rider point nearest to the position of the rider sensor, and the rider points between neighboring channels from the position of the rider sensor. The road region may be classified to a point before the slope of the crossover exceeds a predetermined threshold value. The road area detection unit 220 may classify the road area for 360 degrees by repeating the above method for each scan angle.

도 5는 본 발명의 일 실시예에 있어서 도로 영역을 분류하는 과정을 설명하기 위한 예시 도면이다. 다채널 라이다 센서를 탑재한 차량(50)이 현재 도로 상에 위치해 있다고 가정할 때, 다채널 라이다 센서를 통해 차량(50)을 중심으로 360도 전방위 스캔에 따른 방사 형태의 라이다 포인트들(501)을 취득할 수 있다.5 is an exemplary diagram for describing a process of classifying a road area according to an embodiment of the present invention. Assuming that the vehicle 50 equipped with the multi-channel lidar sensor is currently located on the road, the lidar points in the radial form according to the 360-degree omnidirectional scan about the vehicle 50 through the multi-channel lidar sensor 501 can be obtained.

차량(50)의 주변에 다른 차량이나 연석 등의 장애물이 존재하는 경우 장애물로 인해 이웃하는 채널 간의 라이다 포인트의 경사도가 급격히 증가하게 된다. 도로는 배수 등을 위해 도로의 중앙 부분이 높고 가장자리 부분이 비교적 낮은 볼록한 형태가 대부분이며 부분적인 파손이나 보수 공사 등으로 인해 일정 부분 요철이 있어 주행 가능한 도로 영역임에도 불구하고 도로 영역으로 검출되지 않는 문제가 있을 수 있다. 이를 해결하기 위해 도로의 모양이나 통상적인 요철 등의 노면 요건을 고려하여 도로 영역을 분류하는 기준이 되는 문턱 값을 설정할 수 있다.When an obstacle such as another vehicle or curb exists near the vehicle 50, the inclination of the rider points between neighboring channels increases rapidly due to the obstacle. Most roads have convex shapes with high central parts and relatively low edges for drainage, and are not detected as road areas despite the fact that there are some irregularities due to partial damage or repair work. There can be. In order to solve this problem, a threshold value, which is a criterion for classifying road areas, may be set in consideration of road requirements such as the shape of a road and general unevenness.

도 5를 참조하면, 도로 영역 검출부(220)는 동일한 스캔 각도(51)에서 이웃하는 채널 간의 라이다 포인트(X)의 경사도를 산출해 나가면서 경사도가 특정 문턱 값을 넘어서면 해당 스캔 각도(51)에서는 차량(50)의 위치부터 문턱 값을 넘어서기 직전의 라이다 포인트까지를 도로 영역(503)으로 분류할 수 있으며, 이러한 과정을 스캔 각도 각각에 대해 반복함으로써 360도 전방위에 대한 도로 영역을 분류할 수 있다.Referring to FIG. 5, the road area detector 220 calculates the inclination of the lidar point X between neighboring channels at the same scan angle 51, and when the inclination exceeds a specific threshold, the scan angle 51. ) Can be classified into the road area 503 from the position of the vehicle 50 to the lidar point just before the threshold is exceeded, and this process is repeated for each scan angle to form the road area for 360 degrees. Can be classified.

따라서, 본 발명에서는 도로 영역을 분류할 때 센서 위치(즉, 차량)를 중심으로 방사 형태로 포인트 간의 경사도를 계산하여 특정 경사도 이하로 포인트의 분포가 유지되면 주행 가능한 도로 영역으로 분류할 수 있다. 이러한 방식은 일반적인 도로의 볼록한 형태나 부분적인 파손이나 보수 공사로 인한 약간의 요철을 여전히 도로 영역으로 분류하되, 도로 연석과 같은 낮지만 급격한 경사도 변화 지점이나 도로 중앙 분리대, 시선 유도봉, 주차되어있는 다른 차량 등과 같은 장애물이 위치한 지점 이후부터는 주행 가능 영역이 아닌 것으로 효과적인 분류가 가능하다.Therefore, in the present invention, when the road area is classified, the inclination between the points is calculated in a radial form around the sensor position (that is, the vehicle), and when the distribution of the points is maintained below a specific inclination, it may be classified as a road area that can be driven. This method still classifies some of the irregularities caused by the convex shape of a typical road or partial breakage or renovation into the road area, but it can be classified as a low but abrupt slope change point such as a road curb, a road divider, a sight bar, or a parked area. After the point where obstacles such as other vehicles are located, it is possible to effectively classify the non-driving area.

다시 도 3에서, 단계(S340)에서 차선 검출부(230)는 도로 영역으로 분류된 라이다 포인트 중 차량의 위치와 주행 방향을 기준으로 설정된 직선 파라미터와 대응되는 라이다 포인트를 분류함으로써 해당 도로 영역 상의 차선을 검출할 수 있다. 라이다 포인트는 다채널 라이다 센서와의 거리를 나타내는 값과 함께, 반사 강도를 나타내는 값을 포함할 수 있다. 도로 영역에서 차선을 포함하여 방향 지시 화살표, 횡단보도, 횡단보도 예고, 정지선 등과 같은 각종 노면 표시는 페인트를 이용한 도색 작업으로 이루어지며, 노면 표시의 페인트는 라이다에 대해 일정 값 이상의 반사 강도를 가지게 된다.3, the lane detection unit 230 classifies the rider points corresponding to the linear parameters set based on the position and the driving direction of the vehicle among the rider points classified as the road areas in step S340. Lanes can be detected. The lidar point may include a value indicating a reflection intensity, together with a value indicating a distance to the multichannel lidar sensor. Various road markings such as direction arrows, crosswalks, pedestrian crossing notices, stop lines, etc., including lanes in the road area are made by painting with paint, and the paint on the road markings has a certain intensity of reflection over the lidar. do.

도 6 내지 도 7은 본 발명의 일 실시예에 있어서 차선을 검출하는 과정을 설명하기 위한 예시 도면이다.6 to 7 are exemplary diagrams for describing a process of detecting a lane according to an embodiment of the present invention.

도 6을 참조하면, 차선 검출부(230)는 도로 영역(503)으로 분류된 라이다 포인트 중 사전에 정해진 일정 값 이상의 반사 강도를 가지는 라이다 포인트들(605)을 노면 표시에 해당하는 라이다 포인트로 분류할 수 있다.Referring to FIG. 6, the lane detection unit 230 includes a rider point corresponding to a road surface display of rider points 605 having a reflection intensity of a predetermined value or more, among the rider points classified as the road area 503. Can be classified as

이어, 차선 검출부(230)는 도 7에 도시한 바와 같이 노면 표시에 해당하는 라이다 포인트(605) 중 차선에 해당되는 라이다 포인트를 분류하기 위해서 먼저 현재 라이다 센서의 위치, 즉 차량(50)의 위치를 기준으로 양 옆으로 표준 규격의 차선 너비만큼 떨어진 곳에 차량(50)의 주행 방향으로 뻗은 직선 파라미터(707)를 초기값으로 설정할 수 있다. 그리고, 차선 검출부(230)는 노면 표시에 해당하는 라이다 포인트(605) 중 직선 파라미터(707)의 선 상에 포함되거나 혹은 설정 범위 이내에 가까이 위치한 라이다 포인트들을 차선 영역으로 분류할 수 있다.Subsequently, the lane detecting unit 230 first classifies the position of the current lidar sensor, that is, the vehicle 50, in order to classify the lidar point corresponding to the lane among the lidar points 605 corresponding to the road surface display, as shown in FIG. 7. The straight line parameter 707 extending in the driving direction of the vehicle 50 may be set as an initial value at both sides of the standard space to the lane width of the standard. In addition, the lane detector 230 may classify the lidar points included in the line of the linear parameter 707 among the lidar points 605 corresponding to the road surface display or located within a predetermined range as the lane area.

차선 검출부(230)는 차선 영역으로 분류된 라이다 포인트를 이용하여 직선 파라미터(707)를 업데이트할 수 있다. 차선 검출부(230)는 차선 영역으로 새롭게 찾아낸 라이다 포인트로 직선 파라미터(707)를 업데이트 하는 예측 값 최대화(Expectation-Maximization) 알고리즘을 되풀이하여 적용할 수 있다.The lane detection unit 230 may update the straight line parameter 707 by using a Lidar point classified into the lane area. The lane detection unit 230 may repeatedly apply an prediction-maximization algorithm that updates the linear parameter 707 with a newly found lidar point in the lane area.

다음 주기의 전방위 스캔이 이루어질 때까지 차량(50)이 주행함에 따라 차량(50)의 주변 환경이 변하는데 차선의 위치는 이전 위치와 비슷한 곳에 있을 확률이 높으므로 이전 직선 파라미터에 포함되는 라이다 데이터를 분류 및 직선 파라미터의 업데이트를 반복 수행한다. 이러한 방식을 이용하면 차량(50)이 주행 중 차선을 변경하더라도 차선 검출의 기준이 되는 직선 파라미터를 계속 업데이트하면서 업데이트 된 직선 파라미터를 기준으로 차선을 지속적으로 검출할 수 있다. 라이다 센서의 성능에 따라 한번에 3차로에 해당하는 차선 4개 정도를 안정적으로 분류해낼 수 있으며, 라이다 센서에 가까운 스캔 영역 내에서 파라미터 업데이트가 자주 일어나기 때문에 곡선 차선에 대한 처리가 따로 필요하지 않다.The surrounding environment of the vehicle 50 changes as the vehicle 50 travels until the omnidirectional scan of the next cycle is made, and since the position of the lane is likely to be similar to the previous position, the lidar data included in the previous straight line parameter is included. Repeat the classification and update of straight line parameters. Using this method, even if the vehicle 50 changes lanes while driving, the lanes may be continuously detected based on the updated straight line parameters while continuously updating the straight line parameters as the reference for lane detection. According to the performance of the lidar sensor, it is possible to stably classify four lanes corresponding to three lanes at a time, and since the parameter update occurs frequently in the scan area close to the lidar sensor, processing for the curved lane is not necessary. .

다시 도 3에서, 단계(S350)에서 차선 좌표 제공부(240)는 차선으로 분류된 라이다 포인트에 대응되는 좌표를 계산하여 지도에 차선 표기를 위한 좌표 값으로 제공할 수 있다. 이때, 차선 좌표 제공부(240)는 직선 파라미터를 기준으로 차선 영역으로 분류된 라이다 포인트를 저장해 두었다가 이들을 연결하는 점을 일정 간격으로 산출할 수 있으며, 산출된 점에 해당되는 GPS 좌표를 계산하여 지도에 차선 표기를 위한 좌표 값으로 지정할 수 있다. 다시 말해, 차선 좌표 제공부(240)는 차선으로 분로된 포인트를 지도에 차선으로 표기할 GPS 좌표점의 집합으로 산출하여 제공할 수 있다.Referring back to FIG. 3, in operation S350, the lane coordinate providing unit 240 may calculate coordinates corresponding to Lidar points classified as lanes and provide them as coordinate values for lane marking on a map. In this case, the lane coordinate providing unit 240 may store LiDAR points classified into lane areas based on a straight line parameter and calculate points connecting them at regular intervals, and calculate GPS coordinates corresponding to the calculated points. Can be specified as a coordinate value for lane marking on the map. In other words, the lane coordinate providing unit 240 may calculate and provide a point divided into lanes as a set of GPS coordinate points to be expressed as a lane on the map.

이처럼 본 발명의 실시예들에 따르면, 단순히 평면 조건을 만족시키는 도로 영역을 검출하는 것이 아닌, 라이다 데이터를 이용한 포인트 간 경사도를 바탕으로 도로 영역을 검출함으로써 도로 자체가 가지고 있는 경사도, 혹은 부분적인 손실이나 보수 공사로 인한 울퉁불퉁함이나 과속 방지 턱 등의 여러 노면 요건에도 불구하고 도로 상의 주행 가능 영역을 더욱 강인하게 검출할 수 있다. 더 나아가, 본 발명의 실시예들에 따르면, 차량의 위치와 주행 방향을 기준으로 한 직선의 파라미터를 이용하여 해당 직선에 포함되는 도로 상의 라이다 데이터를 차선으로 분류함으로써 도로 상의 주행 가능 영역에서 차선을 방향 지시 화살표, 횡단보도, 횡단보도 예고, 정지선 등과 같은 다른 노면 표시(road surface marking)와 정확히 구별하여 검출할 수 있다.As described above, according to the embodiments of the present invention, the road area may be detected by detecting the road area based on the inclination between points using lidar data, instead of simply detecting the road area satisfying the plane condition. In spite of various road requirements such as bumps or speed bumps caused by losses or repairs, the roadside area can be detected more robustly. Furthermore, according to embodiments of the present invention, by using the parameters of the straight line based on the position and the driving direction of the vehicle, the lidar data on the road included in the straight line is classified as a lane, and the lane in the available area on the road. Can be accurately distinguished from other road surface markings such as directional arrows, crosswalks, crosswalk notices, stop lines, and the like.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments may include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable PLU (programmable). It can be implemented using one or more general purpose or special purpose computers, such as logic units, microprocessors, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. It can be embodied in. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. In this case, the medium may be to continuously store a program executable by the computer, or to temporarily store for execution or download. In addition, the medium may be a variety of recording means or storage means in the form of a single or several hardware combined, not limited to a medium directly connected to any computer system, it may be distributed on the network. Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And ROM, RAM, flash memory, and the like, configured to store program instructions. In addition, examples of another medium may include a recording medium or a storage medium managed by an app store that distributes an application, a site that supplies or distributes various software, a server, or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.

Claims (11)

컴퓨터로 구현되는 방법에 있어서,In a computer implemented method, 차량에 탑재된 다채널 라이다(lidar) 센서로부터 포인트 형태의 라이다 데이터를 취득하는 단계; 및Obtaining lidar data in the form of points from a multichannel lidar sensor mounted on a vehicle; And 상기 다채널 라이다 센서로부터 취득한 라이다 포인트에서 이웃하는 채널 간의 라이다 포인트의 경사도를 이용하여 상기 차량이 주행 가능한 도로 영역을 검출하는 단계Detecting a road area on which the vehicle can travel using the inclination of the rider points between neighboring channels at the rider points acquired from the multi-channel rider sensors 를 포함하는 방법.How to include. 제1항에 있어서,The method of claim 1, 상기 취득하는 단계는,The acquiring step is 상기 다채널 라이다 센서를 통한 전방위 스캔에 따른 방사 형태의 라이다 포인트를 취득하는 것Acquiring a radial lidar point according to an omnidirectional scan through the multichannel lidar sensor 을 특징으로 하는 방법.Characterized by the above. 제1항에 있어서,The method of claim 1, 상기 도로 영역을 검출하는 단계는,Detecting the road area, 상기 다채널 라이다 센서의 스캔 각도 각각에 대하여 이웃하는 채널 간의 라이다 포인트의 경사도를 산출하는 단계; 및Calculating the inclination of the lidar points between neighboring channels for each scan angle of the multichannel lidar sensor; And 상기 경사도가 사전에 정해진 문턱 값 이하인 라이다 포인트를 분류함으로써 상기 도로 영역을 검출하는 단계Detecting the road area by classifying a rider point whose slope is less than or equal to a predetermined threshold value 를 포함하는 방법.How to include. 제3항에 있어서,The method of claim 3, 상기 경사도를 산출하는 단계는,The step of calculating the inclination, 상기 차량과 가장 가까운 곳을 스캔한 라이다 포인트부터 상기 차량에서 멀어지는 방향으로 이웃하는 채널 간의 라이다 포인트의 경사도를 산출하는 것Calculating a slope of a rider point between neighboring channels in a direction away from the vehicle from a rider point scanning the closest point to the vehicle 을 특징으로 하는 방법.Characterized by the above. 제3항에 있어서,The method of claim 3, 상기 문턱 값은 도로의 모양이나 요철을 포함하는 노면 요건에 따라 설정되는 것The threshold value is set according to the road surface requirements including the shape of the road or the unevenness. 을 특징으로 하는 방법.Characterized by the above. 제1항에 있어서,The method of claim 1, 상기 도로 영역에 포함된 라이다 포인트의 반사 강도를 이용하여 상기 도로 영역 내에서 차선을 검출하는 단계Detecting a lane in the road area by using a reflection intensity of a lidar point included in the road area 를 더 포함하는 방법.How to include more. 제6항에 있어서,The method of claim 6, 상기 차선을 검출하는 단계는,Detecting the lane, 상기 도로 영역에 포함된 라이다 포인트 중 사전에 정해진 일정 값 이상의 반사 강도를 가지는 라이다 포인트를 분류함으로써 상기 차선을 검출하는 것Detecting the lane by classifying a lidar point having a reflection intensity of a predetermined value or more among lidar points included in the road area; 을 특징으로 하는 방법.Characterized by the above. 제6항에 있어서,The method of claim 6, 상기 차선을 검출하는 단계는,Detecting the lane, 상기 도로 영역에 포함된 라이다 포인트 중 사전에 정해진 일정 값 이상의 반사 강도를 가지는 라이다 포인트를 분류하는 단계;Classifying a lidar point having a reflection intensity of a predetermined value or more among lidar points included in the road area; 상기 차량의 위치와 주행 방향을 기준으로 직선의 파라미터를 설정하는 단계; 및Setting a straight line parameter based on the position and driving direction of the vehicle; And 상기 분류된 라이다 포인트 중 상기 파라미터의 선 상에 포함되거나 설정 범위 이내에 위치한 라이다 포인트를 차선 영역으로 분류하는 단계Classifying a lidar point included in a line of the parameter or located within a set range among the classified lidar points into a lane area; 를 포함하는 방법.How to include. 제8항에 있어서,The method of claim 8, 상기 직선의 파라미터를 설정하는 단계는,Setting the parameters of the straight line, 상기 차량의 위치를 기준으로 차선 너비에 따른 양쪽에 상기 차량의 주행 방향에 대응되는 직선 파라미터를 초기값으로 설정하는 단계; 및Setting a straight line parameter corresponding to a driving direction of the vehicle as an initial value on both sides of a lane width based on the position of the vehicle; And 상기 차선 영역으로 분류된 라이다 포인트를 이용하여 상기 직선 파라미터를 업데이트 하는 단계Updating the straight line parameters using lidar points classified into the lane area. 를 포함하는 방법.How to include. 제6항에 있어서,The method of claim 6, 상기 차선으로 검출된 라이다 포인트를 지도에 표기할 좌표 값으로 계산하여 제공하는 단계Calculating and providing a lidar point detected as the lane as a coordinate value to be displayed on a map 를 더 포함하는 방법.How to include more. 컴퓨터로 구현되는 시스템에 있어서,In a computer implemented system, 컴퓨터가 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서At least one processor implemented to execute computer-readable instructions 를 포함하고,Including, 상기 적어도 하나의 프로세서는,The at least one processor, 차량에 탑재된 다채널 라이다(lidar) 센서로부터 전방위 스캔에 따른 포인트 형태의 라이다 데이터를 취득하는 라이다 데이터 취득부; 및A lidar data acquisition unit for acquiring point-based lidar data according to an omnidirectional scan from a multichannel lidar sensor mounted in a vehicle; And 상기 다채널 라이다 센서로부터 취득한 라이다 포인트에서 이웃하는 채널 간의 라이다 포인트의 경사도를 이용하여 상기 차량이 주행 가능한 도로 영역을 검출하는 도로 영역 검출부A road area detection unit detects a road area in which the vehicle can travel using the inclination of the rider points between neighboring channels at the rider points acquired from the multichannel rider sensors. 를 포함하는 시스템.System comprising a.
PCT/KR2016/014565 2016-11-30 2016-12-13 Method for detecting road region and lane by using lidar data, and system therefor Ceased WO2018101526A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0161070 2016-11-30
KR1020160161070A KR101843866B1 (en) 2016-11-30 2016-11-30 Method and system for detecting road lane using lidar data

Publications (1)

Publication Number Publication Date
WO2018101526A1 true WO2018101526A1 (en) 2018-06-07

Family

ID=62188055

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/014565 Ceased WO2018101526A1 (en) 2016-11-30 2016-12-13 Method for detecting road region and lane by using lidar data, and system therefor

Country Status (2)

Country Link
KR (1) KR101843866B1 (en)
WO (1) WO2018101526A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109917418A (en) * 2019-03-28 2019-06-21 安徽理工大学 A method for measuring the non-reflection area of lidar
CN110609268A (en) * 2018-11-01 2019-12-24 驭势科技(北京)有限公司 A laser radar calibration method, device, system and storage medium
TWI690439B (en) * 2018-11-01 2020-04-11 財團法人車輛研究測試中心 Lane stripe detecting method based on three-dimensional lidar and system thereof
CN113085877A (en) * 2019-12-23 2021-07-09 深圳市大富科技股份有限公司 Method for detecting positional relationship and vehicle driving assistance system
CN113581184A (en) * 2021-08-25 2021-11-02 京东鲲鹏(江苏)科技有限公司 Method, device, equipment and medium for determining maximum passable area
KR102333828B1 (en) * 2021-07-21 2021-12-03 (주)뷰런테크놀로지 Lane detection method and system based on lidar data
US12062241B2 (en) 2021-05-12 2024-08-13 Hyundai Motor Company Lane recognition device and method based on LIDAR for vehicle

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110909577B (en) * 2018-09-18 2023-11-17 上汽通用汽车有限公司 Road surface feature classification and identification method based on signal similarity distance
KR102083909B1 (en) 2018-10-23 2020-03-04 주식회사 모빌테크 Automatic extraction method for lane data information for autonomous driving vehicles based on point cloud map
KR102069666B1 (en) 2018-11-14 2020-01-23 주식회사 모빌테크 Real time driving route setting method for autonomous driving vehicles based on point cloud map
KR102103941B1 (en) 2018-11-14 2020-04-23 주식회사 모빌테크 Road and lane data real-time update method for autonomous driving vehicles based on point cloud map
KR102504229B1 (en) * 2018-12-18 2023-02-28 현대자동차주식회사 Driving control system and method of autonomous traveling vehicle
CN113177427B (en) * 2020-01-23 2025-02-25 宝马股份公司 Road prediction method and autonomous driving method, vehicle and device
CN113740355B (en) * 2020-05-29 2023-06-20 清华大学 Boundary protection method and system for a radiation detection robot
KR102371849B1 (en) 2020-10-29 2022-03-11 주식회사 드림티엔에스 Method of lane extraction
KR102414647B1 (en) * 2020-11-02 2022-06-30 주식회사 맵퍼스 System and method for extracting lane data using mobile mapping system
KR102367138B1 (en) 2021-10-13 2022-02-25 (주)뷰런테크놀로지 Method of detection crosswalk using lidar sensor and crosswalk detection device performing method
CN117111089B (en) * 2023-10-24 2024-02-02 青岛慧拓智能机器有限公司 Method, system, equipment and storage medium for identifying availability state of ore card unloading point

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070181810A1 (en) * 2006-02-06 2007-08-09 Tan Michael R T Vertical cavity surface emitting laser (VCSEL) array laser scanner
KR20130096012A (en) * 2012-02-21 2013-08-29 현대엠엔소프트 주식회사 Method for calculating the curve radius and the longitudinal/transverse gradient of the road using the lidar data
WO2014073869A1 (en) * 2012-11-07 2014-05-15 자동차부품연구원 Curve speed warning method
US20140336842A1 (en) * 2013-05-09 2014-11-13 Hyundai Motor Company System and method for detecting road surface conditions
US20160178802A1 (en) * 2014-12-22 2016-06-23 GM Global Technology Operations LLC Road surface reflectivity detection by lidar sensor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070181810A1 (en) * 2006-02-06 2007-08-09 Tan Michael R T Vertical cavity surface emitting laser (VCSEL) array laser scanner
KR20130096012A (en) * 2012-02-21 2013-08-29 현대엠엔소프트 주식회사 Method for calculating the curve radius and the longitudinal/transverse gradient of the road using the lidar data
WO2014073869A1 (en) * 2012-11-07 2014-05-15 자동차부품연구원 Curve speed warning method
US20140336842A1 (en) * 2013-05-09 2014-11-13 Hyundai Motor Company System and method for detecting road surface conditions
US20160178802A1 (en) * 2014-12-22 2016-06-23 GM Global Technology Operations LLC Road surface reflectivity detection by lidar sensor

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110609268A (en) * 2018-11-01 2019-12-24 驭势科技(北京)有限公司 A laser radar calibration method, device, system and storage medium
TWI690439B (en) * 2018-11-01 2020-04-11 財團法人車輛研究測試中心 Lane stripe detecting method based on three-dimensional lidar and system thereof
CN109917418A (en) * 2019-03-28 2019-06-21 安徽理工大学 A method for measuring the non-reflection area of lidar
CN109917418B (en) * 2019-03-28 2023-04-07 安徽理工大学 Method for measuring non-reflection area of laser radar
CN113085877A (en) * 2019-12-23 2021-07-09 深圳市大富科技股份有限公司 Method for detecting positional relationship and vehicle driving assistance system
US12062241B2 (en) 2021-05-12 2024-08-13 Hyundai Motor Company Lane recognition device and method based on LIDAR for vehicle
KR102333828B1 (en) * 2021-07-21 2021-12-03 (주)뷰런테크놀로지 Lane detection method and system based on lidar data
CN113581184A (en) * 2021-08-25 2021-11-02 京东鲲鹏(江苏)科技有限公司 Method, device, equipment and medium for determining maximum passable area

Also Published As

Publication number Publication date
KR101843866B1 (en) 2018-05-14

Similar Documents

Publication Publication Date Title
WO2018101526A1 (en) Method for detecting road region and lane by using lidar data, and system therefor
EP3759562B1 (en) Camera based localization for autonomous vehicles
US10048691B2 (en) Distinguishing lane markings for a vehicle to follow
KR102815456B1 (en) Learning data generation method for image processing, image processing method, and apparatus thereof
US11341754B2 (en) Method and apparatus for auto calibration
CN111874006B (en) Route planning processing method and device
US20230102802A1 (en) Map change detection
CN111856491B (en) Method and apparatus for determining geographic position and orientation of a vehicle
WO2012011713A2 (en) System and method for traffic lane recognition
CN111780771B (en) Positioning method, positioning device, electronic equipment and computer readable storage medium
CN111753797B (en) Vehicle speed measuring method based on video analysis
JP2023508705A (en) Data transmission method and device
US20240246570A1 (en) Path planning system and path planning method thereof
CN111381585B (en) Method and device for constructing occupied grid map and related equipment
WO2021241834A1 (en) Virtual lane generation apparatus and method based on traffic flow information perception for autonomous driving in adverse weather conditions
CN115015964A (en) A road edge detection method, device, terminal device and storage medium
WO2012011715A2 (en) Vehicle collision warning system and method therefor
CN110008891A (en) A kind of pedestrian detection localization method, device, cart-mounted computing device and storage medium
JP6097533B2 (en) In-vehicle image processing device
JP7259309B2 (en) Image processing device and image processing method
KR20240048748A (en) Method and apparatus of determinig line information
CN118149797B (en) Grid map construction method, device, computer equipment and storage medium
JP7252750B2 (en) Image processing device and image processing method
KR102622578B1 (en) Apparatus and method for generating precise map
Qian et al. Building and climbing based visual navigation framework for self-driving cars

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16922972

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16922972

Country of ref document: EP

Kind code of ref document: A1