WO2018101526A1 - Method for detecting road region and lane by using lidar data, and system therefor - Google Patents
Method for detecting road region and lane by using lidar data, and system therefor Download PDFInfo
- Publication number
- WO2018101526A1 WO2018101526A1 PCT/KR2016/014565 KR2016014565W WO2018101526A1 WO 2018101526 A1 WO2018101526 A1 WO 2018101526A1 KR 2016014565 W KR2016014565 W KR 2016014565W WO 2018101526 A1 WO2018101526 A1 WO 2018101526A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- lidar
- lane
- vehicle
- points
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/076—Slope angle of the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/15—Road slope, i.e. the inclination of a road segment in the longitudinal direction
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/35—Road bumpiness, e.g. potholes
Definitions
- the following description relates to a technology for detecting a road area and a lane in which a vehicle can travel.
- a lane detection method may be classified into a model-based, feature point-based, and area-based detection method.
- Korean Patent Laid-Open Publication No. 10-2011-0046607 (published May 06, 2011) uses a HSV color model and an edge model to extract a lane feature from a camera image and then extracts a bay from the lane feature.
- a technique for detecting a lane through a decision rule is disclosed.
- a method and system that can accurately detect lanes on a driveable area of a road using lidar data.
- a computer-implemented method comprising the steps of: acquiring point-type lidar data from a multichannel lidar sensor mounted on a vehicle; And detecting a road area in which the vehicle may travel using the inclination of the lidar point between neighboring channels at the lidar point acquired from the multi-channel lidar sensor.
- the acquiring may include acquiring a lidar point of a radial form according to an omnidirectional scan through the multichannel lidar sensor.
- the detecting of the road area may include: calculating an inclination of a lidar point between neighboring channels for each scan angle of the multichannel lidar sensor; And detecting the road area by classifying a rider point having the slope less than or equal to a predetermined threshold value.
- the step of calculating the inclination it is possible to calculate the inclination of the lidar point between the neighboring channels in a direction away from the vehicle from the lidar point scanning the closest to the vehicle.
- the threshold value may be set according to a road surface requirement including a shape of a road or irregularities.
- the method may further include detecting a lane in the road area by using the reflection intensity of a lidar point included in the road area.
- the detecting of the lane may detect the lane by classifying a lidar point having a reflection intensity of a predetermined value or more among the lidar points included in the road area.
- the detecting of the lane may include: classifying a lidar point having a reflection intensity of a predetermined value or more among lidar points included in the road area; Setting a straight line parameter based on the position and driving direction of the vehicle; And classifying a lidar point included in a line of the parameter or located within a set range among the classified lidar points into a lane area.
- the setting of the straight line parameter may include: setting a straight line parameter corresponding to a driving direction of the vehicle as an initial value on both sides of a lane width based on the position of the vehicle; And updating the straight line parameter by using a Lidar point classified into the lane area.
- the method may further include calculating and providing a Lidar point detected as the lane as a coordinate value to be displayed on a map.
- the road area and lane detection method is obtained from a multichannel lidar sensor mounted on a vehicle.
- Acquiring LiDAR data in the form of points Detecting a road area in which the vehicle can travel using the inclination of the rider points between neighboring channels at the rider points acquired from the multichannel rider sensors; And detecting a lane on the corresponding road area by classifying a rider point corresponding to a linear parameter set based on the position and driving direction of the vehicle among the rider points included in the road area. do.
- a computer-implemented system comprising: at least one processor configured to execute computer-readable instructions, the at least one processor being configured to perform an omni-directional scan from a multichannel lidar sensor mounted on a vehicle.
- a rider data acquisition unit for obtaining rider data in the form of points;
- a road area detector configured to detect a road area in which the vehicle may travel by using an inclination of a rider point between neighboring channels at a rider point obtained from the multichannel rider sensor.
- the slope or partial loss of the road itself is detected by detecting the road region based on the inclination between points using LiDAR data, instead of simply detecting the road region satisfying the plane condition.
- the driving area on the road can be more robustly detected.
- the lane is classified in the lane capable of driving on the road by classifying the lidar data on the road included in the straight line into lanes. It can be accurately distinguished from other road surface markings such as arrows, crosswalks, crosswalk notices, stop lines, and the like.
- FIG. 1 is a block diagram illustrating an example of an internal configuration of a computer system according to an embodiment of the present invention.
- FIG. 2 illustrates an example of components that may be included in a processor of a computer system according to an exemplary embodiment of the present invention.
- FIG. 3 is a flowchart illustrating an example of a road area and a lane detection method which may be performed by a computer system according to an exemplary embodiment of the present invention.
- FIG. 4 illustrates an example of a multichannel lidar sensor in one embodiment of the present invention.
- FIG. 5 is an exemplary diagram for describing a process of classifying a road area that may be driven according to an embodiment of the present invention.
- FIG. 6 is an exemplary diagram for describing a process of classifying road markings according to an exemplary embodiment of the present invention.
- FIG. 7 is an exemplary diagram for describing a process of classifying a lane among road markings according to an exemplary embodiment of the present invention.
- Embodiments of the present invention relate to a technique for detecting a road area and a lane capable of driving a vehicle using lidar data.
- Embodiments can achieve accurate road area and lane detection using lidar data, thereby achieving significant advantages in terms of accuracy, efficiency, speed, cost savings, and the like. .
- FIG. 1 is a block diagram illustrating an example of an internal configuration of a computer system according to an embodiment of the present invention.
- a road area and lane detection system may be implemented through the computer system 100 of FIG. 1.
- the computer system 100 is a processor 110, a memory 120, a permanent storage device 130, a bus 140, and input / output as components for executing a road area and lane detection method. It may include an interface 150 and a network interface 160.
- the processor 110 may include or be part of any device capable of processing a sequence of instructions as a component for detecting a road area and lane capable of driving using lidar data.
- Processor 110 may include, for example, a processor within a computer processor, mobile device or other electronic device, and / or a digital processor.
- the processor 110 may be included in, for example, a server computing device, a server computer, a series of server computers, a server farm, a cloud computer, a content platform, and the like.
- the processor 110 may be connected to the memory 120 through the bus 140.
- Memory 120 may include volatile memory, permanent, virtual, or other memory for storing information used by or output by computer system 100.
- the memory 120 may include, for example, random access memory (RAM) and / or dynamic RAM (DRAM).
- RAM random access memory
- DRAM dynamic RAM
- Memory 120 may be used to store any information, such as status information of computer system 100.
- the memory 120 may also be used to store instructions of the computer system 100, including, for example, instructions for detecting a driveable area of a road and a lane.
- Computer system 100 may include one or more processors 110 as needed or where appropriate.
- Bus 140 may include a communication infrastructure that enables interaction between various components of computer system 100.
- Bus 140 may carry data, for example, between components of computer system 100, for example, between processor 110 and memory 120.
- Bus 140 may include wireless and / or wired communication media between components of computer system 100 and may include parallel, serial, or other topology arrangements.
- Persistent storage 130 is a component, such as a memory or other persistent storage, such as used by computer system 100 to store data for some extended period of time (eg, relative to memory 120). Can include them. Persistent storage 130 may include non-volatile main memory as used by processor 110 in computer system 100. Persistent storage 130 may include, for example, flash memory, hard disk, optical disk, or other computer readable medium.
- the input / output interface 150 may include interfaces for a keyboard, mouse, voice command input, display, or other input or output device. Configuration commands and / or inputs for road area and lane detection may be received via the input / output interface 150.
- Network interface 160 may include one or more interfaces to networks such as a local area network or the Internet.
- Network interface 160 may include interfaces for wired or wireless connections. Configuration commands and / or input for road area and lane detection may be received via network interface 160.
- computer system 100 may include more components than the components of FIG. 1. However, it is not necessary to clearly show most of the prior art components.
- the computer system 100 may be implemented to include at least some of the input / output devices connected to the input / output interface 150 described above, or may include a transceiver, a global positioning system (GPS) module, a camera, various sensors, It may further include other components such as a database.
- GPS global positioning system
- Embodiments of the present invention relate to a technology for detecting a road area and a lane that can be driven using LiDAR data, which may be applied to a vehicle driving assistance system such as free driving or unmanned driving, but is not limited thereto.
- FIG. 2 is a diagram illustrating an example of components that may be included in a processor of a computer system according to an embodiment of the present invention
- FIG. 3 is a road area that may be performed by the computer system according to an embodiment of the present invention.
- an example of a lane detection method is also included in a processor of a computer system according to an embodiment of the present invention.
- the processor 110 may include a LiDAR data acquisition unit 210, a road area detection unit 220, a lane detection unit 230, and a lane coordinate providing unit 240.
- the components of such a processor 110 may be representations of different functions performed by the processor 110 in accordance with a control instruction provided by at least one program code.
- the lidar data acquisition unit 210 can be used as a functional representation that the processor 110 operates to control the computer system 100 to acquire lidar data.
- the processor 110 and the components of the processor 110 may perform steps S310 to S350 included in the road area and lane detection method of FIG. 3.
- the processor 110 and the components of the processor 110 may be implemented to execute instructions according to the code of the operating system included in the memory 120 and the at least one program code described above.
- the at least one program code may correspond to a code of a program implemented to process the road area and the lane detection method.
- the road area and lane detection methods may not occur in the order shown, and some of the steps may be omitted or additional processes may be included.
- the processor 110 may load program code stored in a program file for a road area and a lane detection method, into the memory 120.
- the program file for the road area and the lane detection method may be stored in the persistent storage 130 described with reference to FIG. 1, and the processor 110 may store the program stored in the persistent storage 130 through a bus.
- Computer system 110 may be controlled such that program code from a file is loaded into memory 120.
- each of the processor 110 and the lidar data acquisition unit 210, the road area detection unit 220, the lane detection unit 230, and the lane coordinate providing unit 240 included in the memory 120 is included in the memory 120.
- processor 110 may be different functional representations of the processor 110 for executing instructions of a corresponding portion of the program code loaded in to execute subsequent steps S320 to S350.
- the processor 110 and the components of the processor 110 may directly process an operation according to a control command or control the computer system 100.
- the lidar data acquisition unit 210 performs a point-type lidar data according to an omnidirectional scan around the vehicle from the multichannel lidar sensor through a wired or wireless connection with the multichannel lidar sensor mounted in the vehicle. (Hereinafter referred to as 'lidar point') can be obtained.
- the lidar data acquisition unit 210 may control a multi-channel lidar sensor having a scan angle of 360 degrees to acquire a lidar point according to the omnidirectional scan.
- the lidar point may include a value indicating a distance from the lidar sensor and a value indicating the reflection intensity.
- the multi-channel lidar sensor used in the present invention, laser scanners as many as the number of channels are arranged in a line in the up and down direction to shoot light and return the light to measure distance and reflection intensity for each channel.
- the multi-channel lidar sensor has a mirror that reflects light in the sensor for omnidirectional scanning, so that the mirror rotates 360 degrees to measure the distance and reflection intensity of the omnidirectional surrounding the vehicle.
- the lidar data acquisition unit 210 may acquire lidar points having the same scan angle at the same time as the number of channels. As the mirror rotates within the sensor, ie the scanning angle changes, the LiDa points accumulate at a high rate.
- the degree of denseness of the scan angle is different for each lidar sensor.
- the lidar data is used.
- the acquisition unit 210 may acquire 32 LiDa points in units of 1.33 degrees through the multi-channel LiDAR sensor 40.
- the lidar points acquired through 32 channels while the mirror rotates 360 degrees in the multi-channel lidar sensor 40 form a radial shape according to the omnidirectional scan around the sensor position.
- the road area detection unit 220 has a rider point having an inclination less than or equal to a threshold value based on the inclination of the rider points between neighboring channels at the rider point acquired from the multichannel rider sensor.
- a threshold value based on the inclination of the rider points between neighboring channels at the rider point acquired from the multichannel rider sensor.
- the road area detector 220 may calculate the inclination between the lidar points scanned in the neighboring channels for the same point in time and the same scan angle among the lidar points in order to calculate the inclination between the lidar points in a radial form.
- the road area detection unit 220 calculates the inclination of the rider points between neighboring channels from the rider point nearest to the position of the rider sensor, and the rider points between neighboring channels from the position of the rider sensor.
- the road region may be classified to a point before the slope of the crossover exceeds a predetermined threshold value.
- the road area detection unit 220 may classify the road area for 360 degrees by repeating the above method for each scan angle.
- FIG. 5 is an exemplary diagram for describing a process of classifying a road area according to an embodiment of the present invention. Assuming that the vehicle 50 equipped with the multi-channel lidar sensor is currently located on the road, the lidar points in the radial form according to the 360-degree omnidirectional scan about the vehicle 50 through the multi-channel lidar sensor 501 can be obtained.
- a threshold value which is a criterion for classifying road areas, may be set in consideration of road requirements such as the shape of a road and general unevenness.
- the road area detector 220 calculates the inclination of the lidar point X between neighboring channels at the same scan angle 51, and when the inclination exceeds a specific threshold, the scan angle 51. ) Can be classified into the road area 503 from the position of the vehicle 50 to the lidar point just before the threshold is exceeded, and this process is repeated for each scan angle to form the road area for 360 degrees. Can be classified.
- the inclination between the points is calculated in a radial form around the sensor position (that is, the vehicle), and when the distribution of the points is maintained below a specific inclination, it may be classified as a road area that can be driven.
- This method still classifies some of the irregularities caused by the convex shape of a typical road or partial breakage or renovation into the road area, but it can be classified as a low but abrupt slope change point such as a road curb, a road divider, a sight bar, or a parked area. After the point where obstacles such as other vehicles are located, it is possible to effectively classify the non-driving area.
- the lane detection unit 230 classifies the rider points corresponding to the linear parameters set based on the position and the driving direction of the vehicle among the rider points classified as the road areas in step S340. Lanes can be detected.
- the lidar point may include a value indicating a reflection intensity, together with a value indicating a distance to the multichannel lidar sensor.
- Various road markings such as direction arrows, crosswalks, pedestrian crossing notices, stop lines, etc., including lanes in the road area are made by painting with paint, and the paint on the road markings has a certain intensity of reflection over the lidar. do.
- 6 to 7 are exemplary diagrams for describing a process of detecting a lane according to an embodiment of the present invention.
- the lane detection unit 230 includes a rider point corresponding to a road surface display of rider points 605 having a reflection intensity of a predetermined value or more, among the rider points classified as the road area 503. Can be classified as
- the lane detecting unit 230 first classifies the position of the current lidar sensor, that is, the vehicle 50, in order to classify the lidar point corresponding to the lane among the lidar points 605 corresponding to the road surface display, as shown in FIG. 7.
- the straight line parameter 707 extending in the driving direction of the vehicle 50 may be set as an initial value at both sides of the standard space to the lane width of the standard.
- the lane detector 230 may classify the lidar points included in the line of the linear parameter 707 among the lidar points 605 corresponding to the road surface display or located within a predetermined range as the lane area.
- the lane detection unit 230 may update the straight line parameter 707 by using a Lidar point classified into the lane area.
- the lane detection unit 230 may repeatedly apply an prediction-maximization algorithm that updates the linear parameter 707 with a newly found lidar point in the lane area.
- the surrounding environment of the vehicle 50 changes as the vehicle 50 travels until the omnidirectional scan of the next cycle is made, and since the position of the lane is likely to be similar to the previous position, the lidar data included in the previous straight line parameter is included. Repeat the classification and update of straight line parameters. Using this method, even if the vehicle 50 changes lanes while driving, the lanes may be continuously detected based on the updated straight line parameters while continuously updating the straight line parameters as the reference for lane detection. According to the performance of the lidar sensor, it is possible to stably classify four lanes corresponding to three lanes at a time, and since the parameter update occurs frequently in the scan area close to the lidar sensor, processing for the curved lane is not necessary. .
- the lane coordinate providing unit 240 may calculate coordinates corresponding to Lidar points classified as lanes and provide them as coordinate values for lane marking on a map.
- the lane coordinate providing unit 240 may store LiDAR points classified into lane areas based on a straight line parameter and calculate points connecting them at regular intervals, and calculate GPS coordinates corresponding to the calculated points. Can be specified as a coordinate value for lane marking on the map.
- the lane coordinate providing unit 240 may calculate and provide a point divided into lanes as a set of GPS coordinate points to be expressed as a lane on the map.
- the road area may be detected by detecting the road area based on the inclination between points using lidar data, instead of simply detecting the road area satisfying the plane condition.
- the roadside area can be detected more robustly.
- the lidar data on the road included in the straight line is classified as a lane, and the lane in the available area on the road. Can be accurately distinguished from other road surface markings such as directional arrows, crosswalks, crosswalk notices, stop lines, and the like.
- the apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components.
- the devices and components described in the embodiments may include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable PLU (programmable). It can be implemented using one or more general purpose or special purpose computers, such as logic units, microprocessors, or any other device capable of executing and responding to instructions.
- the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
- the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
- OS operating system
- the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
- processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include.
- the processing device may include a plurality of processors or one processor and one controller.
- other processing configurations are possible, such as parallel processors.
- the software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device.
- Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. It can be embodied in.
- the software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner.
- Software and data may be stored on one or more computer readable recording media.
- the method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
- the medium may be to continuously store a program executable by the computer, or to temporarily store for execution or download.
- the medium may be a variety of recording means or storage means in the form of a single or several hardware combined, not limited to a medium directly connected to any computer system, it may be distributed on the network. Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And ROM, RAM, flash memory, and the like, configured to store program instructions.
- examples of another medium may include a recording medium or a storage medium managed by an app store that distributes an application, a site that supplies or distributes various software, a server, or the like.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
아래의 설명은 차량의 주행이 가능한 도로 영역과 차선을 검출하는 기술에 관한 것이다.The following description relates to a technology for detecting a road area and a lane in which a vehicle can travel.
최근에는 자유 주행, 무인 주행 등의 차량 운전 보조 시스템이 연구 및 개발되고 있다. 따라서, 차량 운전 보조 시스템을 위해 도로에 그려진 차선을 검출할 필요가 있으며 이에 대한 다양한 방법들이 함께 연구되고 있다.Recently, vehicle driving assistance systems such as free running and unmanned driving have been researched and developed. Therefore, there is a need to detect a lane drawn on a road for a vehicle driving assistance system, and various methods have been studied together.
종래의 경우 차선을 검출하는 방법은 모델 기반, 특징점 기반, 영역 기반의 검출 방식으로 분류가 가능하다. 차선 검출 기술의 일례로, 한국 공개특허공보 제10-2011-0046607호(공개일 2011년 05월 06일)에는 HSV 색상 모델과 에지 모델을 이용하여 카메라 영상에서 차선 특징을 추출한 후 차선 특징으로부터 베이즈 결정 규칙을 통해 차선을 검출하는 기술이 개시되어 있다.In the conventional case, a lane detection method may be classified into a model-based, feature point-based, and area-based detection method. As an example of lane detection technology, Korean Patent Laid-Open Publication No. 10-2011-0046607 (published May 06, 2011) uses a HSV color model and an edge model to extract a lane feature from a camera image and then extracts a bay from the lane feature. A technique for detecting a lane through a decision rule is disclosed.
기존에는 카메라 영상에서 차선을 검출하기 위해서는 여러 단계의 복잡한 영상 처리를 수행해야 하며 비교적 많은 처리 절차에 따라 연산 시간이 많이 소요되는 단점이 있다. 또한, 카메라의 경우 빛이 존재하지 않는 어두운 환경과 빛이 매우 강한 환경 모두에서 장애물의 유무와 종류 등 어떠한 데이터도 획득할 수 없기 때문에 외부 환경 조건에 따라 차선 검출이 어려운 문제가 있다.Conventionally, in order to detect a lane in a camera image, a complicated image processing of several steps must be performed, and computational time is required according to a relatively large number of processing procedures. In addition, since the camera cannot acquire any data such as the presence and type of obstacles in both a dark environment where light does not exist and a very strong light environment, lane detection is difficult according to external environmental conditions.
이에, 최근에는 라이다(lidar, laser radar) 데이터를 기반으로 한 차선 검출 기술에 대한 연구가 진행되고 있다.Recently, research on lane detection technology based on lidar (laser radar) data has been conducted.
라이다 데이터를 이용하여 도로의 실질적인 주행 가능 영역을 정확하게 검출할 수 있는 방법 및 시스템을 제공한다.Provided are methods and systems that can accurately detect a substantial driveable area of a roadway using lidar data.
라이다 데이터를 이용하여 도로의 주행 가능 영역 상의 차선을 정확하게 검출할 수 있는 방법 및 시스템을 제공한다.Provided is a method and system that can accurately detect lanes on a driveable area of a road using lidar data.
컴퓨터로 구현되는 방법에 있어서, 차량에 탑재된 다채널 라이다(lidar) 센서로부터 포인트 형태의 라이다 데이터를 취득하는 단계; 및 상기 다채널 라이다 센서로부터 취득한 라이다 포인트에서 이웃하는 채널 간의 라이다 포인트의 경사도를 이용하여 상기 차량이 주행 가능한 도로 영역을 검출하는 단계를 포함하는 방법을 제공한다.A computer-implemented method comprising the steps of: acquiring point-type lidar data from a multichannel lidar sensor mounted on a vehicle; And detecting a road area in which the vehicle may travel using the inclination of the lidar point between neighboring channels at the lidar point acquired from the multi-channel lidar sensor.
일 측면에 따르면, 상기 취득하는 단계는, 상기 다채널 라이다 센서를 통한 전방위 스캔에 따른 방사 형태의 라이다 포인트를 취득할 수 있다.According to an aspect, the acquiring may include acquiring a lidar point of a radial form according to an omnidirectional scan through the multichannel lidar sensor.
다른 측면에 따르면, 상기 도로 영역을 검출하는 단계는, 상기 다채널 라이다 센서의 스캔 각도 각각에 대하여 이웃하는 채널 간의 라이다 포인트의 경사도를 산출하는 단계; 및 상기 경사도가 사전에 정해진 문턱 값 이하인 라이다 포인트를 분류함으로써 상기 도로 영역을 검출하는 단계를 포함할 수 있다.According to another aspect, the detecting of the road area may include: calculating an inclination of a lidar point between neighboring channels for each scan angle of the multichannel lidar sensor; And detecting the road area by classifying a rider point having the slope less than or equal to a predetermined threshold value.
또 다른 측면에 따르면, 상기 경사도를 산출하는 단계는, 상기 차량과 가장 가까운 곳을 스캔한 라이다 포인트부터 상기 차량에서 멀어지는 방향으로 이웃하는 채널 간의 라이다 포인트의 경사도를 산출할 수 있다.According to another aspect, the step of calculating the inclination, it is possible to calculate the inclination of the lidar point between the neighboring channels in a direction away from the vehicle from the lidar point scanning the closest to the vehicle.
또 다른 측면에 따르면, 상기 문턱 값은 도로의 모양이나 요철을 포함하는 노면 요건에 따라 설정될 수 있다.According to another aspect, the threshold value may be set according to a road surface requirement including a shape of a road or irregularities.
또 다른 측면에 따르면, 상기 도로 영역에 포함된 라이다 포인트의 반사 강도를 이용하여 상기 도로 영역 내에서 차선을 검출하는 단계를 더 포함할 수 있다.According to another aspect, the method may further include detecting a lane in the road area by using the reflection intensity of a lidar point included in the road area.
또 다른 측면에 따르면, 상기 차선을 검출하는 단계는, 상기 도로 영역에 포함된 라이다 포인트 중 사전에 정해진 일정 값 이상의 반사 강도를 가지는 라이다 포인트를 분류함으로써 상기 차선을 검출할 수 있다.According to another aspect, the detecting of the lane may detect the lane by classifying a lidar point having a reflection intensity of a predetermined value or more among the lidar points included in the road area.
또 다른 측면에 따르면, 상기 차선을 검출하는 단계는, 상기 도로 영역에 포함된 라이다 포인트 중 사전에 정해진 일정 값 이상의 반사 강도를 가지는 라이다 포인트를 분류하는 단계; 상기 차량의 위치와 주행 방향을 기준으로 직선의 파라미터를 설정하는 단계; 및 상기 분류된 라이다 포인트 중 상기 파라미터의 선 상에 포함되거나 설정 범위 이내에 위치한 라이다 포인트를 차선 영역으로 분류하는 단계를 포함할 수 있다.According to another aspect, the detecting of the lane may include: classifying a lidar point having a reflection intensity of a predetermined value or more among lidar points included in the road area; Setting a straight line parameter based on the position and driving direction of the vehicle; And classifying a lidar point included in a line of the parameter or located within a set range among the classified lidar points into a lane area.
또 다른 측면에 따르면, 상기 직선의 파라미터를 설정하는 단계는, 상기 차량의 위치를 기준으로 차선 너비에 따른 양쪽에 상기 차량의 주행 방향에 대응되는 직선 파라미터를 초기값으로 설정하는 단계; 및 상기 차선 영역으로 분류된 라이다 포인트를 이용하여 상기 직선 파라미터를 업데이트 하는 단계를 포함할 수 있다.According to another aspect, the setting of the straight line parameter may include: setting a straight line parameter corresponding to a driving direction of the vehicle as an initial value on both sides of a lane width based on the position of the vehicle; And updating the straight line parameter by using a Lidar point classified into the lane area.
또 다른 측면에 따르면, 상기 차선으로 검출된 라이다 포인트를 지도에 표기할 좌표 값으로 계산하여 제공하는 단계를 더 포함할 수 있다.According to another aspect, the method may further include calculating and providing a Lidar point detected as the lane as a coordinate value to be displayed on a map.
컴퓨터 시스템과 결합되어 도로 영역과 차선 검출 방법을 실행시키기 위해 컴퓨터 판독 가능한 기록 매체에 기록된 컴퓨터 프로그램에 있어서, 상기 도로 영역과 차선 검출 방법은, 차량에 탑재된 다채널 라이다(lidar) 센서로부터 포인트 형태의 라이다 데이터를 취득하는 단계; 상기 다채널 라이다 센서로부터 취득한 라이다 포인트에서 이웃하는 채널 간의 라이다 포인트의 경사도를 이용하여 상기 차량이 주행 가능한 도로 영역을 검출하는 단계; 및 상기 도로 영역에 포함된 라이다 포인트 중 상기 차량의 위치와 주행 방향을 기준으로 설정된 직선 파리미터와 대응되는 라이다 포인트를 분류함으로써 해당 도로 영역 상의 차선을 검출하는 단계를 포함하는, 컴퓨터 프로그램을 제공한다.In a computer program coupled to a computer system and recorded on a computer-readable recording medium for executing a road area and lane detection method, the road area and lane detection method is obtained from a multichannel lidar sensor mounted on a vehicle. Acquiring LiDAR data in the form of points; Detecting a road area in which the vehicle can travel using the inclination of the rider points between neighboring channels at the rider points acquired from the multichannel rider sensors; And detecting a lane on the corresponding road area by classifying a rider point corresponding to a linear parameter set based on the position and driving direction of the vehicle among the rider points included in the road area. do.
컴퓨터로 구현되는 시스템에 있어서, 컴퓨터가 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 차량에 탑재된 다채널 라이다(lidar) 센서로부터 전방위 스캔에 따른 포인트 형태의 라이다 데이터를 취득하는 라이다 데이터 취득부; 및 상기 다채널 라이다 센서로부터 취득한 라이다 포인트에서 이웃하는 채널 간의 라이다 포인트의 경사도를 이용하여 상기 차량이 주행 가능한 도로 영역을 검출하는 도로 영역 검출부를 포함하는 시스템을 제공한다.A computer-implemented system, comprising: at least one processor configured to execute computer-readable instructions, the at least one processor being configured to perform an omni-directional scan from a multichannel lidar sensor mounted on a vehicle. A rider data acquisition unit for obtaining rider data in the form of points; And a road area detector configured to detect a road area in which the vehicle may travel by using an inclination of a rider point between neighboring channels at a rider point obtained from the multichannel rider sensor.
본 발명의 실시예들에 따르면, 단순히 평면 조건을 만족시키는 도로 영역을 검출하는 것이 아닌, 라이다 데이터를 이용한 포인트 간 경사도를 바탕으로 도로 영역을 검출함으로써 도로 자체가 가지고 있는 경사도, 혹은 부분적인 손실이나 보수 공사로 인한 울퉁불퉁함이나 과속 방지 턱 등의 여러 노면 요건에도 불구하고 도로 상의 주행 가능 영역을 더욱 강인하게 검출할 수 있다.According to the embodiments of the present invention, the slope or partial loss of the road itself is detected by detecting the road region based on the inclination between points using LiDAR data, instead of simply detecting the road region satisfying the plane condition. In spite of various road surface requirements such as bumps or speed bumps caused by renovation work, the driving area on the road can be more robustly detected.
본 발명의 실시예들에 따르면, 차량의 위치와 주행 방향을 기준으로 한 직선의 파라미터를 이용하여 해당 직선에 포함되는 도로 상의 라이다 데이터를 차선으로 분류함으로써 도로 상의 주행 가능 영역에서 차선을 방향 지시 화살표, 횡단보도, 횡단보도 예고, 정지선 등과 같은 다른 노면 표시(road surface marking)와 정확히 구별하여 검출할 수 있다.According to embodiments of the present invention, by using the parameters of a straight line on the basis of the position and the driving direction of the vehicle, the lane is classified in the lane capable of driving on the road by classifying the lidar data on the road included in the straight line into lanes. It can be accurately distinguished from other road surface markings such as arrows, crosswalks, crosswalk notices, stop lines, and the like.
도 1은 본 발명의 일 실시예에 있어서 컴퓨터 시스템의 내부 구성의 일례를 설명하기 위한 블록도이다.1 is a block diagram illustrating an example of an internal configuration of a computer system according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 컴퓨터 시스템의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이다.2 illustrates an example of components that may be included in a processor of a computer system according to an exemplary embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 컴퓨터 시스템이 수행할 수 있는 도로 영역과 차선 검출 방법의 예를 도시한 순서도이다.3 is a flowchart illustrating an example of a road area and a lane detection method which may be performed by a computer system according to an exemplary embodiment of the present invention.
도 4는 본 발명의 일 실시예에 있어서 다채널 라이다 센서의 예시를 도시한 것이다.4 illustrates an example of a multichannel lidar sensor in one embodiment of the present invention.
도 5는 본 발명의 일 실시예에 있어서 주행 가능한 도로 영역을 분류하는 과정을 설명하기 위한 예시 도면이다.FIG. 5 is an exemplary diagram for describing a process of classifying a road area that may be driven according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 있어서 노면 표시를 분류하는 과정을 설명하기 위한 예시 도면이다.6 is an exemplary diagram for describing a process of classifying road markings according to an exemplary embodiment of the present invention.
도 7은 본 발명의 일 실시예에 있어서 노면 표시 중 차선을 분류하는 과정을 설명하기 위한 예시 도면이다.FIG. 7 is an exemplary diagram for describing a process of classifying a lane among road markings according to an exemplary embodiment of the present invention.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 실시예들은 라이다 데이터를 이용하여 차량 주행이 가능한 도로 영역과 차선을 검출하는 기술에 관한 것이다.Embodiments of the present invention relate to a technique for detecting a road area and a lane capable of driving a vehicle using lidar data.
본 명세서에서 구체적으로 개시되는 것들을 포함하는 실시예들은 라이다 데이터를 이용하여 정확한 도로 영역과 차선 검출을 달성할 수 있고 이를 통해 정확성, 효율성, 신속성, 비용 절감 등의 측면에 있어서 상당한 장점들을 달성한다.Embodiments, including those specifically disclosed herein, can achieve accurate road area and lane detection using lidar data, thereby achieving significant advantages in terms of accuracy, efficiency, speed, cost savings, and the like. .
도 1은 본 발명의 일 실시예에 있어서 컴퓨터 시스템의 내부 구성의 일례를 설명하기 위한 블록도이다. 예를 들어, 본 발명의 실시예들에 따른 도로 영역과 차선 검출 시스템이 도 1의 컴퓨터 시스템(100)을 통해 구현될 수 있다. 도 1에 도시한 바와 같이, 컴퓨터 시스템(100)은 도로 영역과 차선 검출 방법을 실행하기 위한 구성요소로서 프로세서(110), 메모리(120), 영구 저장 장치(130), 버스(140), 입출력 인터페이스(150) 및 네트워크 인터페이스(160)를 포함할 수 있다.1 is a block diagram illustrating an example of an internal configuration of a computer system according to an embodiment of the present invention. For example, a road area and lane detection system according to embodiments of the present invention may be implemented through the
프로세서(110)는 라이다 데이터를 이용하여 주행 가능한 도로 영역과 차선을 검출하기 위한 구성요소로서 명령어들의 시퀀스를 처리할 수 있는 임의의 장치를 포함하거나 그의 일부일 수 있다. 프로세서(110)는 예를 들어 컴퓨터 프로세서, 이동 장치 또는 다른 전자 장치 내의 프로세서 및/또는 디지털 프로세서를 포함할 수 있다. 프로세서(110)는 예를 들어, 서버 컴퓨팅 디바이스, 서버 컴퓨터, 일련의 서버 컴퓨터들, 서버 팜, 클라우드 컴퓨터, 컨텐츠 플랫폼 등에 포함될 수 있다. 프로세서(110)는 버스(140)를 통해 메모리(120)에 접속될 수 있다.The
메모리(120)는 컴퓨터 시스템(100)에 의해 사용되거나 그에 의해 출력되는 정보를 저장하기 위한 휘발성 메모리, 영구, 가상 또는 기타 메모리를 포함할 수 있다. 메모리(120)는 예를 들어 랜덤 액세스 메모리(RAM: random access memory) 및/또는 다이내믹 RAM(DRAM: dynamic RAM)을 포함할 수 있다. 메모리(120)는 컴퓨터 시스템(100)의 상태 정보와 같은 임의의 정보를 저장하는 데 사용될 수 있다. 메모리(120)는 예를 들어 도로의 주행 가능 영역과 차선을 검출하기 위한 명령어들을 포함하는 컴퓨터 시스템(100)의 명령어들을 저장하는 데에도 사용될 수 있다. 컴퓨터 시스템(100)은 필요에 따라 또는 적절한 경우에 하나 이상의 프로세서(110)를 포함할 수 있다.
버스(140)는 컴퓨터 시스템(100)의 다양한 컴포넌트들 사이의 상호작용을 가능하게 하는 통신 기반 구조를 포함할 수 있다. 버스(140)는 예를 들어 컴퓨터 시스템(100)의 컴포넌트들 사이에, 예를 들어 프로세서(110)와 메모리(120) 사이에 데이터를 운반할 수 있다. 버스(140)는 컴퓨터 시스템(100)의 컴포넌트들 간의 무선 및/또는 유선 통신 매체를 포함할 수 있으며, 병렬, 직렬 또는 다른 토폴로지 배열들을 포함할 수 있다.
영구 저장 장치(130)는 (예를 들어, 메모리(120)에 비해) 소정의 연장된 기간 동안 데이터를 저장하기 위해 컴퓨터 시스템(100)에 의해 사용되는 바와 같은 메모리 또는 다른 영구 저장 장치와 같은 컴포넌트들을 포함할 수 있다. 영구 저장 장치(130)는 컴퓨터 시스템(100) 내의 프로세서(110)에 의해 사용되는 바와 같은 비휘발성 메인 메모리를 포함할 수 있다. 영구 저장 장치(130)는 예를 들어 플래시 메모리, 하드 디스크, 광 디스크 또는 다른 컴퓨터 판독 가능 매체를 포함할 수 있다.
입출력 인터페이스(150)는 키보드, 마우스, 음성 명령 입력, 디스플레이 또는 다른 입력 또는 출력 장치에 대한 인터페이스들을 포함할 수 있다. 구성 명령들 및/또는 도로 영역과 차선 검출을 위한 입력이 입출력 인터페이스(150)를 통해 수신될 수 있다.The input /
네트워크 인터페이스(160)는 근거리 네트워크 또는 인터넷과 같은 네트워크들에 대한 하나 이상의 인터페이스를 포함할 수 있다. 네트워크 인터페이스(160)는 유선 또는 무선 접속들에 대한 인터페이스들을 포함할 수 있다. 구성 명령들 및/또는 도로 영역과 차선 검출을 위한 입력이 네트워크 인터페이스(160)를 통해 수신될 수 있다.
또한, 다른 실시예들에서 컴퓨터 시스템(100)은 도 1의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 컴퓨터 시스템(100)은 상술한 입출력 인터페이스(150)와 연결되는 입출력 장치들 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.In addition, in other embodiments,
본 발명명의 실시예들은 라이다 데이터를 이용하여 주행 가능한 도로 영역과 차선을 검출하는 기술에 관한 것으로, 이는 자유 주행, 무인 주행 등의 차량 운전 보조 시스템에 적용될 수 있으며, 이에 한정되는 것은 아니다.Embodiments of the present invention relate to a technology for detecting a road area and a lane that can be driven using LiDAR data, which may be applied to a vehicle driving assistance system such as free driving or unmanned driving, but is not limited thereto.
도 2는 본 발명의 일 실시예에 따른 컴퓨터 시스템의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이고, 도 3은 본 발명의 일 실시예에 따른 컴퓨터 시스템이 수행할 수 있는 도로 영역과 차선 검출 방법의 예를 도시한 순서도이다.2 is a diagram illustrating an example of components that may be included in a processor of a computer system according to an embodiment of the present invention, and FIG. 3 is a road area that may be performed by the computer system according to an embodiment of the present invention. And an example of a lane detection method.
도 2에 도시된 바와 같이, 프로세서(110)는 라이다 데이터 취득부(210), 도로 영역 검출부(220), 차선 검출부(230), 및 차선 좌표 제공부(240)를 포함할 수 있다. 이러한 프로세서(110)의 구성요소들은 적어도 하나의 프로그램 코드에 의해 제공되는 제어 명령에 따라 프로세서(110)에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 프로세서(110)가 라이다 데이터를 취득하도록 컴퓨터 시스템(100)을 제어하기 위해 동작하는 기능적 표현으로서 라이다 데이터 취득부(210)가 사용될 수 있다. 프로세서(110) 및 프로세서(110)의 구성요소들은 도 3의 도로 영역과 차선 검출 방법이 포함하는 단계들(S310 내지 S350)을 수행할 수 있다. 예를 들어, 프로세서(110) 및 프로세서(110)의 구성요소들은 메모리(120)가 포함하는 운영체제의 코드와 상술한 적어도 하나의 프로그램 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 적어도 하나의 프로그램 코드는 도로 영역과 차선 검출 방법을 처리하기 위해 구현된 프로그램의 코드에 대응될 수 있다.As illustrated in FIG. 2, the
도로 영역과 차선 검출 방법은 도시된 순서대로 발생하지 않을 수 있으며, 단계들 중 일부가 생략되거나 추가의 과정이 더 포함될 수 있다.The road area and lane detection methods may not occur in the order shown, and some of the steps may be omitted or additional processes may be included.
단계(S310)에서 프로세서(110)는 도로 영역과 차선 검출 방법을 위한 프로그램 파일에 저장된 프로그램 코드를 메모리(120)에 로딩할 수 있다. 예를 들어, 도로 영역과 차선 검출 방법을 위한 프로그램 파일은 도 1을 통해 설명한 영구 저장 장치(130)에 저장되어 있을 수 있고, 프로세서(110)는 버스를 통해 영구 저장 장치(130)에 저장된 프로그램 파일로부터 프로그램 코드가 메모리(120)에 로딩되도록 컴퓨터 시스템(110)을 제어할 수 있다. 이때, 프로세서(110) 및 프로세서(110)가 포함하는 라이다 데이터 취득부(210), 도로 영역 검출부(220), 차선 검출부(230), 및 차선 좌표 제공부(240) 각각은 메모리(120)에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(S320 내지 S350)을 실행하기 위한 프로세서(110)의 서로 다른 기능적 표현들일 수 있다. 단계들(S320 내지 S350)의 실행을 위해, 프로세서(110) 및 프로세서(110)의 구성요소들은 직접 제어 명령에 따른 연산을 처리하거나 또는 컴퓨터 시스템(100)을 제어할 수 있다.In operation S310, the
단계(S320)에서 라이다 데이터 취득부(210)는 차량에 탑재된 다채널 라이다 센서와의 유선 또는 무선 접속을 통해 다채널 라이다 센서로부터 차량 주변의 전방위 스캔에 따른 포인트 형태의 라이다 데이터(이하, '라이다 포인트'라 칭함)를 취득할 수 있다. 라이다 데이터 취득부(210)는 전방위 스캔에 따른 라이다 포인트를 취득하기 위해 360도의 스캔 각도를 가진 다채널 라이다 센서를 제어할 수 있다. 라이다 포인트는 라이다 센서와의 거리를 나타내는 값과 반사 강도를 나타내는 값을 포함할 수 있다.In step S320, the lidar
본 발명에서 사용되는 다채널 라이다 센서는 채널 개수만큼의 레이저 스캐너가 위아래 방향으로 일렬로 나열되어 빛을 쏘고 되돌아온 빛을 감지하여 각 채널 별로 거리와 반사 강도를 측정할 수 있다. 이때, 다채널 라이다 센서는 전방위 스캔을 위해 센서 안에 빛을 반사하는 거울이 설치되어 거울이 360도 회전하면서 차량 주변의 전방위에 대한 거리와 반사 강도를 측정할 수 있다. 이러한 다채널 라이다 센서가 탑재된 차량이 주행하면서 차량 주변을 스캔할 때 라이다 데이터 취득부(210)는 동일한 스캔 각도를 가진 라이다 포인트들을 한번에 채널 개수만큼 취득할 수 있고, 이때 다채널 라이다 센서 내에서 거울이 회전하면서, 즉 스캔 각도가 변하면서 빠른 속도로 라이다 포인트가 쌓이게 된다.In the multi-channel lidar sensor used in the present invention, laser scanners as many as the number of channels are arranged in a line in the up and down direction to shoot light and return the light to measure distance and reflection intensity for each channel. In this case, the multi-channel lidar sensor has a mirror that reflects light in the sensor for omnidirectional scanning, so that the mirror rotates 360 degrees to measure the distance and reflection intensity of the omnidirectional surrounding the vehicle. When the vehicle equipped with the multi-channel lidar sensor scans around the vehicle while driving, the lidar
스캔 각도의 조밀한 정도는 라이다 센서마다 다르며, 예를 들어, 도 4에 도시한 바와 같이 채널 개수가 32개이고 스캔 각도가 1.33도씩 변하는 다채널 라이다 센서(40)를 사용하는 경우 라이다 데이터 취득부(210)는 다채널 라이다 센서(40)를 통해 1.33도의 단위로 32개씩 라이다 포인트를 취득할 수 있다. 다채널 라이다 센서(40) 내에서 거울이 360도 회전하면서 32개의 채널을 통해 취득한 라이다 포인트들은 센서 위치를 중심으로 전방위 스캔에 따른 방사 형태를 이루게 된다.The degree of denseness of the scan angle is different for each lidar sensor. For example, as shown in FIG. 4, when using the
다시 도 3에서, 단계(S330)에서 도로 영역 검출부(220)는 다채널 라이다 센서로부터 취득한 라이다 포인트에서 이웃하는 채널 간의 라이다 포인트의 경사도를 바탕으로 문턱 값 이하의 경사도를 가진 라이다 포인트를 분류함으로써 주행 가능한 도로 영역을 검출할 수 있다. 라이다 데이터를 이용하여 차량이 주행 가능한 도로 영역을 분류하는 방법의 일례로, 도로 영역 검출부(220)는 라이다 센서에서 차량과 가장 가까운 곳을 스캔한 라이다 포인트들로부터 멀어지는 방향의 방사 형태로 라이다 포인트 간의 경사도를 순차적으로 산출할 수 있다. 도로 영역 검출부(220)는 방사 형태로 라이다 포인트 간의 경사도를 산출하기 위해 라이다 포인트 중 같은 시점, 동일한 스캔 각도에 대해 이웃한 채널에서 스캔된 라이다 포인트 간의 경사도를 산출할 수 있다. 도로 영역 검출부(220)는 라이다 센서의 위치를 중심으로 가장 가까운 곳의 라이다 포인트로부터 이웃한 채널 간의 라이다 포인트의 경사도를 산출해 나가되, 라이다 센서의 위치부터 이웃하는 채널 간의 라이다 포인트의 경사도가 사전에 정해진 특정 문턱 값을 넘어서기 이전의 지점까지를 도로 영역으로 분류할 수 있다. 도로 영역 검출부(220)는 스캔 각도 각각에 대해 상기한 방법을 반복함으로써 360도 전방위에 대하여 도로 영역을 분류할 수 있다.In FIG. 3, in step S330, the road
도 5는 본 발명의 일 실시예에 있어서 도로 영역을 분류하는 과정을 설명하기 위한 예시 도면이다. 다채널 라이다 센서를 탑재한 차량(50)이 현재 도로 상에 위치해 있다고 가정할 때, 다채널 라이다 센서를 통해 차량(50)을 중심으로 360도 전방위 스캔에 따른 방사 형태의 라이다 포인트들(501)을 취득할 수 있다.5 is an exemplary diagram for describing a process of classifying a road area according to an embodiment of the present invention. Assuming that the
차량(50)의 주변에 다른 차량이나 연석 등의 장애물이 존재하는 경우 장애물로 인해 이웃하는 채널 간의 라이다 포인트의 경사도가 급격히 증가하게 된다. 도로는 배수 등을 위해 도로의 중앙 부분이 높고 가장자리 부분이 비교적 낮은 볼록한 형태가 대부분이며 부분적인 파손이나 보수 공사 등으로 인해 일정 부분 요철이 있어 주행 가능한 도로 영역임에도 불구하고 도로 영역으로 검출되지 않는 문제가 있을 수 있다. 이를 해결하기 위해 도로의 모양이나 통상적인 요철 등의 노면 요건을 고려하여 도로 영역을 분류하는 기준이 되는 문턱 값을 설정할 수 있다.When an obstacle such as another vehicle or curb exists near the
도 5를 참조하면, 도로 영역 검출부(220)는 동일한 스캔 각도(51)에서 이웃하는 채널 간의 라이다 포인트(X)의 경사도를 산출해 나가면서 경사도가 특정 문턱 값을 넘어서면 해당 스캔 각도(51)에서는 차량(50)의 위치부터 문턱 값을 넘어서기 직전의 라이다 포인트까지를 도로 영역(503)으로 분류할 수 있으며, 이러한 과정을 스캔 각도 각각에 대해 반복함으로써 360도 전방위에 대한 도로 영역을 분류할 수 있다.Referring to FIG. 5, the
따라서, 본 발명에서는 도로 영역을 분류할 때 센서 위치(즉, 차량)를 중심으로 방사 형태로 포인트 간의 경사도를 계산하여 특정 경사도 이하로 포인트의 분포가 유지되면 주행 가능한 도로 영역으로 분류할 수 있다. 이러한 방식은 일반적인 도로의 볼록한 형태나 부분적인 파손이나 보수 공사로 인한 약간의 요철을 여전히 도로 영역으로 분류하되, 도로 연석과 같은 낮지만 급격한 경사도 변화 지점이나 도로 중앙 분리대, 시선 유도봉, 주차되어있는 다른 차량 등과 같은 장애물이 위치한 지점 이후부터는 주행 가능 영역이 아닌 것으로 효과적인 분류가 가능하다.Therefore, in the present invention, when the road area is classified, the inclination between the points is calculated in a radial form around the sensor position (that is, the vehicle), and when the distribution of the points is maintained below a specific inclination, it may be classified as a road area that can be driven. This method still classifies some of the irregularities caused by the convex shape of a typical road or partial breakage or renovation into the road area, but it can be classified as a low but abrupt slope change point such as a road curb, a road divider, a sight bar, or a parked area. After the point where obstacles such as other vehicles are located, it is possible to effectively classify the non-driving area.
다시 도 3에서, 단계(S340)에서 차선 검출부(230)는 도로 영역으로 분류된 라이다 포인트 중 차량의 위치와 주행 방향을 기준으로 설정된 직선 파라미터와 대응되는 라이다 포인트를 분류함으로써 해당 도로 영역 상의 차선을 검출할 수 있다. 라이다 포인트는 다채널 라이다 센서와의 거리를 나타내는 값과 함께, 반사 강도를 나타내는 값을 포함할 수 있다. 도로 영역에서 차선을 포함하여 방향 지시 화살표, 횡단보도, 횡단보도 예고, 정지선 등과 같은 각종 노면 표시는 페인트를 이용한 도색 작업으로 이루어지며, 노면 표시의 페인트는 라이다에 대해 일정 값 이상의 반사 강도를 가지게 된다.3, the
도 6 내지 도 7은 본 발명의 일 실시예에 있어서 차선을 검출하는 과정을 설명하기 위한 예시 도면이다.6 to 7 are exemplary diagrams for describing a process of detecting a lane according to an embodiment of the present invention.
도 6을 참조하면, 차선 검출부(230)는 도로 영역(503)으로 분류된 라이다 포인트 중 사전에 정해진 일정 값 이상의 반사 강도를 가지는 라이다 포인트들(605)을 노면 표시에 해당하는 라이다 포인트로 분류할 수 있다.Referring to FIG. 6, the
이어, 차선 검출부(230)는 도 7에 도시한 바와 같이 노면 표시에 해당하는 라이다 포인트(605) 중 차선에 해당되는 라이다 포인트를 분류하기 위해서 먼저 현재 라이다 센서의 위치, 즉 차량(50)의 위치를 기준으로 양 옆으로 표준 규격의 차선 너비만큼 떨어진 곳에 차량(50)의 주행 방향으로 뻗은 직선 파라미터(707)를 초기값으로 설정할 수 있다. 그리고, 차선 검출부(230)는 노면 표시에 해당하는 라이다 포인트(605) 중 직선 파라미터(707)의 선 상에 포함되거나 혹은 설정 범위 이내에 가까이 위치한 라이다 포인트들을 차선 영역으로 분류할 수 있다.Subsequently, the
차선 검출부(230)는 차선 영역으로 분류된 라이다 포인트를 이용하여 직선 파라미터(707)를 업데이트할 수 있다. 차선 검출부(230)는 차선 영역으로 새롭게 찾아낸 라이다 포인트로 직선 파라미터(707)를 업데이트 하는 예측 값 최대화(Expectation-Maximization) 알고리즘을 되풀이하여 적용할 수 있다.The
다음 주기의 전방위 스캔이 이루어질 때까지 차량(50)이 주행함에 따라 차량(50)의 주변 환경이 변하는데 차선의 위치는 이전 위치와 비슷한 곳에 있을 확률이 높으므로 이전 직선 파라미터에 포함되는 라이다 데이터를 분류 및 직선 파라미터의 업데이트를 반복 수행한다. 이러한 방식을 이용하면 차량(50)이 주행 중 차선을 변경하더라도 차선 검출의 기준이 되는 직선 파라미터를 계속 업데이트하면서 업데이트 된 직선 파라미터를 기준으로 차선을 지속적으로 검출할 수 있다. 라이다 센서의 성능에 따라 한번에 3차로에 해당하는 차선 4개 정도를 안정적으로 분류해낼 수 있으며, 라이다 센서에 가까운 스캔 영역 내에서 파라미터 업데이트가 자주 일어나기 때문에 곡선 차선에 대한 처리가 따로 필요하지 않다.The surrounding environment of the
다시 도 3에서, 단계(S350)에서 차선 좌표 제공부(240)는 차선으로 분류된 라이다 포인트에 대응되는 좌표를 계산하여 지도에 차선 표기를 위한 좌표 값으로 제공할 수 있다. 이때, 차선 좌표 제공부(240)는 직선 파라미터를 기준으로 차선 영역으로 분류된 라이다 포인트를 저장해 두었다가 이들을 연결하는 점을 일정 간격으로 산출할 수 있으며, 산출된 점에 해당되는 GPS 좌표를 계산하여 지도에 차선 표기를 위한 좌표 값으로 지정할 수 있다. 다시 말해, 차선 좌표 제공부(240)는 차선으로 분로된 포인트를 지도에 차선으로 표기할 GPS 좌표점의 집합으로 산출하여 제공할 수 있다.Referring back to FIG. 3, in operation S350, the lane coordinate providing
이처럼 본 발명의 실시예들에 따르면, 단순히 평면 조건을 만족시키는 도로 영역을 검출하는 것이 아닌, 라이다 데이터를 이용한 포인트 간 경사도를 바탕으로 도로 영역을 검출함으로써 도로 자체가 가지고 있는 경사도, 혹은 부분적인 손실이나 보수 공사로 인한 울퉁불퉁함이나 과속 방지 턱 등의 여러 노면 요건에도 불구하고 도로 상의 주행 가능 영역을 더욱 강인하게 검출할 수 있다. 더 나아가, 본 발명의 실시예들에 따르면, 차량의 위치와 주행 방향을 기준으로 한 직선의 파라미터를 이용하여 해당 직선에 포함되는 도로 상의 라이다 데이터를 차선으로 분류함으로써 도로 상의 주행 가능 영역에서 차선을 방향 지시 화살표, 횡단보도, 횡단보도 예고, 정지선 등과 같은 다른 노면 표시(road surface marking)와 정확히 구별하여 검출할 수 있다.As described above, according to the embodiments of the present invention, the road area may be detected by detecting the road area based on the inclination between points using lidar data, instead of simply detecting the road area satisfying the plane condition. In spite of various road requirements such as bumps or speed bumps caused by losses or repairs, the roadside area can be detected more robustly. Furthermore, according to embodiments of the present invention, by using the parameters of the straight line based on the position and the driving direction of the vehicle, the lidar data on the road included in the straight line is classified as a lane, and the lane in the available area on the road. Can be accurately distinguished from other road surface markings such as directional arrows, crosswalks, crosswalk notices, stop lines, and the like.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments may include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable PLU (programmable). It can be implemented using one or more general purpose or special purpose computers, such as logic units, microprocessors, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. It can be embodied in. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. In this case, the medium may be to continuously store a program executable by the computer, or to temporarily store for execution or download. In addition, the medium may be a variety of recording means or storage means in the form of a single or several hardware combined, not limited to a medium directly connected to any computer system, it may be distributed on the network. Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And ROM, RAM, flash memory, and the like, configured to store program instructions. In addition, examples of another medium may include a recording medium or a storage medium managed by an app store that distributes an application, a site that supplies or distributes various software, a server, or the like.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.
Claims (11)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2016-0161070 | 2016-11-30 | ||
| KR1020160161070A KR101843866B1 (en) | 2016-11-30 | 2016-11-30 | Method and system for detecting road lane using lidar data |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018101526A1 true WO2018101526A1 (en) | 2018-06-07 |
Family
ID=62188055
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2016/014565 Ceased WO2018101526A1 (en) | 2016-11-30 | 2016-12-13 | Method for detecting road region and lane by using lidar data, and system therefor |
Country Status (2)
| Country | Link |
|---|---|
| KR (1) | KR101843866B1 (en) |
| WO (1) | WO2018101526A1 (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109917418A (en) * | 2019-03-28 | 2019-06-21 | 安徽理工大学 | A method for measuring the non-reflection area of lidar |
| CN110609268A (en) * | 2018-11-01 | 2019-12-24 | 驭势科技(北京)有限公司 | A laser radar calibration method, device, system and storage medium |
| TWI690439B (en) * | 2018-11-01 | 2020-04-11 | 財團法人車輛研究測試中心 | Lane stripe detecting method based on three-dimensional lidar and system thereof |
| CN113085877A (en) * | 2019-12-23 | 2021-07-09 | 深圳市大富科技股份有限公司 | Method for detecting positional relationship and vehicle driving assistance system |
| CN113581184A (en) * | 2021-08-25 | 2021-11-02 | 京东鲲鹏(江苏)科技有限公司 | Method, device, equipment and medium for determining maximum passable area |
| KR102333828B1 (en) * | 2021-07-21 | 2021-12-03 | (주)뷰런테크놀로지 | Lane detection method and system based on lidar data |
| US12062241B2 (en) | 2021-05-12 | 2024-08-13 | Hyundai Motor Company | Lane recognition device and method based on LIDAR for vehicle |
Families Citing this family (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110909577B (en) * | 2018-09-18 | 2023-11-17 | 上汽通用汽车有限公司 | Road surface feature classification and identification method based on signal similarity distance |
| KR102083909B1 (en) | 2018-10-23 | 2020-03-04 | 주식회사 모빌테크 | Automatic extraction method for lane data information for autonomous driving vehicles based on point cloud map |
| KR102069666B1 (en) | 2018-11-14 | 2020-01-23 | 주식회사 모빌테크 | Real time driving route setting method for autonomous driving vehicles based on point cloud map |
| KR102103941B1 (en) | 2018-11-14 | 2020-04-23 | 주식회사 모빌테크 | Road and lane data real-time update method for autonomous driving vehicles based on point cloud map |
| KR102504229B1 (en) * | 2018-12-18 | 2023-02-28 | 현대자동차주식회사 | Driving control system and method of autonomous traveling vehicle |
| CN113177427B (en) * | 2020-01-23 | 2025-02-25 | 宝马股份公司 | Road prediction method and autonomous driving method, vehicle and device |
| CN113740355B (en) * | 2020-05-29 | 2023-06-20 | 清华大学 | Boundary protection method and system for a radiation detection robot |
| KR102371849B1 (en) | 2020-10-29 | 2022-03-11 | 주식회사 드림티엔에스 | Method of lane extraction |
| KR102414647B1 (en) * | 2020-11-02 | 2022-06-30 | 주식회사 맵퍼스 | System and method for extracting lane data using mobile mapping system |
| KR102367138B1 (en) | 2021-10-13 | 2022-02-25 | (주)뷰런테크놀로지 | Method of detection crosswalk using lidar sensor and crosswalk detection device performing method |
| CN117111089B (en) * | 2023-10-24 | 2024-02-02 | 青岛慧拓智能机器有限公司 | Method, system, equipment and storage medium for identifying availability state of ore card unloading point |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20070181810A1 (en) * | 2006-02-06 | 2007-08-09 | Tan Michael R T | Vertical cavity surface emitting laser (VCSEL) array laser scanner |
| KR20130096012A (en) * | 2012-02-21 | 2013-08-29 | 현대엠엔소프트 주식회사 | Method for calculating the curve radius and the longitudinal/transverse gradient of the road using the lidar data |
| WO2014073869A1 (en) * | 2012-11-07 | 2014-05-15 | 자동차부품연구원 | Curve speed warning method |
| US20140336842A1 (en) * | 2013-05-09 | 2014-11-13 | Hyundai Motor Company | System and method for detecting road surface conditions |
| US20160178802A1 (en) * | 2014-12-22 | 2016-06-23 | GM Global Technology Operations LLC | Road surface reflectivity detection by lidar sensor |
-
2016
- 2016-11-30 KR KR1020160161070A patent/KR101843866B1/en active Active
- 2016-12-13 WO PCT/KR2016/014565 patent/WO2018101526A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20070181810A1 (en) * | 2006-02-06 | 2007-08-09 | Tan Michael R T | Vertical cavity surface emitting laser (VCSEL) array laser scanner |
| KR20130096012A (en) * | 2012-02-21 | 2013-08-29 | 현대엠엔소프트 주식회사 | Method for calculating the curve radius and the longitudinal/transverse gradient of the road using the lidar data |
| WO2014073869A1 (en) * | 2012-11-07 | 2014-05-15 | 자동차부품연구원 | Curve speed warning method |
| US20140336842A1 (en) * | 2013-05-09 | 2014-11-13 | Hyundai Motor Company | System and method for detecting road surface conditions |
| US20160178802A1 (en) * | 2014-12-22 | 2016-06-23 | GM Global Technology Operations LLC | Road surface reflectivity detection by lidar sensor |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110609268A (en) * | 2018-11-01 | 2019-12-24 | 驭势科技(北京)有限公司 | A laser radar calibration method, device, system and storage medium |
| TWI690439B (en) * | 2018-11-01 | 2020-04-11 | 財團法人車輛研究測試中心 | Lane stripe detecting method based on three-dimensional lidar and system thereof |
| CN109917418A (en) * | 2019-03-28 | 2019-06-21 | 安徽理工大学 | A method for measuring the non-reflection area of lidar |
| CN109917418B (en) * | 2019-03-28 | 2023-04-07 | 安徽理工大学 | Method for measuring non-reflection area of laser radar |
| CN113085877A (en) * | 2019-12-23 | 2021-07-09 | 深圳市大富科技股份有限公司 | Method for detecting positional relationship and vehicle driving assistance system |
| US12062241B2 (en) | 2021-05-12 | 2024-08-13 | Hyundai Motor Company | Lane recognition device and method based on LIDAR for vehicle |
| KR102333828B1 (en) * | 2021-07-21 | 2021-12-03 | (주)뷰런테크놀로지 | Lane detection method and system based on lidar data |
| CN113581184A (en) * | 2021-08-25 | 2021-11-02 | 京东鲲鹏(江苏)科技有限公司 | Method, device, equipment and medium for determining maximum passable area |
Also Published As
| Publication number | Publication date |
|---|---|
| KR101843866B1 (en) | 2018-05-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2018101526A1 (en) | Method for detecting road region and lane by using lidar data, and system therefor | |
| EP3759562B1 (en) | Camera based localization for autonomous vehicles | |
| US10048691B2 (en) | Distinguishing lane markings for a vehicle to follow | |
| KR102815456B1 (en) | Learning data generation method for image processing, image processing method, and apparatus thereof | |
| US11341754B2 (en) | Method and apparatus for auto calibration | |
| CN111874006B (en) | Route planning processing method and device | |
| US20230102802A1 (en) | Map change detection | |
| CN111856491B (en) | Method and apparatus for determining geographic position and orientation of a vehicle | |
| WO2012011713A2 (en) | System and method for traffic lane recognition | |
| CN111780771B (en) | Positioning method, positioning device, electronic equipment and computer readable storage medium | |
| CN111753797B (en) | Vehicle speed measuring method based on video analysis | |
| JP2023508705A (en) | Data transmission method and device | |
| US20240246570A1 (en) | Path planning system and path planning method thereof | |
| CN111381585B (en) | Method and device for constructing occupied grid map and related equipment | |
| WO2021241834A1 (en) | Virtual lane generation apparatus and method based on traffic flow information perception for autonomous driving in adverse weather conditions | |
| CN115015964A (en) | A road edge detection method, device, terminal device and storage medium | |
| WO2012011715A2 (en) | Vehicle collision warning system and method therefor | |
| CN110008891A (en) | A kind of pedestrian detection localization method, device, cart-mounted computing device and storage medium | |
| JP6097533B2 (en) | In-vehicle image processing device | |
| JP7259309B2 (en) | Image processing device and image processing method | |
| KR20240048748A (en) | Method and apparatus of determinig line information | |
| CN118149797B (en) | Grid map construction method, device, computer equipment and storage medium | |
| JP7252750B2 (en) | Image processing device and image processing method | |
| KR102622578B1 (en) | Apparatus and method for generating precise map | |
| Qian et al. | Building and climbing based visual navigation framework for self-driving cars |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16922972 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 16922972 Country of ref document: EP Kind code of ref document: A1 |