CN114821526A - 基于4d毫米波雷达点云的障碍物三维边框检测方法 - Google Patents
基于4d毫米波雷达点云的障碍物三维边框检测方法 Download PDFInfo
- Publication number
- CN114821526A CN114821526A CN202210391431.XA CN202210391431A CN114821526A CN 114821526 A CN114821526 A CN 114821526A CN 202210391431 A CN202210391431 A CN 202210391431A CN 114821526 A CN114821526 A CN 114821526A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- point
- points
- wave radar
- clustered
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/28—Details of pulse systems
- G01S7/285—Receivers
- G01S7/292—Extracting wanted echo-signals
- G01S7/2923—Extracting wanted echo-signals based on data belonging to a number of consecutive radar periods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/35—Details of non-pulse systems
- G01S7/352—Receivers
- G01S7/354—Extracting wanted echo-signals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/414—Discriminating targets with respect to background clutter
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Electromagnetism (AREA)
- Health & Medical Sciences (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computer Graphics (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了基于4D毫米波雷达点云的障碍物三维边框检测方法,包括以下步骤:1)通过以太网获取4D毫米波雷达点云数据;2)点云数据预处理,提高点云的质量;3)对点云数据在三维空间上进行聚类,从点云数据中识别出障碍物;4)聚类点云数据后处理;5)基于聚类后点云求三维边框算法;本发明的检测方法,通过聚类算法,能检测出物体,并计算其高度,将障碍物反射的点云和杂点区分出来,从而删除掉杂点和虚假点,能有效过滤环境中80%的杂点,从而准确识别出物体表面轮廓所反射的点云,为构建障碍物三维边框提供准确的数据。
Description
技术领域
本发明属于车辆行驶中的障碍物检测技术,具体为一种基于4D毫米波雷达点云的障碍物三维边框检测方法。
背景技术
智能三电(电池、电机、电控)、智能座舱、自动驾驶已代表未来汽车的发展趋势。无人驾驶的软件系统一般会被定义为六大模块:感知、预测、高精度地图、定位、决策规划、控制。而感知模块功能通常指的是障碍物和交通灯识别,所用到的传感器,主要有激光雷达、毫米波雷达、摄像头。这三个传感器分别在不同环境下有不同的优势。
其中,摄像头成本低廉,具备目标检测和分类优势,被广泛应用于ADAS自动驾驶系统,但由于其对光线的变化敏感,并且依赖于深度学习网络模型和训练数据集,存在失效的可能。激光雷达做为主动传感器,具有精度高,三维感知能力强等优点,但其成本高昂,易受到天气的影响。毫米波雷达不仅成本相对较低,而且具备三维点云和速度感知能力,同时又能全天候工作,可靠性高,因此毫米波雷达被广泛应用于各个等级的ADAS自动驾驶系统中。
4D毫米波雷达相对于传统3D毫米波雷达,具备了俯仰高度检测能力,同时输出点云的数量和质量也得到极大的提升,感知能力越来越接近激光雷达,因此又被称为成像雷达。高等级的ADAS自动驾驶系统对感知系统提出了更高的要求,例如城市相对拥挤的行车工况或者泊车工况场景,自动驾驶系统需要目标精确的三维边框轮廓,不仅方便决策规划模块规划出更加安全合理的路径,也能进行更好的可视化显示。因此,障碍物三维边框检测逐渐成为环境感知不可或缺的一部分。
现有技术中,如CN113222111A公开的适应全天候环境的自动驾驶4D感知方法、系统及介质、申请号202110355978.X;包括:对数码相机和4D毫米波雷达进行外参标定,并将4D毫米波雷达的点云信息投影到相机图像并为图像部分像素附上距离信息,再对新图像进行卷积网络计算以获取稠密深度图,再通过相机内参标定将深度图转换为编码点云图送入卷积网络进行目标感知检测,然后将目标感知框映射为相机坐标下的3D目标框,再通过4D毫米波点云为3D目标框附上速度信息,从而获得全新的4D目标感知结果。本发明可以大幅度提升目标图像的感知能力,且能够在雨、雪、雾恶劣天气和风沙、扬尘恶劣环境下依然获得良好的感知结果。该申请中提到的目标框检测方法是利用神经网络深度学习的方法从图像点云图检测出目标包括目标框。该方法是使用深度学习的方法,依赖于深度学习网络模型和训练数据集,存在失效的可能;并且分别是利用图像和激光雷达点云检测出障碍物目标3D边界框,所以,需要发明一种基于毫米波雷达点云的障碍物三维边框检测方法。
发明内容
针对现有技术存在的上述不足,本发明的目的是提供一种基于4D毫米波雷达点云的障碍物三维边框检测方法,通过聚类算法,能检测出物体,获得精确的障碍物三维边框,以提高自动驾驶的安全性。
本发明的技术方案是这样实现的:
1、基于4D毫米波雷达点云的障碍物三维边框检测方法,其特征在于包括如下步骤:
步骤1,通过以太网获取4D毫米波雷达点云数据;
步骤2,点云数据预处理;
步骤3,对点云数据在三维空间上进行聚类,以从点云数据中识别出障碍物;
步骤4,聚类点云数据后处理;
步骤5,基于聚类后点云求三维边框算法;获得障碍物三维边框的顶点坐标。
这样,本发明的检测方法,通过聚类算法,能检测出物体,并计算其高度,将障碍物反射的点云和杂点区分出来,从而删除掉杂点和虚假点,能有效过滤环境中80%的杂点,从而准确识别出物体表面轮廓所反射的点云,为构建障碍物三维边框提供准确的数据。
进一步的:步骤1所述的对图像的相关处理,先对4D毫米波雷达获取的一帧数据进行物理值转换,根据车辆坐标系定义和三角函数关系,把距离、方位角和俯仰角值转换为X、Y、Z坐标,然后再把坐标值转换到车辆坐标系下,存储在全局变量中。
进一步的:步骤3所述的对点云数据在三维空间上进行聚类,具体包括如下步骤:
1)初始化一个点的对象容器,并将点云数据存储到该容器中,点的对象包含以下成员变量:坐标X/Y/Z、编号ID、是否已访问标志Visited、簇ClusterID、是否核心点标志IsKey、邻域点列表;
2)设置聚类参数,包括邻域半径R、邻域最小数据个数MinPts和数据维度Dimension三个参数;
3)从点云数据中任意选取一个点,将该点Visited属性标记为已访问,计算该点的邻域半径R内点的个数PtsNum,如果点的个数PtsNum大于设置的阈值MinPts,则将该点的IsKey属性标记为核心点,并且分配一个簇ClusterID;同时遍历该点邻域半径R内所有点进行以下操作,将点Visited属性标记为已访问,分配同样的簇ClusterID,并且对这些点重复进行步骤2)、3)的操作,直到遍历访问点云数据中所有的点之后结束;
4)对于聚类成功的点云簇,计算出每个点云簇的平均Z坐标,并存储到变量ClassZInfo中。
进一步的:步骤4所述聚类点云数据后处理,包括从点云数据中删除未聚类成功的杂点和高度值不满足阈值的聚类点。
进一步的:步骤5所述基于聚类后点云求三维边框算法,包括如下步骤:
1)将聚类后的三维点云降维投影到XY坐标平面;
2)利用凸包算法计算聚类点云的边界关键点,首先,找到所有点中纵坐标y最小的点,记为p0;然后计算其余点与该点的连线与x轴之间夹角的余弦值,将这些点按其对于最低点的余弦值从大到小排序,排序好的点记为p1, p2, p3等;将最低点p0和排序好的点中的第一个点p1压入栈中,然后从p2开始计算,计算栈顶两个点与该点三点向量是否是逆时针转动,若是,则将该点压入栈中,否则将栈顶元素推出;最后栈里面剩余点就是所有的凸包边界关键点;
3)将凸包后的边界关键点,围绕其几何中心进行顺时针排序,并分别计算其与坐标原点的夹角,将排序后的边界关键点存储到容器中;
4)根据上一步中计算得到的每个边界关键点与坐标原点的夹角,计算出障碍物点云中位于雷达直接照射面范围内的边界关键点,并标记为有效边界关键点;
5)从有效边界关键点中以任意相邻两点的方向作为矩形的方向,计算包罗所有边界关键点在内的最小面积矩形,最终输出面积最小的矩形作为障碍物的二维边框,记录二维矩形框的四个顶点坐标;
6)根据聚类点云中最大和最小Z坐标,将步骤5)中计算的四个顶点坐标分别赋值最小Z坐标和最大Z坐标值,即得到三维边界框的顶点坐标,获得障碍物三维边框。
进一步的:所述的凸包算法计算聚类点云的边界关键点,采用ConvexHull算法计算每个聚类点云的凸包边界关键点。
进一步的:设置数据维度参数Dimension为2。
进一步的:设置邻域半径R为2米,邻域最小数据个数MinPts为12,数据维度Dimension为3。
进一步的:步骤2所述的对点云数据预处理,根据信噪比和高度值滤除杂点。
总之,本发明一种基于4D毫米波雷达点云的障碍物三维边框检测方法,具有如下有益效果:
1、本发明方法通过聚类算法,能检测出物体,并计算其高度,将障碍物反射的点云和杂点区分出来,从而删除掉杂点和虚假点,能有效过滤环境中80%的杂点,从而准确识别出物体表面轮廓所反射的点云,为构建障碍物三维边框提供准确的数据。
2、本发明方法充分利用成像雷达点云数量多,精度高,障碍物边界点云覆盖率高等优势,发挥毫米波雷达的测距优点。
3、本发明方法相对于深度学习方法具有鲁棒性好、可靠性高、计算量小等优点。
附图说明
图1为一个实施例中一种基于4D毫米波雷达点云的障碍物三维边框检测方法的流程图。
具体实施方式
下面接合附图对本发明做进一步的详细说明:
如图1所示,本发明的一种基于4D毫米波雷达点云的障碍物三维边框检测方法,包括如下步骤:
步骤1,通过以太网获取4D毫米波雷达点云数据;
在对雷达点云的相关处理时,根据内设的处理程序要求,先对4D毫米波雷达获取的一帧数据进行物理值转换,根据车辆坐标系定义和三角函数关系,把距离、方位角和俯仰角值转换为X、Y、Z坐标,然后再把坐标值转换到车辆坐标系下,存储在全局变量中。
步骤2,点云数据预处理;
所述的对点云数据预处理,具体内容:根据信噪比和高度值滤除杂点,提高点云的质量。
步骤3,对点云数据在三维空间上进行聚类,从点云数据中识别出障碍物;
所述对点云数据在三维空间上进行聚类,具体过程包括如下步骤:
1)初始化一个点的对象容器,并将点云数据存储到该容器中,点的对象包含以下成员变量:坐标X/Y/Z、编号ID、是否已访问标志Visited、簇ClusterID、是否核心点标志IsKey、邻域点列表。
2)设置聚类参数,这里设定了三个参数,分别是邻域半径R、邻域最小数据个数MinPts和数据维度Dimension。优选地,这里根据实车测试数据分析后,设置邻域半径R为2米,邻域最小数据个数MinPts为12,数据维度Dimension为3。
3)从点云数据中任意选取一个点,将该点Visited属性标记为已访问,计算该点的邻域半径R内点的个数PtsNum,如果点的个数PtsNum大于设置的阈值MinPts,则将该点的IsKey属性标记为核心点,并且分配一个簇ClusterID;同时遍历该点邻域半径R内所有点进行以下操作,将点Visited属性标记为已访问,分配同样的簇ClusterID,并且对这些点重复进行步骤2-3的操作,直到遍历访问点云数据中所有的点之后结束。
4)对于聚类成功的点云簇,计算出每个点云簇的平均Z坐标,并存储到变量ClassZInfo中。
步骤4,聚类点云数据后处理;
所述聚类点云数据后处理,具体内容包括:从点云数据中删除未聚类成功的杂点和高度值不满足阈值的聚类点。
步骤5,基于聚类后点云求三维边框算法;
所述基于聚类后点云求三维边框算法,具体过程包括如下步骤:
1)将聚类后的三维点云降维投影到XY坐标平面;
2)利用凸包算法计算聚类点云的边界关键点,这里采用ConvexHull算法计算每个聚类点云的凸包边界关键点。优选地,这里设置数据维度参数Dimension为2。首先,找到所有点中纵坐标y最小的点,记为p0;然后计算其余点与该点的连线与x轴之间夹角的余弦值,将这些点按其对于最低点的余弦值从大到小排序,排序好的点记为p1, p2, p3等;将最低点p0和排序好的点中的第一个点p1压入栈中,然后从p2开始计算,计算栈顶两个点与该点三点向量是否是逆时针转动,若是,则将该点压入栈中,否则将栈顶元素推出;最后栈里面剩余点就是所有的凸包边界关键点;
3)将凸包后的边界关键点,围绕其几何中心进行顺时针排序,并分别计算其与坐标原点的夹角,将排序后的边界关键点存储到容器中;
4)根据上一步骤中计算得到的每个边界关键点与坐标原点的夹角,计算出障碍物点云中位于雷达直接照射面范围内的边界关键点,并标记为有效边界关键点;
5)从有效边界关键点中以任意相邻两点的方向作为矩形的方向,计算包罗所有边界关键点在内的最小面积矩形,最终输出面积最小的矩形作为障碍物的二维边框,记录二维矩形框的四个顶点坐标;
6)根据聚类点云中最大和最小Z坐标,将步骤5)中计算的四个顶点坐标分别赋值最小Z坐标和最大Z坐标值,即得到三维边界框的顶点坐标,获得障碍物三维边框。
本发明的方法通过聚类算法,能检测出物体,并计算其高度,将障碍物反射的点云和杂点区分出来,从而删除掉杂点和虚假点,能有效过滤环境中80%的杂点,从而准确识别出物体表面轮廓所反射的点云,为构建障碍物三维边框提供准确的数据。
最后需要说明的是,本发明的上述实例仅仅是为说明本发明所作的举例,而并非是对本发明的实施方式的限定。尽管申请人参照较佳实施例对本发明进行了详细说明,对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其他不同形式的变化和变动。这里无法对所有的实施方式予以穷举。凡是属于本发明的技术方案所引申出的显而易见的变化或变动仍处于本发明的保护范围之列。
Claims (9)
1.基于4D毫米波雷达点云的障碍物三维边框检测方法,其特征在于包括如下步骤:
步骤1,通过以太网获取4D毫米波雷达点云数据;
步骤2,点云数据预处理;
步骤3,对点云数据在三维空间上进行聚类,以从点云数据中识别出障碍物;
步骤4,聚类点云数据后处理;
步骤5,基于聚类后点云求三维边框算法;获得障碍物三维边框的顶点坐标。
2.根据权利要求1所述的基于4D毫米波雷达点云的障碍物三维边框检测方法,其特征在于:步骤1所述的对图像的相关处理,先对4D毫米波雷达获取的一帧数据进行物理值转换,根据车辆坐标系定义和三角函数关系,把距离、方位角和俯仰角值转换为X、Y、Z坐标,然后再把坐标值转换到车辆坐标系下,存储在全局变量中。
3.根据权利要求2所述的基于4D毫米波雷达点云的障碍物三维边框检测方法,其特征在于:步骤3所述的对点云数据在三维空间上进行聚类,具体包括如下步骤:
1)初始化一个点的对象容器,并将点云数据存储到该容器中,点的对象包含以下成员变量:坐标X/Y/Z、编号ID、是否已访问标志Visited、簇ClusterID、是否核心点标志IsKey、邻域点列表;
2)设置聚类参数,包括邻域半径R、邻域最小数据个数MinPts和数据维度Dimension三个参数;
3)从点云数据中任意选取一个点,将该点Visited属性标记为已访问,计算该点的邻域半径R内点的个数PtsNum,如果点的个数PtsNum大于设置的阈值MinPts,则将该点的IsKey属性标记为核心点,并且分配一个簇ClusterID;同时遍历该点邻域半径R内所有点进行以下操作,将点Visited属性标记为已访问,分配同样的簇ClusterID,并且对这些点重复进行步骤2)、3)的操作,直到遍历访问点云数据中所有的点之后结束;
4)对于聚类成功的点云簇,计算出每个点云簇的平均Z坐标,并存储到变量ClassZInfo中。
4.根据权利要求1—3任一所述的基于4D毫米波雷达点云的障碍物三维边框检测方法,其特征在于:步骤4所述聚类点云数据后处理,包括从点云数据中删除未聚类成功的杂点和高度值不满足阈值的聚类点。
5.根据权利要求1—3任一所述的基于4D毫米波雷达点云的障碍物三维边框检测方法,其特征在于:步骤5所述基于聚类后点云求三维边框算法,包括如下步骤:
1)将聚类后的三维点云降维投影到XY坐标平面;
2)利用凸包算法计算聚类点云的边界关键点,首先,找到所有点中纵坐标y最小的点,记为p0;然后计算其余点与该点的连线与x轴之间夹角的余弦值,将这些点按其对于最低点的余弦值从大到小排序,排序好的点记为p1, p2, p3等;将最低点p0和排序好的点中的第一个点p1压入栈中,然后从p2开始计算,计算栈顶两个点与该点三点向量是否是逆时针转动,若是,则将该点压入栈中,否则将栈顶元素推出;最后栈里面剩余点就是所有的凸包边界关键点;
3)将凸包后的边界关键点,围绕其几何中心进行顺时针排序,并分别计算其与坐标原点的夹角,将排序后的边界关键点存储到容器中;
4)根据上一步中计算得到的每个边界关键点与坐标原点的夹角,计算出障碍物点云中位于雷达直接照射面范围内的边界关键点,并标记为有效边界关键点;
5)从有效边界关键点中以任意相邻两点的方向作为矩形的方向,计算包罗所有边界关键点在内的最小面积矩形,最终输出面积最小的矩形作为障碍物的二维边框,记录二维矩形框的四个顶点坐标;
6)根据聚类点云中最大和最小Z坐标,将步骤5)中计算的四个顶点坐标分别赋值最小Z坐标和最大Z坐标值,即得到三维边界框的顶点坐标,获得障碍物三维边框。
6.根据权利要求5所述的基于4D毫米波雷达点云的障碍物三维边框检测方法,其特征在于:所述的凸包算法计算聚类点云的边界关键点,采用ConvexHull算法计算每个聚类点云的凸包边界关键点。
7.根据权利要求6所述的基于4D毫米波雷达点云的障碍物三维边框检测方法,其特征在于:设置数据维度参数Dimension为2。
8.根据权利要求3所述的基于4D毫米波雷达点云的障碍物三维边框检测方法,其特征在于:设置邻域半径R为2米,邻域最小数据个数MinPts为12,数据维度Dimension为3。
9.根据权利要求4所述的基于4D毫米波雷达点云的障碍物三维边框检测方法,其特征在于:步骤2所述的对点云数据预处理,根据信噪比和高度值滤除杂点。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202210391431.XA CN114821526B (zh) | 2022-04-14 | 2022-04-14 | 基于4d毫米波雷达点云的障碍物三维边框检测方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202210391431.XA CN114821526B (zh) | 2022-04-14 | 2022-04-14 | 基于4d毫米波雷达点云的障碍物三维边框检测方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN114821526A true CN114821526A (zh) | 2022-07-29 |
| CN114821526B CN114821526B (zh) | 2024-11-15 |
Family
ID=82536726
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202210391431.XA Active CN114821526B (zh) | 2022-04-14 | 2022-04-14 | 基于4d毫米波雷达点云的障碍物三维边框检测方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN114821526B (zh) |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115257816A (zh) * | 2022-08-25 | 2022-11-01 | 奇瑞汽车股份有限公司 | 一种自动驾驶的障碍物识别方法和系统 |
| CN115270066A (zh) * | 2022-07-30 | 2022-11-01 | 重庆长安汽车股份有限公司 | 一种目标对象相对速度确定方法、系统、设备、介质 |
| CN115376105A (zh) * | 2022-08-31 | 2022-11-22 | 南京慧尔视智能科技有限公司 | 可行驶区域的确定方法、装置、电子设备以及存储介质 |
| CN115601425A (zh) * | 2022-09-27 | 2023-01-13 | 华中科技大学(Cn) | 一种dr图像不规则模糊边缘的定位方法及系统 |
| CN115616578A (zh) * | 2022-12-05 | 2023-01-17 | 成都航空职业技术学院 | 一种用于无人飞行器的雷达探测方法及装置 |
| CN115760836A (zh) * | 2022-12-02 | 2023-03-07 | 华雁智科(杭州)信息技术有限公司 | 一种基于图像数据处理的电力环境物体高度测量方法 |
| CN115840227A (zh) * | 2023-02-27 | 2023-03-24 | 福思(杭州)智能科技有限公司 | 道路边缘的检测方法及装置 |
| CN115965929A (zh) * | 2022-12-07 | 2023-04-14 | 深圳海星智驾科技有限公司 | 一种基于点云的障碍物检测方法、装置和域控制器 |
| CN116342863A (zh) * | 2023-01-03 | 2023-06-27 | 重庆长安汽车股份有限公司 | 一种停车杆开闭状态识别方法、装置及储存介质 |
| CN116381665A (zh) * | 2023-04-24 | 2023-07-04 | 中国人民解放军国防科技大学 | 一种基于四维生物雷达定位被困人员的方法及系统 |
| CN116524219A (zh) * | 2023-01-16 | 2023-08-01 | 西北工业大学 | 一种基于激光雷达点云聚类的障碍物检测方法 |
| CN119671912A (zh) * | 2025-02-19 | 2025-03-21 | 四川港投数智物贸产业发展有限公司 | 一种大宗货物点云自动化倾斜矫正方法 |
| CN115376105B (zh) * | 2022-08-31 | 2026-02-17 | 南京慧尔视智能科技有限公司 | 可行驶区域的确定方法、装置、电子设备以及存储介质 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190005639A1 (en) * | 2017-06-29 | 2019-01-03 | Seiko Epson Corporation | Electronic Component Handler And Electronic Component Tester |
| CN111337939A (zh) * | 2018-12-19 | 2020-06-26 | 上海蔚来汽车有限公司 | 一种矩形物体外边框的估计方法及装置 |
| CN112949542A (zh) * | 2021-03-17 | 2021-06-11 | 哈尔滨理工大学 | 一种基于凸包检测的手腕分割线的确立方法 |
| CN113536959A (zh) * | 2021-06-23 | 2021-10-22 | 复旦大学 | 一种基于立体视觉的动态障碍物检测方法 |
| CN113537316A (zh) * | 2021-06-30 | 2021-10-22 | 南京理工大学 | 一种基于4d毫米波雷达点云的车辆检测方法 |
-
2022
- 2022-04-14 CN CN202210391431.XA patent/CN114821526B/zh active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190005639A1 (en) * | 2017-06-29 | 2019-01-03 | Seiko Epson Corporation | Electronic Component Handler And Electronic Component Tester |
| CN111337939A (zh) * | 2018-12-19 | 2020-06-26 | 上海蔚来汽车有限公司 | 一种矩形物体外边框的估计方法及装置 |
| CN112949542A (zh) * | 2021-03-17 | 2021-06-11 | 哈尔滨理工大学 | 一种基于凸包检测的手腕分割线的确立方法 |
| CN113536959A (zh) * | 2021-06-23 | 2021-10-22 | 复旦大学 | 一种基于立体视觉的动态障碍物检测方法 |
| CN113537316A (zh) * | 2021-06-30 | 2021-10-22 | 南京理工大学 | 一种基于4d毫米波雷达点云的车辆检测方法 |
Non-Patent Citations (2)
| Title |
|---|
| ASK NEVE GAMBY等: ""Convex-Hull Algorithms:Implementation, Testing, and Experimentation"", 《MDPI》, 28 November 2018 (2018-11-28), pages 1 - 27 * |
| 潘宁等: ""基于点云数据的道路变形类病害自动化监测方法"", 《同济大学学报(自然科学版)》, vol. 50, no. 3, 31 March 2022 (2022-03-31), pages 399 - 408 * |
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115270066A (zh) * | 2022-07-30 | 2022-11-01 | 重庆长安汽车股份有限公司 | 一种目标对象相对速度确定方法、系统、设备、介质 |
| CN115257816A (zh) * | 2022-08-25 | 2022-11-01 | 奇瑞汽车股份有限公司 | 一种自动驾驶的障碍物识别方法和系统 |
| CN115376105A (zh) * | 2022-08-31 | 2022-11-22 | 南京慧尔视智能科技有限公司 | 可行驶区域的确定方法、装置、电子设备以及存储介质 |
| CN115376105B (zh) * | 2022-08-31 | 2026-02-17 | 南京慧尔视智能科技有限公司 | 可行驶区域的确定方法、装置、电子设备以及存储介质 |
| CN115601425A (zh) * | 2022-09-27 | 2023-01-13 | 华中科技大学(Cn) | 一种dr图像不规则模糊边缘的定位方法及系统 |
| CN115760836A (zh) * | 2022-12-02 | 2023-03-07 | 华雁智科(杭州)信息技术有限公司 | 一种基于图像数据处理的电力环境物体高度测量方法 |
| CN115616578A (zh) * | 2022-12-05 | 2023-01-17 | 成都航空职业技术学院 | 一种用于无人飞行器的雷达探测方法及装置 |
| CN115965929A (zh) * | 2022-12-07 | 2023-04-14 | 深圳海星智驾科技有限公司 | 一种基于点云的障碍物检测方法、装置和域控制器 |
| CN116342863A (zh) * | 2023-01-03 | 2023-06-27 | 重庆长安汽车股份有限公司 | 一种停车杆开闭状态识别方法、装置及储存介质 |
| CN116524219A (zh) * | 2023-01-16 | 2023-08-01 | 西北工业大学 | 一种基于激光雷达点云聚类的障碍物检测方法 |
| CN115840227A (zh) * | 2023-02-27 | 2023-03-24 | 福思(杭州)智能科技有限公司 | 道路边缘的检测方法及装置 |
| CN116381665B (zh) * | 2023-04-24 | 2023-11-14 | 中国人民解放军国防科技大学 | 一种基于四维生物雷达定位被困人员的方法及系统 |
| CN116381665A (zh) * | 2023-04-24 | 2023-07-04 | 中国人民解放军国防科技大学 | 一种基于四维生物雷达定位被困人员的方法及系统 |
| CN119671912A (zh) * | 2025-02-19 | 2025-03-21 | 四川港投数智物贸产业发展有限公司 | 一种大宗货物点云自动化倾斜矫正方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN114821526B (zh) | 2024-11-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN114821526A (zh) | 基于4d毫米波雷达点云的障碍物三维边框检测方法 | |
| CN109100741B (zh) | 一种基于3d激光雷达及图像数据的目标检测方法 | |
| CN113506318B (zh) | 一种车载边缘场景下的三维目标感知方法 | |
| CN112740225B (zh) | 一种路面要素确定方法及装置 | |
| CN109283538B (zh) | 一种基于视觉和激光传感器数据融合的海上目标大小检测方法 | |
| CN113378647B (zh) | 基于三维点云的实时轨道障碍物检测方法 | |
| CN103176185B (zh) | 用于检测道路障碍物的方法及系统 | |
| Bertozzi et al. | Obstacle detection and classification fusing radar and vision | |
| CN112101092A (zh) | 自动驾驶环境感知方法及系统 | |
| CN111880191A (zh) | 基于多智能体激光雷达和视觉信息融合的地图生成方法 | |
| WO2021207954A1 (zh) | 一种目标识别的方法和装置 | |
| CN114325634B (zh) | 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法 | |
| CN106199558A (zh) | 障碍物快速检测方法 | |
| CN106842231A (zh) | 一种道路边界检测及跟踪方法 | |
| CN114782729A (zh) | 一种基于激光雷达与视觉融合的实时目标检测方法 | |
| CN116109601A (zh) | 一种基于三维激光雷达点云的实时目标检测方法 | |
| Xiong et al. | Road-model-based road boundary extraction for high definition map via LiDAR | |
| CN118411507A (zh) | 一种具有动态目标的场景的语义地图构建方法及系统 | |
| WO2024012211A1 (zh) | 自动驾驶环境感知方法、介质及车辆 | |
| CN116299315A (zh) | 一种使用激光雷达实时检测路面障碍物的方法和装置 | |
| CN116573017A (zh) | 城市轨道列车行驶限界异物感知方法、系统、装置和介质 | |
| CN115249223A (zh) | 动态目标检测方法及装置、存储介质、终端 | |
| CN117830932A (zh) | 一种基于连续帧点云空间特征增强的障碍物检测方法 | |
| CN114089376A (zh) | 一种基于单激光雷达的负障碍物检测方法 | |
| CN114556419A (zh) | 三维点云分割方法和装置、可移动平台 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |