CN115424236A - 一种融合行人意图和社会力模型的行人过街轨迹预测方法 - Google Patents
一种融合行人意图和社会力模型的行人过街轨迹预测方法 Download PDFInfo
- Publication number
- CN115424236A CN115424236A CN202210972400.3A CN202210972400A CN115424236A CN 115424236 A CN115424236 A CN 115424236A CN 202210972400 A CN202210972400 A CN 202210972400A CN 115424236 A CN115424236 A CN 115424236A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- vehicle
- intention
- pedestrians
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种融合行人意图和社会力模型的行人过街轨迹预测方法,包括以下步骤:获取自车行驶状态信息、车辆前方图像和行人运动状态信息;对图像中过街行人姿态关键点进行检测并拟合人体姿态骨架;根据人体姿态骨架,选取能表达行人意图的关键点,计算关键点之间的距离和角度参数;判断行人意图;建立行人在过街时受到的自驱动力、目的地吸引力以及人车交互斥力,并求取合力;根据设定的时间步长,对行人过街运动轨迹进行预测。本发明的行人过街轨迹预测方法融合了行人意图识别过程,对传统的社会力模型进行改进,能够反应出真实的行人过街行为,提高行人过街轨迹预测的准确性。
Description
技术领域
本发明属于智能驾驶安全技术领域,具体涉及一种融合行人意图和社会力模型的行人过街轨迹预测方法。
背景技术
近年来,智能驾驶汽车道路行驶安全逐步成为关注的热点话题。其中,行人作为道路交通参与者的重要组成部分,在无交通信号路段过街时与智能车之间常常存在碰撞冲突。因此,对行人过街轨迹的预测在智能车安全决策中具有非常重要的作用。
目前,对行人过街轨迹预测的方法主要分为两类:一类是基于数据驱动的网络模型,即利用深度学习网络构建行人轨迹预测算法,以此获取行人轨迹的预测值。另一类方法是基于机理建模的力学模型,主要是基于社会力模型的行人轨迹预测算法。
行人作为道路使用的主动决策者,在过街时具有一定的主观感知性,且其运动具有机动性高的特点。然而,上述基于社会力模型的方法在研究中将行人简化成粒子,没有考虑到行人作为主动决策者在面对道路来车时的微观心理变化,在行人过街轨迹预测上出现预测偏差,造成智能车决策失误,严重影响车辆行驶和行人过街的安全性。
发明内容
针对于上述现有技术的不足,本发明的目的在于提供一种融合行人意图和社会力模型的行人过街轨迹预测方法,以解决现有基于传统社会力模型的行人过街轨迹预测方法难以描述出行人在面对道路来车时的微观心理变化,从而造成行人过街轨迹预测不准确的问题。本发明的方法将行人作为道路使用的决策者,考虑行人在面对道路来车时的微观心理变化,融合行人意图识别和社会力模型实现对行人过街轨迹的预测,提出的基于人体姿态骨架估计的行人意图识别方法,可根据当前过街行人姿态骨架,利用LVQ神经网络模型,识别出行人的过街意图。利用社会力模型描述出行人过街时的自驱动力、目的地吸引力以及人车交互斥力,并将过街意图在模型中进行量化,最后根据设定的时间步长,得到预设时长内行人的预测轨迹,能够提高行人过街轨迹预测的准确性。
为达到上述目的,本发明采用的技术方案如下:
本发明的一种融合行人意图和社会力模型的行人过街轨迹预测方法,包括以下步骤:
(1)获取自车行驶状态信息、车辆前方图像和行人运动状态信息;
(2)根据所述步骤(1)中采集到的车辆前方图像,利用Openpose算法对图像中过街行人姿态关键点进行检测并拟合人体姿态骨架;根据人体姿态骨架,选取能表达行人意图的关键点,计算关键点之间的距离和角度参数;
(3)将所述步骤(2)中的距离和角度参数作为特征向量输入到训练后的LVQ神经网络模型中,判断行人意图;
(4)建立行人在过街时受到的自驱动力、目的地吸引力以及人车交互斥力,并求取合力,将行人意图以权重形式在社会力模型中量化;根据设定的时间步长,对行人过街运动轨迹进行预测。
进一步地,所述步骤(1)的具体步骤如下:
(11)利用车辆CAN总线获取车辆当前行驶状态信息,所述行驶状态信息包括车辆的行驶速度信息、位置信息;
(12)利用安装在车辆前挡风玻璃上的摄像头获取车辆前方图像;
(13)利用安装在车辆前保险杠处的毫米波雷达获取行人的相对运动状态信息,所述行人的相对运动状态信息包括行人相对车辆的位置信息和速度信息;
(14)根据车辆行驶状态信息和行人的相对运动状态信息,利用毫米波雷达坐标系到世界坐标系的参数转换,得到行人运动状态信息。
进一步地,所述步骤(2)的具体步骤如下:
(21)基于Openpose算法,将所述步骤(1)中获取的车辆前方图像经过VGG-19卷积网络的前十层初始化获得特征图F,利用双支线多阶段卷积网络检测出过街行人姿态关键点并拟合人体姿态骨架;
(22)(行人在不同过街意图的驱使下,其人体姿态骨架呈现出不同的特点)根据行人过街时左侧面朝来车的特点,选取能表达行人意图的关键点,具体选取人体姿态骨架中的脖子、左肩、左肘、左腕、左胯、左膝、左踝、右胯、右膝、右踝,分别用数字1、5、6、7、11、12、13、8、9、10表示,且有连接关系1-5-6-7,11-12-13和8-9-10;
(23)计算关键点之间的距离和角度作为特征参数:计算左肩至左腕的距离d1(即关键点5与7之间)、左膝、右膝关节间距d2(即关键点9与12之间)、左踝、右踝关节间距d3(即关键点10与13之间);计算左前臂与左后臂的夹角α1(即关键点5-6与6-7之间)、左腿关节角度α2(即关键点11-12与12-13之间)、右腿关节角度α3(即关键点8-9与9-10之间);
上述中某两个关键点之间的距离用欧几里得距离表示:
式中,||v||为两个关键点间欧几里得距离,ΔX和ΔY分别为两个关键点在X轴和Y轴方向上的距离差;
两个关键点组成的线段与X轴的夹角记为α,三个关键点构成一个三角形,计算其中夹角:
进一步地,所述步骤(21)具体包括:
(211)双支线多阶段卷积网络包含两个分支,第一个分支用于预测检测身体部位关键点的置信图St,利用非最大抑制获取候选关键点集,得到图像中人体姿态关键点的位置;第二个分支用于预测连接身体部位肢体关键点之间的部位亲和力场Lt,计算出图像关键点连接的全局最优解,获取人体姿态骨架;
(212)利用L2范数分别表示双分支的损失函数,即用于检测身体部位关键点置信图的损失函数fst和用于预测连接身体部位肢体关键点之间的部位亲和力场的损失函数fLt,使得最终的总损失函数f最小;
式中,表示身体部位关键点置信图的真实值;表示在第t阶段身体部位关键点置信图的预测值;表示部位亲和力场的真实值;表示在第t阶段部位亲和力场的预测值;W(p)表示损失函数的权重;J表示置信图分支的样本数;C表示部位亲和力场分支的样本数;f表示最终的总损失函数;t,T表示迭代阶段。
进一步地,所述步骤(3)的具体步骤如下:
(31)将所述步骤(23)中计算出的6个特征参数作为特征向量输入到训练后的LVQ神经网络模型中,判断行人意图;所述行人意图包括停下避让、正常通行、加速通过三种过街意图。
进一步地,所述步骤(31)具体包括:
(311)构建一个能够根据人体姿态骨架特征向量识别行人当前过街意图的LVQ神经网络模型;
(312)LVQ神经网络模型包含:输入层、竞争层和线性输出层;选取输入层神经元个数为m个,竞争层神经元个数为n个,输出层神经元个数为k个,且输入层神经元个数根据用来识别行人意图用到的特征参数个数来确定,输出层神经元个数根据设定的行人过街意图个数来确定,竞争层神经元个数根据经验估计方法再经试验确定,最大迭代次数为p;
其中,
(313)LVQ神经网络模型的训练过程:初始化输入层和竞争层之间的权值ωij和学习率η,输入层向量选取如下:
式中,li为竞争层神经元与输入向量之间的距离;ωij为输入层神经元j与竞争层神经元i之间的权值;xj为归一化后的输入层神经元;
选择与权值向量距离最小的竞争层神经元,记为胜出神经元,从而找到与之相连的线性输出层神经元;如果线性输出层神经元对应的类别与输入向量的类别一致,则称为正确分类,权值按照公式(10)调整;否则,称为不正确分类,权值按照公式(11)调整,进入下一轮训练过程,直至满足预先设定的最大迭代次数p时;
ωij_new=ωij+η(x-ωij) (10)
ωij_new=ωij-η(x-ωij) (11)
式中,ωij_new为调整后的权重;η为学习率;x为归一化后的输入向量;
(314)在训练LVQ神经网络模型前,制作能表征行人意图的特征向量数据集,作为LVQ神经网络输入数据,并标注出相应的行人意图结果,作为LVQ神经网络输出结果;取其中数据量的75%作为训练数据集,其余25%作为测试数据集,按照所述步骤(313)方法对LVQ神经网络进行训练和测试。
进一步地,所述步骤(4)的具体步骤如下:
其中,为行人在t时刻受到的合力,不考虑行人的质量,上述力均可视为加速度;为行人在t时刻速度的矢量表示;β1、β2和β3为权重参数;和分别为行人在t时刻和t+1时刻所处位置的矢量表示;和分别为行人在t时刻和t+1时刻速度的矢量表示;Δt为时间步长。
进一步地,所述(41)具体包括:
其中,Avp、Bvp、k和K为社会力模型参数;Rv为车辆的作用力半径;dvp(t)为行人在t时刻与车辆的距离;为车辆在t时刻所在位置的矢量表示;Δvvp(t)为t时刻行人与车辆的瞬时速度差;为法向作用力单位向量;为切向作用力单位向量。
进一步地,所述步骤(42)具体包括:
(421)当判断行人意图为停下避让时,行人此时的速度为0;行人停下等待车辆通过,此时选取β1=β2=β3=0,即此时行人受到的合力为0;同时,车辆可继续当前行驶状态安全通过;
(422)当判断行人意图为正常通行时,选取β1=β2=β3=1,计算此时行人受到的自驱动力、目的地吸引力和人车交互斥力,并求取合力,根据设定的时间步长,获得行人下一时刻的位置矢量和速度矢量;同时,车辆进行避障路径规划;
(423)当判断行人意图为加速通过时,忽略掉车辆对其造成的部分斥力,选取β1=1,β2>1,β3<1,计算此时行人受到自驱动力、目的地吸引力和人车交互斥力,并求取合力,根据设定的时间步长,获得行人下一时刻的位置矢量和速度矢量;同时,车辆进行避障路径规划。
本发明的有益效果:
1、本发明的行人过街轨迹预测方法,考虑了行人在过街时面对来车的主观能动性,利用行人的姿态骨架估计出行人的过街意图,为过街轨迹预测提供基础;
2、本发明的行人过街轨迹预测方法融合了行人意图识别过程,对传统的社会力模型进行改进,能够反应出真实的行人过街行为,提高行人过街轨迹预测的准确性;
3、本发明的方法能够为智能车后续决策规划提供基础,有利于提高智能车行驶和行人过街的安全性。
附图说明
图1为本发明方法的原理框图;
图2为人体姿态骨架示意图;
图3为基于人体姿态骨架估计的行人意图识别示意图;
图4为LVQ神经网络模型结构示意图;
图5为基于社会力模型的行人受力示意图。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明,实施方式提及的内容并非对本发明的限定。
参照图1所示,本发明的一种融合行人意图和社会力模型的行人过街轨迹预测方法,包括以下步骤:
(1)获取自车行驶状态信息、车辆前方图像和行人运动状态信息;具体包括:
(11)利用车辆CAN总线获取车辆当前行驶状态信息,所述行驶状态信息包括车辆的行驶速度信息、位置信息;
(12)利用安装在车辆前挡风玻璃上的摄像头获取车辆前方图像;
(13)利用安装在车辆前保险杠处的毫米波雷达获取行人的相对运动状态信息,所述行人的相对运动状态信息包括行人相对车辆的位置信息和速度信息;
(14)根据车辆行驶状态信息和行人的相对运动状态信息,利用毫米波雷达坐标系到世界坐标系的参数转换,得到行人运动状态信息。
(2)根据所述步骤(1)中采集到的车辆前方图像,利用Openpose算法对图像中过街行人姿态关键点进行检测并拟合人体姿态骨架;根据人体姿态骨架,选取能表达行人意图的关键点,计算关键点之间的距离和角度参数;参照图2所示;具体包括:
(21)基于Openpose算法,将所述步骤(1)中获取的车辆前方图像经过VGG-19卷积网络的前十层初始化获得特征图F,利用双支线多阶段卷积网络检测出过街行人姿态关键点并拟合人体姿态骨架;
(22)(行人在不同过街意图的驱使下,其人体姿态骨架呈现出不同的特点)根据行人过街时左侧面朝来车的特点,选取能表达行人意图的关键点,具体选取人体姿态骨架中的脖子、左肩、左肘、左腕、左胯、左膝、左踝、右胯、右膝、右踝,分别用数字1、5、6、7、11、12、13、8、9、10表示,且有连接关系1-5-6-7,11-12-13和8-9-10;
(23)计算关键点之间的距离和角度作为特征参数:计算左肩至左腕的距离d1(即关键点5与7之间)、左右膝关节间距d2(即关键点9与12之间)、左右踝关节间距d3(即关键点10与13之间);计算左前臂与左后臂的夹角α1(即关键点5-6与6-7之间)、左腿关节角度α2(即关键点11-12与12-13之间)、右腿关节角度α3(即关键点8-9与9-10之间);
上述中某两个关键点之间的距离用欧几里得距离表示:
式中,||v||为两个关键点间欧几里得距离,ΔX和ΔY分别为两个关键点在X轴和Y轴方向上的距离差;
两个关键点组成的线段与X轴的夹角记为α,三个关键点构成一个三角形,计算其中夹角:
其中,所述步骤(21)具体包括:
(211)双支线多阶段卷积网络包含两个分支,第一个分支用于预测检测身体部位关键点的置信图St,利用非最大抑制获取候选关键点集,得到图像中人体姿态关键点的位置;第二个分支用于预测连接身体部位肢体关键点之间的部位亲和力场Lt,计算出图像关键点连接的全局最优解,获取人体姿态骨架;
式中,表示身体部位关键点置信图的真实值;表示在第t阶段身体部位关键点置信图的预测值;表示部位亲和力场的真实值;表示在第t阶段部位亲和力场的预测值;W(p)表示损失函数的权重;J表示置信图分支的样本数;C表示部位亲和力场分支的样本数;f表示最终的总损失函数;t,T表示迭代阶段。
(3)将所述步骤(2)中的距离和角度参数作为特征向量输入到训练后的LVQ神经网络模型中,判断行人意图;参照图3和图4所示;具体包括:
(31)将所述步骤(23)中计算出的6个特征参数作为特征向量输入到训练后的LVQ神经网络模型中,判断行人意图;所述行人意图包括停下避让、正常通行、加速通过三种过街意图。
具体地,所述步骤(31)具体包括:
(311)构建一个能够根据人体姿态骨架特征向量识别行人当前过街意图的LVQ神经网络模型;
(312)LVQ神经网络模型包含:输入层、竞争层和线性输出层;选取输入层神经元个数为m个,竞争层神经元个数为n个,输出层神经元个数为k个,且输入层神经元个数根据用来识别行人意图用到的特征参数个数来确定,输出层神经元个数根据设定的行人过街意图个数来确定,竞争层神经元个数根据经验估计方法再经试验确定,最大迭代次数为p;
其中,
(313)LVQ神经网络模型的训练过程:初始化输入层和竞争层之间的权值ωij和学习率η,输入层向量选取如下:
式中,li为竞争层神经元与输入向量之间的距离;ωij为输入层神经元j与竞争层神经元i之间的权值;xj为归一化后的输入层神经元;
选择与权值向量距离最小的竞争层神经元,记为胜出神经元,从而找到与之相连的线性输出层神经元;如果线性输出层神经元对应的类别与输入向量的类别一致,则称为正确分类,权值按照公式(10)调整;否则,称为不正确分类,权值按照公式(11)调整,进入下一轮训练过程,直至满足预先设定的最大迭代次数p时;
ωij_new=ωij+η(x-ωij) (10)
ωij_new=ωij-η(x-ωij) (11)
式中,ωij_new为调整后的权重;η为学习率;x为归一化后的输入向量;
(314)在训练LVQ神经网络模型前,制作能表征行人意图的特征向量数据集,作为LVQ神经网络输入数据,并标注出相应的行人意图结果,作为LVQ神经网络输出结果;取其中数据量的75%作为训练数据集,其余25%作为测试数据集,按照所述步骤(313)方法对LVQ神经网络进行训练和测试。
(4)建立行人在过街时受到的自驱动力、目的地吸引力以及人车交互斥力,并求取合力,将行人意图以权重形式在社会力模型中量化;根据设定的时间步长,对行人过街运动轨迹进行预测;参照图5所示;具体包括:
其中,为行人在t时刻受到的合力,不考虑行人的质量,上述力均可视为加速度;为行人在t时刻速度的矢量表示;β1、β2和β3为权重参数;和分别为行人在t时刻和t+1时刻所处位置的矢量表示;和分别为行人在t时刻和t+1时刻速度的矢量表示;Δt为时间步长。
其中,所述(41)具体包括:
其中,Avp、Bvp、k和K为社会力模型参数;Rv为车辆的作用力半径;dvp(t)为行人在t时刻与车辆的距离;为车辆在t时刻所在位置的矢量表示;Δvvp(t)为t时刻行人与车辆的瞬时速度差;为法向作用力单位向量;为切向作用力单位向量。
其中,所述步骤(42)具体包括:
(421)当判断行人意图为停下避让时,行人此时的速度为0;行人停下等待车辆通过,此时选取β1=β2=β3=0,即此时行人受到的合力为0;同时,智能车辆可继续当前行驶状态安全通过;
(422)当判断行人意图为正常通行时,选取β1=β2=β3=1,计算此时行人受到的自驱动力、目的地吸引力和人车交互斥力,并求取合力,根据设定的时间步长,获得行人下一时刻的位置矢量和速度矢量;同时,智能车辆进行避障路径规划;
(423)当判断行人意图为加速通过时,忽略掉车辆对其造成的部分斥力,选取β1=1,β2>1,β3<1,计算此时行人受到自驱动力、目的地吸引力和人车交互斥力,并求取合力,根据设定的时间步长,获得行人下一时刻的位置矢量和速度矢量;同时,智能车辆进行避障路径规划。
本发明具体应用途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进,这些改进也应视为本发明的保护范围。
Claims (9)
1.一种融合行人意图和社会力模型的行人过街轨迹预测方法,其特征在于,包括以下步骤:
(1)获取自车行驶状态信息、车辆前方图像和行人运动状态信息;
(2)根据所述步骤(1)中采集到的车辆前方图像,利用Openpose算法对图像中过街行人姿态关键点进行检测并拟合人体姿态骨架;根据人体姿态骨架,选取能表达行人意图的关键点,计算关键点之间的距离和角度参数;
(3)将所述步骤(2)中的距离和角度参数作为特征向量输入到训练后的LVQ神经网络模型中,判断行人意图;
(4)建立行人在过街时受到的自驱动力、目的地吸引力以及人车交互斥力,并求取合力,将行人意图以权重形式在社会力模型中量化;根据设定的时间步长,对行人过街运动轨迹进行预测。
2.根据权利要求1所述的融合行人意图和社会力模型的行人过街轨迹预测方法,其特征在于,所述步骤(1)的具体步骤如下:
(11)利用车辆CAN总线获取车辆当前行驶状态信息,所述行驶状态信息包括车辆的行驶速度信息、位置信息;
(12)利用安装在车辆前挡风玻璃上的摄像头获取车辆前方图像;
(13)利用安装在车辆前保险杠处的毫米波雷达获取行人的相对运动状态信息,所述行人的相对运动状态信息包括行人相对车辆的位置信息和速度信息;
(14)根据车辆行驶状态信息和行人的相对运动状态信息,利用毫米波雷达坐标系到世界坐标系的参数转换,得到行人运动状态信息。
3.根据权利要求1所述的融合行人意图和社会力模型的行人过街轨迹预测方法,其特征在于,所述步骤(2)的具体步骤如下:
(21)基于Openpose算法,将所述步骤(1)中获取的车辆前方图像经过VGG-19卷积网络的前十层初始化获得特征图F,利用双支线多阶段卷积网络检测出过街行人姿态关键点并拟合人体姿态骨架;
(22)根据行人过街时左侧面朝来车的特点,选取能表达行人意图的关键点,具体选取人体姿态骨架中的脖子、左肩、左肘、左腕、左胯、左膝、左踝、右胯、右膝、右踝;
(23)计算关键点之间的距离和角度作为特征参数:计算左肩至左腕的距离d1、左膝、右膝关节间距d2、左踝、右踝关节间距d3;计算左前臂与左后臂的夹角α1、左腿关节角度α2、右腿关节角度α3;
上述中某两个关键点之间的距离用欧几里得距离表示:
式中,||v||为两个关键点间欧几里得距离,ΔX和ΔY分别为两个关键点在X轴和Y轴方向上的距离差;
两个关键点组成的线段与X轴的夹角记为α,三个关键点构成一个三角形,计算其中夹角:
4.根据权利要求3所述的融合行人意图和社会力模型的行人过街轨迹预测方法,其特征在于,所述步骤(21)具体包括:
(211)双支线多阶段卷积网络包含两个分支,第一个分支用于预测检测身体部位关键点的置信图St,利用非最大抑制获取候选关键点集,得到图像中人体姿态关键点的位置;第二个分支用于预测连接身体部位肢体关键点之间的部位亲和力场Lt,计算出图像关键点连接的全局最优解,获取人体姿态骨架;
5.根据权利要求3所述的融合行人意图和社会力模型的行人过街轨迹预测方法,其特征在于,所述步骤(3)的具体步骤如下:
(31)将所述步骤(23)中计算出的6个特征参数作为特征向量输入到训练后的LVQ神经网络模型中,判断行人意图;所述行人意图包括停下避让、正常通行、加速通过三种过街意图。
6.根据权利要求5所述的融合行人意图和社会力模型的行人过街轨迹预测方法,其特征在于,所述步骤(31)具体包括:
(311)构建一个能够根据人体姿态骨架特征向量识别行人当前过街意图的LVQ神经网络模型;
(312)LVQ神经网络模型包含:输入层、竞争层和线性输出层;选取输入层神经元个数为m个,竞争层神经元个数为n个,输出层神经元个数为k个,且输入层神经元个数根据用来识别行人意图用到的特征参数个数来确定,输出层神经元个数根据设定的行人过街意图个数来确定,竞争层神经元个数根据经验估计方法再经试验确定,最大迭代次数为p;
其中,
(313)LVQ神经网络模型的训练过程:初始化输入层和竞争层之间的权值ωij和学习率η,输入层向量选取如下:
式中,li为竞争层神经元与输入向量之间的距离;ωij为输入层神经元j与竞争层神经元i之间的权值;xj为归一化后的输入层神经元;
选择与权值向量距离最小的竞争层神经元,记为胜出神经元,从而找到与之相连的线性输出层神经元;如果线性输出层神经元对应的类别与输入向量的类别一致,则称为正确分类,权值按照公式(10)调整;否则,称为不正确分类,权值按照公式(11)调整,进入下一轮训练过程,直至满足预先设定的最大迭代次数p时;
ωij_new=ωij+η(x-ωij) (10)
ωij_new=ωij-η(x-ωij) (11)
式中,ωij_new为调整后的权重;η为学习率;x为归一化后的输入向量;
(314)在训练LVQ神经网络模型前,制作能表征行人意图的特征向量数据集,作为LVQ神经网络输入数据,并标注出相应的行人意图结果,作为LVQ神经网络输出结果;取其中数据量的75%作为训练数据集,其余25%作为测试数据集,按照所述步骤(313)方法对LVQ神经网络进行训练和测试。
7.根据权利要求1所述的融合行人意图和社会力模型的行人过街轨迹预测方法,其特征在于,所述步骤(4)的具体步骤如下:
8.根据权利要求7所述的融合行人意图和社会力模型的行人过街轨迹预测方法,其特征在于,所述(41)具体包括:
9.根据权利要求7所述的融合行人意图和社会力模型的行人过街轨迹预测方法,其特征在于,所述步骤(42)具体包括:
(421)当判断行人意图为停下避让时,行人此时的速度为0;行人停下等待车辆通过,此时选取β1=β2=β3=0,即此时行人受到的合力为0;同时,车辆可继续当前行驶状态安全通过;
(422)当判断行人意图为正常通行时,选取β1=β2=β3=1,计算此时行人受到的自驱动力、目的地吸引力和人车交互斥力,并求取合力,根据设定的时间步长,获得行人下一时刻的位置矢量和速度矢量;同时,车辆进行避障路径规划;
(423)当判断行人意图为加速通过时,忽略掉车辆对其造成的部分斥力,选取β1=1,β2>1,β3<1,计算此时行人受到自驱动力、目的地吸引力和人车交互斥力,并求取合力,根据设定的时间步长,获得行人下一时刻的位置矢量和速度矢量;同时,车辆进行避障路径规划。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202210972400.3A CN115424236B (zh) | 2022-08-15 | 2022-08-15 | 一种融合行人意图和社会力模型的行人过街轨迹预测方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202210972400.3A CN115424236B (zh) | 2022-08-15 | 2022-08-15 | 一种融合行人意图和社会力模型的行人过街轨迹预测方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN115424236A true CN115424236A (zh) | 2022-12-02 |
| CN115424236B CN115424236B (zh) | 2025-09-23 |
Family
ID=84198153
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202210972400.3A Active CN115424236B (zh) | 2022-08-15 | 2022-08-15 | 一种融合行人意图和社会力模型的行人过街轨迹预测方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN115424236B (zh) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115810203A (zh) * | 2022-12-19 | 2023-03-17 | 天翼爱音乐文化科技有限公司 | 一种障碍物躲避识别方法、系统、电子设备及存储介质 |
| CN116777946A (zh) * | 2023-04-10 | 2023-09-19 | 南京理工大学 | 基于改进Social-GAN算法的复杂场景行人轨迹预测方法及装置 |
| CN116863728A (zh) * | 2023-07-21 | 2023-10-10 | 重庆交通大学 | 一种基于过街行人步速分类的信号配时方法与系统 |
| CN116882148A (zh) * | 2023-07-03 | 2023-10-13 | 成都信息工程大学 | 一种基于空间社会力图神经网络的行人轨迹预测方法及系统 |
| CN117436937A (zh) * | 2023-12-21 | 2024-01-23 | 暗物智能科技(广州)有限公司 | 一种考虑行人画像的路径预测方法及系统 |
| CN119181134A (zh) * | 2024-08-16 | 2024-12-24 | 北京京能能源技术研究有限责任公司 | 基于图像捕捉数据的行为识别方法、装置、设备及介质 |
| CN119358423A (zh) * | 2024-12-26 | 2025-01-24 | 宁波大学 | 基于改进社会力模型的人-车交互仿真方法、系统及应用 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20200023842A1 (en) * | 2019-09-27 | 2020-01-23 | David Gomez Gutierrez | Potential collision warning system based on road user intent prediction |
| CN111459168A (zh) * | 2020-04-23 | 2020-07-28 | 上海交通大学 | 一种融合的自动驾驶汽车过街行人轨迹预测方法及系统 |
| CN113793497A (zh) * | 2021-08-04 | 2021-12-14 | 东南大学 | 一种考虑多因素的行人过街行为预测方法 |
| CN114299607A (zh) * | 2021-12-13 | 2022-04-08 | 南京理工大学 | 一种基于自动驾驶汽车的人车碰撞危险度分析方法 |
-
2022
- 2022-08-15 CN CN202210972400.3A patent/CN115424236B/zh active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20200023842A1 (en) * | 2019-09-27 | 2020-01-23 | David Gomez Gutierrez | Potential collision warning system based on road user intent prediction |
| CN111459168A (zh) * | 2020-04-23 | 2020-07-28 | 上海交通大学 | 一种融合的自动驾驶汽车过街行人轨迹预测方法及系统 |
| CN113793497A (zh) * | 2021-08-04 | 2021-12-14 | 东南大学 | 一种考虑多因素的行人过街行为预测方法 |
| CN114299607A (zh) * | 2021-12-13 | 2022-04-08 | 南京理工大学 | 一种基于自动驾驶汽车的人车碰撞危险度分析方法 |
Non-Patent Citations (2)
| Title |
|---|
| LIU JINQIANG等: "Interactive on-ramp merging decision-making with motion prediction considering merging motivation", SAGE JOURNALS, 23 July 2023 (2023-07-23) * |
| 李娟;刘安阳;: "基于改进社会力模型的行人过街运动行为研究", 交通运输工程与信息学报, no. 02, 15 June 2017 (2017-06-15) * |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115810203A (zh) * | 2022-12-19 | 2023-03-17 | 天翼爱音乐文化科技有限公司 | 一种障碍物躲避识别方法、系统、电子设备及存储介质 |
| CN115810203B (zh) * | 2022-12-19 | 2024-05-10 | 天翼爱音乐文化科技有限公司 | 一种障碍物躲避识别方法、系统、电子设备及存储介质 |
| CN116777946A (zh) * | 2023-04-10 | 2023-09-19 | 南京理工大学 | 基于改进Social-GAN算法的复杂场景行人轨迹预测方法及装置 |
| CN116882148A (zh) * | 2023-07-03 | 2023-10-13 | 成都信息工程大学 | 一种基于空间社会力图神经网络的行人轨迹预测方法及系统 |
| CN116882148B (zh) * | 2023-07-03 | 2024-01-30 | 成都信息工程大学 | 基于空间社会力图神经网络的行人轨迹预测方法及系统 |
| CN116863728A (zh) * | 2023-07-21 | 2023-10-10 | 重庆交通大学 | 一种基于过街行人步速分类的信号配时方法与系统 |
| CN117436937A (zh) * | 2023-12-21 | 2024-01-23 | 暗物智能科技(广州)有限公司 | 一种考虑行人画像的路径预测方法及系统 |
| CN119181134A (zh) * | 2024-08-16 | 2024-12-24 | 北京京能能源技术研究有限责任公司 | 基于图像捕捉数据的行为识别方法、装置、设备及介质 |
| CN119358423A (zh) * | 2024-12-26 | 2025-01-24 | 宁波大学 | 基于改进社会力模型的人-车交互仿真方法、系统及应用 |
| CN119358423B (zh) * | 2024-12-26 | 2025-06-27 | 宁波大学 | 基于改进社会力模型的人-车交互仿真方法、系统及应用 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN115424236B (zh) | 2025-09-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN115424236A (zh) | 一种融合行人意图和社会力模型的行人过街轨迹预测方法 | |
| CN114299607B (zh) | 一种基于自动驾驶汽车的人车碰撞危险度分析方法 | |
| CN109866752B (zh) | 基于预测控制的双模式并行车辆轨迹跟踪行驶系统的方法 | |
| Jayaraman et al. | Analysis and prediction of pedestrian crosswalk behavior during automated vehicle interactions | |
| CN102915039B (zh) | 一种仿动物空间认知的多机器人联合目标搜寻方法 | |
| JP7176478B2 (ja) | 画像認識装置 | |
| Yao et al. | On-road vehicle trajectory collection and scene-based lane change analysis: Part II | |
| CN111079590A (zh) | 一种无人驾驶车辆的周边车辆行为预判方法 | |
| CN110264721A (zh) | 一种城市交叉口周边车辆轨迹预测方法 | |
| CN112085077B (zh) | 车辆变道的确定方法、装置、存储介质和电子设备 | |
| CN109727490B (zh) | 一种基于行车预测场的周边车辆行为自适应矫正预测方法 | |
| CN112013841A (zh) | 一种室内动态环境下的语义slam服务机器人导航方法 | |
| CN110320883A (zh) | 一种基于强化学习算法的车辆自动驾驶控制方法及装置 | |
| CN114446046A (zh) | 一种基于lstm模型的弱势交通参与者轨迹预测方法 | |
| CN115454085B (zh) | 基于导航地图的自动驾驶控制方法及自动驾驶控制装置 | |
| CN121074836A (zh) | 用于训练神经网络以生成针对第二传感器系统的控制信号的方法以及神经网络 | |
| CN109270524A (zh) | 基于无人驾驶的多数据融合障碍物检测装置及其检测方法 | |
| CN114179830A (zh) | 一种自动驾驶车辆的自主超车方法和系统 | |
| CN115107806B (zh) | 一种自动驾驶系统中面向突发事件场景的车辆轨迹预测方法 | |
| CN113793497A (zh) | 一种考虑多因素的行人过街行为预测方法 | |
| Schütt et al. | An application of scenario exploration to find new scenarios for the development and testing of automated driving systems in urban scenarios | |
| CN120011845A (zh) | 一种车辆轨迹预测的实现方法 | |
| Yuan et al. | Driving intention recognition and speed prediction at complex urban intersections considering traffic environment | |
| CN108320051A (zh) | 一种基于gru网络模型的移动机器人动态避碰规划方法 | |
| CN115092138B (zh) | 基于自然驾驶人特性的车辆高速公路换道轨迹规划方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |