[go: up one dir, main page]

CN117831100A - 车辆参数优化方法、装置、存储介质及电子设备 - Google Patents

车辆参数优化方法、装置、存储介质及电子设备 Download PDF

Info

Publication number
CN117831100A
CN117831100A CN202311689176.8A CN202311689176A CN117831100A CN 117831100 A CN117831100 A CN 117831100A CN 202311689176 A CN202311689176 A CN 202311689176A CN 117831100 A CN117831100 A CN 117831100A
Authority
CN
China
Prior art keywords
vehicle
optimized
comfort
passenger
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311689176.8A
Other languages
English (en)
Inventor
肖秧
孔德聪
刘虹葳
方达龙
沈斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Western Science City Intelligent Connected Vehicle Innovation Center Chongqing Co ltd
Original Assignee
Western Science City Intelligent Connected Vehicle Innovation Center Chongqing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Western Science City Intelligent Connected Vehicle Innovation Center Chongqing Co ltd filed Critical Western Science City Intelligent Connected Vehicle Innovation Center Chongqing Co ltd
Priority to CN202311689176.8A priority Critical patent/CN117831100A/zh
Publication of CN117831100A publication Critical patent/CN117831100A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/092Reinforcement learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种车辆参数优化方法、装置、存储介质及电子设备,本发明涉及信息技术领域,其中包括:获取当前时刻的车辆室内图像和车辆状态数据;基于所述车辆室内图像,识别乘客的面部情绪;基于所述乘客的面部情绪,确定车辆驾驶参数对应的舒适度奖励值;根据所述舒适度奖励值和所述车辆状态数据,利用预设强学习算法对所述车辆驾驶参数进行优化。本发明能够能够精准优化车辆参数,提升乘客舒适度。

Description

车辆参数优化方法、装置、存储介质及电子设备
技术领域
本发明涉及信息技术领域,具体而言,涉及一种车辆参数优化方法、装置、存储介质及电子设备。
背景技术
乘客舒适度感知,旨在提供更高水平的出行舒适度,并为交通工具的制造商、运营商和乘客提供有价值的信息。该项技术有助于改善出行体验、提高乘客满意度,并在交通领域中具有广泛的应用前景。
目前,为了在车辆行驶过程中提高乘客舒适度,通常根据出厂前标定的NVH量化指标,调整车辆参数。然而,舒适度是乘客的主观感受,单纯地使用NVH量化指标并不能很好地表达乘客实际乘坐时的舒适度,因此现有技术的这种方式并不能实现车辆参数的精准优化,也无法达到提升乘客舒适度的目的。
发明内容
本发明提供一种车辆参数优化方法、装置、存储介质及电子设备,主要在于能够精准优化车辆参数,提升乘客舒适度。
根据本发明实施例的第一方面,提供一种车辆参数优化方法,包括:
获取当前时刻的车辆室内图像和车辆状态数据;
基于所述车辆室内图像,识别乘客的面部情绪;
基于所述乘客的面部情绪,确定车辆驾驶参数对应的舒适度奖励值;
根据所述舒适度奖励值和所述车辆状态数据,利用预设强学习算法对所述车辆驾驶参数进行优化。
根据本发明实施例的第二方面,提供一种车辆参数优化装置,包括:
获取单元,用于获取当前时刻的车辆室内图像和车辆状态数据;
识别单元,用于基于所述车辆室内图像,识别乘客的面部情绪;
确定单元,用于基于所述乘客的面部情绪,确定车辆驾驶参数对应的舒适度奖励值;
优化单元,用于根据所述舒适度奖励值和所述车辆状态数据,利用预设强学习算法对所述车辆驾驶参数进行优化。
根据本发明实施例的第三方面,提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现以下步骤:
获取当前时刻的车辆室内图像和车辆状态数据;
基于所述车辆室内图像,识别乘客的面部情绪;
基于所述乘客的面部情绪,确定车辆驾驶参数对应的舒适度奖励值;
根据所述舒适度奖励值和所述车辆状态数据,利用预设强学习算法对所述车辆驾驶参数进行优化。
根据本发明实施例的第四方面,提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤:
获取当前时刻的车辆室内图像和车辆状态数据;
基于所述车辆室内图像,识别乘客的面部情绪;
基于所述乘客的面部情绪,确定车辆驾驶参数对应的舒适度奖励值;
根据所述舒适度奖励值和所述车辆状态数据,利用预设强学习算法对所述车辆驾驶参数进行优化。
本发明的创新点,如下:
1、由于乘坐舒适性与乘客所表现出来的情绪具有很强的相关性,本发明通过识别乘客的面部情绪,并利用该面部情绪作为乘坐舒适性的判断依据,能够避免完全通过标准化指标来衡量乘坐舒适性,从而能够实现车辆参数的精准优化,达到提升乘客舒适度的目的。
2、本发明仅将乘客的面部情绪和车辆状态信息作为乘客舒适度的关联数据,能够有效减少数据量。
3、本发明通过使用强学习算法,能够在实际运行过程中不断优化车辆参数,且针对不同的乘客,能够给出不同的驾驶参数建议。
4、本发明只需要增加一个深度学习计算单元即可完成优化任务,布置成本较低。
本发明提供的一种车辆参数优化方法、装置、存储介质及电子设备,与现有技术根据出厂前标定的NVH量化指标,调整车辆参数的方式相比,本发明能够获取当前时刻的车辆室内图像和车辆状态数据,并基于所述车辆室内图像,识别乘客的面部情绪,与此同时,基于所述乘客的面部情绪,确定车辆驾驶参数对应的舒适度奖励值,最终根据所述舒适度奖励值和所述车辆状态数据,利用预设强学习算法对所述车辆驾驶参数进行优化。由此可知,本发明通过识别车内乘客的面部情绪,并基于该面部情绪和车辆状态数据,利用强学习算法优化车辆状态参数,能够将乘客的面部情绪作为乘坐舒适度的判断依据,从而能够避免完全通过标准化指标衡量乘客舒适度,同时能够依据舒适度奖励值实现对车辆驾驶参数的精准优化,达到提升乘客舒适度的目的。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明实施例提供的一种车辆参数优化方法流程示意图;
图2示出了本发明实施例提供的整体优化过程的示意图;
图3示出了本发明实施例提供的各类传感器以及计算单元的布置示意图;
图4示出了本发明实施例提供的摄像头画面识别区域示意图;
图5示出了本发明实施例提供的强学习模型训练过程的示意图;
图6示出了本发明实施例提供的一种车辆参数优化装置的结构示意图;
图7示出了本发明实施例提供的一种电子设备的实体结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明实施例及附图中的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
现有技术并不能实现车辆参数的精准优化,也无法达到提升乘客舒适度的目的。
为了克服上述缺陷,本发明实施例提供了一种车辆参数优化方法,如图1所示,该方法包括:
步骤101、获取当前时刻的车辆室内图像和车辆状态数据。
其中,车辆室内图像为拍摄的乘客图像,车辆状态数据包括车速、加速度和横摆角速度等。
本发明实施例主要适用于优化车辆参数,提升乘车舒适度的场景。本发明实施例的执行主体为能够优化车辆参数,提升乘车舒适度的装置或者设备。
为了提升乘坐舒适度,实现车辆参数的精准优化,本发明实施例基于乘客的面部情绪和车辆状态参数,利用强学习算法在车辆实际运行的过程当中不断学习优化,并且能够针对不同的乘客,给出不同的驾驶参数建议,整体流程如图2所示。
本发明实施例中选用的传感器分为乘坐空间内传感器和车辆状态检测传感器两部分。其中,乘坐空间内传感器包括摄像头,其主要功能为检测车内乘客的情绪状态;车辆状态检测传感器包括轮速传感器(Wheel Speed Sensor)和惯性测量单元(InertialMeasurementUnit,IMU),轮速传感器安装在车辆的车轮上,通过监测车轮的旋转来对车速进行测量,而IMU则结合了加速度计(Accelerator)和陀螺仪(Gyroscope),可以提供更多的运动信息,可以测量车辆的线性加速度、角加速度和方向变化。
对于摄像头传感器,将其布置在乘客的正前方,能够检测到乘客面部的位置即可。对于轮速传感器,将其部署在车辆的四个车轮处。随后,根据四个车轮的轮速数据,计算单元可计算出整个车辆的速度。通常车速被计算为四个轮速的平均值,这有助于平滑地估计车辆的速度。如果有一个轮速传感器的数据与其他传感器相比存在明显异常,控制系统会忽略该异常值,以确保车速计算的准确性。
对于惯性测量单元,将其安装在车辆的中心位置,通常安装在车辆的中央隧道、座椅下或车辆仪表盘内。这个位置可以提供相对稳定的数据,适用于多种驾驶情况,包括直线行驶和转弯。
对于计算单元的选取,选择具有深度学习和GPU加速能力的嵌入式计算设备,如nVidiajetson系列嵌入式设备。将摄像头与和传感器连接至嵌入式设备,嵌入式设备根据所获取的各类传感器数据进行运算,并给出相应的反馈结果。对于有需要驾驶员驾驶的车辆,可以将嵌入式设备输出的数据转换为可视化数据显示在车辆中控屏上,用于提示驾驶员当前如何调整自己的驾驶风格。对于自动驾驶车辆,则直接将设备计算出的驾驶参数发送智驾域的嵌入式设备,用于判断能否满足安全驾驶要求,若驾驶参数满足安全要求,则采纳该参数,反之则不采纳该参数。各类传感器和计算单元的整体安装布置如图3所示。
对于本发明实施例,乘客乘车时的情绪状态和车辆状态数据会在后续的算法模型中作为优化驾驶参数的依据,因此需要利用摄像头和传感器分别获取车辆室内图像和车辆状态数据,以便根据该车辆室内图像,判断乘客当前的情绪情况,并利用乘客的面部情绪和车辆状态数据,对车辆参数进行优化。
步骤102、基于所述车辆室内图像,识别乘客的面部情绪。
对于本发明实施例,为了识别乘客的面部情绪,步骤102具体包括:利用预设人脸检测模型对所述车辆室内图像进行人脸检测,得到所述车辆室内图像中的人脸选定框信息;基于所述人脸选定框信息,确定人脸图像数据;将所述人脸图像数据输入至预设面部情绪分类模型中进行情绪分类,得到所述乘客的面部情绪。
其中,预设人脸检测模型具体为Hourglass模型和特征金字塔网络,预设面部情绪分类模型具体为VGG13。人脸选定框信息包括人脸选定框左上角和右下角的坐标信息。
具体地,在获取车辆室内图像之后,需要定位人脸位置,该过程需要使用物体追踪算法对画面中的人脸进行定位,本发明实施例采用的追踪算法为CenterFace算法,该算法为一种轻量级的人脸检测算法,其利用Hourglass模型和特征金字塔网络,实现了对人脸的高精度定位。最终输出的人脸定位信息为人脸选定框左上角和右下角的x轴坐标和y轴坐标。
在具体应用场景中,摄像头获取的车辆室内图像中可能存在多个人脸数据,而本发明实施例中每个摄像头只负责收集对应位置的单个人脸数据,因此需要对多余的人脸数据进行过滤。针对该过程,所述方法包括:若所述车辆室内图像中存在多个人脸选定框信息,则对所述车辆室内图像中的边缘信息进行屏蔽,得到屏蔽后的车辆室内图像;计算所述屏蔽后的车辆室内图像中各个人脸选定框的面积;根据所述各个人脸选定框的面积,从所述各个人脸选定框中筛选出面积最大的人脸选定框,并将所述面积最大的人脸选定框确定为目标人脸选定框;根据所述目标人脸选定框,确定所述人脸图像数据。
具体地,首先对车辆室内图像边缘处的信息进行屏蔽,如图4所示,之后选择面积最大的人脸选定框作为被测选定框,即目标选定框,从而获得人脸图像数据,具体公式如下:
其中,idx代表筛选出的人脸选定框的索引号,分别表示选定框左上角的坐标信息,分别表示选定框右下角的坐标信息。
进一步地,在获取人脸图像数据之后,利用深度学习算法对其进行分类,本发明实施例选择Facial Expression Recognition(FER+)数据集作为训练数据集,其提供了更精细和细致的面部表情标签,本发明实施例将面部表情划分成8种基本情绪,具体包括:快乐、悲伤、愤怒、惊讶、恐惧、厌恶、中性以及蔑视。本发明实施例采用的分类模型为VGG模型,如VGG13模型,该模型的输入图像为64x64的灰度图像,输出为8种不同的情绪索引,如表1所示。VGG13模型使用具有最大池化和dropout的卷积层将图像分类为八个情绪类别,用以防止过拟合。
表1
情绪 恐惧 愤怒 厌恶 惊讶 蔑视 悲伤 中性 快乐
索引 0 1 2 3 4 5 6 7
步骤103、基于所述乘客的面部情绪,确定车辆驾驶参数对应的舒适度奖励值。
对于本发明实施例,不同的面部情绪,其对应的舒适度奖励值不同,如表2所示,在确定乘客的面部情绪之后,确定相应的舒适度奖励值。在具体应用场景种,车辆中可能存在多名乘客,此时需要将多个乘客的面部情绪分别对应的奖励值相加。针对该过程,所述方法包括:若存在多个乘客,则确定所述多个乘客的面部情绪分别对应的奖励值;将所述多个乘客的面部情绪分别对应的奖励值相加,得到所述车辆驾驶参数对应的舒适度奖励值。
表2
情绪 恐惧 愤怒 厌恶 惊讶 蔑视 悲伤 中性 快乐
索引 -3 -2 -2 -1 0 0 1 3
步骤104、根据所述舒适度奖励值和所述车辆状态数据,利用预设强学习算法对所述车辆驾驶参数进行优化。
对于本发明实施例,在对车辆驾驶参数进行优化时,步骤104具体包括:将所述舒适度奖励值和所述车辆状态数据输入至预设车辆驾驶参数强学习模型中进行驾驶参数优化,得到优化后的车辆驾驶参数。其中,预设车辆驾驶参数强学习模型具体可以为神经网络模型。
具体地,强化学习讨论的问题是一个智能体(agent)如何在一个复杂且不确定的环境(environment)中将其获得的奖励极大化。其通过观察所处环境的状态(state)对动作(action)的反应(reward),来优化动作输出,从而获得最大的回报(return),这样的交互学习方式便被称为强化学习。在本发明实施例中,将车辆状态数据,即车速、加速度和横摆角速度等作为环境状态,将加速度和横摆角速度作为动作输出,同时根据乘客的面部情绪反馈,输出相应的奖励值(惩罚),不同情绪的奖励值设定如表2所示。基于反馈的奖励值,可以不断对加速度、横摆角速度等车辆驾驶参数进行调整和优化。
进一步地,在利用预设车辆驾驶参数强学习模型对车辆驾驶参数进行优化之前,需要预先构建强学习模型,针对该过程,所述方法包括:定义状态空间、动作空间和回报损失函数;构建初始神经网络模型;基于所述状态空间、所述动作空间和所述回报损失函数,对所述初始神经网络模型进行迭代训练,构建预设车辆驾驶参数强学习模型。
具体地,首先对强学习模型的状态、动作、奖励和其他相关的限制条件进行定义,在定义时,本发明实施例选取车速、加速度和横摆角速度作为环境状态,选取加速度和横摆角速度作为输出,根据乘客的情绪反馈,输出相应的奖励值(惩罚),如表2所示。对于其他限制条件,本发明实施例中状态和奖励的采样频率设定为0.1s,其中,对于一次采样的奖励值,则是将所有乘客的情绪对应的奖励值进行累加;动作的输出频率设定为1s,每5分钟为一个周期episode,计算这一周期内所获得的折损回报。具体公式如下:
其中,Ut为折损回报,Rt为每一次交互所获得的奖励,γ为折损因子,可以设为0.9。在更新强化学习中的智能体时,需要用到最优动作价值函数,如下所示:
其中,将Ut展开,转换成蒙特卡洛近似形式,并利用神经网络代替Q值计算,即表示神经网络在t时刻做出的折损回报预测,ω表示神经网络中的参数,st代表t时刻的状态,at代表t时刻所输出的动作。得到以下形式:
其中,上述等式的右半部分即为神经网络在t+1时刻做出的预测 也被称为TD目标。其根据奖励运算而成,比的可信性更高,所以希望更加接近,由此可以定义回报损失函数,如下:
其中,设为常数,能够计算出L关于ω的梯度,具体公式如下:
之后,再进行一次梯度下降运算,即完成一次更新,使得更加接近:
其中,α为学习率,设为0.001;不断训练更新后,强学习模型所输出的驾驶参数就会越来越合理。整体的训练流程如图5所示,其中,用于乘客情绪识别的人脸检测模型和面部情绪分类模型,以及强学习模型均部署在嵌入式计算设备中,强学习模型最终输出的是建议的驾驶参数,即优化后的驾驶参数(加速度、横摆角速度等)。
对于输出的加速度、横摆角速度,需要将其合理利用起来,针对人工操纵车辆和自动驾驶车辆,最终运用上述参数的形式也不同。基于此,所述方法,包括:若车辆为人工操纵车辆,则将所述优化后的车辆驾驶参数与所述车辆状态数据进行比对,其中,所述优化后的车辆驾驶参数包括:优化后的向前加速度、优化后的制定加速度和优化后的横摆角速度;若当前向前加速度超过所述优化后的向前加速度的比例达到第一预设比例,则向驾驶员发送勿猛踩油门的提示信息;若当前制定加速度超过所述优化后的制定加速度的比例达到第二预设比例,则向所述驾驶员发送平稳刹车的提示信息;若当前横摆角速度超过所述优化后的横摆角速度的比例达到第三预设比例,则向所述驾驶员发送勿过猛转向的提示信息;若所述车辆为自动驾驶车辆,则判定所述优化后的车辆驾驶参数是否满足安全约束;若所述优化后的车辆驾驶参数满足所述安全约束,则将所述优化后的车辆驾驶参数作为控制输入。
其中,第一预设比例、第二预设比例和第三预设比例可以根据实际的业务需求进行设定,本发明实施例对此不做具体限定。
具体地,对于人工操纵车辆,将当前的车辆状态数据和优化后的车辆驾驶参数进行对比,播放语音提示驾驶员调整参数。调整规则如下:若当前向前加速度大于建议加速度的50%时,则提示驾驶员“请勿猛踩油门”;若当前车辆制动加速度大于建议加速度的50%,则提示驾驶员“请平稳刹车”;若当前的横摆角速度大于建议横摆角速度的30%时,则提示驾驶员“请勿过猛转向”。对于自动驾驶车辆,若建议的车辆驾驶参数满足安全约束,则采取当前建议的驾驶参数作为控制输入;若建议的驾驶参数不满足安全约束,则不作为控制输入。
本发明实施例提供的一种车辆参数优化方法,通过识别车内乘客的面部情绪,并基于该面部情绪和车辆状态数据,利用强学习算法优化车辆状态参数,能够将乘客的面部情绪作为乘坐舒适度的判断依据,从而能够避免完全通过标准化指标衡量乘客舒适度,同时能够依据舒适度奖励值实现对车辆驾驶参数的精准优化,达到提升乘客舒适度的目的。
进一步地,作为图1的具体实现,本发明实施例提供了一种车辆参数优化装置,如图6所示,所述装置包括:获取单元31、识别单元32、确定单元33和优化单元34。
所述获取单元31,可以用于获取当前时刻的车辆室内图像和车辆状态数据。
所述识别单元32,可以用于基于所述车辆室内图像,识别乘客的面部情绪。
所述确定单元33,可以用于基于所述乘客的面部情绪,确定车辆驾驶参数对应的舒适度奖励值.
所述优化单元34,可以用于根据所述舒适度奖励值和所述车辆状态数据,利用预设强学习算法对所述车辆驾驶参数进行优化。
在具体应用场景中,所述识别单元32,包括:检测模块、确定模块和分类模块。
所述检测模块,可以用于利用预设人脸检测模型对所述车辆室内图像进行人脸检测,得到所述车辆室内图像中的人脸选定框信息。
所述确定模块,可以用于基于所述人脸选定框信息,确定人脸图像数据。
所述分类模块,可以用于将所述人脸图像数据输入至预设面部情绪分类模型中进行情绪分类,得到所述乘客的面部情绪。
进一步地,所述确定模块,可以具体用于若所述车辆室内图像中存在多个人脸选定框信息,则对所述车辆室内图像中的边缘信息进行屏蔽,得到屏蔽后的车辆室内图像;计算所述屏蔽后的车辆室内图像中各个人脸选定框的面积;根据所述各个人脸选定框的面积,从所述各个人脸选定框中筛选出面积最大的人脸选定框,并将所述面积最大的人脸选定框确定为目标人脸选定框;根据所述目标人脸选定框,确定所述人脸图像数据。
在具体应用场景中,所述确定单元33,可以具体用于若存在多个乘客,则确定所述多个乘客的面部情绪分别对应的奖励值;将所述多个乘客的面部情绪分别对应的奖励值相加,得到所述车辆驾驶参数对应的舒适度奖励值。
在具体应用场景中,所述优化单元34,可以具体用于将所述舒适度奖励值和所述车辆状态数据输入至预设车辆驾驶参数强学习模型中进行驾驶参数优化,得到优化后的车辆驾驶参数。
在具体应用场景中,所述装置还包括:比对单元、提示单元和判定单元。
所述比对单元,可以用于若车辆为人工操纵车辆,则将所述优化后的车辆驾驶参数与所述车辆状态数据进行比对,其中,所述优化后的车辆驾驶参数包括:优化后的向前加速度、优化后的制定加速度和优化后的横摆角速度。
所述提示单元,可以用于若当前向前加速度超过所述优化后的向前加速度的比例达到第一预设比例,则向驾驶员发送勿猛踩油门的提示信息。
所述提示单元,还可以用于若当前制定加速度超过所述优化后的制定加速度的比例达到第二预设比例,则向所述驾驶员发送平稳刹车的提示信息。
所述提示单元,还可以用于若当前横摆角速度超过所述优化后的横摆角速度的比例达到第三预设比例,则向所述驾驶员发送勿过猛转向的提示信息。
所述判定单元,可以用于若所述车辆为自动驾驶车辆,则判定所述优化后的车辆驾驶参数是否满足安全约束。
所述确定单元33,可以用于若所述优化后的车辆驾驶参数满足所述安全约束,则将所述优化后的车辆驾驶参数作为控制输入。
在具体应用场景中,所述装置还包括:训练单元。
所述训练单元,可以用于定义状态空间、动作空间和回报损失函数;构建初始神经网络模型;基于所述状态空间、所述动作空间和所述回报损失函数,对所述初始神经网络模型进行迭代训练,构建预设车辆驾驶参数强学习模型。
需要说明的是,本发明实施例提供的一种车辆参数优化装置所涉及各功能模块的其他相应描述,可以参考图1所示方法的对应描述,在此不再赘述。
基于上述如图1所示方法,相应的,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现以下步骤:获取当前时刻的车辆室内图像和车辆状态数据;基于所述车辆室内图像,识别乘客的面部情绪;基于所述乘客的面部情绪,确定车辆驾驶参数对应的舒适度奖励值;根据所述舒适度奖励值和所述车辆状态数据,利用预设强学习算法对所述车辆驾驶参数进行优化。
基于上述如图1所示方法和如图6所示装置的实施例,本发明实施例还提供了一种电子设备的实体结构图,如图7所示,该电子设备包括:处理器41、存储器42、及存储在存储器42上并可在处理器上运行的计算机程序,其中,存储器42和处理器41均设置在总线43上,所述处理器41执行所述程序时实现以下步骤:获取当前时刻的车辆室内图像和车辆状态数据;基于所述车辆室内图像,识别乘客的面部情绪;基于所述乘客的面部情绪,确定车辆驾驶参数对应的舒适度奖励值;根据所述舒适度奖励值和所述车辆状态数据,利用预设强学习算法对所述车辆驾驶参数进行优化。
本发明实施例通过识别车内乘客的面部情绪,并基于该面部情绪和车辆状态数据,利用强学习算法优化车辆状态参数,能够将乘客的面部情绪作为乘坐舒适度的判断依据,从而能够避免完全通过标准化指标衡量乘客舒适度,同时能够依据舒适度奖励值实现对车辆驾驶参数的精准优化,达到提升乘客舒适度的目的。
本领域普通技术人员可以理解:附图只是一个实施例的示意图,附图中的模块或流程并不一定是实施本发明所必须的。
本领域普通技术人员可以理解:实施例中的装置中的模块可以按照实施例描述分布于实施例的装置中,也可以进行相应变化位于不同于本实施例的一个或多个装置中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。

Claims (10)

1.一种车辆参数优化方法,其特征在于,包括:
获取当前时刻的车辆室内图像和车辆状态数据;
基于所述车辆室内图像,识别乘客的面部情绪;
基于所述乘客的面部情绪,确定车辆驾驶参数对应的舒适度奖励值;
根据所述舒适度奖励值和所述车辆状态数据,利用预设强学习算法对所述车辆驾驶参数进行优化。
2.根据权利要求1所述的方法,其特征在于,所述基于所述车辆室内图像,识别乘客的面部情绪,包括:
利用预设人脸检测模型对所述车辆室内图像进行人脸检测,得到所述车辆室内图像中的人脸选定框信息;
基于所述人脸选定框信息,确定人脸图像数据;
将所述人脸图像数据输入至预设面部情绪分类模型中进行情绪分类,得到所述乘客的面部情绪。
3.根据权利要求2所述的方法,其特征在于,所述基于所述人脸选定框信息,确定人脸图像数据,包括:
若所述车辆室内图像中存在多个人脸选定框信息,则对所述车辆室内图像中的边缘信息进行屏蔽,得到屏蔽后的车辆室内图像;
计算所述屏蔽后的车辆室内图像中各个人脸选定框的面积;
根据所述各个人脸选定框的面积,从所述各个人脸选定框中筛选出面积最大的人脸选定框,并将所述面积最大的人脸选定框确定为目标人脸选定框;
根据所述目标人脸选定框,确定所述人脸图像数据。
4.根据权利要求1所述的方法,其特征在于,所述基于所述乘客的面部情绪,确定车辆驾驶参数对应的舒适度奖励值,包括:
若存在多个乘客,则确定所述多个乘客的面部情绪分别对应的奖励值;
将所述多个乘客的面部情绪分别对应的奖励值相加,得到所述车辆驾驶参数对应的舒适度奖励值。
5.根据权利要求1所述的方法,其特征在于,根据所述舒适度奖励值和所述车辆状态数据,利用预设强学习算法对所述车辆驾驶参数进行优化,包括:
将所述舒适度奖励值和所述车辆状态数据输入至预设车辆驾驶参数强学习模型中进行驾驶参数优化,得到优化后的车辆驾驶参数。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
若车辆为人工操纵车辆,则将所述优化后的车辆驾驶参数与所述车辆状态数据进行比对,其中,所述优化后的车辆驾驶参数包括:优化后的向前加速度、优化后的制定加速度和优化后的横摆角速度;
若当前向前加速度超过所述优化后的向前加速度的比例达到第一预设比例,则向驾驶员发送勿猛踩油门的提示信息;
若当前制定加速度超过所述优化后的制定加速度的比例达到第二预设比例,则向所述驾驶员发送平稳刹车的提示信息;
若当前横摆角速度超过所述优化后的横摆角速度的比例达到第三预设比例,则向所述驾驶员发送勿过猛转向的提示信息;
若所述车辆为自动驾驶车辆,则判定所述优化后的车辆驾驶参数是否满足安全约束;
若所述优化后的车辆驾驶参数满足所述安全约束,则将所述优化后的车辆驾驶参数作为控制输入。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述方法还包括:
定义状态空间、动作空间和回报损失函数;
构建初始神经网络模型;
基于所述状态空间、所述动作空间和所述回报损失函数,对所述初始神经网络模型进行迭代训练,构建预设车辆驾驶参数强学习模型。
8.一种车辆参数优化装置,其特征在于,包括:
获取单元,用于获取当前时刻的车辆室内图像和车辆状态数据;
识别单元,用于基于所述车辆室内图像,识别乘客的面部情绪;
确定单元,用于基于所述乘客的面部情绪,确定车辆驾驶参数对应的舒适度奖励值;
优化单元,用于根据所述舒适度奖励值和所述车辆状态数据,利用预设强学习算法对所述车辆驾驶参数进行优化。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN202311689176.8A 2023-12-11 2023-12-11 车辆参数优化方法、装置、存储介质及电子设备 Pending CN117831100A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311689176.8A CN117831100A (zh) 2023-12-11 2023-12-11 车辆参数优化方法、装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311689176.8A CN117831100A (zh) 2023-12-11 2023-12-11 车辆参数优化方法、装置、存储介质及电子设备

Publications (1)

Publication Number Publication Date
CN117831100A true CN117831100A (zh) 2024-04-05

Family

ID=90508833

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311689176.8A Pending CN117831100A (zh) 2023-12-11 2023-12-11 车辆参数优化方法、装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN117831100A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN119149880A (zh) * 2024-11-19 2024-12-17 中国第一汽车股份有限公司 一种识别情绪状态的方法、装置、存储介质及电子设备
CN120122723A (zh) * 2025-03-07 2025-06-10 杭州紫创清飞科技有限公司 飞行平台的控制方法以及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN119149880A (zh) * 2024-11-19 2024-12-17 中国第一汽车股份有限公司 一种识别情绪状态的方法、装置、存储介质及电子设备
CN120122723A (zh) * 2025-03-07 2025-06-10 杭州紫创清飞科技有限公司 飞行平台的控制方法以及系统

Similar Documents

Publication Publication Date Title
US11465650B2 (en) Model-free reinforcement learning
US10183679B2 (en) Apparatus, system and method for personalized settings for driver assistance systems
CN117831100A (zh) 车辆参数优化方法、装置、存储介质及电子设备
CN112699721B (zh) 离开道路扫视时间的情境相关调整
CN111204348A (zh) 调节车辆行驶参数方法、装置、车辆及存储介质
US20170103147A1 (en) Vehicle configuration using simulation platform
US10152061B2 (en) Drive assist apparatus
CN113905938B (zh) 用于改进多个自动驾驶车辆与其所在驾驶环境间交互的系统和方法
US11734909B2 (en) Machine learning
CN112947759A (zh) 车载情感化交互平台及交互方法
CN107531249B (zh) 用于检测机动车辆驾驶员行为改变的方法和设备
JP2023540613A (ja) 運転者支援システムを試験するための方法およびシステム
US12280727B2 (en) Vehicle system and method for adjusting interior control settings based on driver emotion and environmental context
CN116443027A (zh) 车辆的舒适度评估方法、装置、服务器及存储介质
CN118457718A (zh) 一种适用于线控底盘汽车的智能转向系统
DE102021125744A1 (de) Computer-implementiertes Verfahren, Vorrichtung und Computerprogramm zum Steuern von ein oder mehreren Einstellungen eines Fahrzeugs
CN112829755B (zh) 通过乘员脚部位置压力分布识别乘员状态的系统与方法
CN113642114B (zh) 可犯错的拟人化随机跟车驾驶行为建模方法
CN106064593A (zh) 基于驾驶员工作负担调度驾驶员接口任务的系统和方法
CN120805640A (zh) 多传感器融合路面附着系数预测方法及设备
CN103231710B (zh) 基于驾驶员工作负担调度驾驶员接口任务的系统和方法
CN117216515B (zh) 基于自动驾驶的安全检测方法、装置以及计算机设备
CN120381274A (zh) 确定车辆乘员的情绪状态
CN118004016A (zh) 一种车辆前照灯调节方法、装置、电子设备及车辆
TW201912476A (zh) 基於模糊優化集合架構的駕駛輔助方法及其裝置與系統

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination