[go: up one dir, main page]

CN118050002A - 车道级定位方法和装置、智能设备以及存储介质 - Google Patents

车道级定位方法和装置、智能设备以及存储介质 Download PDF

Info

Publication number
CN118050002A
CN118050002A CN202410178264.XA CN202410178264A CN118050002A CN 118050002 A CN118050002 A CN 118050002A CN 202410178264 A CN202410178264 A CN 202410178264A CN 118050002 A CN118050002 A CN 118050002A
Authority
CN
China
Prior art keywords
lane
information
vehicle
level positioning
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410178264.XA
Other languages
English (en)
Inventor
陈建楠
葛午未
宋宇
任少卿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Weilai Zhijia Technology Co Ltd
Original Assignee
Anhui Weilai Zhijia Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Weilai Zhijia Technology Co Ltd filed Critical Anhui Weilai Zhijia Technology Co Ltd
Priority to CN202410178264.XA priority Critical patent/CN118050002A/zh
Publication of CN118050002A publication Critical patent/CN118050002A/zh
Priority to EP24221406.2A priority patent/EP4600609A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

本公开涉及车辆定位技术领域,并且更具体地涉及一种车道级定位方法、车道级定位装置、实施该方法的智能设备以及实施该方法的计算机可读存储介质。该方法包括:A、基于车辆感知信息和标精地图信息,确定车辆在感知环境下的第一车道级定位;B、利用融合定位技术,确定车辆在高精地图中的第二车道级定位;C、基于车辆感知信息和标精地图信息对高精地图信息进行有效性校验;以及D、根据有效性校验的结果,基于第一车道级定位和/或第二车道级定位来确定车辆的车道级定位结果。

Description

车道级定位方法和装置、智能设备以及存储介质
技术领域
本公开涉及车辆定位技术领域,并且更具体地涉及一种车道级定位方法、车道级定位装置、实施该方法的智能设备以及实施该方法的计算机可读存储介质。
背景技术
车辆在导航或智能驾驶等场景下,需要准确知道车辆在道路中所处的车道,以便于对用户进行提示或进行行驶规划。目前,主要利用全球定位系统(Global PositioningSystem,GPS)配合高精(High Definition,HD)地图来实现车辆的车道级定位。这种方法在开阔地区表现良好,但在城区,尤其是高楼林立的地区存在定位不准确的问题。此外,部分自动驾驶系统利用激光雷达等高精度传感器来提升定位精度,然而,在复杂的城市环境中,实时感知和静态HD地图常常不一致,而且静态HD地图也存在鲜度不足的问题,这给在HD地图上做车道级定位带来了挑战。
要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
为了解决或至少缓解以上问题中的一个或多个,提供了以下技术方案。本公开的实施例提供了一种车道级定位方法、车道级定位装置、实施该方法的智能设备以及实施该方法的计算机可读存储介质,其能够提升在复杂城市交通环境中的车道定位的准确性和可靠性,从而为车辆提供更高精度的导航和更安全的行车保障。
按照本公开的第一方面,提供一种车道级定位方法,所述方法包括以下步骤:A、基于车辆感知信息和标精地图信息,确定车辆在感知环境下的第一车道级定位;B、利用融合定位技术,确定所述车辆在高精地图中的第二车道级定位;C、基于所述车辆感知信息和所述标精地图信息对高精地图信息进行有效性校验;以及D、根据所述有效性校验的结果,基于所述第一车道级定位和/或所述第二车道级定位来确定所述车辆的车道级定位结果。
作为以上方案的替代或补充,在根据本公开一实施例的车道级定位方法中,步骤A包括:基于所述车辆的车载传感器采集到的信息生成感知车道线信息、路面标志信息、动态流量信息以及静态占用信息;以及将所述感知车道线信息、所述路面标志信息、所述动态流量信息、所述静态占用信息以及所述标精地图信息输入至道路边界推理模型,利用所述道路边界推理模型确定所述车辆所处道路的可行驶边界信息。
作为以上方案的替代或补充,在根据本公开一实施例的车道级定位方法中,利用所述道路边界推理模型确定所述车辆所处道路的可行驶边界信息包括:利用所述道路边界推理模型输出所述车辆所处道路中的各车道的车道边界信息和车道类型信息;以及基于所述各车道的车道边界信息和车道类型信息,确定所述车辆所处道路的可行驶边界信息。
作为以上方案的替代或补充,在根据本公开一实施例的车道级定位方法中,基于所述车辆的车载传感器采集到的信息生成感知车道线信息、路面标志信息、动态流量信息以及静态占用信息包括:将所述车载传感器采集到的信息输入至鸟瞰视角网络,利用所述鸟瞰视角网络确定所述感知车道线信息、所述路面标志信息、所述动态流量信息以及所述静态占用信息,其中,所述感知车道线信息包括感知车道线的几何特征、线型和颜色,所述动态流量信息包括动态感知对象的分类、速度和位置,所述静态占用信息包括静态感知对象的占用信息。
作为以上方案的替代或补充,在根据本公开一实施例的车道级定位方法中,步骤A还包括:基于所述车辆所处道路的可行驶边界信息以及所述车辆感知信息,确定指示所述车辆所处的车道位置的第一车道级定位。
作为以上方案的替代或补充,在根据本公开一实施例的车道级定位方法中,所述方法还包括:若所述车辆感知信息指示感知车道线边界不清晰和/或几何特征不完整,则在基于导航地图输出的标精地图信息确定车辆换道或车道数量发生变化时,重新确定所述第一车道级定位。
作为以上方案的替代或补充,在根据本公开一实施例的车道级定位方法中,步骤B包括:基于导航信息和车辆惯性测量信息确定车辆位置信息;以及基于所述车辆位置信息和高精地图信息,利用地图匹配确定所述车辆在高精地图中的第二车道级定位。
作为以上方案的替代或补充,在根据本公开一实施例的车道级定位方法中,步骤C包括:基于所述车辆感知信息,确定所述车辆在所述感知环境下所处道路中车道的第一数量;基于车辆位置信息和所述标精地图信息,确定所述车辆在标精地图中所处道路中车道的第二数量;基于车辆位置信息和所述高精地图信息,确定所述车辆在高精地图中所处道路中车道的第三数量;以及若所述第一数量和所述第二数量的加权和与所述第三数量之间的相似度大于或等于第一阈值,则所述有效性校验通过。
作为以上方案的替代或补充,在根据本公开一实施例的车道级定位方法中,步骤C包括:基于所述车辆感知信息,确定所述车辆在感知环境下所处道路的第一路面标识;基于车辆位置信息和所述标精地图信息,确定所述车辆的转向信息;基于车辆位置信息和所述高精地图信息,确定所述车辆在高精地图中所处道路的第二路面标识;以及若所述第一路面标识或转向信息与所述第二路面标识相匹配,则所述有效性校验通过。
作为以上方案的替代或补充,在根据本公开一实施例的车道级定位方法中,步骤C包括:确定所述车辆在高精地图中所处道路的各车道的车道边界信息与感知环境下所处道路的各车道的车道边界信息的相似度;以及若车道边界信息的相似度大于或等于第二阈值,则所述有效性校验通过。作为以上方案的替代或补充,在根据本公开一实施例的车道级定位方法中,
作为以上方案的替代或补充,在根据本公开一实施例的车道级定位方法中,步骤D包括:若所述有效性校验通过,则将所述第二车道级定位确定为所述车辆的车道级定位结果。
作为以上方案的替代或补充,在根据本公开一实施例的车道级定位方法中,步骤D包括:若所述校验不通过,则利用所述第一车道级定位对融合定位结果进行修正以获得修正后的第二车道级定位,并将所述修正后的第二车道级定位确定为所述车辆的车道级定位结果;或若所述校验不通过,则将所述第一车道级定位确定为所述车辆的车道级定位结果。
根据本公开的第二方面,提供一种车道级定位装置,包含:存储器;处理器;以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序的运行使得根据本公开第一方面所述的车道级定位方法中的任意一项被执行。
根据本公开的第三方面,提供一种智能设备,该智能设备具备根据本公开第二方面所述的车道级定位装置。
根据本公开的第四方面,提供一种计算机存储介质,所述计算机存储介质包括指令,所述指令在运行时执行根据本公开第一方面所述的车道级定位方法中的任意一项。
根据本公开的一个或多个实施例的车道级定位方案能够利用传感器采集的车辆感知信息以及导航地图提供的标精地图信息对高精地图信息进行有效性校验,并根据校验结果确定最终定位。该方案通过融合多源信息和多源信息之间的相互验证,提升了在复杂城市交通环境中的车道定位的准确性和可靠性,解决了城区因高精地图鲜度不足或GPS信号不准导致的定位不准的问题,从而为用户提供更高精度的导航和更安全的行车保障。
附图说明
本公开的上述和/或其它方面和优点将通过以下结合附图的各个方面的描述变得更加清晰和更容易理解,附图中相同或相似的单元采用相同的标号表示。在所述附图中:
图1为按照本公开的一个或多个实施例的车道级定位方法10的示意性流程图;
图2为按照本公开的一个或多个实施例的车道级定位装置20的示意性框图;以及
图3为按照本公开的一个或多个实施例的智能设备30的示意性框图。
具体实施方式
以下具体实施方式的描述本质上仅仅是示例性地,并且不旨在限制所公开的技术或所公开的技术的应用和用途。此外,不意图受在前述技术领域、背景技术或以下具体实施方式中呈现的任何明示或暗示的理论的约束。
在实施例的以下详细描述中,阐述了许多具体细节以便提供对所公开技术的更透彻理解。然而,对于本领域普通技术人员显而易见的是,可以在没有这些具体细节的情况下实践所公开的技术。在其他实例中,没有详细描述公知的特征,以避免不必要地使描述复杂化。
诸如“包含”和“包括”之类的用语表示除了具有在说明书中有直接和明确表述的单元和步骤以外,本公开的技术方案也不排除具有未被直接或明确表述的其它单元和步骤的情形。诸如“第一”和“第二”之类的用语并不表示单元在时间、空间、大小等方面的顺序而仅仅是作区分各单元之用。本公开的技术通常用于电动汽车,其包括但不限于纯电动汽车(BEV)、混合动力汽车(HEV)、燃料电池汽车(FCEV)等。
在本文中,自动驾驶系统(Automated Driving Systems,ADS),其是指系统在自身的设计运行范围(Operational Domain Design,ODD)内将持续执行全部的动态驾驶任务(Dynamic Driving Task,DDT)。即,在规定的适当驾驶场景条件下才允许机器系统全部承担车辆自动操控的任务,即车辆满足ODD条件时系统被激活,该系统代替人类驾驶员作为车辆的驾驶主体。其中,动态驾驶任务DDT是指对车辆进行持续的横向(左、右转向)和纵向运动控制(加速,减速,匀速)以及对车辆行驶环境中的目标和事件进行探测和响应。设计运行范围ODD是指自动驾驶系统可以安全运行的条件,其设置的条件可以包括地理位置、道路类型、速度范围、天气、时间、国家和地方性交通法律法规等。本文中的自动驾驶系统能在导航功能的基础上实现各等级的自动驾驶功能,包括但不限于领航功能、自动驾驶功能、无人驾驶功能。
如上文所述,目前的ADS主要利用GPS配合高精HD地图来实现车辆的车道级定位,这种方法在开阔地区表现良好,但在城区,尤其是高楼林立的地区存在定位不准确的问题。此外,部分ADS利用激光雷达等高精度传感器来提升定位精度,然而在复杂的城市环境中,实时感知和静态HD地图信息常常不匹配,并且由于城区道路基建与道路变化相当频繁,维护HD地图鲜度的成本极高,因此HD地图信息也存在严重的鲜度不足的问题,这给在HD地图上做车道级定位带来了挑战。对此,本公开提供了一种融合多源信息的车道级定位方案,其通过多源信息之间的相互验证提升了在复杂城区交通环境中的车道定位的准确性和可靠性,解决了城区因高精地图鲜度不足或GPS信号不准导致的定位不准的问题。
在下文中,将参考附图详细地描述根据本公开的各示例性实施例。
下面参考附图,图1为按照本公开的一个或多个实施例的车道级定位方法10的示意性流程图。
如图1所示,在步骤S110中,基于车辆感知信息和标精地图信息,确定车辆在感知环境下的第一车道级定位。
本公开中的车辆感知信息指代车辆通过各类传感器采集到的关于周围环境(例如,道路和交通状况(诸如,道路的宽度、道路标志、交通信号灯的状态)、障碍物信息(例如,动态对象(诸如,其他车辆、行人、非机动车)、静态障碍物(诸如,草丛、石块))的信息,或基于此类直接采集到的传感器信息生成的能够描述周围环境的信息。此处的传感器是指安装于车辆的各种传感器,包括摄像头、毫米波雷达、激光雷达等,也可包括用于获取车辆的位置信息的定位系统、用于获取车辆的惯性测量信息的惯性测量单元(InertialMeasurement Unit,IMU)、速度传感器、加速度传感器等、用于获取环境状态的湿度传感器、光强度传感器等以及其他各种传感器。
在根据本公开的一个或多个实施例中,在步骤S110中,可先基于车辆的车载传感器采集到的信息生成感知车道线信息、路面标志信息、动态流量信息以及静态占用信息。示例性地,可将车载传感器采集到的信息输入至鸟瞰视角(Bird's Eye View,BEV)网络,并利用该BEV网络确定上述感知车道线信息、路面标志信息、动态流量信息以及静态占用信息。BEV指代从鸟瞰视角或俯视角度来观察和呈现事物。在汽车领域,BEV网络能够利用多个摄像头和/或其他传感器来捕捉车辆周围的视野,并通过图像处理和融合算法对这些信息进行整合,生成一个类似鸟瞰图的全景视图,这个全景视图可以显示车辆周围的障碍物、行车道、交通标志等详细信息,帮助驾驶员更清晰地了解周围环境,并提供更准确的驾驶指引。示例性地,感知车道线信息可包括感知车道线的几何特征、线型、颜色、截距、斜率、以及道路中的车道线的数量中的一项或多项。动态流量信息可包括车辆感知到的各动态对象(也即,动态感知对象,例如其他车辆、行人、非机动车等)的分类、速度和位置信息。静态占用信息可包括车辆感知到的各静态对象(也即,静态感知对象,例如草丛、石块)的占用信息,包括但不限于占用状态(例如,已占用、未占用、未知)和语义类别(例如,树木、石块)。
在根据本公开的一个或多个实施例中,在步骤S110中,可将上述感知车道线信息、路面标志信息、动态流量信息、静态占用信息以及标精地图信息输入至道路边界推理模型,利用道路边界推理模型输出车辆所处道路中的各车道的车道边界信息和车道类型信息。示例性地,上述道路边界推理模型可以是基于机器学习(ML)和/或深度学习(DL)的模型。基于ML的道路边界推理模型通常利用计算机视觉技术和特征提取方法,例如边缘检测、Hough变换等,通过训练一个分类器或回归器来判断图像中的像素是否属于车道线或道路边界。基于DL的道路边界推理模型则能够自动从原始数据中学习到特征,并且具有更强的泛化能力。示例性地,可利用来自量产车辆的回流数据为道路边界推理模型的训练提供输入,使其能够自动并实时推理出各车道的车道边界信息和车道类型信息,例如,同向机动车道、对向机动车道、非机动车道、公交专用车道等。本公开的一个或多个实施例利用多源信息(例如,感知车道线信息、路面标志信息、动态流量信息、静态占用信息以及标精地图信息)的融合来提升推理结果的冗余性和可靠性,同时通过采用ML模型或DL模型而非静态规则集,实现了对海量数据的高效学习与处理,显著提升了系统对复杂道路环境的适应能力和识别精度,这种数据驱动的方法优化了模型的泛化能力,确保了在不断变化的道路条件下可持续提供准确的导航与驾驶辅助。
在一个实施例中,在获得车辆所处道路中的各车道的车道边界信息和车道类型信息之后,可进一步据此确定车辆所处道路的可行驶边界信息。可以理解的是,道路的可行驶边界包括道路的可行驶左边界和可行驶右边界,其中可行驶左边界指代同向机动车道(不包括对向车道)的最左侧车道的左边界,可行驶右边界指代同向机动车道(不包括同向非机动车道)的最右侧车道的右边界。在另一个实施例中,还可直接利用道路边界推理模型输出车辆所处道路的可行驶边界信息。
在根据本公开的一个或多个实施例中,在步骤S110中,在确定了各车道的车道边界信息和车道类型信息、或确定了车辆所处道路的可行驶边界信息之后,可基于车道边界信息、车道类型信息以及车辆感知信息,或基于可行驶边界信息和车辆感知信息,确定指示车辆所处的车道位置的第一车道级定位。具体而言,通过识别车辆左右两侧的车道数量,可以准确判断车辆在感知环境下处于从左数的第几条车道以及从右数的第几条车道。
可选地,若车辆感知信息指示感知车道线边界不清晰和/或几何特征不完整(也即,在车道线未被有效识别的情况下),则可依据车辆是否发生换道动作或车道数量发生变化,对第一车道级定位进行连续跟踪。示例性地,若基于导航地图输出的标精地图信息确定车辆换道或车道数量发生变化,则会触发重定位过程以重新确认车辆的车道位置。在此之后,可持续对车道定位结果(也即,第一车道级定位)进行跟踪,确保其连续性和准确性。具体而言,在车辆未换道且当前道路车道数未发生变化的情况下,可对车道定位结果进行时间序列上的连续跟踪,保持定位的连贯性;在车辆换道或当前车道数量发生变化的情况下,可对车道定位结果进行空间序列上的连续跟踪,通过判断是具体的换道方向来保持定位的精确性。
接下来在步骤S120中,利用融合定位技术,确定车辆在高精地图中的第二车道级定位。
融合定位技术能够同时利用多源数据(例如,GPS、IMU、地图数据等),实现对车辆位置和姿态的精确估计。可选地,首先基于导航信息(例如,GPS信息(诸如,实时动态测量(Real Time Kinematic,RTK)信息))、IMU采集的车辆惯性测量信息、或轮式里程计采集的速度信息确定车辆位置信息,进一步结合车辆位置信息和高精地图信息,推算车辆位于高精数据中的哪条道路及道路上的哪个车道(也即,第二车道级定位)。此外,上文中提及的对第一车道级定位的连续跟踪可同样适用于对第二车道级定位的连续跟踪,此处不再赘述。
需要说明的是,由于存在城区高精地图鲜度不足或GPS信号不准的问题,因此由步骤S120确定的车辆在高精地图中的第二车道级定位存在不准确的可能性。对此,本公开通过步骤S130-S140利用传感器采集的车辆感知信息以及导航地图提供的标精地图信息对高精地图信息进行有效性校验,并根据校验结果确定最终定位,以便提升城区车道定位的准确性和可靠性。
在步骤S130中,基于车辆感知信息和标精地图信息对高精地图信息进行有效性校验。
可选地,在融合定位技术的基础上,可将高精地图中的道路边界或车道线信息与实时感知到的道路边界或车道线信息进行对照,以综合评估道路边界的几何距离、车道线的颜色和线性等特征是否匹配,从而验证高精地图信息的准确性。具体而言,首先确定车辆在高精地图中所处道路的各车道的车道边界信息与感知环境下所处道路的各车道的车道边界信息的相似度,例如,分别计算各感知车道线的几何特征、线型、颜色、截距、斜率与高精地图中各车道线的几何特征、线型、颜色、截距、斜率的相似度,并根据预设权重计算几何特征、线型、颜色、截距、斜率相似度的加权和。接下来,若车道边界信息的相似度(例如,上述加权和)大于或等于第二阈值,则有效性校验通过;反之,则不通过。
可选地,在道路边界被准确感知的前提下,可以将实时感知获取的当前道路的车道数与导航地图所提供的实时车道数相结合,来验证高精地图的车道信息。示例性地,首先基于车辆感知信息确定车辆在感知环境下所处道路中车道的第一数量(N1)、基于车辆位置信息和标精地图信息确定车辆在标精地图中所处道路中车道的第二数量(N2)、并且基于车辆位置信息和高精地图信息确定车辆在高精地图中所处道路中车道的第三数量(N3)。接下来,利用N1和/或N2对N3进行验证。示例性地,可根据预设权重计算N1和N2的加权和M,若M与N2之间的差值的绝对值大于或等于第一阈值,则有效性校验通过;反之,则不通过。
此外,由于在城市路口区域,导航地图能够提供详细的车道转向信息,而实时感知同样能够检测到路面上的转向箭头标识,综合两者信息也可以对高精地图信息进行校验。示例性地,首先基于车辆感知信息确定车辆在感知环境下所处道路的第一路面标识、基于车辆位置信息和标精地图信息确定车辆的转向信息、并基于车辆位置信息和高精地图信息确定车辆在高精地图中所处道路的第二路面标识。若第一路面标识与第二路面标识相匹配(例如,同为路面左转标志)、或转向信息与第二路面标识相匹配(例如,转向信息指示车辆正右转或即将右转,同时高精地图中的对应定位存在路面右转标识),则有效性校验通过;反之,则不通过。
在步骤S140中,根据有效性校验的结果,基于第一车道级定位和/或第二车道级定位来确定车辆的车道级定位结果。
若在步骤S130中有效性校验通过,则判定车辆在高精地图中的第二车道级定位是准确的,因此可将步骤S120中获得的第二车道级定位确定为车辆的车道级定位结果。
若在步骤S130中有效性校验未通过,则判定车辆当前在高精地图中的第二车道级定位不准确。在一个实施例中,可直接丢弃高精地图的定位结果(例如,若在上述相似度计算中得到的相似度较低),将第一车道级定位确定为车辆的车道级定位结果。在另一个实施例中,可利用第一车道级定位对步骤S120中的融合定位结果进行修正以获得修正后的第二车道级定位,并将修正后的第二车道级定位确定为车辆的车道级定位结果。示例性地,若确定车辆在感知环境下处于第一车道,而在高精地图中处于第二车道,则可在预设车辆处于第一车道的基础上利用融合定位技术对车辆位置和姿态的估计,以提高定位的准确性。
图2为按照本公开的一个或多个实施例的车道级定位装置20的示意性框图。车道级定位装置20包含存储器210、处理器220、以及存储在存储器210上并可在处理器220上运行的计算机程序230,计算机程序230的运行使得如图1所示的车道级定位方法10被执行。示例性地,车道级定位装置20可以是车机系统的电子控制单元(ECU)的一部分、或自动驾驶系统的控制单元。示例性地,车道级定位装置20还可以是能够与车辆进行通信链接的其他终端(例如,智能手机、或其他算力受限的边缘设备)中的控制单元。
图3为按照本公开的一个或多个实施例的智能设备30的示意性框图。智能设备30具备如图2所示的车道级定位装置20。在本公开的一些实施例中,智能设备30还包括至少一个传感器,例如图像采集单元,所述传感器用于感知信息。所述传感器与本公开提到的任何一种类型的处理器通信连接。可选地,智能设备30还可包括自动驾驶系统,自动驾驶系统用于引导智能设备自行行驶或辅助驾驶。所述处理器与所述传感器和/或自动驾驶系统通信,用于完成上述任一实施例所述的方法。示例性地,智能设备30可以包括驾驶设备、智能车、电动汽车、机器人等设备。
另外,如上所述,本公开也可以被实施为一种计算机可读存储介质,在其中存储有用于使计算机执行如图1所示的车道级定位方法10的程序。在此,作为计算机可读存储介质,能采用盘类(例如,磁盘、光盘等)、卡类(例如,存储卡、光卡等)、半导体存储器类(例如,ROM、非易失性存储器等)、带类(例如,磁带、盒式磁带等)等各种方式的计算机可读存储介质。
在可适用的情况下,可以使用硬件、软件或硬件和软件的组合来实现由本公开提供的各种实施例。而且,在可适用的情况下,在不脱离本公开的范围的情况下,本文中阐述的各种硬件部件和/或软件部件可以被组合成包括软件、硬件和/或两者的复合部件。在可适用的情况下,在不脱离本公开的范围的情况下,本文中阐述的各种硬件部件和/或软件部件可以被分成包括软件、硬件或两者的子部件。另外,在可适用的情况下,预期的是,软件部件可以被实现为硬件部件,以及反之亦然。
本公开各实施例中可能涉及的相关用户个人信息,均为严格按照法律法规的要求,遵循合法、正当、必要的原则,基于业务场景的合理目的,处理用户在使用产品/服务过程中主动提供或因使用产品/服务而产生的,以及经用户授权获取的个人信息。
本公开处理的用户个人信息会因具体产品/服务场景而有所不同,需以用户使用产品/服务的具体场景为准,可能会涉及用户的账号信息、设备信息、驾驶信息、车辆信息或其他相关信息。申请人会以高度的勤勉义务对待用户的个人信息及其处理。
本公开非常重视用户个人信息的安全,已采取符合业界标准、合理可行的安全防护措施保护用户的信息,防止个人信息遭到未经授权访问、公开披露、使用、修改、损坏或丢失。
提供本文中提出的实施例和示例,以便最好地说明按照本公开及其特定应用的实施例,并且由此使本领域的技术人员能够实施和使用本公开。但是,本领域的技术人员将会知道,仅为了便于说明和举例而提供以上描述和示例。所提出的描述不是意在涵盖本公开的各个方面或者将本公开局限于所公开的精确形式。

Claims (15)

1.一种车道级定位方法,其特征在于,所述方法包括以下步骤:
A、基于车辆感知信息和标精地图信息,确定车辆在感知环境下的第一车道级定位;
B、利用融合定位技术,确定所述车辆在高精地图中的第二车道级定位;
C、基于所述车辆感知信息和所述标精地图信息对高精地图信息进行有效性校验;以及
D、根据所述有效性校验的结果,基于所述第一车道级定位和/或所述第二车道级定位来确定所述车辆的车道级定位结果。
2.根据权利要求1所述的车道级定位方法,其特征在于,步骤A包括:
基于所述车辆的车载传感器采集到的信息生成感知车道线信息、路面标志信息、动态流量信息以及静态占用信息;以及
将所述感知车道线信息、所述路面标志信息、所述动态流量信息、所述静态占用信息以及所述标精地图信息输入至道路边界推理模型,利用所述道路边界推理模型确定所述车辆所处道路的可行驶边界信息。
3.根据权利要求2所述的车道级定位方法,其特征在于,利用所述道路边界推理模型确定所述车辆所处道路的可行驶边界信息包括:
利用所述道路边界推理模型输出所述车辆所处道路中的各车道的车道边界信息和车道类型信息;以及
基于所述各车道的车道边界信息和车道类型信息,确定所述车辆所处道路的可行驶边界信息。
4.根据权利要求2所述的车道级定位方法,其特征在于,基于所述车辆的车载传感器采集到的信息生成感知车道线信息、路面标志信息、动态流量信息以及静态占用信息包括:
将所述车载传感器采集到的信息输入至鸟瞰视角网络,利用所述鸟瞰视角网络确定所述感知车道线信息、所述路面标志信息、所述动态流量信息以及所述静态占用信息,其中,
所述感知车道线信息包括感知车道线的几何特征、线型和颜色,
所述动态流量信息包括动态感知对象的分类、速度和位置,
所述静态占用信息包括静态感知对象的占用信息。
5.根据权利要求2所述的车道级定位方法,其特征在于,步骤A还包括:
基于所述车辆所处道路的可行驶边界信息以及所述车辆感知信息,确定指示所述车辆所处的车道位置的第一车道级定位。
6.根据权利要求5所述的车道级定位方法,其特征在于,所述方法还包括:
若所述车辆感知信息指示感知车道线边界不清晰和/或几何特征不完整,则在基于导航地图输出的标精地图信息确定车辆换道或车道数量发生变化时,重新确定所述第一车道级定位。
7.根据权利要求1所述的车道级定位方法,其特征在于,步骤B包括:
基于导航信息和车辆惯性测量信息确定车辆位置信息;以及
基于所述车辆位置信息和高精地图信息,利用地图匹配确定所述车辆在高精地图中的第二车道级定位。
8.根据权利要求1所述的车道级定位方法,其特征在于,步骤C包括:
基于所述车辆感知信息,确定所述车辆在所述感知环境下所处道路中车道的第一数量;
基于车辆位置信息和所述标精地图信息,确定所述车辆在标精地图中所处道路中车道的第二数量;
基于车辆位置信息和所述高精地图信息,确定所述车辆在高精地图中所处道路中车道的第三数量;以及
若所述第一数量和所述第二数量的加权和与所述第三数量之间的相似度大于或等于第一阈值,则所述有效性校验通过。
9.根据权利要求1所述的车道级定位方法,其特征在于,步骤C包括:
基于所述车辆感知信息,确定所述车辆在感知环境下所处道路的第一路面标识;
基于车辆位置信息和所述标精地图信息,确定所述车辆的转向信息;
基于车辆位置信息和所述高精地图信息,确定所述车辆在高精地图中所处道路的第二路面标识;以及
若所述第一路面标识或转向信息与所述第二路面标识相匹配,则所述有效性校验通过。
10.根据权利要求1所述的车道级定位方法,其特征在于,步骤C包括:
确定所述车辆在高精地图中所处道路的各车道的车道边界信息与感知环境下所处道路的各车道的车道边界信息的相似度;以及
若车道边界信息的相似度大于或等于第二阈值,则所述有效性校验通过。
11.根据权利要求1所述的车道级定位方法,其特征在于,步骤D包括:
若所述有效性校验通过,则将所述第二车道级定位确定为所述车辆的车道级定位结果。
12.根据权利要求1所述的车道级定位方法,其特征在于,步骤D包括:
若所述校验不通过,则利用所述第一车道级定位对融合定位结果进行修正以获得修正后的第二车道级定位,并将所述修正后的第二车道级定位确定为所述车辆的车道级定位结果;或
若所述校验不通过,则将所述第一车道级定位确定为所述车辆的车道级定位结果。
13.一种车道级定位装置,其特征在于,包含:存储器;处理器;以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序的运行使得根据权利要求1-12中任一项所述的车道级定位方法被执行。
14.一种智能设备,其特征在于,具备权利要求13所述的车道级定位装置。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括指令,所述指令在运行时执行根据权利要求1-13中任一项所述的车道级定位方法。
CN202410178264.XA 2024-02-08 2024-02-08 车道级定位方法和装置、智能设备以及存储介质 Pending CN118050002A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202410178264.XA CN118050002A (zh) 2024-02-08 2024-02-08 车道级定位方法和装置、智能设备以及存储介质
EP24221406.2A EP4600609A1 (en) 2024-02-08 2024-12-19 Lane-level positioning method and apparatus, smart device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410178264.XA CN118050002A (zh) 2024-02-08 2024-02-08 车道级定位方法和装置、智能设备以及存储介质

Publications (1)

Publication Number Publication Date
CN118050002A true CN118050002A (zh) 2024-05-17

Family

ID=91053203

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410178264.XA Pending CN118050002A (zh) 2024-02-08 2024-02-08 车道级定位方法和装置、智能设备以及存储介质

Country Status (2)

Country Link
EP (1) EP4600609A1 (zh)
CN (1) CN118050002A (zh)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11340355B2 (en) * 2018-09-07 2022-05-24 Nvidia Corporation Validation of global navigation satellite system location data with other sensor data
KR102249769B1 (ko) * 2019-12-06 2021-05-12 주식회사 모빌테크 2차원 영상의 픽셀별 3차원 좌표값 추정 방법 및 이를 이용한 자율주행정보 추정 방법

Also Published As

Publication number Publication date
EP4600609A1 (en) 2025-08-13

Similar Documents

Publication Publication Date Title
CN111442776B (zh) 顺序地面场景图像投影合成与复杂场景重构的方法及设备
JP7645341B2 (ja) 緊急車両の検出
US10528055B2 (en) Road sign recognition
EP3299921B1 (en) Location specific assistance for an autonomous vehicle control system
US20260022942A1 (en) Systems and methods for deriving path-prior data using collected trajectories
US11460851B2 (en) Eccentricity image fusion
US10553117B1 (en) System and method for determining lane occupancy of surrounding vehicles
CN111209790A (zh) 使用相邻车辆的姿态观察进行路面表征
CN111177288A (zh) 用于导出自主车辆启用的可行驶地图的系统
US12307786B2 (en) Systems and methods for detecting lanes using a segmented image and semantic context
CN114694116A (zh) 一种道路边界检测方法、装置、电子设备和存储介质
Rana et al. The perception systems used in fully automated vehicles: a comparative analysis
Du et al. Integration of computer vision and iot into an automatic driving assistance system for “electric vehicles”
Aron et al. Current approaches in traffic lane detection: a minireview
WO2021202410A1 (en) Systems and methods for capturing passively-advertised attribute information
US11983918B2 (en) Platform for perception system development for automated driving system
EP4553792A1 (en) Automated data annotation for machine learning applications
US12227195B2 (en) Hypothesis inference for vehicles
US20240233390A9 (en) Identification of unknown traffic objects
Chipka et al. Estimation and navigation methods with limited information for autonomous urban driving
US20240190470A1 (en) Systems and methods for controlling a vehicle using high precision and high recall detection
CN118050002A (zh) 车道级定位方法和装置、智能设备以及存储介质
Chipka et al. Autonomous urban localization and navigation with limited information
EP4266261A1 (en) 3d road surface estimation for automated driving systems
US20240190467A1 (en) Systems and methods for controlling a vehicle using high precision and high recall detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination