CN111474932B - 一种集成情景经验的移动机器人建图与导航方法 - Google Patents
一种集成情景经验的移动机器人建图与导航方法 Download PDFInfo
- Publication number
- CN111474932B CN111474932B CN202010327088.3A CN202010327088A CN111474932B CN 111474932 B CN111474932 B CN 111474932B CN 202010327088 A CN202010327088 A CN 202010327088A CN 111474932 B CN111474932 B CN 111474932B
- Authority
- CN
- China
- Prior art keywords
- event
- mobile robot
- map
- pose
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000013507 mapping Methods 0.000 title claims abstract description 9
- 230000008569 process Effects 0.000 claims abstract description 20
- 238000012546 transfer Methods 0.000 claims description 47
- 230000008447 perception Effects 0.000 claims description 22
- 230000007704 transition Effects 0.000 claims description 19
- 238000005259 measurement Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 208000002177 Cataract Diseases 0.000 claims description 2
- 230000004888 barrier function Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 abstract description 2
- 238000010276 construction Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
一种集成情景经验的移动机器人建图与导航方法,属于移动机器人导航领域。该方法基于系统框架实现,系统框架包含三个模块:点云地图、情景经验地图与路径规划移动机器人导航过程中,点云地图、情景经验地图与路径规划三个模块基于机器人操作系统ROS通信,其中,点云地图为情景经验地图实时提供移动机器人的位姿;路径规划模块根据点云地图获取移动机器人位姿,根据情景经验地图获取事件序列,从而定位移动机器人当前所在事件。本发明对情景经验进行建模,结合局部环境信息构建情景经验地图,完成移动机器人对环境在拓扑关系与几何关系上理解,该系统能够较好的完成导航任务,规划出一条从定位点到达目标点的最优路径,并且具有较高的导航精度。
Description
技术领域
本发明属于移动机器人导航领域,涉及一种基于情景经验的移动机器人建图与导航方法。
背景技术
自主导航技术作为移动机器人系统的核心能力,智能化水平要求越来越高。其研究内容包括建图、定位、路径规划与控制。目前,多数研究工作作为独立的模块展开,不能够简单的将各个模块的研究成果直接组合成为一个导航系统,例如,视觉SLAM算法生成的地图与路径规划的地图存在明显差异。
为实现在环境中自主导航,移动机器人应当被赋予理解世界等能力,其在环境中时刻掌握自己在世界坐标系下的位姿,并且能够根据特定的目标规划适当路径。可以通过向移动机器人提供一个环境详细描述的高精度地图来实现移动机器人导航,然而在实际条件中,高精度地图的构建、优化、存储与更新具有较高的计算成本,且很多信息对于导航任务冗余。根据神经学家观察,人类不需要回忆所有的环境细节就能够轻松完成导航任务,往往依靠自己以前的认知经验进行路径规划与导航,这又从逻辑上质疑了移动机器人完成自主导航任务依赖于高精度环境地图。
发明内容
针对上述问题,本发明提出一种集成情景经验的移动机器人建图与导航方法。
本发明采用的技术方案为:
一种集成情景经验的移动机器人建图与导航方法,该方法基于系统框架实现,系统框架包含三个模块:点云地图、情景经验地图与路径规划。简化人类情景记忆形成过程,构建封装场景感知、位姿信息和事件转移集的情景经验地图,从几何与拓扑关系上理解环境。移动机器人根据点云地图与情景经验地图实现路径规划,基于机器人操作系统(RobotOperatingSystem,ROS)通信各个模块从而完成导航任务。具体步骤如下:
第一步,构建点云地图。
点云地图的构建基于特征点法的前端和基于优化的后端,用于定位移动机器人在环境中的位置并且辅助构建情景经验地图。
第二步,构建情景经验地图。
建模由λ个子事件构成的事件空间E,E={e1,e2,…,eλ}。每个子事件包含场景感知、位姿和事件转移集,建模为三元组(o,P,C):其中,o为场景感知,由相机采集场景图像并提取环境显著路标;P为位姿信息(x,y,yaw),表达事件节点在世界坐标下的位置和朝向信息;C为事件转移集,描述从当前事件可直接转移到达事件集合,由激光测量数据计算得到。三元组即任意情景经验对应唯一事件。事件转移权值矩阵W为:
由此,情景经验地图M可表示为离散有限的事件空间E和事件转移权值矩阵W组成的网络:
M={E,W}, (2)
基于移动机器人场景感知传感器和点云地图定位系统,获取以事件空间E为顶点、事件转移权值为边的增量式情景经验,构建情景经验地图,具体过程如下:
(1)整合位姿
通过图像提取环境路标点与地图点匹配,定位当前相机位姿wOc。将相机位姿转换到移动机器人位姿wOr,根据手眼标定获取相机坐标系到移动机器人坐标系的变换矩阵TRC:
其中,R为旋转矩阵,t是平移向量。
计算得到移动机器人的定位:wOr=TRC·wOc; (4)
(2)确定事件转移集
使用激光传感器判断事件之间是否可达,确定当前事件的转移集。激光传感器对于单点的测量数据为:点到激光传感器距离激光束与激光传感器横坐标夹角k表示一周扫描中激光束的编号。激光传感器中心在移动机器人坐标系的坐标为移动机器人坐标系在世界坐标系下的位姿为根据“激光-移动机器人”坐标关系可将激光对单点的测量数据转换为世界坐标下的坐标
为简化计算,设移动机器人为一个点,将事件间转移需要的空间按移动机器人半径r进行膨胀,即将移动机器人所占空间表示为事件转移需要的空间,进一步简化,将空间扩展为矩形。根据公式(6)、(7)可计算出矩形的四个顶点坐标:
其中,ec=[xc,yc]为当前事件位置,ei=[xi,yi]为转移范围内的某个事件位置。利用向量外积性质判断激光扫描点p是否在矩形内部。对任意矩形,如果集合S中存在点p满足向量关系:
则点p(即障碍物点)在事件转移需要的空间范围内,即事件间不能直接转移。
(3)计算事件转移权值
事件转移权值代表事件间转移代价,由两部分决定:一方面为事件间的欧式距离;另一方面为场景感知的匹配度。根据公式(9)、(10)计算得到:
εct=1-Match(oc,ot), (9)
其中,oc为当前事件观测得到的场景感知,ot为其状态转移集中事件存储的环境场景感知,Match函数计算场景感知匹配度。Eucdis函数计算欧式距离,η为权值系数。
第三步,设计基于情景经验地图的路径规划算法。
基于情景经验地图设计移动机器人全局事件序列规划算法与局部行为控制算法。定位过程中,点云地图系统仅完成跟踪相机任务,地图信息不更新。当新的场景图像输入系统,定位相机位姿,计算移动机器人在世界坐标系下位姿(x,y,yaw)。给定导航任务,结合情景经验地图应用Dijkstra算法计算一条到达目标点的所有事件转移代价和最小的路径,即全局最优路径。导航过程中移动机器人在每一个事件节点利用激光测量信息更新事件转移集,一旦事件转移集被更新,则重新进行全局事件序列规划。局部行为控制根据移动机器人当前位姿与局部目标事件的位姿计算得到。
移动机器人导航过程中,点云地图、情景经验地图与路径规划三个模块基于机器人操作系统ROS通信,其中,点云地图为情景经验地图实时提供移动机器人的位姿;路径规划模块根据点云地图获取移动机器人位姿,根据情景经验地图获取事件序列,从而定位移动机器人当前所在事件。
本发明的有益效果为:本发明对情景经验进行建模,结合局部环境信息构建情景经验地图,完成移动机器人对环境在拓扑关系与几何关系上理解,该系统能够较好的完成导航任务,规划出一条从定位点到达目标点的最优路径,并且具有较高的导航精度。
附图说明
图1为本发明实例中导航系统框图;
图2为本发明实例中点云地图构建流程;
图3为本发明实例中情景经验地图构建流程;
图4为本发明实例中“相机-移动机器人”坐标关系;
图5为本发明实例中“激光-移动机器人-世界”坐标关系;
图6为本发明实例中事件转移集的计算方式;
图7为本发明实例中判断点在矩形内部的方式;
图8为本发明实例中当前位姿与局部目标事件位姿关系。
图9为本发明实例中构建的情景经验地图。
图10为本发明实例中根据情景经验地图规划路径结果。
图11为本发明实例中导航路线与规划路线对比结果。
具体实施方式
以下结合附图和技术方案,进一步说明本发明的具体实施方式。
图1为本发明实例中导航系统框图,如图1所示,点云地图被用于定位移动机器人并且辅助情景经验地图的构建。情景经验地图记录移动机器人的经验信息,形成对环境在几何关系与拓扑关系的综合表述。移动机器人基于情景经验地图进行路径规划,计算导航任务的事件序列。导航系统基于机器人操作系统ROS实现各个模块通信。
图2为本发明实例中点云地图构建流程,如图2所示,点云地图在移动机器人探索环境过程中增量式构建与优化,系统输入视频流,输出实时相机位姿跟踪与三维点云,系统包含前端跟踪与后端优化两部分。前端跟踪根据帧间像素关系估计相对位姿,本发明采用基于特征点法的视觉前端对每一帧图像提取特征点,然后根据特征匹配关系求解当前帧位姿的初始估计并对初始位姿估计进行调优。后端优化首先加入新的关键帧,优化更新局部地图,并对每一个关键帧做闭环检测处理,一旦检测到闭环,则使用全局位姿图优化纠正前端视觉里程计的累积误差。基于优化的后端算法将m帧初始位姿估计与n个路标点作为待优化状态量构建非线性最小二乘:
ξi表示第i帧相机位姿估计,pj为第j个路标点,zij表示在相机位姿ξi处观测到路标点pj像素坐标,即测量值.根据观测方程计算路标点pj在位姿ξi下的重投影坐标h(ξi,pj),即重投影值。重投影误差作为残差。该非线性最小二乘方程使用LM(Levenberg-Marquardt)算法求解,迭代过程中同时优化调整相机位姿与空间路标点位置。
图3为本发明实例中情景经验地图构建流程,如图3所示,情景经验地图构建系统输入点云地图和场景感知(包括视觉图像与激光测量),输出为情景经验地图。建图过程中,根据点云地图进行定位,判断当前事件是否为新事件:如果是新事件,则记录事件,提取当前场景感知,整合位姿,根据激光测量确定事件转移集,结合当前场景与转移集中场景感知的匹配度计算事件转移权值矩阵;如果是已有事件,则直接更新当前事件与其对应的连接权值。
记录事件的具体过程骤如下:
(1)整合位姿
相机与移动机器人位姿关系如图4所示,通过图像提取环境的路标点与地图点匹配,定位当前相机位姿wOc。将相机位姿转换到移动机器人位姿wOr,坐标关系如图4所示。根据手眼标定获取相机坐标系到移动机器人坐标系的变换矩阵TRC:
其中,R为旋转矩阵,t是平移向量。计算得到移动机器人的定位:
wOr=TRC·wOc, (3)
(2)确定事件转移集
利用激光传感器判断事件之间是否可达,确定当前事件的转移集。激光传感器对于单点的测量数据为:点到激光传感器距离激光束与激光传感器横坐标夹角k表示一周扫描中激光束的编号。激光传感器中心在移动机器人坐标系的坐标为移动机器人坐标系在世界坐标系下的位姿为坐标关系如图5所示。根据坐标关系可将激光对单点的测量数据转换为世界坐标下的坐标
为简化计算,设移动机器人为一个点,将事件间转移需要的空间按移动机器人半径r进行膨胀,即将移动机器人所占空间表示为事件转移需要的空间,进一步简化,将空间扩展为矩形,如图6中的虚线矩形。根据公式(5)、(6)可计算出矩形的四个顶点坐标:
其中,ec=[xc,yc]为当前事件位置,ei=[xi,yi]为转移范围内的某个事件位置。利用向量外积性质判断激光扫描点p是否在矩形内部。对任意矩形,如图7所示,如果集合S中存在点p满足向量关系:
则点p(即障碍物点)在事件转移需要的空间范围内,即事件间不能直接转移。例如在图6中,事件ej在事件ec的转移集中,ei则不在其转移集中。
(3)计算事件转移权值
事件转移权值代表事件间转移代价,由两部分决定:一方面为事件间的欧式距离;另一方面为场景感知的匹配度。根据公式(8)、(9)计算得到:
εct=1-Match(oc,ot), (8)
其中,oc为当前事件观测得到的场景感知,ot为其状态转移集中事件存储的环境场景感知,Match函数计算场景感知匹配度。Eucdis函数计算欧式距离,η为权值系数。
路径规划过程中,移动机器人采集场景感知,根据点云地图与情景经验地图定位当前事件。定位过程中,点云地图系统仅完成跟踪相机任务,地图信息不更新。当新的场景图像输入系统,定位相机位姿,计算移动机器人在世界坐标系下位姿(x,y,yaw)。给定导航任务,结合情景经验地图应用Dijkstra算法计算一条到达目标点的所有事件转移代价和最小的路径,即全局最优路径。导航过程中移动机器人在每一个事件节点利用激光测量信息更新事件转移集,一旦事件转移集被更新,则重新进行全局路径规划。局部行为控制根据移动机器人当前定位信息与局部目标事件的位姿关系计算得到,如图8所示,计算公式如下:
dist=Eucdis(pc,pt), (12)
其中,pc为移动机器人当前位置,yawc为当前位置偏航角,pt为下一目标点位置,angleWrap函数将各象限计算的角度映射到正确值,Eucdis函数计算两点之间的欧式距离。
图9为本发明实例中构建的情景经验地图,如图9所示,图中每个事件表示为一个圆圈,封装了场景感知、位姿信息和事件转移集。每一个事件与其转移集中的任意一个事件有一个边连接,其转移代价存储在事件转移权值矩阵中。
图10为本发明实例中基于构建的情景经验地图的路径规划结果,如图10所示,移动机器人分别执行两个导航任务,在定位点接收到任务信息,执行全局事件序列规划,任务1与任务2规划事件序列分别包含13个事件。
图11为本发明实例中移动机器人的导航路线与规划路线对比结果,如图11所示,移动机器人基于路径规划结果进行导航实验,实验结果表明:基于本发明设计的建图与导航方法,移动机器人具有较高的导航精度。
最后应说明的是:以上实例仅用以说明本发明的技术方案,而非对其进行限制;尽管参照本实施实例对本发明进行了详细的说明,本领域的普通人员应当理解;其依然可以对前述各实例所记载的技术方案进行修改,或者对其中部分技术特征进行同等替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实例技术方案的精神和范围。
Claims (1)
1.一种集成情景经验的移动机器人建图与导航方法,其特征在于,该方法基于系统框架实现,系统框架包含三个模块:点云地图、情景经验地图与路径规划,移动机器人导航过程中,点云地图、情景经验地图与路径规划三个模块基于机器人操作系统ROS通信,其中,点云地图为情景经验地图实时提供移动机器人的位姿,路径规划模块根据点云地图获取移动机器人位姿,根据情景经验地图获取事件序列,定位移动机器人当前所在事件;具体步骤如下:
第一步,构建点云地图;
点云地图的构建基于特征点法的前端和基于优化的后端,用于定位移动机器人在环境中的位置并且辅助构建情景经验地图;
第二步,构建情景经验地图;
建模由λ个子事件构成的事件空间E,E={e1,e2,…,eλ};每个子事件包含场景感知、位姿和事件转移集,建模为三元组(o,P,C):其中,o为场景感知,由相机采集场景图像并提取环境显著路标;P为位姿信息(x,y,yaw),表达事件节点在世界坐标下的位置和朝向信息;C为事件转移集,描述从当前事件可直接转移到达事件集合,由激光测量数据计算得到;三元组即任意情景经验对应唯一事件;事件转移权值矩阵W为:
由此,情景经验地图M可表示为离散有限的事件空间E和事件转移权值矩阵W组成的网络:
M={E,W}, (2)
基于移动机器人场景感知传感器和点云地图定位系统,获取以事件空间E为顶点、事件转移权值为边的增量式情景经验,构建情景经验地图,具体过程如下:
(1)整合位姿
通过图像提取环境路标点与地图点匹配,定位当前相机位姿wOc;将相机位姿转换到移动机器人位姿wOr,根据手眼标定获取相机坐标系到移动机器人坐标系的变换矩阵TRC:
其中,R为旋转矩阵,t是平移向量;
计算得到移动机器人的定位:wOr=TRC·wOc; (4)
(2)确定事件转移集
使用激光传感器判断事件之间是否可达,确定当前事件的转移集;激光传感器对于单点的测量数据为:点到激光传感器距离激光束与激光传感器横坐标夹角其中k表示一周扫描中激光束的编号;激光传感器中心在移动机器人坐标系的坐标为移动机器人坐标系在世界坐标系下的位姿为根据“激光-移动机器人”坐标关系可将激光对单点的测量数据转换为世界坐标下的坐标
为简化计算,设移动机器人为一个点,将事件间转移需要的空间按移动机器人半径r进行膨胀,即将移动机器人所占空间表示为事件转移需要的空间,进一步简化,将空间扩展为矩形;根据公式(6)、(7)可计算出矩形的四个顶点坐标:
其中,ec=[xc,yc]为当前事件位置,ei=[xi,yi]为转移范围内的某个事件位置;利用向量外积性质判断激光扫描点p是否在矩形内部;对任意矩形,如果集合S中存在点p满足向量关系:
则障碍物点p在事件转移需要的空间范围内,即事件间不能直接转移;
(3)计算事件转移权值
事件转移权值代表事件间转移代价,由两部分决定:一方面为事件间的欧式距离;另一方面为场景感知的匹配度;根据公式(9)、(10)计算得到:
εct=1-Match(oc,ot), (9)
其中,oc为当前事件观测得到的场景感知,ot为其状态转移集中事件存储的环境场景感知,Match函数计算场景感知匹配度;Eucdis函数计算欧式距离,η为权值系数;
第三步,设计基于情景经验地图的路径规划算法;
基于情景经验地图设计移动机器人全局事件序列规划算法与局部行为控制算法;定位过程中,点云地图系统仅完成跟踪相机任务,地图信息不更新;当新的场景图像输入系统,定位相机位姿,计算移动机器人在世界坐标系下位姿(x,y,yaw);给定导航任务,结合情景经验地图计算一条到达目标点的所有事件转移代价和最小的路径,即全局最优路径;导航过程中移动机器人在每一个事件节点利用激光测量信息更新事件转移集,一旦事件转移集被更新,则重新进行全局事件序列规划;局部行为控制根据移动机器人当前位姿与局部目标事件的位姿计算得到。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010327088.3A CN111474932B (zh) | 2020-04-23 | 2020-04-23 | 一种集成情景经验的移动机器人建图与导航方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010327088.3A CN111474932B (zh) | 2020-04-23 | 2020-04-23 | 一种集成情景经验的移动机器人建图与导航方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN111474932A CN111474932A (zh) | 2020-07-31 |
| CN111474932B true CN111474932B (zh) | 2021-05-11 |
Family
ID=71761652
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202010327088.3A Active CN111474932B (zh) | 2020-04-23 | 2020-04-23 | 一种集成情景经验的移动机器人建图与导航方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN111474932B (zh) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111932628B (zh) * | 2020-09-22 | 2025-02-21 | 深圳市商汤科技有限公司 | 一种位姿确定方法及装置、电子设备、存储介质 |
| US11485387B2 (en) * | 2020-12-08 | 2022-11-01 | GM Global Technology Operations LLC | System and method for predictive navigation control |
| CN114972495B (zh) * | 2021-02-26 | 2025-09-02 | 梅卡曼德(雄安)机器人科技股份有限公司 | 针对纯平面结构的物体的抓取方法、装置及计算设备 |
| CN113110492B (zh) * | 2021-05-07 | 2022-06-21 | 苏州大学 | 一种路径规划方法 |
| CN113657573B (zh) * | 2021-06-30 | 2024-06-21 | 大连理工江苏研究院有限公司 | 一种情景记忆引导下基于元学习的机器人技能获取方法 |
| CN115164925A (zh) * | 2022-07-09 | 2022-10-11 | 哈尔滨工程大学 | 一种基于大数据的数字环境构建规划导航方法 |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN105651284A (zh) * | 2015-12-29 | 2016-06-08 | 福州华鹰重工机械有限公司 | 提高经验导航中节点选择效率的方法及装置 |
| CN106949896A (zh) * | 2017-05-14 | 2017-07-14 | 北京工业大学 | 一种基于鼠脑海马的情景认知地图构建及导航方法 |
| CN107632598A (zh) * | 2016-07-19 | 2018-01-26 | 浙江星星冷链集成股份有限公司 | 一种具有场景记忆供的机器人 |
| CN108994832A (zh) * | 2018-07-20 | 2018-12-14 | 上海节卡机器人科技有限公司 | 一种基于rgb-d相机的机器人手眼系统及其自标定方法 |
| CN109668566A (zh) * | 2018-12-05 | 2019-04-23 | 大连理工大学 | 一种基于鼠脑定位细胞的机器人情景认知地图的构建与导航方法 |
| CN109744945A (zh) * | 2017-11-08 | 2019-05-14 | 杭州萤石网络有限公司 | 一种区域属性确定方法、装置、系统及电子设备 |
| CN111666307A (zh) * | 2019-12-03 | 2020-09-15 | 张少军 | 根据场景观察进行直觉推断的无人驾驶安全判断系统 |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11113598B2 (en) * | 2015-06-01 | 2021-09-07 | Salesforce.Com, Inc. | Dynamic memory network |
-
2020
- 2020-04-23 CN CN202010327088.3A patent/CN111474932B/zh active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN105651284A (zh) * | 2015-12-29 | 2016-06-08 | 福州华鹰重工机械有限公司 | 提高经验导航中节点选择效率的方法及装置 |
| CN107632598A (zh) * | 2016-07-19 | 2018-01-26 | 浙江星星冷链集成股份有限公司 | 一种具有场景记忆供的机器人 |
| CN106949896A (zh) * | 2017-05-14 | 2017-07-14 | 北京工业大学 | 一种基于鼠脑海马的情景认知地图构建及导航方法 |
| CN109744945A (zh) * | 2017-11-08 | 2019-05-14 | 杭州萤石网络有限公司 | 一种区域属性确定方法、装置、系统及电子设备 |
| CN108994832A (zh) * | 2018-07-20 | 2018-12-14 | 上海节卡机器人科技有限公司 | 一种基于rgb-d相机的机器人手眼系统及其自标定方法 |
| CN109668566A (zh) * | 2018-12-05 | 2019-04-23 | 大连理工大学 | 一种基于鼠脑定位细胞的机器人情景认知地图的构建与导航方法 |
| CN111666307A (zh) * | 2019-12-03 | 2020-09-15 | 张少军 | 根据场景观察进行直觉推断的无人驾驶安全判断系统 |
Non-Patent Citations (5)
| Title |
|---|
| A spatio-temporal Long-term Memory approach for visual place;Vu Anh Nguyen等;《Robotics and Autonomous Systems》;20131231;第61卷;全文 * |
| Episodic Memory-Based Robotic Planning;Dong Liu等;《IEEE TRANSACTIONS ON INDUSTRIAL ELECTRONICS》;20170228;第64卷(第2期);全文 * |
| 仿鼠脑海马的机器人地图构建与路径规划方法;邹强等;《华中科技大学学报(自然科学版)》;20181031;第46卷(第12期);全文 * |
| 基于生物认知的移动机器人路径规划方法;邹强等;《机器人》;20181130;第40卷(第6期);全文 * |
| 融合神经元激励机制的机器人情景学习与行为控制;刘冬等;《机器人》;20140930;第36卷(第5期);全文 * |
Also Published As
| Publication number | Publication date |
|---|---|
| CN111474932A (zh) | 2020-07-31 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111474932B (zh) | 一种集成情景经验的移动机器人建图与导航方法 | |
| CN115574816B (zh) | 仿生视觉多源信息智能感知无人平台 | |
| CN105843223B (zh) | 一种基于空间词袋模型的移动机器人三维建图与避障方法 | |
| CN112484725A (zh) | 一种基于多传感器融合的智能汽车高精度定位与时空态势安全方法 | |
| CN111415417B (zh) | 一种集成稀疏点云的移动机器人拓扑经验地图构建方法 | |
| CN111121767A (zh) | 一种融合gps的机器人视觉惯导组合定位方法 | |
| CN112444246B (zh) | 高精度的数字孪生场景中的激光融合定位方法 | |
| Engel et al. | Deeplocalization: Landmark-based self-localization with deep neural networks | |
| CN114693787B (zh) | 停车库建图与定位方法、系统及车辆 | |
| CN113720324A (zh) | 一种八叉树地图构建方法及系统 | |
| CN115855062A (zh) | 一种室内移动机器人自主建图与路径规划方法 | |
| CN104374395A (zh) | 基于图的视觉slam方法 | |
| CN106679648A (zh) | 一种基于遗传算法的视觉惯性组合的slam方法 | |
| CN114111818B (zh) | 一种通用视觉slam方法 | |
| CN118758287A (zh) | 一种基于无先验地图的建筑巡检机器人导航方法及系统 | |
| Tomažič et al. | Fusion of visual odometry and inertial navigation system on a smartphone | |
| CN112652001A (zh) | 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统 | |
| CN116045965A (zh) | 一种融合多传感器的环境地图构建方法 | |
| CN118298122A (zh) | 基于ndt-icp点云配准的无人平台用激光雷达-imu紧耦合建图方法 | |
| CN118089728A (zh) | 一种四足机器人轨迹生成方法、装置、设备及存储介质 | |
| CN120558230A (zh) | 工业视觉辅助下的救援机器人路径规划方法及系统 | |
| CN118274817A (zh) | 一种在线时空标定的单目全景视觉惯性联合初始化系统 | |
| CN120740607B (zh) | 基于多源数据融合的无人机视觉定位飞行优化系统 | |
| CN120668140B (zh) | 一种基于人工智能的机器人辅助导航装置及方法 | |
| CN118052940A (zh) | 地图的构建方法、定位方法及装置、设备、存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |