[go: up one dir, main page]

CN111578956A - 一种基于深度学习的视觉slam定位方法 - Google Patents

一种基于深度学习的视觉slam定位方法 Download PDF

Info

Publication number
CN111578956A
CN111578956A CN202010366574.6A CN202010366574A CN111578956A CN 111578956 A CN111578956 A CN 111578956A CN 202010366574 A CN202010366574 A CN 202010366574A CN 111578956 A CN111578956 A CN 111578956A
Authority
CN
China
Prior art keywords
neural network
image
visual
network model
visual slam
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010366574.6A
Other languages
English (en)
Inventor
陈星瀚
肖敏
叶葛旺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Qzs Networking Technology Co ltd
Original Assignee
Shanghai Qzs Networking Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Qzs Networking Technology Co ltd filed Critical Shanghai Qzs Networking Technology Co ltd
Priority to CN202010366574.6A priority Critical patent/CN111578956A/zh
Publication of CN111578956A publication Critical patent/CN111578956A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的视觉SLAM定位方法,基于神经网络,并集数据预处理、视觉里程计、闭环检测、后端优化于一体,实现了机器人的定位。相较于传统的视觉SLAM算法流程而言,本发明基于深度学习鲁棒性能更好,对环境的适应性更强。相较于目前的基于深度学习的方法,本发明利用一个神经网络架构便能够同时实现闭环检测和视觉里程计的功能,并基于该神经网络模型实现了整个视觉SLAM定位方法的流程,避免了不同模块采用不同的网络结构,进一步解决了由于网络结构的复杂性使得整个算法流程更加复杂,实时性能也会受到影响的问题。

Description

一种基于深度学习的视觉SLAM定位方法
技术领域
本发明属于视觉SLAM技术领域,具体涉及一种基于深度学习的视觉SLAM定位方法的设计。
背景技术
随着人工智能以及机器人领域的快速发展,利用深度学习来实现机器人的自主定位导航逐渐成为机器人研究领域重要研究方向。其中,视觉SLAM成为近年来机器人定位导航研究领域中最为活跃的领域之一。它也是整个视觉定位导航里面非常突出的一种技术,它被各种各样的领域所需要,如无人机领域、服务机器人领域、清洁机器人及工业机器人领域等。
一个完整的视觉SLAM系统需要几个关键模块,如图1所示,包括数据处理、视觉里程计、后端优化、地图构建和闭环检测。它的一般实现流程为:首先从传感器中获取图像数据信息;然后通过前端的视觉里程计,估算相邻帧间相机运动的情况;然后利用闭环检测识别机器人是否到达过当前位置;最后通过后端的图优化将视觉里程计与闭环检测的结果进行进一步优化,从而可以借助估计的机器人轨迹与姿态完成地图构建。
根据生成方法的不同,视觉SLAM可以分成:间接方法、直接方法以及在神经网络方面的方法。其中间接方法首先对测量数据进行预处理来产生中间层,通过稀疏的特征点提取和匹配来实现的,也可以采用稠密规则的光流,或者提取直线或曲线特征来实现,然后计算出地图点坐标或光流向量等几何量,因此间接方法优化的是几何误差。直接方法跳过预处理步骤直接使用实际传感器测量值,例如在特定时间内从某个方向接收的光,在被动视觉的情况下,由于相机提供光度测量,因此直接方法优化的是光度误差。传统的视觉SLAM在环境的适应性方面依然存在瓶颈,深度学习有望在这方面发挥较大的作用。
目前,深度学习已经在语义地图、重定位、闭环检测、特征点提取与匹配以及端到端的视觉里程计等问题上有了相关工作,例如CNN-SLAM在LSD-SLAM基础上将深度估计以及图像匹配改为基于卷积神经网络的方法,并且可以融合语义信息,得到了较鲁棒的效果;剑桥大学开发的PoseNet,是在GoogleNet的基础上将6自由度位姿作为回归问题进行的网络改进,可以利用单张图片得到对应的相机位姿;《视觉SLAM十四讲》一书的作者高翔,利用深度神经网络而不是常见的视觉特征来学习原始数据的特征,实现了基于深度学习的闭环检测;LIFT利用深度神经网络学习图像中的特征点,相比于SIFT匹配度更高。UnDeepVO(基于非监督深度学习的单目视觉里程计)能够通过使用深度神经网络估计单目相机的6自由度位姿及其视野内的深度。UnDeepVO有两个显著的特点:一个是采用了无监督深度学习机制,另一个是能够恢复绝对尺度。UnDeepVO在训练过程中使用双目图像恢复尺度,但是在测试过程中只使用连续的单目图像。虽然目前有许多有关基于深度学习的视觉SLAM领域的算法研究,但大多都是基于SLAM中某个单独的模块利用深度学习算法进行研究,如基于深度学习的视觉里程计算法研究,基于深度学习闭环检测算法研究等,因此探究基于深度学习的视觉SLAM算法研究非常重要。
发明内容
本发明的目的是针对现有的基于深度学习的视觉SLAM定位算法只使用神经网络训练的模型来实现SLAM算法中的某个单一模块而非整个算法流程的问题,提出了一种基于深度学习的视觉SLAM定位方法,通过神经网络来实现整个视觉SLAM定位算法的功能。
本发明的技术方案为:一种基于深度学习的视觉SLAM定位方法,包括以下步骤:
S1、采用图像数据集训练得到用于实现视觉里程计功能的神经网络模型。
S2、通过神经网络模型进行闭环检测。
S3、根据闭环检测结果,采用后端优化算法,并结合视觉里程计对机器人运动轨迹进行优化,实现视觉SLAM定位。
进一步地,步骤S1包括以下分步骤:
S11、对图像数据集中的图像数据进行预处理,并将图像数据集分为训练集、测试集和验证集。
S12、采用训练集训练用于实现视觉里程计功能的神经网络模型。
S13、采用验证集对训练后的神经网络模型进行验证,若验证效果合格则进入步骤S14,否则查找问题、返回步骤S12继续训练或者更换神经网络模型。
S14、采用测试集对验证效果合格的神经网络模型进行测试,若测试效果符合算法阈值则选定当前的神经网络模型用于实现视觉里程计功能,否则查找问题、返回步骤S12继续训练或者更换神经网络模型。
进一步地,步骤S11中对图像数据集中的图像数据进行预处理包括图像数据去噪和图像大小的调整。
进一步地,步骤S12中训练用于实现视觉里程计功能的神经网络模型包括确定神经网络的输入和输出、采用卷积层和池化层的数量以及采用的激活函数。
进一步地,步骤S2包括以下分步骤:
S21、提取神经网络模型不同网络层的输出特征,并对输出特征进行降维处理。
S22、根据不同网络层的输出特征降维的形式,采用多层网络特征级联的方式作为图像描述符,并选定最佳组合方式。
S23、根据最佳组合方式得到图像描述子,并对图像描述子进行归一化操作。
S24、根据归一化后的图像描述子,采用相似性算法,计算图像数据集的相似度矩阵,并优化相似度矩阵,做出闭环的判断。
进一步地,步骤S23中对图像描述子进行归一化操作的公式为:
Figure BDA0002476914870000031
其中img_proc表示归一化后的图像描述子,img表示特征级联之后的图像特征矩阵,
Figure BDA0002476914870000032
表示img的L2范数,d表示神经网络模型某一层的输出维度。
进一步地,步骤S24具体为:计算第i帧图像li与第j帧图像lj的相似度Sim(i,j):
Figure BDA0002476914870000033
其中
Figure BDA0002476914870000034
表示第i帧图像li归一化后的图像描述子,
Figure BDA0002476914870000035
表示第j帧图像lj归一化后的图像描述子,
Figure BDA0002476914870000036
表示第i帧图像li与第j帧图像lj的差异大小,Sim(i,j)∈[0,1]。
确定阈值Th,若Sim(i,j)≥Th,则判断为闭环,否则判断为非闭环。
进一步地,步骤S3具体为:若检测到有闭环存在,则采用后端优化算法进行反向优化,得到精确的机器人的运动轨迹,并构建地图,实现视觉SLAM定位。
本发明的有益效果是:本发明基于神经网络,并集数据预处理、视觉里程计、闭环检测、后端优化于一体,实现了机器人的定位。相较于传统的视觉SLAM算法流程而言,本发明基于深度学习鲁棒性能更好,对环境的适应性更强。相较于目前的基于深度学习的方法,本发明利用一个神经网络架构便能够同时实现闭环检测和视觉里程计的功能,并基于该神经网络模型实现了整个视觉SLAM定位方法的流程,避免了不同模块采用不同的网络结构,进一步解决了由于网络结构的复杂性使得整个算法流程更加复杂,实时性能也会受到影响的问题。
附图说明
图1所示为现有的经典视觉SLAM定位算法总体框架图。
图2所示为本发明实施例提供的基于深度学习的视觉SLAM定位方法总体框架图。
图3所示为本发明实施例提供的基于深度学习的视觉SLAM定位方法流程图。
具体实施方式
现在将参考附图来详细描述本发明的示例性实施方式。应当理解,附图中示出和描述的实施方式仅仅是示例性的,意在阐释本发明的原理和精神,而并非限制本发明的范围。
本发明实施例提供了一种基于深度学习的视觉SLAM定位方法,如图2和图3共同所示,包括以下步骤S1~S3:
S1、采用图像数据集训练得到用于实现视觉里程计功能的神经网络模型。
步骤S1包括以下分步骤S11~S14:
S11、对图像数据集中的图像数据进行预处理,并将图像数据集分为训练集、测试集和验证集。
本发明实施例中,图像数据集中的图像数据均为通过传感器采集并输入的图像数据。对图像数据集中的图像数据进行预处理包括图像数据去噪和图像大小的调整。训练集、测试集和验证集的划分比例为6:2:2。
S12、采用训练集训练用于实现视觉里程计功能的神经网络模型。
本发明实施例中,步骤S12的具体操作包括确定神经网络的输入和输出、采用卷积层和池化层的数量以及采用的激活函数。
S13、采用验证集对训练后的神经网络模型进行验证,若验证效果合格则进入步骤S14,否则查找问题、返回步骤S12继续训练或者更换神经网络模型。
本发明实施例中,当实现视觉里程计功能的神经网络模型在验证集上得到的位姿误差小于设定阈值时,则认为在验证集上的验证效果合格。
S14、采用测试集对验证效果合格的神经网络模型进行测试,若测试效果符合算法阈值则选定当前的神经网络模型用于实现视觉里程计功能,否则查找问题、返回步骤S12继续训练或者更换神经网络模型。
S2、通过神经网络模型进行闭环检测。
步骤S2包括以下分步骤S21~S24:
S21、提取神经网络模型不同网络层的输出特征,并对输出特征进行降维处理,从而实现更好的实时性能和减少特征冗余提高算法性能。
本发明实施例中,假设样本量为m,
Figure BDA0002476914870000041
表示从神经网络模型提取到第i幅图像li的lay1层的特征,d1表示从lay1层提取出图像的特征的维度,那么当前的样本
Figure BDA0002476914870000042
表示通过因子分析降维算法以后第i幅图像li新的图像描述子。例如,将不同层次得到的同一图像的描述子统一降维到200维,那么
Figure BDA0002476914870000051
本发明实施例中可以采用机器学习的降维算法,如主成分分析算法,因子分析算法等。
S22、根据不同网络层的输出特征降维的形式,采用多层网络特征级联的方式作为图像描述符,并选定最佳组合方式。例如将神经网络模型的第三层与倒数第三层组合用于表征图像,或者采用其他组合方式。
S23、根据最佳组合方式得到图像描述子,并对图像描述子进行归一化操作,以将图像描述子的数据范围缩小至[0,1]范围。
本发明实施例中,对图像描述子进行归一化操作的公式为:
Figure BDA0002476914870000052
其中img_proc表示归一化后的图像描述子,img表示特征级联之后的图像特征矩阵,
Figure BDA0002476914870000053
表示img的L2范数,也可以选择其他的范数形式,d表示神经网络模型某一层的输出维度。
S24、根据归一化后的图像描述子,采用相似性算法,计算图像数据集的相似度矩阵,并优化相似度矩阵,做出闭环的判断。
本发明实施例中,首先计算第i帧图像li与第j帧图像lj的相似度Sim(i,j):
Figure BDA0002476914870000054
其中
Figure BDA0002476914870000055
表示第i帧图像li归一化后的图像描述子,
Figure BDA0002476914870000056
表示第j帧图像lj归一化后的图像描述子,
Figure BDA0002476914870000057
表示第i帧图像li与第j帧图像lj的差异大小,Sim(i,j)∈[0,1]。
接着确定一个合适的阈值Th,若Sim(i,j)≥Th,则判断为闭环,否则判断为非闭环。
S3、根据闭环检测结果,采用后端优化算法,并结合视觉里程计对机器人运动轨迹进行优化,实现视觉SLAM定位。
本发明实施例中,若检测到有闭环存在,则采用后端优化算法(比如卡尔曼滤波算法或者图优化算法)进行反向优化,得到精确的机器人的运动轨迹,并构建地图,实现视觉SLAM定位。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (8)

1.一种基于深度学习的视觉SLAM定位方法,其特征在于,包括以下步骤:
S1、采用图像数据集训练得到用于实现视觉里程计功能的神经网络模型;
S2、通过神经网络模型进行闭环检测;
S3、根据闭环检测结果,采用后端优化算法,并结合视觉里程计对机器人运动轨迹进行优化,实现视觉SLAM定位。
2.根据权利要求1所述的视觉SLAM定位方法,其特征在于,所述步骤S1包括以下分步骤:
S11、对图像数据集中的图像数据进行预处理,并将图像数据集分为训练集、测试集和验证集;
S12、采用训练集训练用于实现视觉里程计功能的神经网络模型;
S13、采用验证集对训练后的神经网络模型进行验证,若验证效果合格则进入步骤S14,否则查找问题、返回步骤S12继续训练或者更换神经网络模型;
S14、采用测试集对验证效果合格的神经网络模型进行测试,若测试效果符合算法阈值则选定当前的神经网络模型用于实现视觉里程计功能,否则查找问题、返回步骤S12继续训练或者更换神经网络模型。
3.根据权利要求2所述的视觉SLAM定位方法,其特征在于,所述步骤S11中对图像数据集中的图像数据进行预处理包括图像数据去噪和图像大小的调整。
4.根据权利要求2所述的视觉SLAM定位方法,其特征在于,所述步骤S12中训练用于实现视觉里程计功能的神经网络模型包括确定神经网络的输入和输出、采用卷积层和池化层的数量以及采用的激活函数。
5.根据权利要求1所述的视觉SLAM定位方法,其特征在于,所述步骤S2包括以下分步骤:
S21、提取神经网络模型不同网络层的输出特征,并对输出特征进行降维处理;
S22、根据不同网络层的输出特征降维的形式,采用多层网络特征级联的方式作为图像描述符,并选定最佳组合方式;
S23、根据最佳组合方式得到图像描述子,并对图像描述子进行归一化操作;
S24、根据归一化后的图像描述子,采用相似性算法,计算图像数据集的相似度矩阵,并优化相似度矩阵,做出闭环的判断。
6.根据权利要求5所述的视觉SLAM定位方法,其特征在于,所述步骤S23中对图像描述子进行归一化操作的公式为:
Figure FDA0002476914860000021
其中img_proc表示归一化后的图像描述子,img表示特征级联之后的图像特征矩阵,
Figure FDA0002476914860000022
表示img的L2范数,d表示神经网络模型某一层的输出维度。
7.根据权利要求5所述的视觉SLAM定位方法,其特征在于,所述步骤S24具体为:计算第i帧图像li与第j帧图像lj的相似度Sim(i,j):
Figure FDA0002476914860000023
其中
Figure FDA0002476914860000024
表示第i帧图像li归一化后的图像描述子,
Figure FDA0002476914860000025
表示第j帧图像lj归一化后的图像描述子,
Figure FDA0002476914860000026
表示第i帧图像li与第j帧图像lj的差异大小,Sim(i,j)∈[0,1];
确定阈值Th,若Sim(i,j)≥Th,则判断为闭环,否则判断为非闭环。
8.根据权利要求1所述的视觉SLAM定位方法,其特征在于,所述步骤S3具体为:若检测到有闭环存在,则采用后端优化算法进行反向优化,得到精确的机器人的运动轨迹,并构建地图,实现视觉SLAM定位。
CN202010366574.6A 2020-04-30 2020-04-30 一种基于深度学习的视觉slam定位方法 Pending CN111578956A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010366574.6A CN111578956A (zh) 2020-04-30 2020-04-30 一种基于深度学习的视觉slam定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010366574.6A CN111578956A (zh) 2020-04-30 2020-04-30 一种基于深度学习的视觉slam定位方法

Publications (1)

Publication Number Publication Date
CN111578956A true CN111578956A (zh) 2020-08-25

Family

ID=72116993

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010366574.6A Pending CN111578956A (zh) 2020-04-30 2020-04-30 一种基于深度学习的视觉slam定位方法

Country Status (1)

Country Link
CN (1) CN111578956A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112050828A (zh) * 2020-09-13 2020-12-08 常州沃翌智能科技有限公司 一种基于深度学习的视觉里程计及里程方法
CN114608592A (zh) * 2022-02-10 2022-06-10 上海追势科技有限公司 一种地图的众包方法、系统、设备和存储介质
CN116152332A (zh) * 2023-02-22 2023-05-23 南京航空航天大学 一种基于帧间约束的深度学习视觉slam方法
CN116363215A (zh) * 2023-03-31 2023-06-30 中国第一汽车股份有限公司 一种基于卷积神经网络的视觉slam优化方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107167130A (zh) * 2017-05-18 2017-09-15 上海谦尊升网络科技有限公司 地图匹配定位方法及系统
CN107330357A (zh) * 2017-05-18 2017-11-07 东北大学 基于深度神经网络的视觉slam闭环检测方法
CN110533661A (zh) * 2019-09-04 2019-12-03 电子科技大学 基于图像特征级联的自适应实时闭环检测方法
CN110555881A (zh) * 2019-08-29 2019-12-10 桂林电子科技大学 一种基于卷积神经网络的视觉slam测试方法
US20200116498A1 (en) * 2018-10-16 2020-04-16 Ubtech Robotics Corp Visual assisted distance-based slam method and mobile robot using the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107167130A (zh) * 2017-05-18 2017-09-15 上海谦尊升网络科技有限公司 地图匹配定位方法及系统
CN107330357A (zh) * 2017-05-18 2017-11-07 东北大学 基于深度神经网络的视觉slam闭环检测方法
US20200116498A1 (en) * 2018-10-16 2020-04-16 Ubtech Robotics Corp Visual assisted distance-based slam method and mobile robot using the same
CN110555881A (zh) * 2019-08-29 2019-12-10 桂林电子科技大学 一种基于卷积神经网络的视觉slam测试方法
CN110533661A (zh) * 2019-09-04 2019-12-03 电子科技大学 基于图像特征级联的自适应实时闭环检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
常思雨: ""基于视觉SLAM的语义地图研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
张云洲等: "基于栈式卷积自编码的视觉SLAM闭环检测", 《控制与决策》 *
张弘 等: "《微小型仿生机器鼠设计与控制》", 30 December 2019, 北京:北京理工大学出版社 *
李少朋等: "深度学习在视觉SLAM中应用综述", 《空间控制技术与应用》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112050828A (zh) * 2020-09-13 2020-12-08 常州沃翌智能科技有限公司 一种基于深度学习的视觉里程计及里程方法
CN112050828B (zh) * 2020-09-13 2022-06-10 常州沃翌智能科技有限公司 一种基于深度学习的视觉里程计及里程方法
CN114608592A (zh) * 2022-02-10 2022-06-10 上海追势科技有限公司 一种地图的众包方法、系统、设备和存储介质
CN116152332A (zh) * 2023-02-22 2023-05-23 南京航空航天大学 一种基于帧间约束的深度学习视觉slam方法
CN116363215A (zh) * 2023-03-31 2023-06-30 中国第一汽车股份有限公司 一种基于卷积神经网络的视觉slam优化方法及装置

Similar Documents

Publication Publication Date Title
CN113205466B (zh) 一种基于隐空间拓扑结构约束的残缺点云补全方法
CN111291809B (zh) 一种处理装置、方法及存储介质
CN112232214A (zh) 一种基于深度特征融合和注意力机制的实时目标检测方法
CN113065409B (zh) 一种基于摄像头分布差异对齐约束的无监督行人重识别方法
CN108596203B (zh) 并联池化层对受电弓碳滑板表面磨耗检测模型的优化方法
CN111578956A (zh) 一种基于深度学习的视觉slam定位方法
CN115018910B (zh) 点云数据中目标的检测方法、装置和计算机可读存储介质
CN110781924A (zh) 一种基于全卷积神经网络的侧扫声纳图像特征提取方法
CN110781744A (zh) 一种基于多层次特征融合的小尺度行人检测方法
CN117115474B (zh) 一种基于多阶段特征提取的端到端单目标跟踪方法
CN108288038A (zh) 基于场景分割的夜间机器人运动决策方法
CN113781563A (zh) 一种基于深度学习的移动机器人回环检测方法
CN112069997B (zh) 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置
CN113888603A (zh) 基于光流跟踪和特征匹配的回环检测及视觉slam方法
CN114863407A (zh) 一种基于视觉语言深度融合的多任务冷启动目标检测方法
CN110598711B (zh) 一种结合分类任务的目标分割方法
CN117252904A (zh) 基于长程空间感知与通道增强的目标跟踪方法与系统
CN112507943A (zh) 基于多任务神经网络的视觉定位导航方法、系统及介质
Khellal et al. Pedestrian classification and detection in far infrared images
CN115187614A (zh) 一种基于stdc语义分割网络的实时同时定位与建图方法
Tsintotas et al. Online Appearance-Based Place Recognition and Mapping: Their Role in Autonomous Navigation
CN117974969A (zh) 基于改进的YOLOv7草莓病叶检测识别方法
Cheng et al. OpenMPR: Recognize places using multimodal data for people with visual impairments
CN114140524B (zh) 一种多尺度特征融合的闭环检测系统及方法
CN117173595A (zh) 基于改进YOLOv7的无人机航拍图像目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200825