CN111578956A - 一种基于深度学习的视觉slam定位方法 - Google Patents
一种基于深度学习的视觉slam定位方法 Download PDFInfo
- Publication number
- CN111578956A CN111578956A CN202010366574.6A CN202010366574A CN111578956A CN 111578956 A CN111578956 A CN 111578956A CN 202010366574 A CN202010366574 A CN 202010366574A CN 111578956 A CN111578956 A CN 111578956A
- Authority
- CN
- China
- Prior art keywords
- neural network
- image
- visual
- network model
- visual slam
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的视觉SLAM定位方法,基于神经网络,并集数据预处理、视觉里程计、闭环检测、后端优化于一体,实现了机器人的定位。相较于传统的视觉SLAM算法流程而言,本发明基于深度学习鲁棒性能更好,对环境的适应性更强。相较于目前的基于深度学习的方法,本发明利用一个神经网络架构便能够同时实现闭环检测和视觉里程计的功能,并基于该神经网络模型实现了整个视觉SLAM定位方法的流程,避免了不同模块采用不同的网络结构,进一步解决了由于网络结构的复杂性使得整个算法流程更加复杂,实时性能也会受到影响的问题。
Description
技术领域
本发明属于视觉SLAM技术领域,具体涉及一种基于深度学习的视觉SLAM定位方法的设计。
背景技术
随着人工智能以及机器人领域的快速发展,利用深度学习来实现机器人的自主定位导航逐渐成为机器人研究领域重要研究方向。其中,视觉SLAM成为近年来机器人定位导航研究领域中最为活跃的领域之一。它也是整个视觉定位导航里面非常突出的一种技术,它被各种各样的领域所需要,如无人机领域、服务机器人领域、清洁机器人及工业机器人领域等。
一个完整的视觉SLAM系统需要几个关键模块,如图1所示,包括数据处理、视觉里程计、后端优化、地图构建和闭环检测。它的一般实现流程为:首先从传感器中获取图像数据信息;然后通过前端的视觉里程计,估算相邻帧间相机运动的情况;然后利用闭环检测识别机器人是否到达过当前位置;最后通过后端的图优化将视觉里程计与闭环检测的结果进行进一步优化,从而可以借助估计的机器人轨迹与姿态完成地图构建。
根据生成方法的不同,视觉SLAM可以分成:间接方法、直接方法以及在神经网络方面的方法。其中间接方法首先对测量数据进行预处理来产生中间层,通过稀疏的特征点提取和匹配来实现的,也可以采用稠密规则的光流,或者提取直线或曲线特征来实现,然后计算出地图点坐标或光流向量等几何量,因此间接方法优化的是几何误差。直接方法跳过预处理步骤直接使用实际传感器测量值,例如在特定时间内从某个方向接收的光,在被动视觉的情况下,由于相机提供光度测量,因此直接方法优化的是光度误差。传统的视觉SLAM在环境的适应性方面依然存在瓶颈,深度学习有望在这方面发挥较大的作用。
目前,深度学习已经在语义地图、重定位、闭环检测、特征点提取与匹配以及端到端的视觉里程计等问题上有了相关工作,例如CNN-SLAM在LSD-SLAM基础上将深度估计以及图像匹配改为基于卷积神经网络的方法,并且可以融合语义信息,得到了较鲁棒的效果;剑桥大学开发的PoseNet,是在GoogleNet的基础上将6自由度位姿作为回归问题进行的网络改进,可以利用单张图片得到对应的相机位姿;《视觉SLAM十四讲》一书的作者高翔,利用深度神经网络而不是常见的视觉特征来学习原始数据的特征,实现了基于深度学习的闭环检测;LIFT利用深度神经网络学习图像中的特征点,相比于SIFT匹配度更高。UnDeepVO(基于非监督深度学习的单目视觉里程计)能够通过使用深度神经网络估计单目相机的6自由度位姿及其视野内的深度。UnDeepVO有两个显著的特点:一个是采用了无监督深度学习机制,另一个是能够恢复绝对尺度。UnDeepVO在训练过程中使用双目图像恢复尺度,但是在测试过程中只使用连续的单目图像。虽然目前有许多有关基于深度学习的视觉SLAM领域的算法研究,但大多都是基于SLAM中某个单独的模块利用深度学习算法进行研究,如基于深度学习的视觉里程计算法研究,基于深度学习闭环检测算法研究等,因此探究基于深度学习的视觉SLAM算法研究非常重要。
发明内容
本发明的目的是针对现有的基于深度学习的视觉SLAM定位算法只使用神经网络训练的模型来实现SLAM算法中的某个单一模块而非整个算法流程的问题,提出了一种基于深度学习的视觉SLAM定位方法,通过神经网络来实现整个视觉SLAM定位算法的功能。
本发明的技术方案为:一种基于深度学习的视觉SLAM定位方法,包括以下步骤:
S1、采用图像数据集训练得到用于实现视觉里程计功能的神经网络模型。
S2、通过神经网络模型进行闭环检测。
S3、根据闭环检测结果,采用后端优化算法,并结合视觉里程计对机器人运动轨迹进行优化,实现视觉SLAM定位。
进一步地,步骤S1包括以下分步骤:
S11、对图像数据集中的图像数据进行预处理,并将图像数据集分为训练集、测试集和验证集。
S12、采用训练集训练用于实现视觉里程计功能的神经网络模型。
S13、采用验证集对训练后的神经网络模型进行验证,若验证效果合格则进入步骤S14,否则查找问题、返回步骤S12继续训练或者更换神经网络模型。
S14、采用测试集对验证效果合格的神经网络模型进行测试,若测试效果符合算法阈值则选定当前的神经网络模型用于实现视觉里程计功能,否则查找问题、返回步骤S12继续训练或者更换神经网络模型。
进一步地,步骤S11中对图像数据集中的图像数据进行预处理包括图像数据去噪和图像大小的调整。
进一步地,步骤S12中训练用于实现视觉里程计功能的神经网络模型包括确定神经网络的输入和输出、采用卷积层和池化层的数量以及采用的激活函数。
进一步地,步骤S2包括以下分步骤:
S21、提取神经网络模型不同网络层的输出特征,并对输出特征进行降维处理。
S22、根据不同网络层的输出特征降维的形式,采用多层网络特征级联的方式作为图像描述符,并选定最佳组合方式。
S23、根据最佳组合方式得到图像描述子,并对图像描述子进行归一化操作。
S24、根据归一化后的图像描述子,采用相似性算法,计算图像数据集的相似度矩阵,并优化相似度矩阵,做出闭环的判断。
进一步地,步骤S23中对图像描述子进行归一化操作的公式为:
进一步地,步骤S24具体为:计算第i帧图像li与第j帧图像lj的相似度Sim(i,j):
确定阈值Th,若Sim(i,j)≥Th,则判断为闭环,否则判断为非闭环。
进一步地,步骤S3具体为:若检测到有闭环存在,则采用后端优化算法进行反向优化,得到精确的机器人的运动轨迹,并构建地图,实现视觉SLAM定位。
本发明的有益效果是:本发明基于神经网络,并集数据预处理、视觉里程计、闭环检测、后端优化于一体,实现了机器人的定位。相较于传统的视觉SLAM算法流程而言,本发明基于深度学习鲁棒性能更好,对环境的适应性更强。相较于目前的基于深度学习的方法,本发明利用一个神经网络架构便能够同时实现闭环检测和视觉里程计的功能,并基于该神经网络模型实现了整个视觉SLAM定位方法的流程,避免了不同模块采用不同的网络结构,进一步解决了由于网络结构的复杂性使得整个算法流程更加复杂,实时性能也会受到影响的问题。
附图说明
图1所示为现有的经典视觉SLAM定位算法总体框架图。
图2所示为本发明实施例提供的基于深度学习的视觉SLAM定位方法总体框架图。
图3所示为本发明实施例提供的基于深度学习的视觉SLAM定位方法流程图。
具体实施方式
现在将参考附图来详细描述本发明的示例性实施方式。应当理解,附图中示出和描述的实施方式仅仅是示例性的,意在阐释本发明的原理和精神,而并非限制本发明的范围。
本发明实施例提供了一种基于深度学习的视觉SLAM定位方法,如图2和图3共同所示,包括以下步骤S1~S3:
S1、采用图像数据集训练得到用于实现视觉里程计功能的神经网络模型。
步骤S1包括以下分步骤S11~S14:
S11、对图像数据集中的图像数据进行预处理,并将图像数据集分为训练集、测试集和验证集。
本发明实施例中,图像数据集中的图像数据均为通过传感器采集并输入的图像数据。对图像数据集中的图像数据进行预处理包括图像数据去噪和图像大小的调整。训练集、测试集和验证集的划分比例为6:2:2。
S12、采用训练集训练用于实现视觉里程计功能的神经网络模型。
本发明实施例中,步骤S12的具体操作包括确定神经网络的输入和输出、采用卷积层和池化层的数量以及采用的激活函数。
S13、采用验证集对训练后的神经网络模型进行验证,若验证效果合格则进入步骤S14,否则查找问题、返回步骤S12继续训练或者更换神经网络模型。
本发明实施例中,当实现视觉里程计功能的神经网络模型在验证集上得到的位姿误差小于设定阈值时,则认为在验证集上的验证效果合格。
S14、采用测试集对验证效果合格的神经网络模型进行测试,若测试效果符合算法阈值则选定当前的神经网络模型用于实现视觉里程计功能,否则查找问题、返回步骤S12继续训练或者更换神经网络模型。
S2、通过神经网络模型进行闭环检测。
步骤S2包括以下分步骤S21~S24:
S21、提取神经网络模型不同网络层的输出特征,并对输出特征进行降维处理,从而实现更好的实时性能和减少特征冗余提高算法性能。
本发明实施例中,假设样本量为m,表示从神经网络模型提取到第i幅图像li的lay1层的特征,d1表示从lay1层提取出图像的特征的维度,那么当前的样本表示通过因子分析降维算法以后第i幅图像li新的图像描述子。例如,将不同层次得到的同一图像的描述子统一降维到200维,那么本发明实施例中可以采用机器学习的降维算法,如主成分分析算法,因子分析算法等。
S22、根据不同网络层的输出特征降维的形式,采用多层网络特征级联的方式作为图像描述符,并选定最佳组合方式。例如将神经网络模型的第三层与倒数第三层组合用于表征图像,或者采用其他组合方式。
S23、根据最佳组合方式得到图像描述子,并对图像描述子进行归一化操作,以将图像描述子的数据范围缩小至[0,1]范围。
本发明实施例中,对图像描述子进行归一化操作的公式为:
S24、根据归一化后的图像描述子,采用相似性算法,计算图像数据集的相似度矩阵,并优化相似度矩阵,做出闭环的判断。
本发明实施例中,首先计算第i帧图像li与第j帧图像lj的相似度Sim(i,j):
接着确定一个合适的阈值Th,若Sim(i,j)≥Th,则判断为闭环,否则判断为非闭环。
S3、根据闭环检测结果,采用后端优化算法,并结合视觉里程计对机器人运动轨迹进行优化,实现视觉SLAM定位。
本发明实施例中,若检测到有闭环存在,则采用后端优化算法(比如卡尔曼滤波算法或者图优化算法)进行反向优化,得到精确的机器人的运动轨迹,并构建地图,实现视觉SLAM定位。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
Claims (8)
1.一种基于深度学习的视觉SLAM定位方法,其特征在于,包括以下步骤:
S1、采用图像数据集训练得到用于实现视觉里程计功能的神经网络模型;
S2、通过神经网络模型进行闭环检测;
S3、根据闭环检测结果,采用后端优化算法,并结合视觉里程计对机器人运动轨迹进行优化,实现视觉SLAM定位。
2.根据权利要求1所述的视觉SLAM定位方法,其特征在于,所述步骤S1包括以下分步骤:
S11、对图像数据集中的图像数据进行预处理,并将图像数据集分为训练集、测试集和验证集;
S12、采用训练集训练用于实现视觉里程计功能的神经网络模型;
S13、采用验证集对训练后的神经网络模型进行验证,若验证效果合格则进入步骤S14,否则查找问题、返回步骤S12继续训练或者更换神经网络模型;
S14、采用测试集对验证效果合格的神经网络模型进行测试,若测试效果符合算法阈值则选定当前的神经网络模型用于实现视觉里程计功能,否则查找问题、返回步骤S12继续训练或者更换神经网络模型。
3.根据权利要求2所述的视觉SLAM定位方法,其特征在于,所述步骤S11中对图像数据集中的图像数据进行预处理包括图像数据去噪和图像大小的调整。
4.根据权利要求2所述的视觉SLAM定位方法,其特征在于,所述步骤S12中训练用于实现视觉里程计功能的神经网络模型包括确定神经网络的输入和输出、采用卷积层和池化层的数量以及采用的激活函数。
5.根据权利要求1所述的视觉SLAM定位方法,其特征在于,所述步骤S2包括以下分步骤:
S21、提取神经网络模型不同网络层的输出特征,并对输出特征进行降维处理;
S22、根据不同网络层的输出特征降维的形式,采用多层网络特征级联的方式作为图像描述符,并选定最佳组合方式;
S23、根据最佳组合方式得到图像描述子,并对图像描述子进行归一化操作;
S24、根据归一化后的图像描述子,采用相似性算法,计算图像数据集的相似度矩阵,并优化相似度矩阵,做出闭环的判断。
8.根据权利要求1所述的视觉SLAM定位方法,其特征在于,所述步骤S3具体为:若检测到有闭环存在,则采用后端优化算法进行反向优化,得到精确的机器人的运动轨迹,并构建地图,实现视觉SLAM定位。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010366574.6A CN111578956A (zh) | 2020-04-30 | 2020-04-30 | 一种基于深度学习的视觉slam定位方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010366574.6A CN111578956A (zh) | 2020-04-30 | 2020-04-30 | 一种基于深度学习的视觉slam定位方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN111578956A true CN111578956A (zh) | 2020-08-25 |
Family
ID=72116993
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202010366574.6A Pending CN111578956A (zh) | 2020-04-30 | 2020-04-30 | 一种基于深度学习的视觉slam定位方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN111578956A (zh) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112050828A (zh) * | 2020-09-13 | 2020-12-08 | 常州沃翌智能科技有限公司 | 一种基于深度学习的视觉里程计及里程方法 |
| CN114608592A (zh) * | 2022-02-10 | 2022-06-10 | 上海追势科技有限公司 | 一种地图的众包方法、系统、设备和存储介质 |
| CN116152332A (zh) * | 2023-02-22 | 2023-05-23 | 南京航空航天大学 | 一种基于帧间约束的深度学习视觉slam方法 |
| CN116363215A (zh) * | 2023-03-31 | 2023-06-30 | 中国第一汽车股份有限公司 | 一种基于卷积神经网络的视觉slam优化方法及装置 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107167130A (zh) * | 2017-05-18 | 2017-09-15 | 上海谦尊升网络科技有限公司 | 地图匹配定位方法及系统 |
| CN107330357A (zh) * | 2017-05-18 | 2017-11-07 | 东北大学 | 基于深度神经网络的视觉slam闭环检测方法 |
| CN110533661A (zh) * | 2019-09-04 | 2019-12-03 | 电子科技大学 | 基于图像特征级联的自适应实时闭环检测方法 |
| CN110555881A (zh) * | 2019-08-29 | 2019-12-10 | 桂林电子科技大学 | 一种基于卷积神经网络的视觉slam测试方法 |
| US20200116498A1 (en) * | 2018-10-16 | 2020-04-16 | Ubtech Robotics Corp | Visual assisted distance-based slam method and mobile robot using the same |
-
2020
- 2020-04-30 CN CN202010366574.6A patent/CN111578956A/zh active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107167130A (zh) * | 2017-05-18 | 2017-09-15 | 上海谦尊升网络科技有限公司 | 地图匹配定位方法及系统 |
| CN107330357A (zh) * | 2017-05-18 | 2017-11-07 | 东北大学 | 基于深度神经网络的视觉slam闭环检测方法 |
| US20200116498A1 (en) * | 2018-10-16 | 2020-04-16 | Ubtech Robotics Corp | Visual assisted distance-based slam method and mobile robot using the same |
| CN110555881A (zh) * | 2019-08-29 | 2019-12-10 | 桂林电子科技大学 | 一种基于卷积神经网络的视觉slam测试方法 |
| CN110533661A (zh) * | 2019-09-04 | 2019-12-03 | 电子科技大学 | 基于图像特征级联的自适应实时闭环检测方法 |
Non-Patent Citations (4)
| Title |
|---|
| 常思雨: ""基于视觉SLAM的语义地图研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
| 张云洲等: "基于栈式卷积自编码的视觉SLAM闭环检测", 《控制与决策》 * |
| 张弘 等: "《微小型仿生机器鼠设计与控制》", 30 December 2019, 北京:北京理工大学出版社 * |
| 李少朋等: "深度学习在视觉SLAM中应用综述", 《空间控制技术与应用》 * |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112050828A (zh) * | 2020-09-13 | 2020-12-08 | 常州沃翌智能科技有限公司 | 一种基于深度学习的视觉里程计及里程方法 |
| CN112050828B (zh) * | 2020-09-13 | 2022-06-10 | 常州沃翌智能科技有限公司 | 一种基于深度学习的视觉里程计及里程方法 |
| CN114608592A (zh) * | 2022-02-10 | 2022-06-10 | 上海追势科技有限公司 | 一种地图的众包方法、系统、设备和存储介质 |
| CN116152332A (zh) * | 2023-02-22 | 2023-05-23 | 南京航空航天大学 | 一种基于帧间约束的深度学习视觉slam方法 |
| CN116363215A (zh) * | 2023-03-31 | 2023-06-30 | 中国第一汽车股份有限公司 | 一种基于卷积神经网络的视觉slam优化方法及装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN113205466B (zh) | 一种基于隐空间拓扑结构约束的残缺点云补全方法 | |
| CN111291809B (zh) | 一种处理装置、方法及存储介质 | |
| CN112232214A (zh) | 一种基于深度特征融合和注意力机制的实时目标检测方法 | |
| CN113065409B (zh) | 一种基于摄像头分布差异对齐约束的无监督行人重识别方法 | |
| CN108596203B (zh) | 并联池化层对受电弓碳滑板表面磨耗检测模型的优化方法 | |
| CN111578956A (zh) | 一种基于深度学习的视觉slam定位方法 | |
| CN115018910B (zh) | 点云数据中目标的检测方法、装置和计算机可读存储介质 | |
| CN110781924A (zh) | 一种基于全卷积神经网络的侧扫声纳图像特征提取方法 | |
| CN110781744A (zh) | 一种基于多层次特征融合的小尺度行人检测方法 | |
| CN117115474B (zh) | 一种基于多阶段特征提取的端到端单目标跟踪方法 | |
| CN108288038A (zh) | 基于场景分割的夜间机器人运动决策方法 | |
| CN113781563A (zh) | 一种基于深度学习的移动机器人回环检测方法 | |
| CN112069997B (zh) | 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置 | |
| CN113888603A (zh) | 基于光流跟踪和特征匹配的回环检测及视觉slam方法 | |
| CN114863407A (zh) | 一种基于视觉语言深度融合的多任务冷启动目标检测方法 | |
| CN110598711B (zh) | 一种结合分类任务的目标分割方法 | |
| CN117252904A (zh) | 基于长程空间感知与通道增强的目标跟踪方法与系统 | |
| CN112507943A (zh) | 基于多任务神经网络的视觉定位导航方法、系统及介质 | |
| Khellal et al. | Pedestrian classification and detection in far infrared images | |
| CN115187614A (zh) | 一种基于stdc语义分割网络的实时同时定位与建图方法 | |
| Tsintotas et al. | Online Appearance-Based Place Recognition and Mapping: Their Role in Autonomous Navigation | |
| CN117974969A (zh) | 基于改进的YOLOv7草莓病叶检测识别方法 | |
| Cheng et al. | OpenMPR: Recognize places using multimodal data for people with visual impairments | |
| CN114140524B (zh) | 一种多尺度特征融合的闭环检测系统及方法 | |
| CN117173595A (zh) | 基于改进YOLOv7的无人机航拍图像目标检测方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| RJ01 | Rejection of invention patent application after publication | ||
| RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200825 |