CN111104523A - 基于语音辅助的视听协同学习机器人及学习方法 - Google Patents
基于语音辅助的视听协同学习机器人及学习方法 Download PDFInfo
- Publication number
- CN111104523A CN111104523A CN201911326275.3A CN201911326275A CN111104523A CN 111104523 A CN111104523 A CN 111104523A CN 201911326275 A CN201911326275 A CN 201911326275A CN 111104523 A CN111104523 A CN 111104523A
- Authority
- CN
- China
- Prior art keywords
- voice
- learning
- information
- robot
- new object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于语音辅助的视听协同学习机器人,其特征在于,包括视觉系统、语音系统、综合学习系统和控制系统,本方案直接通过语言来获得大量打好语音标签的数据集可以解决传统繁琐而低效率的打标签现状,其次将打好语音标签的数据集导入神经网络进行训练,引导机器人对新对象进行自主学习,将提取到的特征信息存入使用知识图谱方法建立起的知识库中,这种通过知识图谱建立起的数据库可以用于推理,相对传统知识库的存储方式,更有利于机器人的实时学习。
Description
技术领域
本发明涉及机器人技术领域,具体涉及一种基于语音辅助的视听协同学习机器人。
背景技术
现有技术中机器人视觉学习使用的传统的方式来给数据集打标签,例如使用打标签工具来圈出图片中要识别训练的对象,这种传统的打标签方式不仅繁琐耗时,工作量大,而且效率极低,显然不利于机器人的实时学习新的对象。而本专利中提出的语音标签,直接通过人类语言辅助机器人理解图片信息,自主对图片中需要学习的对象进行打标签,使得打标签高效快捷,有利于机器人的实时在线学习。
当前基于语音来辅助机器人进行视听协同学习新对象的研究并不多,目前对机器人视听觉研究主要集中在视听觉交叉模式上,这些现有研究目的并不在于通过人类语音来引导机器人对拍摄“看到”的新对象进行学习,而主要在于解决机器人的识别与定位问题,而这些都是在基于先验知识的基础上建立的研究,比如让机器人定位识别桌子上的苹果,默认机器人已经知道苹果是什么特征,当机器人拍摄到苹果时,便会快速的与先验知识库进行对比,一旦匹配成功便能锁定对象,定位成功。
发明内容
针对现有技术的上述不足,本发明提供了一种通过语音辅助来协同机器人进行视觉学习新对象的机器人。
为达到上述发明目的,本发明所采用的技术方案为:
提供一种基于语音辅助的视听协同学习机器人,其包括视觉系统、语音系统、综合学习系统和控制系统,视觉系统包括激光雷达、360°旋转摄像头和图像预处理模块,语音系统包括语音输入模块、语音输出模块和语音处理模块,综合学习系统包括搭载有神经网络模型和知识图谱的主控板和GPU云集群,控制系统包括主控板、机器人操作系统和控制指令集;
视觉系统与主控板连接,激光雷达扫描环境中障碍物信息,然后利用SLAM建立该区域环境下的地图,实现在该区域的避障与自主导航,自主运动到建好地图范围内的任意地点;
360°旋转摄像头拍摄需要学习区域的图片,通过图像处理OpenCV检测图片中的对象信息,并将检测对象信息后的图片直接输入到综合学习系统;
语音系统与控制系统的主控板连接,语音接收模块接收外界的语音输入,语音输入为人们描述的学习区域所需学习的对象信息,利用语音识别将语音信息转化为文字信息,再输入到语言处理模块中使用QA&NLP对其理解处理,并将处理后的语音信息输入到综合学习模块;语音输出模块负责机器人的语言输出,实现机器人与人之间的语音交互;
综合学习系统接收视觉系统和语音系统的输入,利用语音系统发送的语音信息识别视觉系统输入的图片信息,学习图片信息中的新目标。
进一步地,新目标学习方法包括以下步骤:
S1:输入经过OpenCV处理后的图片Pin和经过QA&NLP处理后的语言信息Vin,假定经过映射f,得到图片中的两个点坐标(x1,y1)和(x2,y2)且满足x1≠x2,y1≠y2,由两个点所构成的长方形区域将拍摄的学习区域的图片中需要学习的新对象给框选出来,即生成语音标签PVLab((x1,y1),(x2,y2)),此时有:
PVLab((x1,y1)(x2,y2))=f(Pin,Vin) x1≠x2,y1≠y2;
S2:将打好语音标签的图片保存至机器人的内存中;
S3:机器人以语音标签中需要学习的对象为中心,移动车身并转动360°旋转摄像头,获取新对象若干角度的图像信息,并保存在机器人内存中;
S4:利用内存中打好语音标签的图片对若干角度的图像信息进行图像增广,获得图像的数据集;
S5:将图像的数据集导入神经网络,在神经网络中提取新对象的颜色、大小和形状特征,然后通过softmax函数对图像中标注的新对象特征进行分类;
S6:将新对象的特征信息存入知识图谱中。
进一步地,还包括以下步骤:
S7:设定阈值W,利用余弦相似度量法计算两幅图像特征之间的距离,度量该学习的新对象与知识图谱中同类对象的相似度:
其中,学习对象提取的特征为I1=(x1,x2,x3,...,xn),知识图谱中已存储同类对象的特征记为I2=(y1,y2,y3,...,ym),xi为需要学习的新对象的第i个特征,yi为知识图谱中已存储同类对象的第i个特征;
S8:若W≥cosθ,判定已经学过此新对象,综合学习系统直接反馈给语音系统,通过语音输出模块输出该学习对象的信息;
S9:若W<cosθ,判定未学过此新对象或者未完全学会该新对象,提取新对象的特征信息存入知识图谱中。
本发明的有益效果为:本方案不同于传统手动打标签的模式,而是直接通过输入语言来对机器人摄像头拍摄的图片信息进行描述,通过机器人的理解后,锁定要学习的新对象,生成相应的语音标签,之后通移动车身并转动360°旋转摄像头,获取新对象不同角度、不同方向的图像信息,再经图像增广形成相应的数据集。这种直接通过语言来获得大量打好语音标签的数据集可以解决传统繁琐而低效率的打标签现状,其次将打好语音标签的数据集导入神经网络进行训练,引导机器人对新对象进行自主学习,将提取到的特征信息存入使用知识图谱方法建立起的知识库中,这种通过知识图谱建立起的数据库可以用于推理,相对传统知识库的存储方式,更有利于机器人的实时学习。
附图说明
图1为基于语音辅助的视听协同学习机器人的结构原理图
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,基于语音辅助的视听协同学习机器人包括视觉系统、语音系统、综合学习系统和控制系统,视觉系统包括激光雷达、360°旋转摄像头和图像预处理模块,语音系统包括语音输入模块(麦克风)、语音输出模块(音响)和语音处理模块,综合学习系统包括搭载有神经网络模型和知识图谱的主控板和GPU云集群,控制系统包括主控板、机器人操作系统和控制指令集;
视觉系统与主控板连接,激光雷达扫描环境中障碍物信息,然后利用SLAM建立该区域环境下的地图,实现在该区域的避障与自主导航,自主运动到建好地图范围内的任意地点;
360°旋转摄像头直接与控制系统中的主控板连接,机器人自主导航到指定地点后,360°旋转摄像头拍摄需要学习对象所在区域的图片,通过图像处理OpenCV检测图片中的对象信息,并将检测对象信息后的图片直接输入到综合学习系统;
语音系统与控制系统的主控板连接,语音接收模块接收外界的语音输入,语音输入为人们描述的学习区域所需学习的对象信息,利用语音识别将语音信息转化为文字信息,再输入到语言处理模块中使用QA&NLP对其理解处理,并将处理后的语音信息输入到综合学习模块;语音输出模块负责机器人的语言输出,实现机器人与人之间的语音交互;
综合学习系统接收视觉系统和语音系统的输入,利用语音系统发送的语音信息识别视觉系统输入的图片信息,从而为机器人在语音辅助下实现视听协同学习新对象奠定了基础,学习图片信息中的新目标。
本方案中机器人学习图片信息中的新目标的学习方法包括以下步骤:
S1:输入经过OpenCV处理后的图片Pin和经过QA&NLP处理后的语言信息Vin,图片Pin为360°旋转摄像头拍摄的学习区域的图片,语言信息Vin为语音接收模块接收的人们所描述学习区域中所需要学习的新对象信息;假定经过映射f,得到图片中的两个点坐标(x1,y1)和(x2,y2)且满足x1≠x2,y1≠y2,由两个点所构成的长方形区域将拍摄的学习区域的图片中需要学习的新对象给框选出来,即生成语音标签PVLab((x1,y1),(x2,y2)),此时有:
PVLab((x1,y1),(x2,y2))=f(Pin,Vin)x1≠x2,y1≠y2;
S2:将打好语音标签的图片保存至机器人的内存中,机器人内存指插在主控板上的U盘,该U盘内存要求不下于16G;
S3:机器人以语音标签中需要学习的对象为中心,移动车身并转动360°旋转摄像头,获取新对象若干角度的图像信息,并保存在机器人内存中;
S4:利用内存中打好语音标签的图片对若干角度的图像信息进行图像增广,获得图像的数据集;
S5:将图像的数据集导入神经网络,在神经网络中提取新对象的颜色、大小和形状特征,然后通过softmax函数对图像中标注的新对象特征进行分类;
S6:将新对象的特征信息存入知识图谱中。
本方案优选有以下步骤:
S7:在学习的新对象存入知识图谱前,设定阈值W,利用余弦相似度量法计算两幅图像特征之间的距离,度量该学习的新对象与知识图谱中同类对象的相似度:
其中,学习对象提取的特征为I1=(x1,x2,x3,...,xn),知识图谱中已存储同类对象的特征记为I2=(y1,y2,y3,...,ym),xi为需要学习的新对象的第i个特征,yi为知识图谱中已存储同类对象的第i个特征;
S8:若W≥cosθ,判定已经学过此新对象,综合学习系统直接反馈给语音系统,通过语音输出模块输出该学习对象的信息;
S9:若W<cosθ,判定未学过此新对象或者未完全学会该新对象,提取新对象的特征信息存入知识图谱中。
本方案不同于传统手动打标签的模式,而是直接通过输入语言来对机器人摄像头拍摄的图片信息进行描述,通过机器人的理解后,锁定要学习的新对象,生成相应的语音标签,之后通过移动车身并转动360°旋转摄像头,获取新对象不同角度、不同方向的图像信息,再经图像增广方法形成相应的数据集。
这种直接通过语言来获得大量打好语音标签的数据集可以解决传统繁琐而低效率的打标签现状,其次将打好语音标签的数据集导入神经网络进行训练,引导机器人对新对象进行自主学习,将提取到的特征信息存入使用知识图谱方法建立起的知识库中,这种通过知识图谱建立起的数据库可以用于推理,相对传统知识库的存储方式,更有利于机器人的实时学习。
将学习到的特征信息存入使用知识图谱方法建立好的知识库中,相对传统存入数据库的方式,知识图谱方法具有推理能力,能够保障下次识别同一对象时识别的准确率。
Claims (3)
1.一种基于语音辅助的视听协同学习机器人,其特征在于,包括视觉系统、语音系统、综合学习系统和控制系统,所述视觉系统包括激光雷达、360°旋转摄像头和图像预处理模块,所述语音系统包括语音输入模块、语音输出模块和语音处理模块,所述综合学习系统包括搭载有神经网络模型和知识图谱的主控板和GPU云集群,所述控制系统包括主控板、机器人操作系统和控制指令集;
所述视觉系统与主控板连接,激光雷达扫描环境中障碍物信息,然后利用SLAM建立该区域环境下的地图,实现在该区域的避障与自主导航,自主运动到建好地图范围内的任意地点;
所述360°旋转摄像头拍摄需要学习区域的图片,通过图像处理OpenCV检测图片中的对象信息,并将检测对象信息后的图片直接输入到综合学习系统;
所述语音系统与控制系统的主控板连接,所述语音接收模块接收外界的语音输入,语音输入为人们描述的学习区域所需学习的对象信息,利用语音识别将语音信息转化为文字信息,再输入到语言处理模块中使用QA&NLP对其理解处理,并将处理后的语音信息输入到综合学习模块;所述语音输出模块负责机器人的语言输出,实现机器人与人之间的语音交互;
所述综合学习系统接收视觉系统和语音系统的输入,利用语音系统发送的语音信息识别视觉系统输入的图片信息,学习图片信息中的新目标。
2.根据权利要求1所述的基于语音辅助的视听协同学习机器人的新目标学习方法,其特征在于,包括以下步骤:
S1:输入经过OpenCV处理后的图片Pin和经过QA&NLP处理后的语言信息Vin,假定经过映射f,得到图片中的两个点坐标(x1,y1)和(x2,y2)且满足x1≠x2,y1≠y2,由两个点所构成的长方形区域将拍摄的学习区域的图片中需要学习的新对象给框选出来,即生成语音标签PVLab((x1,y1),(x2,y2)),此时有:
PVLab((x1,y1),(x2,y2))=f(Pin,Vin) x1≠x2,y1≠y2;
S2:将打好语音标签的图片保存至机器人的内存中;
S3:机器人以语音标签中需要学习的对象为中心,移动车身并转动360°旋转摄像头,获取新对象若干角度的图像信息,并保存在机器人内存中;
S4:利用内存中打好语音标签的图片对若干角度的图像信息进行图像增广,获得图像的数据集;
S5:将图像的数据集导入神经网络,在神经网络中提取新对象的颜色、大小和形状特征,然后通过softmax函数对图像中标注的新对象特征进行分类;
S6:将新对象的特征信息存入知识图谱中。
3.根据权利要求2所述的基于语音辅助的视听协同学习机器人的新目标学习方法,其特征在于,还包括以下步骤:
S7:设定阈值W,利用余弦相似度量法计算两幅图像特征之间的距离,度量该学习的新对象与知识图谱中同类对象的相似度:
其中,学习对象提取的特征为I1=(x1,x2,x3,...,xn),知识图谱中已存储同类对象的特征记为I2=(y1,y2,y3,...,ym),xi为需要学习的新对象的第i个特征,yi为知识图谱中已存储同类对象的第i个特征;
S8:若W≥cosθ,判定已经学过此新对象,综合学习系统直接反馈给语音系统,通过语音输出模块输出该学习对象的信息;
S9:若W<cosθ,判定未学过此新对象或者未完全学会该新对象,提取新对象的特征信息存入知识图谱中。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201911326275.3A CN111104523A (zh) | 2019-12-20 | 2019-12-20 | 基于语音辅助的视听协同学习机器人及学习方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201911326275.3A CN111104523A (zh) | 2019-12-20 | 2019-12-20 | 基于语音辅助的视听协同学习机器人及学习方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN111104523A true CN111104523A (zh) | 2020-05-05 |
Family
ID=70422483
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201911326275.3A Pending CN111104523A (zh) | 2019-12-20 | 2019-12-20 | 基于语音辅助的视听协同学习机器人及学习方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN111104523A (zh) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112712175A (zh) * | 2020-12-30 | 2021-04-27 | 广州富港万嘉智能科技有限公司 | 机器人学习方法及相关装置 |
| CN116091754A (zh) * | 2021-11-02 | 2023-05-09 | 上海亮衡信息科技有限公司 | 服务机器人图像标注方法、装置、计算机设备及存储介质 |
| CN117086871A (zh) * | 2023-08-30 | 2023-11-21 | 合肥中科深谷科技发展有限公司 | 一种开放式机器人交互控制系统 |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106598052A (zh) * | 2016-12-14 | 2017-04-26 | 南京阿凡达机器人科技有限公司 | 一种基于环境地图的机器人安防巡检方法及其机器人 |
| CN107092926A (zh) * | 2017-03-30 | 2017-08-25 | 哈尔滨工程大学 | 基于深度学习的服务机器人物体识别算法 |
| CN107223246A (zh) * | 2017-03-20 | 2017-09-29 | 深圳前海达闼云端智能科技有限公司 | 图像标注方法、装置及电子设备 |
| CN107871126A (zh) * | 2017-11-22 | 2018-04-03 | 西安翔迅科技有限责任公司 | 基于深层神经网络的车型识别方法和系统 |
| CN108304754A (zh) * | 2017-03-02 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 车型的识别方法和装置 |
| CN109598190A (zh) * | 2018-10-23 | 2019-04-09 | 深圳壹账通智能科技有限公司 | 用于动作识别的方法、装置、计算机设备及存储介质 |
| CN110502019A (zh) * | 2019-09-06 | 2019-11-26 | 北京云迹科技有限公司 | 一种室内机器人的避障方法及装置 |
-
2019
- 2019-12-20 CN CN201911326275.3A patent/CN111104523A/zh active Pending
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106598052A (zh) * | 2016-12-14 | 2017-04-26 | 南京阿凡达机器人科技有限公司 | 一种基于环境地图的机器人安防巡检方法及其机器人 |
| CN108304754A (zh) * | 2017-03-02 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 车型的识别方法和装置 |
| CN107223246A (zh) * | 2017-03-20 | 2017-09-29 | 深圳前海达闼云端智能科技有限公司 | 图像标注方法、装置及电子设备 |
| CN107092926A (zh) * | 2017-03-30 | 2017-08-25 | 哈尔滨工程大学 | 基于深度学习的服务机器人物体识别算法 |
| CN107871126A (zh) * | 2017-11-22 | 2018-04-03 | 西安翔迅科技有限责任公司 | 基于深层神经网络的车型识别方法和系统 |
| CN109598190A (zh) * | 2018-10-23 | 2019-04-09 | 深圳壹账通智能科技有限公司 | 用于动作识别的方法、装置、计算机设备及存储介质 |
| CN110502019A (zh) * | 2019-09-06 | 2019-11-26 | 北京云迹科技有限公司 | 一种室内机器人的避障方法及装置 |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112712175A (zh) * | 2020-12-30 | 2021-04-27 | 广州富港万嘉智能科技有限公司 | 机器人学习方法及相关装置 |
| CN112712175B (zh) * | 2020-12-30 | 2024-02-23 | 广州富港生活智能科技有限公司 | 机器人学习方法及相关装置 |
| CN116091754A (zh) * | 2021-11-02 | 2023-05-09 | 上海亮衡信息科技有限公司 | 服务机器人图像标注方法、装置、计算机设备及存储介质 |
| CN117086871A (zh) * | 2023-08-30 | 2023-11-21 | 合肥中科深谷科技发展有限公司 | 一种开放式机器人交互控制系统 |
| CN117086871B (zh) * | 2023-08-30 | 2024-02-06 | 合肥中科深谷科技发展有限公司 | 一种开放式机器人交互控制系统 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11151406B2 (en) | Method, apparatus, device and readable storage medium for image-based data processing | |
| US12087028B2 (en) | Lifted semantic graph embedding for omnidirectional place recognition | |
| Xu et al. | The object detection, perspective and obstacles in robotic: a review | |
| CN117671688A (zh) | 基于可提示分割模型的分割识别和文本描述方法及系统 | |
| EP3427186A1 (en) | Systems and methods for normalizing an image | |
| CN106650827A (zh) | 基于结构指导深度学习的人体姿态估计方法和系统 | |
| CN115937945B (zh) | 基于视觉Transformer和卷积网络相融合的人脸表情识别方法 | |
| CN111104523A (zh) | 基于语音辅助的视听协同学习机器人及学习方法 | |
| Qian et al. | Wearable-assisted localization and inspection guidance system using egocentric stereo cameras | |
| CN113222961B (zh) | 智能船体检测系统及方法 | |
| Wang et al. | The 3rd workshop on uavs in multimedia: Capturing the world from a new perspective | |
| Feng et al. | Effective venue image retrieval using robust feature extraction and model constrained matching for mobile robot localization | |
| Xu et al. | A natural gesture interface for operating robotic systems | |
| Chen et al. | Cross-situational noun and adjective learning in an interactive scenario | |
| Zhang et al. | EPM-Net: Efficient feature extraction, point-pair feature matching for robust 6-D pose estimation | |
| Villamizar et al. | Fast online learning and detection of natural landmarks for autonomous aerial robots | |
| CN117173777A (zh) | 一种基于肢体方向线索解码网络的学习者正面姿态估计方法 | |
| CN111414844B (zh) | 一种基于卷积循环神经网络的集装箱箱号识别方法 | |
| Chen et al. | Multimodal robotic manipulation learning | |
| Prajapati et al. | Realtime guide for visually impaired | |
| CN119723668B (zh) | 基于概率表征学习的视觉文本多模态动物姿态估计方法 | |
| CN120496031B (zh) | 一种在大规模点云地图中进行视觉识别的跨模态方法 | |
| Chen et al. | ZeroBP: Learning Position-Aware Correspondence for Zero-Shot 6D Pose Estimation in Bin-Picking | |
| Ji | Online Interactive Ideological Education with Multimedia and Face Verifications | |
| Zhao et al. | Place recognition with deep superpixel features for brain-inspired navigation |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| RJ01 | Rejection of invention patent application after publication | ||
| RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200505 |