CN107127773A - 一种机器人抓取物品的方法 - Google Patents
一种机器人抓取物品的方法 Download PDFInfo
- Publication number
- CN107127773A CN107127773A CN201710218154.1A CN201710218154A CN107127773A CN 107127773 A CN107127773 A CN 107127773A CN 201710218154 A CN201710218154 A CN 201710218154A CN 107127773 A CN107127773 A CN 107127773A
- Authority
- CN
- China
- Prior art keywords
- robot
- item
- grab
- target position
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种机器人抓取物品的方法,所述方法包括:获取所述机器人的第一位置和所述物品的第二位置,其中所述第一位置和所述第二位置来自于Kinect红外设备;根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;根据所述第一运动轨迹,获得目标位置,以使所述机器人运动至所述目标位置以抓取所述物品。本发明提供的抓取物品的方法实现了提高物品定位的准确性,从而更为准确地抓取物品、扩大机器人使用的场景和范围的技术效果,解决了现有技术中利用机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的技术问题。
Description
技术领域
本发明涉及智能服务机器人技术领域,尤其涉及一种机器人抓取物品的方法。
背景技术
随着人工智能技术的发展,智能服务机器人被广泛应用于各种家庭服务中,在智能家居的环境下,机器人可以接收人发出的指令,对需要的物品进行抓取和传送。
现有技术中,利用机器人抓取物品方法,一般都是通过机器人本体的摄像机,或者外接摄像头来对物品进行定位,从而实现物品的抓取。
本申请发明人在实现本发明的技术方案时,发现现有技术中至少存在如下问题:
现有通过机器人本体的摄像机来对物品进行定位的方法,对于光线的要求比较高,仅适用于白天或者光线适宜的地方,对于夜晚或者光线较暗时,无法进行定位,例如对于没有生活自理能力的残疾人来说,在夜晚喝水或者取药品极不方便。并且机器人本身自带的摄像机一般是依靠自身视觉进行定位,精度比较低,对物体的定位并不精确,误差比较大。
可见,现有技术中的利用机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的问题,因此,如何提高定位精度实现更加准确地抓取物品,真正实现智能家居,是重要的课题。
发明内容
本发明实施例提供一种机器人抓取物品的方法,用以解决现有技术中利用机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的技术问题。
第一方面,本发明公开了一种机器人抓取物品的方法,所述方法包括:
获取所述机器人的第一位置和所述物品的第二位置,其中所述第一位置和所述第二位置来自于Kinect红外设备;
根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;
根据所述第一运动轨迹,获得目标位置,以使所述机器人运动至所述目标位置以抓取所述物品。
可选地,在所述根据所述第一运动轨迹,获得目标位置之前,还包括:
根据所述第一运动轨迹,获得第三位置,其中,第三位置与目标位置可以为不同的位置;
可选地,在根据所述第一运动轨迹,获得目标位置之前,还包括:
判断所述第一运动轨迹上是否存在障碍物;
如果存在,则获得重新规划得到第二运动轨迹以使所述机器人避开所述障碍物;
如果不存在,则根据所述第一运动轨迹进行运动。
可选地,在根据所述第一运动轨迹,获得目标位置之后,还包括:
判断所述目标位置是否在误差范围内;
如果是,则利用机器人的左手或右手抓取所述物品;
如果否,则获得重新规划的第三运动轨迹以使所述机器人到达所述相应的目标位置。
可选地,在根据所述第一运动轨迹,获得目标位置之后,还包括:
根据所述目标位置和所述第二位置,判断机器人的位置和姿态是否为抓取的最佳状态。
可选地,所述第一位置包括所述机器人的三维坐标,所述第二位置包括所述物品的三维坐标。
可选地,所述第一运动轨迹包括机器人的行走方向和距离。
所述机器人运动至所述目标位置以抓取所述物品时,根据逆运动学原理确定机械手末端的位姿。
基于同样的发明构思,本发明还提供了一种机器人抓取物品的方法,所述方法包括:
Kinect红外设备获取所述机器人的第一位置和所述物品的第二位置;
将所述第一位置和所述第二位置发送至所述机器人,以使所述机器人根据所述第一位置和所述第二位置获得目标位置从而抓取所述物品。
可选地,所述Kinect红外设备获取所述机器人的第一位置和所述物品的第二位置,包括:
获取空间深度图像;
根据所述空间深度图像,获取像素坐标和深度坐标;
根据所述像素坐标和深度坐标,获取所述机器人的第一位置和所述物品的第二位置。
本发明实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
本申请实施例提供的一种机器人抓取物品的方法,机器人通过获取Kinect红外设备的机器人的第一位置和所述物品的第二位置,并根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;然后根据所述第一运动轨迹获得目标位置,所述机器人运动至所述目标位置以抓取所述物品。由于Kinect红外设备获取可以获取准确的位置信息,并将位置信息传递给机器人,可以提高物品定位的准确性,从而更为准确地抓取物品,并且Kinect红外设备对光线没有要求,即使在黑暗的环境中依然可以使用,扩大了机器人使用的场景和范围,使得机器人可以真正做到24小时为人类服务。解决了现有技术中利用机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的技术问题。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中一种机器人抓取物品的方法的流程图;
图2为本发明实施例中另一种机器人抓取物品的方法的流程图。
具体实施方式
本发明实施例提供一种机器人抓取物品的方法,用以解决现有技术中利用机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的技术问题。实现了提高定位精度准确抓取物品,适用各种光线环境的技术效果。
本申请实施例中的技术方案,总体思路如下:
一种机器人抓取物品的方法,所述方法包括:获取所述机器人的第一位置和所述物品的第二位置,其中所述第一位置和所述第二位置来自于Kinect红外设备;根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;根据所述第一运动轨迹,获得目标位置,以使所述机器人运动至所述目标位置以抓取所述物品。
上述方法中,机器人通过获取Kinect红外设备的机器人的第一位置和所述物品的第二位置,并根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;然后根据所述第一运动轨迹获得目标位置,所述机器人运动至所述目标位置以抓取所述物品,由于Kinect红外设备获取可以获取准确的位置信息,并将位置信息传递给机器人,可以提高物品定位的准确性,从而更为准确地抓取物品,并且Kinect红外设备对光线没有要求,即使在黑暗的环境中依然可以使用,扩大了机器人使用的场景和范围,使得机器人可以真正做到24小时为人类服务。解决了现有技术中利用机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的技术问题。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
本实施例提供一种机器人抓取物品的方法,所述方法包括:
步骤S101:获取所述机器人的第一位置和所述物品的第二位置,其中所述第一位置和所述第二位置来自于Kinect红外设备;
步骤S102:根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;
步骤S103:根据所述第一运动轨迹,获得目标位置,以使所述机器人运动至所述目标位置以抓取所述物品。
上述方法中,通过Kinect红外设备获取机器人的第一位置和所述物品的第二位置,并将上述第一位置和第二位置发送给机器人,Kinect红外设备与机器人之间建立数据连接,并且可以进行交互,Kinect红外设备获取可以获取准确的位置信息,可以提高物品定位的准确性,从而更为准确地抓取物品,并且Kinect红外设备对光线没有要求,即使在黑暗的环境中依然可以使用,扩大了机器人使用的场景和范围,使得机器人可以真正做到24小时为人类服务。解决了现有技术中利用机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的技术问题。
需要说明的是,本申请中,所述步骤S101中获取的机器人的第一位置和所述物品的第二位置顺序不分先后,并且可以同时获取,在此不做限制。
下面,结合图1对本申请提供的抓取物品的方法进行详细介绍:
首先,执行步骤S101,获取所述机器人的第一位置和所述物品的第二位置,其中所述第一位置和所述第二位置来自于Kinect红外设备。
在本申请实施例中,机器人可以为NAO机器人或者其他可以机器人,Kinect红外设备可以为Kinect V2设备,机器人与Kinect红外设备建立数据连接,使得机器人可以接收Kinect红外设备发送的位置信息,其中,机器人的第一位置和所述物品的第二位置,可以包括机器人和物品的三维坐标或其他可以对机器人和物品进行定位的数据,在此不做具体限定。
接下来,执行步骤步骤S102:根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹。
具体地,所述第一运动轨迹包括机器人的行走方向和距离。
在本申请实施例中,机器人根据第一位置和第二位置,可以进行路线规划,获得到物品的第一运动轨迹。
最后,执行步骤S103:根据所述第一运动轨迹,获得目标位置,以使所述机器人运动至所述目标位置以抓取所述物品。
可选地,本发明实施例提供的抓取物品的方法中,在所述根据所述第一运动轨迹,获得目标位置之前,还包括:
根据所述第一运动轨迹,获得第三位置,其中,第三位置与目标位置可以为不同的位置。
可选地,本发明实施例提供的抓取物品的方法中,在所述根据所述第一运动轨迹,获得目标位置之前,还包括:
判断所述第一运动轨迹上是否存在障碍物;
如果存在,则进行重新规划得到第二运动轨迹以使所述机器人避开所述障碍物;
如果不存在,则根据所述第一运动轨迹进行运动。
具体来说,判断所述第一运动轨迹上是否存在障碍物,即判断在第一运动轨迹上是否存在其他的物体、柱子等障碍物,如果存在障碍物,则对机器人的路线进行重新规划,选择不会发生碰撞的路线,从而到达相应的目标位置抓取物品。
在具体的实现过程中,根据第一运动轨迹,机器人结合自身的位置姿态和物体的位置信息,先走到离物体具有一定距离的位置处,即第三位置,该第三位置可以为与目标位置不同,在运动到第三位置过程中,需要避免与物体发生碰撞,因此需要判断所述第一运动轨迹上是否存在障碍物。
可选地,本发明实施例提供的抓取物品的方法中,在根据所述第一运动轨迹,获得目标位置之后,还包括:
判断所述目标位置是否在误差范围内;
如果是,则利用机器人的左手或右手抓取所述物品;
如果否,则重新规划得到第三运动轨迹以使所述机器人到达所述相应的目标位置。
由于机器人的位置发生了改变,此时,需要通过Kinect红外设备重新获取机器人的位置,并发送给机器人,机器人通过获得自身此时的位置和物品的位置,判断此时的位置是否在误差所允许的范围内,如果是,则进行抓取物品,如果超出范围时,机器人根据自身位置进行调整,当机器人到达目标位置时,会判断是自身是离左手比较近还是右手比较近,若离左手近,则用左手抓取物品,离右手近,则用右手抓取物品。机器人抓取到物品之后,将物品放置到固定位置并放下。
可选地,本发明实施例提供的抓取物品的方法中,在根据所述第一运动轨迹,获得目标位置之后,还包括:
根据所述目标位置和所述第二位置,判断机器人的位置和姿态是否为抓取的最佳状态。
可选地,所述第一位置包括所述机器人的三维坐标,所述第二位置包括所述物品的三维坐标。
可选地,所述机器人运动至所述目标位置以抓取所述物品时,根据逆运动学原理确定机械手末端的位姿。
实施例二
基于与实施例一同样的发明构思,本发明实施例二从Kinect红外设备的视角,还提供了一种机器人抓取物品的方法,所述方法包括:
步骤S201:Kinect红外设备获取所述机器人的第一位置和所述物品的第二位置;
步骤S202:将所述第一位置和所述第二位置发送至所述机器人,以使所述机器人根据所述第一位置和所述第二位置获得目标位置从而抓取所述物品。
具体地,本发明实施例提供的抓取物品的方法中,所述Kinect红外设备获取所述机器人的第一位置和所述物品的第二位置,包括:
获取空间深度图像;
根据所述空间深度图像,获取像素坐标和深度坐标;
根据所述像素坐标和深度坐标,获取所述机器人的第一位置和所述物品的第二位置。
具体来说,本申请实施例采用的Kinect红外设备可以为Kinect V2设备,在具体的实现过程中,上述设备放置在水平位置上,并KinectV2搭载了「Time of Flight(ToF)」方式的Depth传感器,投射出红外线脉冲,可以获取空间的深度图像,然后从空间深度图像中获取像素坐标和深度坐标,获取所述机器人的第一位置和所述物品的第二位置,在具体的实施过程中,可以对Kinect设备进行标定获取相机的内部参数和外部参数,由位运算得到像素点深度值,进而结合相机参数和像素点深度值,由相机的成像模型得出像素点的三维坐标。具体来说,可以通过将Depth传感器获得的深度信息用图像的形式表现出来,对于不同的深度值分别用RGB表示,采用过渡颜色来表示不同的深度。
由于实施二与实施例一的发明构思相同,对于实施一的各种变形均适用于实施例二。
本申请中,机器人和Kinect成功实现了简单的交互,Kinect将测得的机器人以及物体的数据成功的传递给了机器人,机器人根据传输的数据进行运动。
本发明实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
本申请实施例提供的一种机器人抓取物品的方法,机器人通过获取Kinect红外设备的机器人的第一位置和所述物品的第二位置,并根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;然后根据所述第一运动轨迹获得目标位置,所述机器人运动至所述目标位置以抓取所述物品。由于Kinect红外设备获取可以获取准确的位置信息,并将位置信息传递给机器人,可以提高物品定位的准确性,从而更为准确地抓取物品,并且Kinect红外设备对光线没有要求,即使在黑暗的环境中依然可以使用,扩大了机器人使用的场景和范围,使得机器人可以真正做到24小时为人类服务。解决了现有技术中利用机器人自身视觉进行定位的方法存在定位精度较低、不适用于光线较暗的环境的技术问题。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种机器人抓取物品的方法,其特征在于,所述方法包括:
获取所述机器人的第一位置和所述物品的第二位置,其中所述第一位置和所述第二位置来自于Kinect红外设备;
根据所述第一位置和所述第二位置,获得所述机器人到所述物品的第一运动轨迹;
根据所述第一运动轨迹,获得目标位置,以使所述机器人运动至所述目标位置以抓取所述物品。
2.如权利要求1所述的方法,其特征在于,在所述根据所述第一运动轨迹,获得目标位置之前,还包括:
根据所述第一运动轨迹,获得第三位置,其中,第三位置可以为与目标位置为不同的位置。
3.如权利要求1所述的方法,其特征在于,在根据所述第一运动轨迹,获得目标位置之前,还包括:
判断所述第一运动轨迹上是否存在障碍物;
如果存在,则获得重新规划得到第二运动轨迹以使所述机器人避开所述障碍物;
如果不存在,则根据所述第一运动轨迹进行运动。
4.如权利要求1所述的方法,其特征在于,在根据所述第一运动轨迹,获得目标位置之后,还包括:
判断所述目标位置是否在误差范围内;
如果是,则利用机器人的左手或右手抓取所述物品;
如果否,则获得重新规划的第三运动轨迹以使所述机器人到达所述相应的目标位置。
5.如权利要求1所述的方法,其特征在于,在根据所述第一运动轨迹,获得目标位置之后,还包括:
根据所述目标位置和所述第二位置,判断机器人的位置和姿态是否为抓取的最佳状态。
6.如权利要求1所述的方法,其特征在于,所述第一位置包括所述机器人的三维坐标,所述第二位置包括所述物品的三维坐标。
7.如权利要求1所述的方法,其特征在于,所述第一运动轨迹包括机器人的行走方向和距离。
8.如权利要求1所述的方法,其特征在于,所述机器人运动至所述目标位置以抓取所述物品时,根据逆运动学原理确定机械手末端的位姿。
9.一种机器人抓取物品的方法,其特征在于,所述方法包括:
Kinect红外设备获取所述机器人的第一位置和所述物品的第二位置;
将所述第一位置和所述第二位置发送至所述机器人,以使所述机器人根据所述第一位置和所述第二位置获得目标位置从而抓取所述物品。
10.如权利要求9所述的方法,其特征在于,所述Kinect红外设备获取所述机器人的第一位置和所述物品的第二位置,包括:
获取空间深度图像;
根据所述空间深度图像,获取像素坐标和深度坐标;
根据所述像素坐标和深度坐标,获取所述机器人的第一位置和所述物品的第二位置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201710218154.1A CN107127773A (zh) | 2017-04-05 | 2017-04-05 | 一种机器人抓取物品的方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201710218154.1A CN107127773A (zh) | 2017-04-05 | 2017-04-05 | 一种机器人抓取物品的方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN107127773A true CN107127773A (zh) | 2017-09-05 |
Family
ID=59715586
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201710218154.1A Pending CN107127773A (zh) | 2017-04-05 | 2017-04-05 | 一种机器人抓取物品的方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN107127773A (zh) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108115688A (zh) * | 2017-12-29 | 2018-06-05 | 深圳市越疆科技有限公司 | 一种机械臂的抓取控制方法、系统及机械臂 |
| CN112025714A (zh) * | 2020-09-17 | 2020-12-04 | 珠海格力智能装备有限公司 | 工件抓取方法及装置、机器人设备 |
| CN112171664A (zh) * | 2020-09-10 | 2021-01-05 | 敬科(深圳)机器人科技有限公司 | 基于视觉识别的生产线机器人轨迹补偿方法、装置和系统 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010096850A1 (de) * | 2009-02-26 | 2010-09-02 | Ih Tech Sondermaschinenbau U. Instandhaltung Gmbh | Verfahren und vorrichtung zum robotergesteuerten greifen und bewegen von objekten |
| US20120059517A1 (en) * | 2010-09-07 | 2012-03-08 | Canon Kabushiki Kaisha | Object gripping system, object gripping method, storage medium and robot system |
| CN105652873A (zh) * | 2016-03-04 | 2016-06-08 | 中山大学 | 一种基于Kinect的移动机器人避障方法 |
| CN106272427A (zh) * | 2016-09-12 | 2017-01-04 | 安徽理工大学 | 一种工业机器人智能拾取系统 |
-
2017
- 2017-04-05 CN CN201710218154.1A patent/CN107127773A/zh active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010096850A1 (de) * | 2009-02-26 | 2010-09-02 | Ih Tech Sondermaschinenbau U. Instandhaltung Gmbh | Verfahren und vorrichtung zum robotergesteuerten greifen und bewegen von objekten |
| US20120059517A1 (en) * | 2010-09-07 | 2012-03-08 | Canon Kabushiki Kaisha | Object gripping system, object gripping method, storage medium and robot system |
| CN105652873A (zh) * | 2016-03-04 | 2016-06-08 | 中山大学 | 一种基于Kinect的移动机器人避障方法 |
| CN106272427A (zh) * | 2016-09-12 | 2017-01-04 | 安徽理工大学 | 一种工业机器人智能拾取系统 |
Non-Patent Citations (1)
| Title |
|---|
| 韩峥 等: "基于Kinect的机械臂目标抓取", 《智能系统学报》 * |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108115688A (zh) * | 2017-12-29 | 2018-06-05 | 深圳市越疆科技有限公司 | 一种机械臂的抓取控制方法、系统及机械臂 |
| CN112171664A (zh) * | 2020-09-10 | 2021-01-05 | 敬科(深圳)机器人科技有限公司 | 基于视觉识别的生产线机器人轨迹补偿方法、装置和系统 |
| CN112171664B (zh) * | 2020-09-10 | 2021-10-08 | 敬科(深圳)机器人科技有限公司 | 基于视觉识别的生产线机器人轨迹补偿方法、装置和系统 |
| CN112025714A (zh) * | 2020-09-17 | 2020-12-04 | 珠海格力智能装备有限公司 | 工件抓取方法及装置、机器人设备 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN114347033B (zh) | 机器人物品抓取方法、装置、机器人及存储介质 | |
| CN108283021B (zh) | 机器人和用于机器人定位的方法 | |
| EP3494513B1 (en) | Selectively downloading targeted object recognition modules | |
| Xiao et al. | Indoor uav localization using a tether | |
| JP2022542241A (ja) | ロボット装置からの視覚的出力を補強するシステム及び方法 | |
| TW202115366A (zh) | 機率性多機器人slam的系統及方法 | |
| CN111413970A (zh) | 超宽带与视觉融合的室内机器人定位与自主导航方法 | |
| US10607079B2 (en) | Systems and methods for generating three dimensional skeleton representations | |
| WO2017088720A1 (zh) | 规划最优跟随路径的方法、装置及计算机存储介质 | |
| WO2017167239A1 (zh) | 移动控制方法、移动电子设备及移动控制系统、存储介质 | |
| CN108803591A (zh) | 一种地图生成方法及机器人 | |
| Bäuml et al. | Agile Justin: An upgraded member of DLR's family of lightweight and torque controlled humanoids | |
| US12524016B2 (en) | Systems and methods for preserving data and human confidentiality during feature identification by robotic devices | |
| JP2022502791A (ja) | ロボットの姿勢を推定するシステムおよび方法、ロボット、並びに記憶媒体 | |
| US12216467B2 (en) | Self-location estimation device, autonomous mobile body, and self-location estimation method | |
| Valenti et al. | An autonomous flyer photographer | |
| CN107127773A (zh) | 一种机器人抓取物品的方法 | |
| JP2024539640A (ja) | ロボットの姿勢測定方法、及びロボットの姿勢測定方法を用いたロボットシステム | |
| CN115836262B (zh) | 基于图像的轨迹规划方法和运动控制方法以及使用该些方法的移动机器 | |
| Jin et al. | A wearable robotic device for assistive navigation and object manipulation | |
| CN106956276A (zh) | 一种机器人、Kinect红外设备及抓取物品的系统 | |
| CN210277081U (zh) | 一种扫地机器人 | |
| Saleem | An economic simultaneous localization and mapping system for remote mobile robot using SONAR and an innovative AI algorithm | |
| US10922154B1 (en) | Systems and methods for inter-process communication within a robot | |
| Wang et al. | Research on obstacle avoidance of mobile robot based on multi-sensor fusion |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| RJ01 | Rejection of invention patent application after publication | ||
| RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170905 |