CN109760006B - 一种基于视觉参考件的核机器人快速定位方法 - Google Patents
一种基于视觉参考件的核机器人快速定位方法 Download PDFInfo
- Publication number
- CN109760006B CN109760006B CN201910043308.7A CN201910043308A CN109760006B CN 109760006 B CN109760006 B CN 109760006B CN 201910043308 A CN201910043308 A CN 201910043308A CN 109760006 B CN109760006 B CN 109760006B
- Authority
- CN
- China
- Prior art keywords
- nuclear
- center
- robot
- visual reference
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
本发明公开了一种基于视觉参考件的核机器人,包括整体运动机构、X‑Y微调机构、升降机构、控制柜、核探测器、视觉伺服部分和四个麦克纳母轮;一种基于视觉参考件的核机器人快速定位方法,包括如下步骤:步骤S1:将核机器人携带的耐辐射相机和堆外监控相机的视频信息作为引导,使核机器人到达探测井位置;步骤S2:通过视觉引导调整核机器人的位姿;步骤S3:通过核机器人携带的耐辐射相机和核机器人的四个麦克纳母轮对核机器人进行视觉伺服粗定位;步骤S4:利用平台上的X‑Y微调机构和核机器人携带的耐辐射相机对核机器人进行视觉伺服精确定位,解决了在强辐照、狭窄的堆腔内辅助安装堆外核时,无法对探测井进行精确定位的问题。
Description
技术领域
本发明涉及核机器人领域,特别是一种基于视觉参考件的核机器人及快速定位方法。
背景技术
堆外核测仪表系统是安全级设备,通过测量从反应堆堆芯泄漏的中子注量率,连续监测反应堆功率、功率水平变化和功率分布,是反应堆保护系统和电厂五大控制系统的重要输入参数。而堆外核测探测器是堆外核测仪表系统的眼睛,布置在反应堆压力容器外围,直接探测堆芯泄漏的中子注量率水平。
目前对外探测器采用从堆腔底部向上安装的方式,这种安装方式受限于堆腔底部狭小的安装空间,堆外核测探测器必须使用专用工具分节安装,因此操作步骤繁琐复杂,需要相当长的安装时间,由于停堆24小时后堆腔底部辐照剂量非常高,维修人员需直接进入堆腔底部的高辐射、狭窄空间进行拆卸和安装等操作,即使维修人员穿戴全套辐射防护服,也会受到很大剂量的照射。
发明内容
为解决现有技术中存在的问题,本发明提供了一种基于视觉参考件的核机器人及快速定位方法,解决了在强辐照、狭窄的堆腔内辅助安装堆外核时,无法对探测井进行精确定位的问题。
一种基于视觉参考件的核机器人,包括整体运动机构、X-Y微调机构、升降机构、控制柜、核探测器、视觉伺服部分和四个麦克纳母轮;X-Y微调机构设置于整体运动机构的顶面上,核探测器贯穿设置于X-Y微调机构上,升降机构设置于探测器的外表面,视觉伺服部分活动设置于升降机构的侧表面,四个麦克纳母轮设置于整体运动机构底面的四个角上,控制柜设置于升降机构的外表面。
优选地,视觉伺服部分6包括耐辐射相机6-1和视觉参考件6-2,耐辐射相机6-1设置于视觉参考件6-2的顶面上。
优选地,一种基于视觉参考件的核机器人快速定位方法,包括如下步骤:
步骤S1:将核机器人携带的耐辐射相机和堆外监控相机的视频信息作为引导,使核机器人到达探测井位置;
步骤S2:通过视觉引导调整核机器人的位姿;
步骤S3:通过核机器人携带的耐辐射相机和核机器人的四个麦克纳母轮对核机器人进行视觉伺服粗定位;
步骤S4:利用平台上的X-Y微调机构和核机器人携带的耐辐射相机对核机器人进行视觉伺服精确定位。
优选地,步骤S3包括如下分步骤:
步骤S3A:利用Hough圆检测对探测井内环检测;
步骤S3B:映射探测井内环中心与视觉参考件的中心在X方向的像素差到实际距离差;
步骤S3C:控制四个麦克纳母轮在X方向移动;
步骤S3D:在四个麦克纳母轮移动的过程中,判断探测井内环中心与视觉参考件的中心在X方向的实际距离差是否小于3cm;若是,则进入步骤S3E;若否,则返回步骤S3A;
步骤S3E:利用Hough圆检测对探测井内环检测;
步骤S3F:映射探测井内环中心与视觉参考件的中心在Y方向的像素差到实际距离差;
步骤S3G:控制四个麦克纳母轮在Y方向移动;
步骤S3H:在四个麦克纳母轮移动的过程中,判断探测井内环中心与视觉参考件的中心在Y方向的实际距离差是否小于3cm;若是,则进入步骤S4;若否,则返回步骤S3E。
优选地,步骤S4包括如下分步骤:
步骤S4A:利用Hough圆检测对探测井内环检测;
步骤S4B:映射探测井内环中心与视觉参考件中心在X方向的像素差到实际距离差;
步骤S4C:控制X-Y微调机构在X方向移动;
步骤S4D:在X-Y微调机构移动的过程中,判断探测井内环中心与视觉参考件的中心在X方向的实际距离差是否小于0.5cm;若是,则进入步骤S4E;若否则返回步骤S4A;
步骤S4E:利用Hough圆检测对探测井内环检测;
步骤S4F:映射探测井内环中心与视觉参考件中心在Y方向的像素差到实际距离差;
步骤S4G:控制X-Y微调机构在Y方向移动;
步骤S4H:在X-Y微调机构移动的过程中,判断探测井内环中心与视觉参考件中心在Y方向的实际距离差是否小于0.5cm;若是,则结束程序;若否则返回步骤S4E。
优选地,Hough圆检测包括如下步骤:
步骤SA:采集图像;
步骤SB:对图像进行灰度化处理,得到图像的灰度值;
步骤SC:利用Solbel算子对图像的灰度值进行边缘提取,得到边缘提取后的图像值;
步骤SD:对边缘提取后的图像值进行二值化处理和过滤噪声处理,得到边缘点值;
步骤SF:量化参数空间,建立三个轴的空间a轴,b轴,r轴,计算与边缘点值的距离为r的所有点,建立列矩阵[a,b]T;
步骤SH:对不同距离r的矩阵[a,b]T进行列向量累加;
步骤SI:将累加后的最大值作为对应图像空间中的圆心。
优选地,Solbel算子的边缘提取公式为:
fx(i,j)=Gx*g(i,j)
fy(i,j)=Gy*g(i,j)
式中,Gx表示水平边缘处理,Gy表示垂直边缘处理,fx(i,j)表示水平边缘处理后的值,fy(i,j)表示垂直边缘处理后的值,g(i,j)表示图像的灰度值。
本发明一种基于视觉参考件的核机器人及快速定位方法的有益效果如下:
1.本发明引入视觉参考件,无需标定即可快速获取目标物体与核机器人的位置信息。
2.本发明采用了视觉伺服粗定位与视觉伺服精定位完成对探测井的快速定位,视觉伺服粗定位与视觉伺服精定位具有定位精度高,抗噪能力强、定位速度快的特点。
附图说明
图1为本发明一种基于视觉参考件的核机器人及快速定位方法的结构图。
图2为本发明一种基于视觉参考件的核机器人及快速定位方法的流程图。
图3为本发明一种基于视觉参考件的核机器人及快速定位方法的系统反馈图。
图4为本发明一种基于视觉参考件的核机器人及快速定位方法的细调整X方向的图。
图5为本发明一种基于视觉参考件的核机器人及快速定位方法的细调整Y方向的图。
附图标记:1-整体运动机构、2-X-Y微调机构、3-升降机构、4-控制柜、5-核探测器、6-视觉伺服部分、7-四个麦克纳母轮、6-1-耐辐射相机、6-2-视觉参考件。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,一种基于视觉参考件的核机器人,包括整体运动机构1、X-Y微调机构2、升降机构3、控制柜4、核探测器5、视觉伺服部分6和四个麦克纳母轮7;X-Y微调机构2设置于整体运动机构1的顶面上,核探测器5贯穿设置于X-Y微调机构2上,升降机构3设置于探测器5的外表面,视觉伺服部分6活动设置于升降机构3的侧表面,四个麦克纳母轮7设置于整体运动机构1底面的四个角上,控制柜4设置于升降机构3的外表面。
本实施方案的视觉伺服部分6包括耐辐射相机6-1和视觉参考件6-2,耐辐射相机6-1设置于视觉参考件6-2的顶面上。
如图2所示,一种基于视觉参考件的核机器人快速定位方法,包括如下步骤:
步骤S1:将核机器人携带的耐辐射相机和堆外监控相机的视频信息作为引导,使核机器人到达探测井位置;
步骤S2:通过视觉引导调整核机器人的位姿;
步骤S3:通过核机器人携带的耐辐射相机和核机器人的四个麦克纳母轮对核机器人进行视觉伺服粗定位;
步骤S4:利用平台上的X-Y微调机构和核机器人携带的耐辐射相机对核机器人进行视觉伺服精确定位。
本实施方案在实施时,如图3所示,通过操作人员遥控,利用机器人携带的耐辐射相机和堆外监控相机的视频信息作为引导,使机器人到达探测井所在位置附近,开启机器人自动定位,由机器人携带的耐辐射相机和机器人全向轮移动机构组成的视觉伺服粗定位系统完成对探测井的粗定位,开启机器人视觉伺服细定位,由机器人携带的耐辐射相机和回转机构组成的视觉伺服细定位系统完成对探测井的细定位。
本实施方案的步骤S3包括如下分步骤:
步骤S3A:利用Hough圆检测对探测井内环检测;
步骤S3B:映射探测井内环中心与视觉参考件的中心在X方向的像素差到实际距离差;
步骤S3C:控制四个麦克纳母轮在X方向移动;
步骤S3D:在四个麦克纳母轮移动的过程中,判断探测井内环中心与视觉参考件的中心在X方向的实际距离差是否小于3cm;若是,则进入步骤S3E;若否则返回步骤S3A;
步骤S3E:利用Hough圆检测对探测井内环检测;
步骤S3F:映射探测井内环中心与视觉参考件的中心在Y方向的像素差到实际距离差;
步骤S3G:控制四个麦克纳母轮在Y方向移动;
步骤S3H:在四个麦克纳母轮移动的过程中,判断探测井内环中心与视觉参考件的中心在Y方向的实际距离差是否小于3cm;若是,则进入步骤S4;若否则返回步骤S3E。
本实施方案在实施时,耐辐射相机采集探测井图像,考虑到探测井为圆柱体以及视觉参考件也为圆形物,采用Hough圆检测对其进行检测。
Hough圆检测流程:首先对图像进行灰度处理。采用Sobel边缘提取算子进行图像边缘提取,设图像f中点的灰度值为g(i,j),则Sobel算子表示如下:
Gx=[g(i+1,j-1)+2g(i+1,j)+g(i+1,j+1)]-[g(i-1,j-1)+2g(i-1,j)+g(i-1,j+1)]
Gy=[g(i-1,j+1)+2g(i,j+1)+g(i+1,j+1)]-[g(i-1,j-1)+2g(i,j-1)+g(i+1,j-1)]
写成算子矩阵的形式为:
图像中的每个点,都与这两个算子做卷积,算子Gx对水平边缘响应最大,Gy对垂直边缘响应最大。两个算子与图像卷积值中的较大值作为该点的边缘图的像素灰度值。并可得(i,j)点处的切线方向信息。为了去掉噪声干扰,在边缘检测后进行二值化处理。根据以下参数空间的表示,对参数空间适当量化,得到一个三维的累加列阵用来记录(a,b,r),(xi-a)2+(yi-b)2=r2其中r表示圆半径,(a,b)表示圆中心。当检测图像空间中的圆时,计算与边缘点上的每一个像素距离r的所有(a,b),同时在对应的列阵中累加,当对全部边缘点变换完成后,对三维列阵中的所有累加值进行检验,其中的峰值就是对应图像空间中的圆心,在检测到图像中的探测井与视觉参考件后,将定位问题转换为内环圆心与参考特征之间的位置逼近问题。以参考特征中心建立直角坐标系,计算探测井圆心与参考特征中心之间的像素差和方向角度,并将像素差映射到实际相差距离,计算机根据接收到的实际相差距离,经过综合处理位置数据后生成运动控制指令,并将运动控制指令传送给机器人控制箱,机器人控制箱根据运动控制指令,通过驱动伺服电机转动,驱动机器人全向轮带动机器人单元运动,使视觉参考件靠近探测井。判断当前探测井与视觉参考件的距离差是否在阈值范围内,若是,则进行细定位,若不是则重新开始粗定位,当探测井与探测器之间的距离小于设定阈值时,开启精细定位系统。由机器人携带的耐辐射相机和机器人回转机构组成的视觉伺服细定位系统开始工作
本实施方案的步骤S4包括如下分步骤:
步骤S4A:利用Hough圆检测对探测井内环检测;
步骤S4B:映射探测井内环中心与视觉参考件中心在X方向的像素差到实际距离差;
步骤S4C:控制X-Y微调机构在X方向移动;
步骤S4D:在X-Y微调机构移动的过程中,判断探测井内环中心与视觉参考件的中心在X方向的实际距离差是否小于0.5cm;若是,则进入步骤S4E;若否则返回步骤S4A;
步骤S4E:利用Hough圆检测对探测井内环检测;
步骤S4F:映射探测井内环中心与视觉参考件中心在Y方向的像素差到实际距离差;
步骤S4G:控制X-Y微调机构在Y方向移动;
步骤S4H:在X-Y微调机构移动的过程中,判断探测井内环中心与视觉参考件中心在Y方向的实际距离差是否小于0.5cm;若是,则结束程序;若否则返回步骤S4E。
本实施方案的Hough圆检测包括如下步骤:
步骤SA:采集图像;
步骤SB:对图像进行灰度化处理,得到图像的灰度值;
步骤SC:利用Solbel算子对图像的灰度值进行边缘提取,得到边缘提取后的图像值;
步骤SD:对边缘提取后的图像值进行二值化处理和过滤噪声处理,得到边缘点值;
步骤SF:量化参数空间,建立三个轴的空间a轴,b轴,r轴,计算与边缘点值的距离为r的所有点,建立列矩阵[a,b]T;
步骤SH:对不同距离r的矩阵[a,b]T进行列向量累加;
步骤SI:将累加后的最大值作为对应图像空间中的圆心。
本实施方案的Solbel算子的边缘提取公式为:
fx(i,j)=Gx*g(i,j)
fy(i,j)=Gy*g(i,j)
式中,Gx表示水平边缘处理,Gy表示垂直边缘处理,fx(i,j)表示水平边缘处理后的值,fy(i,j)表示垂直边缘处理后的值,g(i,j)表示图像的灰度值。
本实施方案在实施时,通过Hough圆检测得到探测井与视觉参考件的距离关系,通过伺服的方式,控制机器人回转机构机构使探测井的定位精度达到设定阈值,不同于粗定位,视觉细定位将伺服过程分解为两部分,第一部分在X方向使得探测井与视觉参考件的距离小于设定阈值,如图4,第二部分在Y方向使得探测井与视觉参考件的距离小于设定阈值,如图5。具体如下:
首先对图像进行灰度处理,采用Sobel边缘提取算子进行图像边缘提取,在边缘检测后进行二值化处理。
根据以下参数空间的表示,对参数空间适当量化,得到一个三维的累加列阵用来记录(a,b,r)
(xi-a)2+(yi-b)2=r2
其中r表示圆半径,(a,b)表示圆中心。当检测图像空间中的圆时,计算与边缘点上的每一个像素距离r的所有(a,b),同时在对应的列阵中累加,当对全部边缘点变换完成后,对三维列阵中的所有累加值进行检验,其中的峰值就是对应图像空间中的圆心。
在检测到图像中的探测井与视觉参考件后,将定位问题转换为内环圆心与参考特征之间的位置逼近问题。以参考特征中心建立直角坐标系,如图4所示,首先在X方向,通过以下公式将探测井圆心与参考特征中心之间的X方向像素差映射到实际相差距离
其中,△X表示探测井中心与视觉参考件中心在X方向的实际距离差,△pixel表示探测井中心与视觉参考件中心在X方向的像素差,d探测井表示探测井的实际直径,P探测井表示探测井直径的像素大小。
计算机根据接收到的实际X方向相差距离与给定的X方向相差距离阈值相减,经过综合处理位置数据后生成运动控制指令,并将运动控制指令传送给机器人控制箱。机器人控制箱根据运动控制指令,通过驱动伺服电机转动,驱动X-Y微调机构控制机器人在X方向的运动,使视觉参考件靠近探测井。判断当前探测井与视觉参考件的中心在X方向的距离差是否在阈值范围内,若是,则开启Y方向的视觉伺服,若不是则继续调节位置。
如图5所示,Y方向的视觉伺服与X方向类似,首先通过以下公式将探测井圆心与参考特征中心之间的Y方向像素差映射到实际相差距离
其中△Y表示探测井中心与视觉参考件中心在Y方向的实际距离差,△pixel表示探测井中心与视觉参考件中心在Y方向的像素差,d探测井表示探测井的实际直径,P探测井表示探测井直径的像素大小。
计算机根据接收到的实际X方向相差距离与给定的Y方向相差距离阈值相减,经过综合处理位置数据后生成运动控制指令,并将运动控制指令传送给机器人控制箱。机器人控制箱根据运动控制指令,通过驱动伺服电机转动,驱动X-Y微调机构控制机器人在Y方向的运动,使视觉参考件靠近探测井。判断当前探测井与视觉参考件的中心在Y方向的距离差是否在阈值范围内,若是,则结束视觉伺服定位过程,若不是则继续调节位置。
Claims (4)
1.一种基于视觉参考件的核机器人快速定位方法,其特征在于,
核机器人包括整体运动机构(1)、X-Y微调机构(2)、升降机构(3)、控制柜(4)、核探测器(5)、视觉伺服部分(6)和四个麦克纳母轮(7);所述X-Y微调机构(2)设置于整体运动机构(1)的顶面上,所述核探测器(5)贯穿设置于X-Y微调机构(2)上,所述升降机构(3)设置于核探测器(5)的外表面,所述视觉伺服部分(6)活动设置于升降机构(3)的侧表面,所述四个麦克纳母轮(7)设置于整体运动机构(1)底面的四个角上,所述控制柜(4)设置于升降机构(3)的外表面;
所述视觉伺服部分(6)包括耐辐射相机(6-1)和视觉参考件(6-2),所述耐辐射相机(6-1)设置于视觉参考件(6-2)的顶面上;
所述方法包括如下步骤:
步骤S1:将核机器人携带的耐辐射相机和堆外监控相机的视频信息作为引导,使核机器人到达探测井位置;
步骤S2:通过视觉引导调整核机器人的位姿;
步骤S3:通过核机器人携带的耐辐射相机和核机器人的四个麦克纳母轮对核机器人进行视觉伺服粗定位;
步骤S4:利用平台上的X-Y微调机构和核机器人携带的耐辐射相机对核机器人进行视觉伺服精确定位;
所述步骤S3包括如下分步骤:
步骤S3A:利用Hough圆检测对探测井内环检测;
步骤S3B:映射探测井内环中心与视觉参考件的中心在X方向的像素差到实际距离差;
步骤S3C:控制四个麦克纳母轮在X方向移动;
步骤S3D:在四个麦克纳母轮移动的过程中,判断探测井内环中心与视觉参考件的中心在X方向的实际距离差是否小于3cm;若是,则进入步骤S3E;若否则返回步骤S3A;
步骤S3E:利用Hough圆检测对探测井内环检测;
步骤S3F:映射探测井内环中心与视觉参考件的中心在Y方向的像素差到实际距离差;
步骤S3G:控制四个麦克纳母轮在Y方向移动;
步骤S3H:在四个麦克纳母轮移动的过程中,判断探测井内环中心与视觉参考件的中心在Y方向的实际距离差是否小于3cm;若是,则进入步骤S4;若否,则返回步骤S3E。
2.根据权利要求1所述的基于视觉参考件的核机器人快速定位方法,其特征在于,所述步骤S4包括如下分步骤:
步骤S4A:利用Hough圆检测对探测井内环检测;
步骤S4B:映射探测井内环中心与视觉参考件中心在X方向的像素差到实际距离差;
步骤S4C:控制X-Y微调机构在X方向移动;
步骤S4D:在X-Y微调机构移动的过程中,判断探测井内环中心与视觉参考件的中心在X方向的实际距离差是否小于0.5cm;若是,则进入步骤S4E;若否则返回步骤S4A;
步骤S4E:利用Hough圆检测对探测井内环检测;
步骤S4F:映射探测井内环中心与视觉参考件中心在Y方向的像素差到实际距离差;
步骤S4G:控制X-Y微调机构在Y方向移动;
步骤S4H:在X-Y微调机构移动的过程中,判断探测井内环中心与视觉参考件中心在Y方向的实际距离差是否小于0.5cm;若是,则结束程序;若否,则返回步骤S4E。
3.根据权利要求1或2所述的基于视觉参考件的核机器人快速定位方法,其特征在于,所述Hough圆检测包括如下步骤:
步骤SA:采集图像;
步骤SB:对图像进行灰度化处理,得到图像的灰度值;
步骤SC:利用Solbel算子对图像的灰度值进行边缘提取,得到边缘提取后的图像值;
步骤SD:对边缘提取后的图像值进行二值化处理和过滤噪声处理,得到边缘点值;
步骤SF:量化参数空间,建立三个轴的空间a轴,b轴,r轴,计算与边缘点值的距离为r的所有点,建立列矩阵[a,b]T,其中矩阵[a,b]T中的a表示a轴的坐标,b表示b轴的坐标;
步骤SH:对不同距离r的矩阵[a,b]T进行列向量累加;
步骤SI:将累加后的最大值作为对应图像空间中的圆心。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201910043308.7A CN109760006B (zh) | 2019-01-17 | 2019-01-17 | 一种基于视觉参考件的核机器人快速定位方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201910043308.7A CN109760006B (zh) | 2019-01-17 | 2019-01-17 | 一种基于视觉参考件的核机器人快速定位方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN109760006A CN109760006A (zh) | 2019-05-17 |
| CN109760006B true CN109760006B (zh) | 2020-09-29 |
Family
ID=66452845
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201910043308.7A Active CN109760006B (zh) | 2019-01-17 | 2019-01-17 | 一种基于视觉参考件的核机器人快速定位方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN109760006B (zh) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112157644B (zh) * | 2020-10-10 | 2022-03-01 | 西南科技大学 | 一种堆外核探测器辅助安装机器人系统 |
| CN112192198B (zh) * | 2020-10-10 | 2022-12-20 | 西南科技大学 | 一种堆外探测器辅助安装方法 |
| CN113770704A (zh) * | 2021-09-26 | 2021-12-10 | 中国船舶重工集团公司第七一九研究所 | 一种探测器快速安装机器人 |
| CN116372941B (zh) * | 2023-06-05 | 2023-08-15 | 北京航空航天大学杭州创新研究院 | 机器人参数标定方法及装置和轮式机器人 |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| TWI408397B (zh) * | 2008-08-15 | 2013-09-11 | Univ Nat Chiao Tung | Automatic navigation device with ultrasonic and computer vision detection and its navigation method |
| CN201998168U (zh) * | 2010-12-29 | 2011-10-05 | 浙江省电力公司 | 基于视觉伺服的移动机器人精确定位云台系统 |
| CN102621525B (zh) * | 2012-03-01 | 2014-05-21 | 西南科技大学 | 基于遥操作装置的放射性污染源定位系统及方法 |
| CN103606386B (zh) * | 2013-11-19 | 2016-04-27 | 中国科学院光电技术研究所 | 一种核电站控制棒驱动机构钩爪检查机器人 |
| CN107731329B (zh) * | 2017-10-31 | 2019-09-10 | 中广核检测技术有限公司 | 控制棒导向筒开口销检测机器人及定位方法 |
| CN108458707B (zh) * | 2018-01-22 | 2020-03-10 | 西南科技大学 | 多悬垂管道场景下作业机器人自主定位方法及其定位系统 |
-
2019
- 2019-01-17 CN CN201910043308.7A patent/CN109760006B/zh active Active
Also Published As
| Publication number | Publication date |
|---|---|
| CN109760006A (zh) | 2019-05-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN109760006B (zh) | 一种基于视觉参考件的核机器人快速定位方法 | |
| CN104786226A (zh) | 抓取在线工件的机器人位姿及运动轨迹定位系统与方法 | |
| EP3407088A1 (en) | Systems and methods for tracking location of movable target object | |
| CN114067210B (zh) | 一种基于单目视觉导引的移动机器人智能抓取方法 | |
| CN204585232U (zh) | 抓取在线工件的机器人位姿及运动轨迹定位系统 | |
| CN113733101B (zh) | 巡检操作机器人、巡检操作机器人的操作方法及存储介质 | |
| CN114536346B (zh) | 一种基于人机协作和视觉检测的机械臂精确路径规划方法 | |
| KR102046423B1 (ko) | 3차원 환경인식 시스템 및 이를 구비한 원자력 시설 | |
| Bostelman et al. | Navigation performance evaluation for automatic guided vehicles | |
| CN118286621A (zh) | 一种放疗设备及其对准方法 | |
| US20180038809A1 (en) | Autonomously mobile backscatter detection apparatus and method, and positioning method for the apparatus | |
| CN102528811A (zh) | 托克马克腔内的机械臂定位与避障系统 | |
| CN100417952C (zh) | 密封放射源泄漏自动检测平台的视觉伺服系统 | |
| CN120422205B (zh) | 一种晶圆搬运机器人自动示教系统及方法 | |
| De Schepper et al. | Towards a semi-autonomous robot platform for the characterisation of radiological environments | |
| US12221329B1 (en) | System and method for mounting objects across a non-uniform outdoor terrain | |
| Gamper et al. | Adaptive radiation survey using an autonomous robot executing LiDAR scans in the large hadron collider | |
| Maneewarn et al. | ICP-EKF localization with adaptive covariance for a boiler inspection robot | |
| CN103594129A (zh) | 核电站反应堆压力容器内管状部件表面智能扫查方法 | |
| CN113733078B (zh) | 机械臂精调控制量判读方法、计算机可读存储介质 | |
| Han et al. | Design and experimental validation of a robotic system for reactor core detector removal | |
| US20140355729A1 (en) | Nuclear plant manipulator system | |
| CN120491696B (zh) | 一种微重力地面试验系统的控制方法及系统和存储介质 | |
| Rega et al. | A sensor data fusion-based locating method for large-scale metrology | |
| JP7595555B2 (ja) | 除染装置、及び除染方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |