[go: up one dir, main page]

CN111278608A - 用于3d视觉机器人系统的校准物品 - Google Patents

用于3d视觉机器人系统的校准物品 Download PDF

Info

Publication number
CN111278608A
CN111278608A CN201880021477.4A CN201880021477A CN111278608A CN 111278608 A CN111278608 A CN 111278608A CN 201880021477 A CN201880021477 A CN 201880021477A CN 111278608 A CN111278608 A CN 111278608A
Authority
CN
China
Prior art keywords
robot
camera
calibration
side surfaces
top surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880021477.4A
Other languages
English (en)
Other versions
CN111278608B (zh
Inventor
汪建军
R·博卡
张飚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Schweiz AG
Original Assignee
ABB Schweiz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB Schweiz AG filed Critical ABB Schweiz AG
Publication of CN111278608A publication Critical patent/CN111278608A/zh
Application granted granted Critical
Publication of CN111278608B publication Critical patent/CN111278608B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39016Simultaneous calibration of manipulator and camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

提供一种用于校准机器人和3D相机的校准物品。该校准物品包括侧表面,其朝向顶部表面向内成角。通过捕获校准物品相对于机器人和相机的位置数据来校准机器人和相机。所捕获的数据用于生成机器人和相机之间的相关数据。在机器人和相机的操作使用期间,控制器使用相关数据来使机器人与相机对准。

Description

用于3D视觉机器人系统的校准物品
技术领域
本发明总体上涉及机器人系统,更具体地,涉及用于机器人的3D视觉系统的校准。
背景技术
机器人系统具有多种形式以用于许多应用。虽然机器人系统可以被编程为在没有位置反馈的情况下进行操作,但是优选的是向机器人系统提供视觉系统,该视觉系统向机器人提供关于工作空间的信息。比如,视觉系统可以用于在工作空间内定位工件。然后,机器人与工件相互作用的运动可以由视觉系统引导,以适应工作空间内工件位置和/或方位的变化。
然而,配备有视觉系统的机器人系统的一个问题是机器人和视觉系统之间缺乏协调。也就是说,机器人根据各种运动控制在其工作空间内起作用,并且视觉系统在其自己的单独相机空间内观察工件。虽然机器人的工作空间和视觉系统的相机空间必然重叠以提供期望的机器人引导,但是工作空间和相机空间并不总是彼此对准。因此,由相机空间中的相机所观察的工件的位置可能与工件空间中的工件的实际位置不匹配。这种未对准可能导致机器人运动不准确,并且降低机器人的工作质量或引起其他问题。
发明内容
描述了一种校准物品以及使用该物品来校准机器人和3D相机的方法。校准物品包括侧表面和顶部表面。侧表面朝向顶部表面向内成角,并且侧表面中的至少一些侧表面成不同角度。因此,侧表面中的至少两个侧表面彼此可区分开。机器人和相机被运动到捕获侧表面和顶部表面的数据的一个或多个位置、以及机器人和相机相对于其的位置。所捕获的数据用于生成使机器人和相机彼此对准的相关数据。随后,相关数据用于在机器人和相机的操作使用期间相机空间与机器人空间中的位置之间的变换。
附图说明
通过结合附图阅读以下描述,可以更全面地理解本发明,其中:
图1是校准系统的视图,其示出了机器人、相机和校准物品;
图2是校准物品的透视图;
图3是校准物品的顶视图;
图4是用于校准物品的安装系统的透视图;
图5是根据捕获的3D图像确定校准物品的位置和方位的方法的流程图;
图6是根据捕获的3D图像识别校准物品的表面的方法的流程图;
图7是校准机器人和相机的方法的流程图;以及
图8是校准机器人和相机的另一方法的流程图。
具体实施方式
现在参考附图(具体地,图1),示出了具有机器人12和3D视觉14的校准系统10。虽然机器人12可以采用多种形式并且可以用于多种应用,但是机器人12优选地能够在工作空间内以三维方式运动。如所示出的,机器人12安装到工作表面16,尽管机器人12可以以任何传统方式安装或以其他方式定位。机器人12可以设有一系列互连的可运动连杆18,以允许机器人12在工作空间内运动。连杆18可以用电动机、液压装置或任何已知的系统致动,以使机器人12运动。优选地,机器人12的运动将由可编程控制器引导,该可编程控制器从存储器存储装置中检索预先定义的机器人12的运动。为了在工件19上执行有用任务,夹持器15通常安装在机器人末端执行器13上。本领域普通技术人员很好地理解机器人12的细节及其控制,并且本文中不需要进行详细描述。
还提供了一种视觉系统14。该视觉系统14包括3D相机14,其能够在相机14的相机空间内以三维方式观察对象。存在多种类型的3D相机14并且可以与机器人12一起使用。传统3D相机14可以使用红外线光束、激光束或立体视觉。虽然摄影相机通常输出场景的人类可视图像,但是3D相机14无需产生人类可读图像。通常,相机14的输出将是点云数据,其记录相机空间中的对象的各个表面上的有限数目的点的三维数据。如图1所示,相机14优选地安装在机器人末端执行器13上,并且随着机器人12在工作空间内运动而随机器人12运动。因此,在该实施例中,与相机14相关联的相机空间随着机器人12运动而运动。可替代地,相机14可以安装在固定位置处或不同的可运动结构(诸如第二机器人)上。然而,在任一布置中,机器人12和相机14通过中央控制器链接。
为了在机器人12的工作空间和3D相机14的相机空间之间提供精确变换,提供了校准物品20。在图1中总体地示出了校准物品20,并且在图2和图3中更详细地示出了校准物品20。尽管物品20可以安装或搁置在凸起支撑结构上,但是图1中示出了具有平坦底部表面22的物品20,其搁置在平坦工作表面16上。
坐标系{OXYZ}可以分别附接到机器人基座11(b)、机器人末端执行器13(e)、相机14(c)、以及校准物品20(a)。坐标系可以被指定为{OXYZ}b、{OXYZ}e、{OXYZ}c、以及{OXYZ}a。任意两个坐标系之间的关系可以由4×4变换矩阵
Figure BDA0002216263390000031
表示,该变换矩阵基本上是坐标系s在坐标系r中的位置和方位。利用该变换矩阵,任意点P在坐标系r中的坐标可以使用如下方程从其在坐标系s中的坐标获得:
Figure BDA0002216263390000041
在图1中,要在相机14的空间和机器人12的空间之间校准的变换关系由
Figure BDA0002216263390000043
表示,其定义了相机14的坐标系c相对于机器人末端执行器13的坐标系e的位置和方位。一旦
Figure BDA0002216263390000044
已知,就可以使用以下方程将在相机14的空间中检测到的任何对象(p)的位置和方位转换为机器人12的空间:
Figure BDA0002216263390000042
其中
Figure BDA0002216263390000045
Figure BDA0002216263390000046
是对象(p)相对于机器人基座11的坐标系b和相机14的坐标系c的位置和方位,并且
Figure BDA0002216263390000047
是机器人末端执行器13的坐标系e相对于机器人基座11的坐标系b的位置和方位。
Figure BDA0002216263390000048
通常将被编程到机器人12的控制器中,并且由其提供。
校准物品20被设计为允许视觉系统14容易且准确地根据相对于相机14的坐标系c的捕获图像确定校准物品20的位置和方位。在一个实施例中,校准物品20可以被认为是截棱锥或截头锥体。然而,因为传统的截头锥体被定义为两个平行平面之间的棱锥的一部分,所以校准物品20的一些实施例不能被认为是截头锥体,因为可能希望顶部表面24不与底部表面22平行。可替代地,可以在本文中使用底部表面28来代替顶部表面24。
虽然校准物品20可以在每个侧表面26的相对侧处具有与相邻侧表面26邻接的四个或更多个侧表面26,但是校准物品20可以优选地仅具有四个侧表面26。也就是说,在一些实施例中,校准物品20可以具有五个、六个、七个或八个侧表面26,但是校准物品20优选地具有至少四个侧表面26,并且可以具有不多于四个侧表面26。如所示出的,侧表面26可以沿着底部边缘与底部表面22邻接,并且可以沿着顶部边缘与顶部表面24邻接。
如所示出的,侧表面26优选地从底部表面22向顶部表面24向内成角。因此,侧表面26朝向顶部表面24向内成角。校准物品20的一个特征是侧表面26中的至少一些侧表面相对于彼此向内成不同角度。因此,校准物品20至少在一些方面不对称。例如,当侧表面26中的至少两个侧表面彼此进行比较时,侧表面26相对于顶部表面24和/或底部表面22以不同角度定向。为了在侧表面26中的每个侧表面之间提供进一步区分,还可能期望侧表面26中的至少三个侧表面相对于彼此成不同角度,或者侧表面26中的至少四个侧表面相对于彼此成不同角度。在顶部表面24和底部表面22彼此平行的情况下,可以从顶部表面24或底部表面22测量角度。在顶部表面24和底部表面22不平行的情况下,优选的是从底部表面22测量角度;然而,可以可替代地从顶部表面24测量角度。
如图3所示,校准物品20的形状允许侧表面26中的至少两个或更多个侧表面彼此区分开。在图3的特定实施例中,(由侧表面26的底部边缘所限定的)基部28为矩形,顶部表面24也为矩形并且与基部28对准。因此,基部28和顶部表面24的一侧d,b比基部28和顶部表面24的另一侧c,a更长。进一步地,在图3中,顶部表面24相对于基部28偏离中心。因此,侧表面S1,S2,S3,S4中的每个侧表面通过底部边缘c,d的长度,顶部边缘a,b的长度,或侧表面S1,S2,S3,S4相对于彼此的向内角度彼此区分开。优选地,每个侧表面26的角度在从穿过基部28的垂直平面落入30°到75°的范围之内。也就是说,优选的是,侧表面26的方位不是过度垂直(即,75°或更小),并且还优选的是,侧表面26的方位不是过度水平或平坦(即,30°或更大)。如图3所示,还优选的是,侧表面26和顶部表面24的形状为平面。甚至更优选地,侧表面26和顶部表面24完全平坦,并且在其上没有任何凹陷或突起。虽然侧表面26、顶部表面24和底部表面28可以彼此相同,但是侧表面26,顶部表面24和/或底部表面28中的一个或多个表面还可以被彼此不同地着色,或在其上可以具有一个或多个图案化表面(例如,棋盘图案)。
图4示出了校准物品20如何安装在工作空间内。优选地,安装板27是从侧表面26的底部向外延伸的平板。安装板27的形状可以为矩形、圆形或任何其他期望的形状。可以设置若干个安装孔29,使得螺钉可以用于将安装板27固定到工作表面16或其他所需的安装位置上。为了将校准物品固定到安装板27上,底部表面28和安装板27可以设置有若干个匹配安装孔。可替代地,安装板27可以是校准物品20的底部表面28的延伸部分。
在使用中,视觉系统14可以利用校准物品20的形状来根据捕获的图像确定校准物品20的位置和方位。图5中示出了这种过程的示例。校准物品20的形状数据优选地在校准过程开始之前存储在计算机存储器中(50)。形状数据的特定内容和格式将取决于使用数据的编程和/或算法,但是数据通常将包括定义侧表面26和顶部表面24相对于彼此或共同表面的3D表面和方位的三维数据。可以使用平面寻找算法对校准物品20的捕获的3D图像进行处理(51)。例如,RANdom Sample Consensus(RANSAC)平面拟合算法可以用于此目的,并且可从开源代码广泛获得。可以施加选择准则,使得仅找到其上具有足够点的主导平面。下一步可以是计算找到的主导平面中的每个主导平面的特性(52),诸如面积、宽度、长度、法线、质心等。然后,可以在匹配算法中使用这些特性来比较校准物品20的预先存储的形状数据,以便识别主导平面(53)。因此,在步骤(51)和(52)中标识的主导平面与从步骤(50)检索的形状数据匹配。结果,校准物品20上的每个主导平面的匹配标识允许计算校准物品20的位置和方位(54)。
图6示出了示例性匹配算法的流程图。然而,应当指出,存在执行匹配和识别的许多方式。假设安装板27与校准物品20的其他表面24,26相比是最大平面,图6的方法开始于使用来自主导平面的最大平面准则找到安装板27(60)。使用安装板27作为公共参考表面,然后可以计算每个主导平面相对于安装板27的相对方位(61)。由于校准物品20的表面24,26中的任一表面可以被设计有相对于底部表面28和/或安装板27的可区分方位,因此每个标识的主导平面可以被识别为校准物品20的表面24,26中的任一表面或作为不在校准物品20上的表面。例如,后一种情况可能发生在相机14的空间的背景中存在大平面时。还可以使用其他计算的平面特性作为将背景中的类似定向的平面与校准物品20的表面24,26区分开的识别准则。例如,平面质心到安装板27的距离可以用作附加识别准则。优选地,匹配算法至少使用校准物品20的每个表面24,26相对于从存储的形状数据检索的底部表面28的相对方位,以便识别所标识的主导平面。
在识别校准物品20的捕获的3D图像中的主导平面之后计算校准物品20的位置和方位可以以多种方式完成。例如,一种方法是最小二乘拟合。在该方法中,校准物品20的预先存储的形状数据可以包括每个表面相对于校准物品20的坐标系的平面方程参数[nx,ny,nz,d]a
Figure BDA0002216263390000071
其中<nx,ny,nz>是表示法线平面的单位矢量,d是校准物品20的坐标系a的原点与标识的主导平面的距离。校准物品20的位置和方位可以相对于相机14的坐标系c定义为
Figure BDA0002216263390000072
然后图5的步骤(51)中的平面拟合算法可以找到相对于相机14的坐标系c具有平面方程参数[nx,ny,nz,d]c的平面:
Figure BDA0002216263390000081
使用关系式:
Figure BDA0002216263390000082
平面方程(3)和(4)可以被定义为:
Figure BDA0002216263390000083
由于识别的表面的数目优选地至少为三个,因此存在可用于线性最小二乘拟合以求解
Figure BDA0002216263390000086
的针对(6)的至少三个方程。因为还可以识别底部表面28或安装板29,所以该表面还可以添加到线性最小二乘拟合中以求解
Figure BDA00022162633900000810
使用上文所描述的算法根据捕获的图像计算校准物品20的位置和方位,存在使用校准物品20来校准机器人12的空间和相机14的空间之间的几何关系的各种方式。图7和图8示出了两种可能方法。如先前所描述的,优选的是,定义校准物品20的形状的3D数据初始存储在计算机存储器中(70,80)。为了开始校准过程,还需要将校准物品20定位在机器人12的工作空间内和3D相机14的相机14空间内的位置中(71,81)。
相机14到机器人12校准的数学基础可以基于闭合的运动链:
Figure BDA0002216263390000084
其中θ是机器人关节角度的测量值,
Figure BDA0002216263390000088
是机器人末端执行器13相对于机器人基座11的坐标系b的位置和方位,并且通过正向运动学计算由机器人控制器提供:
Figure BDA0002216263390000085
其中M是机器人运动模型参数,其包括臂连杆18的长度、初始关节位置、以及其他因子;
Figure BDA0002216263390000089
是由θ限定的视图配置中如图5所计算的校准物品20相对于相机12的坐标系c的位置和方位;并且
Figure BDA0002216263390000092
是校准物品20相对于机器人基座11的坐标系b的位置和方位。
应当指出,方程(7)对于图1所示的机器人系统是有效的,其中相机安装在机器人末端执行器13上。对于其他系统配置,可以使用不同的方程。如图7所示,如果校准物品20在机器人12的空间中的位置和方位
Figure BDA0002216263390000093
通过使用其他方法(诸如光学传感或手动触摸)获得(72),则方程(7)可能只有一个未知矩阵
Figure BDA00022162633900000910
其只能用(7)的一个方程求解。这将意味着相机14仅需要以一个观察角度捕获校准物品20。应当通过将机器人12定位在相机14可以观察校准物品20的至少两个侧表面26和顶部表面24的位置中来选择该观察角度(73)。另外,为了使用图5的方法,安装板27还优选地是可见的,并且可以是图像中的最大平面。然后,相机14捕获校准物品20的3D图像(74),并且系统根据捕获的图像计算校准物品20在相机14的空间中的位置和方位(75)。
如果校准物品20在机器人12的空间中的位置和方位
Figure BDA0002216263390000095
未知,则方程(7)将具有两个未知矩阵
Figure BDA0002216263390000096
Figure BDA0002216263390000099
为了求解它们,需要方程(7)的至少两个实例,其意味着需要至少两个相机14的观察角度。如图8所示,在实践中通常使用两个以上的相机14的观察角度,以减少测量噪声并且增加鲁棒性。这可以通过将机器人12运动到N个不同位置来实现(89),其中在每个位置处,相机14可以观察校准物品20的至少两个侧表面26和顶部表面24(82),记录机器人的位置(83),捕获3D图像(84),并且检测位置和方位(85)。最后,N个方程可以使用方程(7)获得,如下:
Figure BDA0002216263390000091
其中θ(i)是第i个观察位置处的机器人关节角度,
Figure BDA0002216263390000098
是在第i个观察位置处的相机14的坐标系c中的校准物品20的检测位置和方位。方程(9)具有两个未知数
Figure BDA0002216263390000101
Figure BDA0002216263390000102
其可以使用标准线性最小二乘算法或其他已知算法来求解。该方法也称为手眼校准。
在校准之后,以方程(2)的形式使用相关数据。也就是说,在生成相关数据之后(76,86),通过观察工件由相机14捕获的位置数据可以用相关数据变换到机器人12相对于机器人基座11的坐标系b的精确位置。因此,在校准例程完成之后,相关数据优选地存储在存储器中(77,87)并且在机器人12和视觉14系统的常规操作期间由系统使用以用于在相机空间和机器人空间之间变换位置(78,88)。
虽然已经描述了本发明的优选实施例,但是应当理解,本发明不限于此,并且可以在不脱离本发明的情况下进行修改。虽然本文中所描述的每个实施例可以仅是指某些特征并且可以不具体地是指关于其他实施例所描述的每个特征,但是应当认识到,除非另有说明,否则本文中所描述的特征是可互换的,即使没有参考特定特征。还应当理解,上文所描述的优点不一定是本发明的唯一优点,并且不一定期望利用本发明的每个实施例实现所有描述的优点。本发明的范围由所附权利要求限定,并且在字面上或通过等同的方式落入权利要求的含义内的所有设备和方法旨在涵盖在其中。

Claims (22)

1.一种校准3D视觉机器人系统的方法,包括:
将校准物品定位在机器人的工作空间内,其中所述校准物品包括至少四个侧表面和顶部表面或底部表面,所述侧表面朝向所述顶部表面或所述底部表面向内成角,其中至少两个侧表面彼此向内成不同角度;
将所述3D相机定位在观察位置中,其中所述侧表面中的至少两个侧表面成不同角度,并且所述顶部表面或所述底部表面在所述观察位置可见;
利用所述3D相机在所述观察位置中捕获3D图像,所述3D图像包括所述观察位置中的、与可见的所述侧表面和所述顶部表面或所述底部表面相对应的位置数据;
从所述3D图像生成校准数据,其中所述校准数据对准所述相机和所述机器人;
将所述校准数据存储在存储器中;以及
基于所述校准数据,在使用所述机器人和所述相机期间,在所述机器人和所述相机的位置之间进行变换。
2.根据权利要求1所述的方法,其中所述3D相机被安装在所述机器人上,所述3D相机与所述机器人一起被定位在所述观察位置中。
3.根据权利要求1所述的方法,还包括:将所述校准物品的3D形状数据存储在存储器中,其中所述校准数据从所述3D图像和所述3D形状数据而被生成。
4.根据权利要求1所述的方法,其中所述3D相机被定位在至少两个观察位置中,所述3D图像中的一个3D图像在所述两个观察位置中的每个观察位置中被捕获,并且所述校准数据从来自每个观察位置的所述3D图像而被生成。
5.根据权利要求1所述的方法,其中所述侧表面中的至少三个侧表面相对于彼此向内成不同角度。
6.根据权利要求5所述的方法,其中所述侧表面中的至少四个侧表面相对于彼此向内成不同角度。
7.根据权利要求1所述的方法,其中所述校准物品包括不超过四个侧表面。
8.根据权利要求7所述的方法,其中所述顶部表面是矩形的,并且所述侧表面的基部是矩形的。
9.根据权利要求1所述的方法,其中所述侧表面与垂直平面成30°至75°的角度。
10.根据权利要求1所述的方法,其中所述侧表面和所述顶部表面均为平面。
11.根据权利要求10所述的方法,其中所述侧表面和所述顶部表面上没有凹陷或突起。
12.根据权利要求1所述的方法,其中所述侧表面与所述顶部表面邻接,并且每个侧表面在其相对侧上与另一侧表面邻接。
13.根据权利要求1所述的方法,其中所述侧表面与底部表面邻接,所述底部表面是平坦的并且适于被搁置在平坦表面上。
14.根据权利要求1所述的方法,还包括:安装板,从所述侧表面的底部向外延伸。
15.根据权利要求14所述的方法,其中所述安装板限定所述校准物品的最大平面。
16.根据权利要求1所述的方法,其中所述校准物品包括不多于四个侧表面,并且所述四个侧表面中的每个侧表面相对于彼此向内成不同角度。
17.根据权利要求16所述的方法,其中所述侧表面与垂直平面成30°至75°的角度,并且所述侧表面和所述顶部表面均为平面。
18.根据权利要求17所述的方法,其中所述侧表面与所述顶部表面邻接,并且每个侧表面在其相对侧上与另一侧表面邻接。
19.根据权利要求18所述的方法,其中所述侧表面和所述顶部表面上没有凹陷或突起。
20.根据权利要求19所述的方法,其中所述顶部表面是矩形的,并且所述侧表面的基部是矩形的,并且所述侧表面与底部表面邻接,所述底部表面是平坦的并且适于被搁置在平坦表面上。
21.根据权利要求1所述的方法,其中所述侧表面和所述顶部表面或所述底部表面中的至少一个表面上具有图案。
22.根据权利要求1所述的方法,其中所述侧表面和所述顶部表面或所述底部表面中的至少一个表面上具有可区分的颜色。
CN201880021477.4A 2017-02-03 2018-02-05 用于3d视觉机器人系统的校准物品 Active CN111278608B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/424,058 2017-02-03
US15/424,058 US10661442B2 (en) 2017-02-03 2017-02-03 Calibration article for a 3D vision robotic system
PCT/US2018/016898 WO2018145025A1 (en) 2017-02-03 2018-02-05 Calibration article for a 3d vision robotic system

Publications (2)

Publication Number Publication Date
CN111278608A true CN111278608A (zh) 2020-06-12
CN111278608B CN111278608B (zh) 2023-03-28

Family

ID=63039019

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880021477.4A Active CN111278608B (zh) 2017-02-03 2018-02-05 用于3d视觉机器人系统的校准物品

Country Status (4)

Country Link
US (1) US10661442B2 (zh)
EP (1) EP3577629B1 (zh)
CN (1) CN111278608B (zh)
WO (1) WO2018145025A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112683568A (zh) * 2021-01-21 2021-04-20 南京航空航天大学 一种面向多轴加工ac转台调姿测试标准块和调姿方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11679507B2 (en) * 2017-04-26 2023-06-20 Hewlett-Packard Development Company, L.P. Robotic structure calibrations
CN111127553B (zh) * 2018-10-31 2023-04-28 南京埃斯顿机器人工程有限公司 一种基于多相机的光伏电池串定位方法
WO2021012122A1 (zh) * 2019-07-19 2021-01-28 西门子(中国)有限公司 机器人手眼标定方法、装置、计算设备、介质以及产品
CN110906863B (zh) * 2019-10-30 2022-01-28 成都绝影智能科技有限公司 一种用于线结构光传感器的手眼标定系统及标定方法
CN110930442B (zh) * 2019-11-26 2020-07-31 广东技术师范大学 基于标定块的机器人手眼标定中关键点位置确定方法与装置
SE543841C2 (en) * 2019-12-19 2021-08-10 Husqvarna Ab A calibration device for a floor surfacing system
US12125242B2 (en) 2022-01-06 2024-10-22 Liberty Robotics Inc. Method and system for registering a 3D sensor with an autonomous manipulator
JP7650597B2 (ja) * 2021-06-15 2025-03-25 株式会社ディスコ 測定治具、動作精度測定システム、及び動作精度測定方法
CN113524147B (zh) * 2021-08-02 2022-05-24 北京深度奇点科技有限公司 一种基于3d相机的工业机器人示教系统及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050068523A1 (en) * 2003-08-11 2005-03-31 Multi-Dimension Technology, Llc Calibration block and method for 3D scanner
US20090096790A1 (en) * 2007-10-11 2009-04-16 Mvtec Software Gmbh System and method for 3d object recognition
US20110280472A1 (en) * 2010-05-14 2011-11-17 Wallack Aaron S System and method for robust calibration between a machine vision system and a robot
US20120257217A1 (en) * 2011-04-08 2012-10-11 Schmitt Industries, Inc. Systems and methods for calibrating an optical non-contact surface roughness measurement device
CN103153553A (zh) * 2010-08-27 2013-06-12 Abb研究有限公司 视觉引导对准系统和方法
US20140018957A1 (en) * 2012-07-11 2014-01-16 Seiko Epson Corporation Robot system, robot, robot control device, robot control method, and robot control program
US20160223325A1 (en) * 2015-02-02 2016-08-04 Rolls-Royce North American Technologies, Inc. Multi-axis calibration block

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7164128B2 (en) * 2003-11-25 2007-01-16 Hitachi High-Technologies Corporation Method and apparatus for observing a specimen
US20080252248A1 (en) 2005-01-26 2008-10-16 Abb Ab Device and Method for Calibrating the Center Point of a Tool Mounted on a Robot by Means of a Camera
JP2007187538A (ja) * 2006-01-13 2007-07-26 Hitachi High-Technologies Corp 荷電粒子線装置及びそれを用いた画像取得方法
AU2008360797A1 (en) 2008-08-18 2010-02-25 Shalabh Kumar Rastogi Composite calibration/verification gauge and method of its manufacture
KR100986669B1 (ko) * 2009-06-08 2010-10-08 (주)이지로보틱스 로봇 캘리브레이션 장치 및 그 방법
JP5383836B2 (ja) * 2012-02-03 2014-01-08 ファナック株式会社 検索ウィンドウを自動的に調整する機能を備えた画像処理装置
JP6358626B2 (ja) * 2013-03-29 2018-07-18 ヴィオニア日信ブレーキシステムジャパン株式会社 車両用ブレーキ液圧制御装置
US9641830B2 (en) 2014-04-08 2017-05-02 Lucasfilm Entertainment Company Ltd. Automated camera calibration methods and systems
WO2015197100A1 (en) 2014-06-23 2015-12-30 Abb Technology Ltd Method for calibrating a robot and a robot system
WO2016094840A2 (en) 2014-12-11 2016-06-16 Ghosh Sudeep System, method & computer readable medium for software protection via composable process-level virtual machines
JP2017155683A (ja) * 2016-03-03 2017-09-07 マツダ株式会社 エンジンの制御装置及びブレーキ踏力推定方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050068523A1 (en) * 2003-08-11 2005-03-31 Multi-Dimension Technology, Llc Calibration block and method for 3D scanner
US20090096790A1 (en) * 2007-10-11 2009-04-16 Mvtec Software Gmbh System and method for 3d object recognition
US20110280472A1 (en) * 2010-05-14 2011-11-17 Wallack Aaron S System and method for robust calibration between a machine vision system and a robot
CN103153553A (zh) * 2010-08-27 2013-06-12 Abb研究有限公司 视觉引导对准系统和方法
US20120257217A1 (en) * 2011-04-08 2012-10-11 Schmitt Industries, Inc. Systems and methods for calibrating an optical non-contact surface roughness measurement device
US20140018957A1 (en) * 2012-07-11 2014-01-16 Seiko Epson Corporation Robot system, robot, robot control device, robot control method, and robot control program
US20160223325A1 (en) * 2015-02-02 2016-08-04 Rolls-Royce North American Technologies, Inc. Multi-axis calibration block

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112683568A (zh) * 2021-01-21 2021-04-20 南京航空航天大学 一种面向多轴加工ac转台调姿测试标准块和调姿方法

Also Published As

Publication number Publication date
EP3577629A4 (en) 2020-12-09
US10661442B2 (en) 2020-05-26
CN111278608B (zh) 2023-03-28
US20180222055A1 (en) 2018-08-09
EP3577629B1 (en) 2022-10-12
WO2018145025A1 (en) 2018-08-09
EP3577629A1 (en) 2019-12-11

Similar Documents

Publication Publication Date Title
CN111278608B (zh) 用于3d视觉机器人系统的校准物品
JP6966582B2 (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
JP6280525B2 (ja) カメラのミスキャリブレーションの実行時決定のためのシステムと方法
JP5904676B2 (ja) マシンビジョンシステムおよびロボットの間のロバストな較正の装置および方法
US8095237B2 (en) Method and apparatus for single image 3D vision guided robotics
EP2636493A2 (en) Information processing apparatus and information processing method
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JPWO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
US11230011B2 (en) Robot system calibration
JP6855491B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
KR20110095700A (ko) 작업대상물 픽업을 위한 산업용 로봇 제어방법
JP2013231702A (ja) 画像計測装置、画像計測方法及び画像計測プログラム
KR102314092B1 (ko) 로봇의 캘리브레이션 장치 및 그 방법
US12036663B2 (en) Method and control arrangement for determining a relation between a robot coordinate system and a movable apparatus coordinate system
EP3134232A1 (en) A method and a system for generating data for calibrating a robot
JP7509918B2 (ja) 画像処理システム及び画像処理方法
JPH0820207B2 (ja) 光学式3次元位置計測方法
JP7660686B2 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
JP7583942B2 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
TWI712473B (zh) 機器手臂校正座標的方法
Hu et al. Kinematic calibration of manipulator using single laser pointer
Joochim et al. The 9 points calibration using SCARA robot
TWI860784B (zh) 機械手臂工具校正方法、系統以及機械手臂工具二階校正方法
WO2023013699A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
Ye et al. A Novel Rotational Laser Vision Sensor for Industrial Robot Calibration

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant