JP2018001332A - Robot, control device, and robot system - Google Patents
Robot, control device, and robot system Download PDFInfo
- Publication number
- JP2018001332A JP2018001332A JP2016130876A JP2016130876A JP2018001332A JP 2018001332 A JP2018001332 A JP 2018001332A JP 2016130876 A JP2016130876 A JP 2016130876A JP 2016130876 A JP2016130876 A JP 2016130876A JP 2018001332 A JP2018001332 A JP 2018001332A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- arm
- marker
- image
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボット、制御装置、及びロボットシステムに関する。 The present invention relates to a robot, a control device, and a robot system.
従来、アームに装着されるツールを用いてワークを処理する前に、アームに対するツールのオフセットを設定する処理が行われている。特許文献1には、アームに装着されたツールを実空間の基準点に位置合わせする操作を、アームの姿勢を変えて複数回実行した結果に基づいて、アームに対するツールのオフセットを導出する方法が開示されている。 2. Description of the Related Art Conventionally, processing for setting an offset of a tool with respect to an arm has been performed before processing a workpiece using a tool attached to the arm. Patent Document 1 discloses a method for deriving an offset of a tool with respect to an arm based on a result of performing an operation of aligning a tool attached to an arm with a reference point in real space a plurality of times while changing the posture of the arm. It is disclosed.
特許文献1に記載された技術によると、ツールで基準点を触るようにアームをオペレーターが操作することによって基準点の位置を教示する必要がある。しかし、アームが基準点に触わるか触らないかの境界の状態を目視で特定しながら、アームを正確に操作することは容易ではない。すなわち特許文献1に記載された技術では、基準点の位置を正確に教示することが困難な場合がある。そして、基準点の位置を正確に教示しながらツールのオフセットを設定するとすれば、設定に要する所要時間が長引く場合があり、設定対象のロボットが増えるほど、当該所要時間が長くなる。 According to the technique described in Patent Document 1, it is necessary to teach the position of the reference point by the operator operating the arm so as to touch the reference point with a tool. However, it is not easy to accurately operate the arm while visually identifying the boundary state whether the arm touches or does not touch the reference point. That is, with the technique described in Patent Document 1, it may be difficult to accurately teach the position of the reference point. If the tool offset is set while accurately teaching the position of the reference point, the required time for setting may be prolonged, and the required time becomes longer as the number of robots to be set increases.
上記課題の少なくとも一つを解決するために本発明の一態様は、アームを備え、前記アームは、前記アームに装着されたツールの所定部位を撮像部によって前記所定部位を撮像可能な第1状態から移動させた第2状態で、前記所定部位を通り前記撮像部の光軸に平行な回転軸を中心に前記ツールを回転させ、前記所定部位を前記回転による姿勢の変化を保ったまま前記第1状態における位置と同じ位置である第3状態に移動させ、前記第1状態及び前記第3状態において前記撮像部により撮像された画像に基づいて設定された前記所定部位の前記アームに対するオフセットを用いて制御される、ロボットである。
この構成により、ロボットは、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットが設定される。これにより、ロボットは、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを設定するよりも、人為的な誤差や作業者によるばらつきを低減することができる。
In order to solve at least one of the above problems, an aspect of the present invention includes an arm, and the arm is capable of imaging a predetermined part of a tool attached to the arm by an imaging unit. In the second state, the tool is rotated about a rotation axis that passes through the predetermined part and is parallel to the optical axis of the imaging unit, and the predetermined part is maintained in the posture change due to the rotation. It is moved to a third state that is the same position as the position in the first state, and an offset with respect to the arm of the predetermined part set based on images captured by the imaging unit in the first state and the third state is used. Controlled robot.
With this configuration, the robot is set with an offset with respect to the arm at the predetermined part based on images captured by the imaging unit in the first state and the third state. As a result, the robot can reduce human error and variations due to the operator, rather than setting the tool offset while teaching the position of the reference point by the operator operating the arm.
また、本発明の他の態様は、ロボットにおいて、前記アームは、前記第1状態で障害物がある場合に、前記ツールを第1状態から、当該障害物がない第2状態へ移動させる、構成が用いられてもよい。
この構成により、ロボットは、障害物がない位置で、所定部位を通り撮像部の光軸に平行な回転軸を中心にツールを回転させる。これにより、ロボットは、障害物への衝突を回避して、所定部位を通り撮像部の光軸に平行な回転軸を中心にツールを回転させることができるため、ツールの所定部位の周辺に障害物がある場合でもオフセットを精度よく算出することができる。
According to another aspect of the present invention, in the robot, the arm moves the tool from the first state to a second state without the obstacle when there is an obstacle in the first state. May be used.
With this configuration, the robot rotates the tool around a rotation axis that passes through a predetermined part and is parallel to the optical axis of the imaging unit at a position where there is no obstacle. As a result, the robot can avoid the collision with the obstacle and rotate the tool around the rotation axis parallel to the optical axis of the imaging unit through the predetermined part. Even when there is an object, the offset can be calculated with high accuracy.
また、本発明の他の態様は、上記に記載のロボットを制御する制御装置である、構成が用いられてもよい。
この構成により、制御装置は、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットを、ロボットに設定する。これにより、制御装置は、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを、ロボットに設定するよりも、オフセットを精度よく設定することができる。
Moreover, the structure which is a control apparatus which controls the robot as described in the other aspect of this invention may be used.
With this configuration, the control device sets the offset for the arm at the predetermined part in the robot based on the images captured by the imaging unit in the first state and the third state. Accordingly, the control device can set the offset with higher accuracy than setting the offset of the tool in the robot while teaching the position of the reference point by operating the arm by the operator.
また、本発明の他の態様は、上記に記載のロボットと、上記に記載の制御装置とを備える、ロボットシステムである、構成が用いられてもよい。
この構成により、ロボットシステムでは、制御装置は、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットを、ロボットに設定する。これにより、ロボットシステムでは、制御装置は、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを、ロボットに設定するよりも、オフセットを精度よく設定することができる。
Moreover, the structure which is a robot system provided with the robot described above and the control apparatus described above may be used for the other aspect of this invention.
With this configuration, in the robot system, the control device sets the offset for the arm at the predetermined site in the robot based on the images captured by the imaging unit in the first state and the third state. Thereby, in the robot system, the control device can set the offset with higher accuracy than setting the offset of the tool in the robot while teaching the position of the reference point by operating the arm by the operator.
以上により、ロボットは、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットが設定される。これにより、ロボットは、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを設定するよりも、人為的な誤差や作業者によるばらつきを低減することができる。
また、制御装置は、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットを、ロボットに設定する。これにより、制御装置は、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを設定するよりも、オフセットを精度よく設定することができる。
また、ロボットシステムでは、制御装置は、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットを、ロボットに設定する。これにより、ロボットシステムでは、制御装置は、ロボットに、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを、ロボットに設定するよりも、オフセットを精度よく容易に設定することができる。
As described above, the robot sets the offset with respect to the arm at the predetermined part based on the images captured by the imaging unit in the first state and the third state. As a result, the robot can reduce human error and variations due to the operator, rather than setting the tool offset while teaching the position of the reference point by the operator operating the arm.
Further, the control device sets an offset with respect to the arm of the predetermined part in the robot based on the images captured by the imaging unit in the first state and the third state. Thus, the control device can set the offset with higher accuracy than setting the offset of the tool while teaching the position of the reference point by operating the arm by the operator.
Further, in the robot system, the control device sets an offset for the arm of the predetermined part in the robot based on the images captured by the imaging unit in the first state and the third state. As a result, in the robot system, the control device sets the offset of the tool with accuracy and more easily than setting the offset of the tool in the robot while teaching the robot the position of the reference point by operating the arm. be able to.
以下、本発明のロボット、制御装置及びロボットシステムを添付図面に示す好適な実施形態に基づいて詳細に説明する。 Hereinafter, a robot, a control device, and a robot system according to the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.
[実施形態]
≪ロボットシステム≫
図1は、本発明の実施形態に係るロボットシステムを示す概略斜視図である。図2は、図1に示すロボットの概略図である。図3は、図1に示すロボットシステムのブロック図である。
[Embodiment]
≪Robot system≫
FIG. 1 is a schematic perspective view showing a robot system according to an embodiment of the present invention. FIG. 2 is a schematic diagram of the robot shown in FIG. FIG. 3 is a block diagram of the robot system shown in FIG.
なお、以下では、説明の都合上、図2中の上側(zr方向)を「上」または「上方」、下側(−zr方向)を「下」または「下方」と言う。また、図2中の上下方向を「鉛直方向」とし、その鉛直方向に交差する面を「水平面」とし、水平面に平行な方向を「水平方向」とする。ここで、本願明細書で言う「水平」とは、完全な水平に限定されず、水平に対して5°以下の範囲で傾斜している場合も含む。また、本願明細書で言う「鉛直」とは、完全な鉛直に限定されず、鉛直に対して5°以下の範囲で傾斜している場合も含む。また、図2中に示すロボットの基台側を「基端」、その反対側(ハンド側)を「先端」と言う。 Hereinafter, for convenience of explanation, the upper side (zr direction) in FIG. 2 is referred to as “upper” or “upper”, and the lower side (−zr direction) is referred to as “lower” or “lower”. Also, the vertical direction in FIG. 2 is defined as “vertical direction”, the plane intersecting the vertical direction is defined as “horizontal plane”, and the direction parallel to the horizontal plane is defined as “horizontal direction”. Here, “horizontal” as used in the specification of the present application is not limited to complete horizontal, but includes a case where the horizontal axis is inclined within a range of 5 ° or less. In addition, the term “vertical” as used in the specification of the present application is not limited to complete vertical, but includes a case where the vertical inclination is within a range of 5 ° or less. Further, the base side of the robot shown in FIG. 2 is referred to as “base end”, and the opposite side (hand side) is referred to as “tip”.
図1に示すロボットシステム100は、例えば、電子部品及び電子機器等の対象物の把持、搬送及び組立て等の作業で用いられる装置である。
図1に示すように、ロボットシステム100は、ロボットアーム10を有するロボット1と、作業領域90内に固定された撮像機能を有する固定カメラ2(撮像部)と、ロボット1に取り付けられた撮像機能を有するモバイルカメラ3(撮像部)と、ロボット1、固定カメラ2及びモバイルカメラ3をそれぞれ制御する制御装置5(校正装置)とを、有する。
また、本実施形態では、作業領域90内に、対象物の組立てを行う作業台61(組立て台)と、対象物が例えば作業者によって供給される供給台62とが設けられている。作業台61及び供給台62は、それぞれ、ロボット1のロボットアーム10の駆動範囲内に設けられている。
A
As shown in FIG. 1, the
In the present embodiment, a work table 61 (assembly table) for assembling an object and a supply table 62 for supplying the object by, for example, an operator are provided in the
以下、ロボットシステム100が有する各部を順次説明する。
<ロボット>
図1及び図2に示すロボット1は、対象物の把持、搬送及び組立て等の作業を行うことができる。
ロボット1は、6軸の垂直多関節ロボットであり、基台101と、基台101に接続されたロボットアーム10と、ロボットアーム10の先端部に設けられたハンド102(ツール)と、を有する。また、図3に示すように、ロボット1は、ロボットアーム10を駆動させる動力を発生させる複数の駆動部130及び複数のモータードライバー120を備えている。
Hereinafter, each unit of the
<Robot>
The robot 1 shown in FIGS. 1 and 2 can perform operations such as gripping, conveying, and assembling an object.
The robot 1 is a six-axis vertical articulated robot, and includes a
基台101は、ロボット1を作業領域90内の所定の箇所に取り付ける部分である。
ロボットアーム10は、第1アーム11(アーム)と、第2アーム12(アーム)と、第3アーム13(アーム)と、第4アーム14(アーム)と、第5アーム15(アーム)と、第6アーム16(アーム)とを有する。第1アーム11は、基台101に接続されており、第1アーム11と第2アーム12と第3アーム13と第4アーム14と第5アーム15と第6アーム16とは、基端側から先端側に向ってこの順に連結されている。
The
The
図2に示すように、第1アーム11は、基台101に連結された回動軸部材111を有し、回動軸部材111の中心軸を回動中心として基台101に対して回動可能となっている。また、第2アーム12は、第1アーム11に連結された回動軸部材121を有し、回動軸部材121の中心軸を回動中心として第1アーム11に対して回動可能となっている。また、第3アーム13は、第2アーム12に連結された回動軸部材131を有し、回動軸部材131の中心軸を回動中心として第2アーム12に対して回動可能となっている。また、第4アーム14は、第3アーム13に連結された回動軸部材141を有し、回動軸部材141の中心軸を回動中心として第3アーム13に対して回動可能となっている。また、第5アーム15は、第4アーム14に連結された回動軸部材151を有し、回動軸部材151の中心軸を回動中心として第4アーム14に対して回動可能となっている。また、第6アーム16は、第5アーム15に連結された回動軸部材161を有し、回動軸部材161の中心軸A6を回動中心として第5アーム15に対して回動可能となっている。ここで、中心軸A6と第6アーム16の先端面との交わる点(第6アーム16の先端面の中心)を軸座標O6(所定の部位)という。
As shown in FIG. 2, the
ハンド102は、第6アーム16の先端面に取り付けられており、ハンド102の中心軸が第6アーム16の中心軸A6と一致している。ここで、ハンド102の先端面の中心をTCP(ツールセンターポイント)という。本実施形態では、ハンド102が有する2つの指の間の領域の中心をいう。
また、第1アーム11〜第6アーム16には、それぞれ、サーボモーター等のモーター及び減速機を有する複数の駆動部130が設けられている。すなわち、図3に示すように、ロボット1は、第1アーム11〜第6アーム16に対応した数(本実施形態では6つ)の駆動部130を有している。そして、第1アーム11〜第6アーム16は、それぞれ、対応する駆動部130に電気的に接続された複数(本実施形態では6つ)のモータードライバー120を介して制御装置5により制御されている。
The
Each of the
また、各駆動部130には、例えば、エンコーダー、ロータリーエンコーダー等の角度センサー(図示せず)が設けられている。これにより、各駆動部130が有するモーターまたは減速機の回転軸の回転角度を検出することができる。
また、図1及び図2に示すように、本実施形態では、ロボット1を制御する際に用いられるロボット座標系(ロボット1の座標系)として、水平方向に対してそれぞれ平行なxr軸とyr軸と、水平方向に対して直交し、かつ、鉛直上向きを正方向とするzr軸とによって定まる3次元の直交座標系を設定している。また、xr軸に対する並進成分を「成分xr」とし、yr軸に対する並進成分を「成分yr」とし、zr軸に対する並進成分を「成分zr」とし、zr軸周りの回転成分を「成分ur」とし、yr軸周りの回転成分を「成分vr」とし、xr軸周りの回転成分を「成分wr」とする。成分xr、成分yr及び成分zrの長さ(大きさ)の単位は「mm」であり、成分ur、成分vr及び成分wrの角度(大きさ)の単位は「°」である。
Each
As shown in FIGS. 1 and 2, in this embodiment, the robot coordinate system (the coordinate system of the robot 1) used when controlling the robot 1 is an xr axis and yr parallel to the horizontal direction. A three-dimensional orthogonal coordinate system determined by an axis and a zr axis that is orthogonal to the horizontal direction and has a vertically upward direction as a positive direction is set. The translation component for the xr axis is “component xr”, the translation component for the yr axis is “component yr”, the translation component for the zr axis is “component zr”, and the rotation component around the zr axis is “component ur”. , The rotation component around the yr axis is referred to as “component vr”, and the rotation component around the xr axis is referred to as “component wr”. The unit of the length (size) of the component xr, the component yr, and the component zr is “mm”, and the unit of the angle (size) of the component ur, the component vr, and the component wr is “°”.
<固定カメラ>
図1及び図2に示す固定カメラ2は、対象物等を撮像する機能を有する。
図2に示すように、固定カメラ2は、複数の画素を有するCCD(Charge Coupled Device)イメージセンサで構成された撮像素子21と、レンズ22(光学系)と、を有している。この固定カメラ2は、対象物等からの光をレンズ22によって撮像素子21の受光面211(センサー面)で結像させ、光を電気信号に変換して、その電気信号を制御装置5へと出力する。ここで、受光面211とは、撮像素子21の表面であって、光が結像する面である。また、本実施形態では、受光面211から光軸OA2方向に焦点距離だけ進んだ位置を「固定カメラ2の撮像基準点O2」とする。
<Fixed camera>
The fixed
As shown in FIG. 2, the fixed
このような固定カメラ2は、鉛直方向上方を撮像できるように作業領域90内の所定の箇所に固定されている。また、本実施形態では、固定カメラ2は、その光軸OA2(レンズ22の光軸)が鉛直方向に対してほぼ平行になるように取り付けられている。
また、本実施形態では、固定カメラ2の画像座標系(固定カメラ2から出力される画像の座標系)として、画像の面内方向に対してそれぞれ平行なxa軸とya軸とよって定まる2次元の直交座標系を設定している。また、xa軸に対する並進成分を「成分xa」とし、ya軸に対する並進成分を「成分ya」とし、xa−ya平面の法線周りの回転成分を「成分ua」とする。成分xa及び成分yaの長さ(大きさ)の単位は「ピクセル」であり、成分uaの角度(大きさ)の単位は「°」である。
Such a fixed
In this embodiment, the image coordinate system of the fixed camera 2 (the coordinate system of the image output from the fixed camera 2) is a two-dimensional determined by the xa axis and the ya axis that are parallel to the in-plane direction of the image. The Cartesian coordinate system is set. Further, the translation component with respect to the xa axis is referred to as “component xa”, the translation component with respect to the ya axis is referred to as “component ya”, and the rotation component around the normal line of the xa-ya plane is referred to as “component ua”. The unit of the length (size) of the component xa and the component ya is “pixel”, and the unit of the angle (size) of the component ua is “°”.
なお、固定カメラ2の画像座標系は、固定カメラ2のカメラ視野に写る3次元直交座標を、レンズ22の光学特性(焦点距離、歪みなど)と撮像素子21の画素数及び大きさとを加味して非線形変換した2次元の直交座標系である。
The image coordinate system of the fixed
<モバイルカメラ>
図1及び図2に示すモバイルカメラ3は、対象物等を撮像する機能を有する。
図2に示すように、モバイルカメラ3は、複数の画素を有するCCD(Charge Coupled Device)イメージセンサで構成された撮像素子31と、レンズ32(光学系)と、を有する。このモバイルカメラ3は、対象物等からの光をレンズ32によって撮像素子31の受光面311(センサー面)で結像させ、光を電気信号に変換して、その電気信号を制御装置5へと出力する。ここで、受光面311とは、撮像素子31の表面であって、光が結像する面である。また、本実施形態では、受光面311から光軸OA3方向に焦点距離だけ進んだ位置を「モバイルカメラ3の撮像基準点O3」とする。
<Mobile camera>
The
As shown in FIG. 2, the
このようなモバイルカメラ3は、第6アーム16よりもロボットアーム10の先端側を撮像できるように第6アーム16に取り付けられている。また、本実施形態では、設計上、モバイルカメラ3は、その光軸OA3(レンズ32の光軸)が第6アーム16の中心軸A6に対してほぼ平行になるように、第6アーム16に取り付けられている。また、モバイルカメラ3は、第6アーム16に取り付けられているため、ロボットアーム10の駆動により、第6アーム16と共にその姿勢を変えることができる。
Such a
また、本実施形態では、モバイルカメラ3の画像座標系(モバイルカメラ3で出力される画像の座標系)として、画像の面内方向に対してそれぞれ平行なxb軸とyb軸とによって定まる2次元の直交座標系を設定している。また、xb軸に対する並進成分を「成分xb」とし、yb軸に対する並進成分を「成分yb」とし、xb−yb平面の法線周りの回転成分を「成分ub」とする。成分xb及び成分ybの長さ(大きさ)の単位は「ピクセル」であり、成分ubの角度(大きさ)の単位は「°」である。 In this embodiment, the image coordinate system of the mobile camera 3 (the coordinate system of the image output by the mobile camera 3) is a two-dimensional determined by an xb axis and a yb axis that are parallel to the in-plane direction of the image. The Cartesian coordinate system is set. Further, the translation component with respect to the xb axis is referred to as “component xb”, the translation component with respect to the yb axis is referred to as “component yb”, and the rotation component around the normal line of the xb-yb plane is referred to as “component ub”. The unit of length (size) of the component xb and the component yb is “pixel”, and the unit of angle (size) of the component ub is “°”.
なお、モバイルカメラ3の画像座標系は、モバイルカメラ3のカメラ視野に写る3次元直交座標を、レンズ32の光学特性(焦点距離、歪みなど)と撮像素子31の画素数及び大きさとを加味して非線形変換した2次元の直交座標系である。
Note that the image coordinate system of the
<制御装置>
図1に示す制御装置5は、ロボット1、固定カメラ2及びモバイルカメラ3の各部を制御する。この制御装置5は、例えば、CPU(Central Processing Unit)やROM(read only memory)及びRAM(Random Access Memory)が内蔵されたパーソナルコンピューター(PC)等で構成することができる。
図3に示すように、制御装置5は、駆動制御部51と、情報取得部52と、処理部53と、記憶部54と、を備える。
<Control device>
A
As illustrated in FIG. 3, the
駆動制御部51は、ロボット1が有する第1アーム11〜第6アーム16の駆動を担う各駆動部130の駆動を制御し、第1アーム11〜第6アーム16をそれぞれ独立して駆動させたり停止させたりすることができる。例えば、駆動制御部51は、ハンド102を目標位置に移動させるために、第1アーム11〜第6アーム16に設けられた各駆動部130が有するモーターの目標値を導出する。また、駆動制御部51は、各駆動部130が有する角度センサーから出力された回転角度(検出結果)を基にロボット1をフィードバック制御する。また、駆動制御部51は、固定カメラ2及びモバイルカメラ3の撮像等を制御したりする。
The
情報取得部52は、ロボット1、固定カメラ2及びモバイルカメラ3からそれぞれ出力される検出結果を取得する。検出結果としては、例えば、ロボット1の各駆動部130が有するモーターまたは減速機の回転軸の回転角度、固定カメラ2及びモバイルカメラ3でそれぞれ撮像した画像、及び、ロボット座標系における軸座標O6の座標(成分xr、yr、zr、ur、vr、wr:位置及び姿勢)等が挙げられる。
The
処理部53は、情報取得部52で取得した検出結果を基にして各種演算や各種判断等の処理を行う。例えば、処理部53は、固定カメラ2で撮像した画像を基にして固定カメラ2の画像座標系における撮像対象の座標(成分xa、ya、ua:位置及び姿勢)を演算したり、モバイルカメラ3で撮像した画像を基にしてモバイルカメラ3の画像座標系における撮像対象の座標(成分xb、yb、ub:位置及び姿勢)を演算したりする。また、例えば、処理部53は、固定カメラ2の画像座標系における対象物の座標をロボット座標系における座標に変換するための補正パラメーターを求めたり、モバイルカメラ3の画像座標系における対象物の座標をロボット座標系における座標に変換するための補正パラメーターを求めたりする。
The
記憶部54は、制御装置5が各種処理を行うためのプログラムやデータ等を記憶する。また、記憶部54は、各種検出結果等を記憶する。
また、図1及び図3に示すように、制御装置5には、表示機器41及び操作機器42が接続されている。
The
As shown in FIGS. 1 and 3, a
表示機器41は、液晶表示パネル等の表示パネルで構成されたモニター411を有する。作業者は、このモニター411を介して、固定カメラ2及びモバイルカメラ3で撮像した画像やロボット1による作業等を確認したりすることができる。
操作機器42は、キーボードで構成された入力デバイスであり、作業者による操作に応じた操作信号を制御装置5に対して出力する。したがって、作業者は、操作機器42を操作することで、制御装置5に対して各種処理等の指示を行うことができる。
以上、ロボットシステム100の基本的な構成について簡単に説明した。
The
The
The basic configuration of the
このような構成のロボットシステム100では、例えば、以下のような作業を行うことができる。
まず、制御装置5の制御により、ロボットアーム10を駆動させてハンド102で対象物を把持する。その後、ロボットアーム10を駆動させてハンド102を固定カメラ2上に移動させる。次いで、固定カメラ2で対象物を撮像して、その固定カメラ2で撮像した画像を基に、制御装置5は、ハンド102によって対象物を的確に把持しているか否かを判断する。的確に把持していたら、ロボットアーム10の駆動によりハンド102を作業台61上に移動させる。そして、モバイルカメラ3で撮像した画像を基にして、ハンド102で把持している対象物を作業台61上に予め配置されていた対象物に対して組み込む。
In the
First, under the control of the
このような上記作業では、固定カメラ2及びモバイルカメラ3でそれぞれ撮像した対象物の画像を基にして、ロボット1が対象物に対して作業を行う。
このような作業において、固定カメラ2で撮像した画像を基にロボット1が対象物に対して的確に作業を行うためには、固定カメラ2の画像上の座標(画像座標系における位置及び姿勢)をロボット座標系における座標に変換するための補正パラメーターを求める処理、すなわち、固定カメラ2の校正(キャリブレーション)が必要である。また、同様に、モバイルカメラ3で撮像した画像を基にロボット1が対象物等に対して的確に作業を行うためには、モバイルカメラ3の画像上の座標(画像座標系における位置及び姿勢)をロボット座標系における座標に変換するための補正パラメーターを求める処理、すなわち、モバイルカメラ3の校正(キャリブレーション)が必要である。
In such an operation, the robot 1 performs an operation on the object based on the images of the object captured by the fixed
In such an operation, in order for the robot 1 to accurately perform an operation on an object based on an image captured by the fixed
以下、ロボットシステム100を用いた固定カメラ2の校正方法及びモバイルカメラ3の校正方法(以下、これらをまとめて「撮像部の校正方法(キャリブレーション方法)」という)について説明する。
Hereinafter, a calibration method for the fixed
≪撮像部の校正方法(キャリブレーション方法)≫
図4は、図1に示すロボットシステムを用いた撮像部の校正方法を示すフローチャートである。図5は、図4に示す撮像部の校正で使用する校正用部材の平面図である。図6は、図4に示すモバイルカメラの校正を説明するためのフローチャートである。図7は、図6に示すモバイルカメラの校正を説明するためのロボットの概略図である。図8は、図6に示すオフセット成分を求める処理を説明するためのフローチャートである。図9は、図6に示すオフセット成分Δu、Δv、Δwを求める処理を説明するための図である。図10は、それぞれ、図8に示すオフセット成分Δx、Δyを求める処理を説明するためのフローチャートである。図11、図12、図13、図14及び図15は、それぞれ、図8に示すオフセット成分Δx、Δyを求める処理を説明するための図である。図16は、図8に示すオフセット成分Δx、Δyを求める処理を説明するための座標図である。図17は、図8に示すオフセット成分Δzを求める処理を説明するため図である。
≪Imager calibration method (calibration method) ≫
FIG. 4 is a flowchart showing a method of calibrating the imaging unit using the robot system shown in FIG. FIG. 5 is a plan view of a calibration member used for calibration of the imaging unit shown in FIG. FIG. 6 is a flowchart for explaining calibration of the mobile camera shown in FIG. FIG. 7 is a schematic diagram of a robot for explaining calibration of the mobile camera shown in FIG. FIG. 8 is a flowchart for explaining the processing for obtaining the offset component shown in FIG. FIG. 9 is a diagram for explaining processing for obtaining the offset components Δu, Δv, Δw shown in FIG. FIG. 10 is a flowchart for explaining processing for obtaining the offset components Δx and Δy shown in FIG. 11, FIG. 12, FIG. 13, FIG. 14 and FIG. 15 are diagrams for explaining the processing for obtaining the offset components Δx and Δy shown in FIG. 8, respectively. FIG. 16 is a coordinate diagram for explaining processing for obtaining the offset components Δx and Δy shown in FIG. FIG. 17 is a diagram for explaining the processing for obtaining the offset component Δz shown in FIG.
図4に示すように、本実施形態の撮像部の校正方法では、固定カメラ2の校正(ステップS1)を行った後、モバイルカメラ3の校正(ステップS2)を行う。
撮像部の校正は、作業者が操作機器42を用いて制御装置5に撮像部の校正開始の指示をすることにより開始される。そして、作業者が制御装置5に撮像部の校正開始の指示さえすれば、それ以降、撮像部の校正は、ロボットシステム100により自動的に行われる。なお、この撮像部の校正は、例えば、ロボット1の作業内容等が変わるごとに行われる。
As shown in FIG. 4, in the calibration method of the imaging unit of the present embodiment, the calibration of the mobile camera 3 (step S2) is performed after the calibration of the fixed camera 2 (step S1).
Calibration of the imaging unit is started when the operator instructs the
ここで、本実施形態では、図5に示す校正用部材70(キャリブレーションボード)を用いて撮像部の校正を行う。
校正用部材70は、四角形の平板状の部材であり、校正用部材70の表面701には、複数のマーカー75が付されている。複数のマーカー75は、互いに同じ円形状(形状)であり、互いにほぼ同じ大きさである。また、複数のマーカー75は、隣り合うマーカー75同士のピッチ(間隔)が全てほぼ一定になるように配置されている。また、マーカー75同士のピッチは、予め測定されており、既知である。
Here, in the present embodiment, the imaging unit is calibrated using the calibration member 70 (calibration board) shown in FIG.
The
これら複数のマーカー75のうちの図5中の上側に位置するマーカー75と、図5中の中央部(表面701の中央部)に位置するマーカー75と、図5中の右側に位置するマーカー75には、それぞれ、マーカー75を囲む円がさらに付されている。これら3つのマーカー75とそれを囲む円とで構成された同心円状をなすマーカーのうち、図5中の上側に位置するマーカーを「第1マーカー71(第1基準点)」とし、図5中の中央部に位置するマーカーを「第2マーカー72(第2基準点)」とし、図5中の右側に位置するマーカーを「第3マーカー73(第3基準点)」とする。このような第1マーカー71、第2マーカー72及び第3マーカー73は、後述する撮像部の校正の基準面を特定する処理において、基準マーカーとして用いられる。それゆえ、第1マーカー71、第2マーカー72及び第3マーカー73は、互いに異なる位置にあり、かつ、第1マーカー71、第2マーカー72及び第3マーカー73が同一直線上にない。
Among the plurality of
なお、複数のマーカー75、第1マーカー71、第2マーカー72及び第3マーカー73の形状は、それぞれ、図示の形状に限定されず、いかなる形状であってもよい。また、マーカー75、第1マーカー71、第2マーカー72及び第3マーカー73は、それぞれ、視認できる形態であればよく、いかなる色であってもよいし、凹凸を有する形態であってもよい。また、複数のマーカー75、第1マーカー71、第2マーカー72及び第3マーカー73は、異なる形態あってもよい。例えば、複数のマーカー75、第1マーカー71、第2マーカー72及び第3マーカー73は、それぞれ異なる色や形であってもよい。ただし、第1マーカー71、第2マーカー72及び第3マーカー73は、基準マーカーとして用いるため、他のマーカー75との識別力を有する形態であることが好ましい。
Note that the shapes of the plurality of
このような構成の校正用部材70は、作業者による撮像部の校正開始の指示をする前に、予め、ロボット1にハンド102で把持させておく。また、本実施形態では、第2マーカー72が第6アーム16の中心軸A6上に位置するように、ハンド102によって校正用部材70を把持させる。また、本実施形態では、ロボット座標系における軸座標O6の座標に対する第2マーカー72の座標が特定されており、ロボット座標系における第2マーカー72の座標を求めることができるようになっている。
The
なお、本実施形態では、第2マーカー72が第6アーム16の中心軸A6上に位置しているが、ロボット座標系における第2マーカー72の座標を求めることができるよう設定されていれば、第2マーカー72が第6アーム16の中心軸A6上に位置していなくてもよい。
In the present embodiment, the
<固定カメラの校正(ステップS1)>
図4に示すように、作業者による撮像部の校正の開始の指示がなされると、制御装置5は、まず、固定カメラ2の校正(ステップS1)を開始する。
固定カメラ2の校正(ステップS1)では、基準面を特定する処理を行った後、固定カメラ2の画像座標系とロボット座標系との関係を求める処理を行う。
<Calibration of fixed camera (step S1)>
As shown in FIG. 4, when an instruction to start calibration of the imaging unit is given by the operator, the
In the calibration of the fixed camera 2 (step S1), after the process of specifying the reference plane is performed, the process of obtaining the relationship between the image coordinate system of the fixed
[基準面を特定する処理]
以下、基準面を特定する処理を説明する。
基準面を特定する処理が開始すると、まず、制御装置5は、ロボットアーム10を駆動させて、校正用部材70を固定カメラ2に対向させる。
次いで、制御装置5は、ロボットアーム10を駆動させて、校正用部材70に付された第2マーカー72が固定カメラ2の画像の中心部に位置するように校正用部材70を移動させる。
[Process to identify reference plane]
Hereinafter, processing for specifying the reference plane will be described.
When the process of specifying the reference plane is started, first, the
Next, the
次いで、制御装置5は、固定カメラ2に第2マーカー72を撮像させる。このとき、制御装置5は、固定カメラ2の焦点が第2マーカー72に合う(合焦する)ように、ロボットアーム10を駆動させることにより、校正用部材70を移動させる処理(合焦処理)を行う。なお、この合焦処理は省略しても構わない。
次いで、制御装置5は、固定カメラ2で撮像した第2マーカー72の画像を「第1画像」として記憶部54に記憶し、かつ、第1画像を撮像した際のロボット座標系における軸座標O6の座標を記憶部54に記憶する。ここで、固定カメラ2における基準面を特定する処理では、第1画像を撮像した際の第2マーカー72を「第1基準マーカー」とする。
次に、制御装置5は、ロボットアーム10を駆動させて、固定カメラ2の画像上において移動させた位置とは異なる位置に第2マーカー72が位置するように、校正用部材70をロボット座標系におけるxr軸、yr軸及びzr軸に沿って並進移動させる。
Next, the
Next, the
Next, the
次いで、制御装置5は、固定カメラ2に第2マーカー72を撮像させる。
次いで、固定カメラ2で撮像した画像における第2マーカー72の形状及び大きさと、記憶部54に記憶した第1画像における第2マーカー72の形状及び大きさとを比較する。そして、第2マーカー72の形状及び大きさと、第1画像における第2マーカー72の形状及び大きさとの差が、所定の閾値内であるか否かを判断する。
所定の閾値内でないと判断した場合には、所定の閾値内になるようにロボットアーム10の駆動により校正用部材70を移動させる。
次に、制御装置5は、所定の閾値内であると判断したら、固定カメラ2で撮像した第2マーカー72の画像を「第2画像(第n画像)」として記憶部54に記憶し、かつ、第2画像(第n画像)を撮像した際のロボット座標系における軸座標O6の座標を記憶部54に記憶する。ここで、固定カメラ2における基準面を特定する処理では、第2画像を撮像した際の第2マーカー72を「第2基準マーカー」とする。なお、第2画像を撮像する際には、ハンド102に把持されている校正用部材70に付された第2マーカー72は、第1画像を撮像する際における位置と異なる位置にある。
Next, the
Next, the shape and size of the
When it is determined that it is not within the predetermined threshold, the
Next, when the
次に、撮像した画像の数nが予め設定した所定数(ただし、nは整数であって、3≦nの関係を満足する数)であるか否かを判断する。
ここで、本実施形態では、画像の数が3になるまで画像を取得すること、すなわち、固定カメラ2で3つの画像(第1画像、第2画像及び第3画像)を撮像することを予め設定している。ここで、固定カメラ2における基準面を特定する処理では、第3画像を撮像した際の第2マーカー72を「第3基準マーカー」とする。なお、第3画像を撮像する際には、ハンド102に把持されている校正用部材70に付された第2マーカー72は、第1画像を撮像する際における位置及び第2画像を撮像する際における位置と異なる位置にあり、それらは同一直線上にない。また、固定カメラ2における基準面を特定する処理では、第2マーカー72が「第1基準マーカー、第2基準マーカー及び第3基準マーカー」を兼ねていると捉えることができる。
Next, it is determined whether or not the number n of captured images is a predetermined number (where n is an integer and satisfies the relationship of 3 ≦ n).
Here, in the present embodiment, acquiring images until the number of images reaches three, that is, capturing three images (first image, second image, and third image) with the fixed
次に、画像の数nが所定数であると判断したら、処理部53は、記憶部54に記憶したn個(本実施形態では3つ)のロボット座標系における軸座標O6の座標を基に、撮像素子21(3つの異なる箇所に配置された状態の第2マーカー72を通る平面)に平行な基準面81の原点及びx軸、y軸、z軸の各方向を求める。そして、制御装置5は、ロボット座標系における基準面81の位置及び姿勢、すなわち、基準面81の成分xr、yr、zr、ur、vr、wrを定義する。
Next, if it is determined that the number n of images is a predetermined number, the
[固定カメラの画像座標系とロボット座標系との関係を求める処理]
次に、固定カメラの画像座標系とロボット座標系との関係を求める処理を行う。
制御装置5は、まず、ロボットアーム10を駆動させて、基準面81内の格子状に配列された任意の9つの基準点(仮想の目標点)にそれぞれ軸座標O6が位置するように、校正用部材70を移動させる。すなわち、第2マーカー72を格子状に配列された9つの箇所に移動させる。このとき、制御装置5は、校正用部材70を移動させるごとに、固定カメラ2に第2マーカー72を撮像させる。
ここで、9つの基準点は、全て固定カメラ2の画像の範囲内(撮像領域内)にあり、隣り合う基準点同士の間隔が全て等しくなっているものとする。
[Process to obtain the relationship between the image coordinate system of the fixed camera and the robot coordinate system]
Next, processing for obtaining the relationship between the image coordinate system of the fixed camera and the robot coordinate system is performed.
First, the
Here, it is assumed that the nine reference points are all within the range of the image of the fixed camera 2 (in the imaging region), and the intervals between adjacent reference points are all equal.
次に、制御装置5は、9つの画像に基づいた固定カメラ2の画像座標系における第2マーカー72の座標(成分xa、ya、ua)と、ロボット座標系における基準面81の座標(成分xr、yr、ur)とに基づいて、固定カメラ2の画像座標をロボット座標系における基準面81の座標に変換する補正パラメーター(座標変換行列)を求める。
このようにして求めた補正パラメーターを用いれば、固定カメラ2で撮像した対象物等の位置及び姿勢(具体的には、成分xa、ya、ua)をロボット座標系における値(具体的には、成分xr、yr、ur)に変換することができる。なお、この補正パラメーターは、レンズ22の歪み等の固定カメラ2の内部パラメーターも加味した値である。
Next, the
Using the correction parameters obtained in this way, the position and orientation (specifically, components xa, ya, ua) of an object or the like imaged by the fixed
<モバイルカメラの校正(ステップS2)>
次に、制御装置5は、図4に示すモバイルカメラ3の校正(ステップS2)を開始する。
図6に示すように、モバイルカメラ3の校正(ステップS2)では、基準面を特定する処理(ステップS21)、オフセット成分を求める処理(ステップS22)、作業面を特定する処理(ステップS23)、ロボット1にマーカーの位置及び姿勢を教示する処理(ステップS24)、及び、モバイルカメラ3の画像座標系とロボット座標系との関係を求める処理(ステップS25)を、この順に行う。
<Calibration of mobile camera (step S2)>
Next, the
As shown in FIG. 6, in the calibration (step S2) of the
[基準面を特定する処理(ステップS21)]
まず、図7に示すように、基準面を特定する処理(ステップS21)を行う前に、予め、ハンド102で把持していた校正用部材70を作業台61の作業面611上に載置しておく。その後、基準面を特定する処理(ステップS21)を行う。
まず、制御装置5は、ロボットアーム10を駆動させて、モバイルカメラ3を校正用部材70に対向させる。次いで、制御装置5は、ロボットアーム10を駆動させて、校正用部材70に付された第1マーカー71がモバイルカメラ3の画像の中心部に位置するようにモバイルカメラ3を移動させる。
[Process for Specifying Reference Surface (Step S21)]
First, as shown in FIG. 7, the
First, the
次いで、制御装置5は、モバイルカメラ3に第1マーカー71を撮像させる。このとき、制御装置5は、モバイルカメラ3の焦点が第1マーカー71に合う(合焦する)ようにロボットアーム10を駆動させることにより、モバイルカメラ3を移動させる処理(合焦処理)を行う。なお、この合焦処理は省略しても構わない。
次いで、制御装置5は、モバイルカメラ3で撮像した第1マーカー71の画像を「第1画像」として記憶部54に記憶し、かつ、第1画像を撮像した際のロボット座標系における軸座標O6の座標を記憶部54に記憶する。ここで、モバイルカメラ3における基準面を特定する処理では、第1マーカー71を「第1基準マーカー」とする。
次に、制御装置5は、ロボットアーム10を駆動させて、第2マーカー72がモバイルカメラ3の画像の中心部に位置するようにモバイルカメラ3を並進移動させる。
次いで、制御装置5は、モバイルカメラ3に第2マーカー72(第nマーカー)を撮像させる。
Next, the
Next, the
Next, the
Next, the
次いで、モバイルカメラ3で撮像した画像における第2マーカー72の形状及び大きさと、記憶部54に記憶した第1画像における第1マーカー71の形状及び大きさとを比較する。そして、第2マーカー72の形状及び大きさと、第1マーカー71の形状及び大きさとの差が、所定の閾値内であるか否かを判断する。
所定の閾値内でないと判断した場合には、所定の閾値内になるようにロボットアーム10の駆動によりモバイルカメラ3を移動させる。
次に、制御装置5は、所定の閾値内であると判断したら、モバイルカメラ3で撮像した第2マーカー72(第nマーカー)の画像を「第2画像(第n画像)」として記憶部54に記憶し、かつ、第2画像(第n画像)を撮像した際のロボット座標系における軸座標O6の座標を記憶部54に記憶する。ここで、モバイルカメラ3における基準面を特定する処理(ステップS21)では、第2マーカー72を「第2基準マーカー」とする。
Next, the shape and size of the
If it is determined that it is not within the predetermined threshold, the
Next, when the
次に、撮像した画像の数nが予め設定した所定数(ただし、nは整数であって、3≦nの関係を満足する数)であるか否かを判断する。
ここで、本実施形態では、モバイルカメラ3で3つの画像(第1画像、第2画像及び第3画像)を撮像することを予め設定している。そのため、本実施形態では、モバイルカメラ3で第2画像を撮像した後に、さらにもう1回、モバイルカメラ3で撮像した第3マーカー73の画像を「第3画像」として記憶部54に記憶し、かつ、第3画像を撮像した際のロボット座標系における軸座標O6の座標を記憶部54に記憶する。ここで、モバイルカメラ3における基準面を特定する処理では、第3マーカー73を「第3基準マーカー」とする。
Next, it is determined whether or not the number n of captured images is a predetermined number (where n is an integer and satisfies the relationship of 3 ≦ n).
Here, in this embodiment, it is preset that the
次に、画像の数nが所定数であると判断したら、処理部53は、記憶部54に記憶したn個(本実施形態では3つ)のロボット座標系における軸座標O6の座標を基に、図7に示すような表面701(第1マーカー71、第2マーカー72及び第3マーカー73を通る平面)に平行な基準面82の原点及びx軸、y軸、z軸の各方向を求める。そして、制御装置5は、ロボット座標系における基準面82の位置及び姿勢、すなわち、基準面82の成分xr、yr、zr、ur、vr、wrを定義する。
Next, if it is determined that the number n of images is a predetermined number, the
[オフセット成分を求める処理(ステップS22)]
次に、オフセット成分を求める処理(ステップS22)を、図8に示すフローチャートを参照しつつ説明する。
[Process for obtaining offset component (step S22)]
Next, the process for obtaining the offset component (step S22) will be described with reference to the flowchart shown in FIG.
ここで、前述したように、モバイルカメラ3は、設計上、光軸OA3が第6アーム16の中心軸A6に対してほぼ平行になるように、第6アーム16に対してオフセットして取り付けられている。しかし、実際には、その設計上のオフセット成分(第6アーム16に対するモバイルカメラ3の位置及び姿勢)からズレが生じる。このズレは、例えば、モバイルカメラ3の組み付け誤差や、モバイルカメラ3の筐体に対する撮像素子31の組み付け誤差等により生じる。
Here, as described above, the
そこで、このオフセット成分を求める処理(ステップS22)にて、実際のオフセット成分(第6アーム16に対するモバイルカメラ3の位置及び姿勢)を求める。
以下のオフセット成分を求める処理(ステップS22)では、回動軸部材161の軸座標O6に対するモバイルカメラ3の撮像基準点O3の位置及び光軸OA3の方向(姿勢)のオフセット成分(Δx、Δx、Δy、Δu、Δv、Δw)を求める。
Therefore, an actual offset component (position and posture of the
In the processing for obtaining the following offset components (step S22), the offset components (Δx, Δx,...) Of the position of the imaging reference point O3 of the
なお、本実施形態では、軸座標O6に対する撮像基準点O3の位置及び光軸OA3の方向のオフセット成分を求めるが、オフセット成分を求めるにあたり基準とする箇所は、軸座標O6及び撮像基準点O3に限定されず任意である。例えば、オフセット成分を求めるにあたり基準とする箇所を、ロボットアーム10に装着されたハンド102のTCP等のツールの所定部位であってもよい。
In the present embodiment, the position of the imaging reference point O3 with respect to the axis coordinate O6 and the offset component in the direction of the optical axis OA3 are obtained, but the reference points for obtaining the offset component are the axis coordinate O6 and the imaging reference point O3. It is not limited and is arbitrary. For example, the reference part for obtaining the offset component may be a predetermined part of a tool such as TCP of the
図8に示すように、オフセットを求める処理(ステップS22)が開始すると、まず、制御装置5は、ロボットアーム10を駆動させて、モバイルカメラ3に校正用部材70を検出させる(ステップS221)。
次に、制御装置5は、モバイルカメラ3の受光面311が校正用部材70の表面701に正対するようにロボットアーム10を駆動させる(ステップS222)。
As shown in FIG. 8, when the process for obtaining the offset (step S22) is started, the
Next, the
次いで、制御装置5は、モバイルカメラ3の受光面311に対する校正用部材70の表面701の平行度を検証する(ステップS223)。そして、制御装置5は、平行度が所定の閾値内であるか否かを判断する(ステップS224)。
図9に示すように、平行度は、画像における表面701に付された隣り合うマーカー75同士のピッチPの差を用いて検証する。例えば、図9中の実線で示すように、隣り合うマーカー75同士のピッチP1、P2、P3、P4の差がほぼ同じであり、その差が所定の閾値内である場合には、ステップS225に移行する。一方、図9中の2点鎖線で示すように、隣り合うマーカー75同士のピッチP1’、P2’、P3’、P4’の差が異なり、その差が所定の閾値を超える場合には、所定の閾値内になるまで、ステップS221からステップS224を繰り返す。ここで、所定の閾値内であることは、前述した基準面82と光軸OA3とが閾値以内で垂直になっていることを意味する。
Next, the
As shown in FIG. 9, the parallelism is verified using a difference in pitch P between
次に、制御装置5は、所定の閾値内であると判断したら、所定の閾値内であると判断した際のロボット座標系における軸座標O6の成分ur、vr、wrと、前述した基準面を特定する処理(ステップS21)で求めた際のロボット座標系における基準面82の成分ur、vr、wrとの差からオフセット成分Δu、Δv、Δwを求める(ステップS225)。このオフセット成分Δu、Δv、Δwは、軸座標O6に対する光軸OA3のオフセット成分Δu、Δv、Δwに相当する。
Next, when the
次に、図8に示すように、制御装置5は、軸座標O6に対する撮像基準点O3のオフセット成分Δx、Δyを求める(ステップS226)。以下、オフセット成分Δx、Δyを求める方法を図10〜図16を参照しつつ説明する。なお、図10は、オフセット成分Δx、Δyを求める処理をフローチャートであり、図11〜図16は、例えば、ロボット1を鉛直方向上方から見たときのモバイルカメラ3及び第6アーム16を模式的に示している。
Next, as shown in FIG. 8, the
具体的には、まず、制御装置5は、マーカーを画像の中央に移動させる(ステップS2261)。図11に示すように、制御装置5は、例えばモバイルカメラ3の画像30の中心O30(重心)に第2マーカー72が位置するようにロボットアーム10を駆動させる。この図11に示すモバイルカメラ3及び第6アーム16の姿勢を「第1姿勢」とし、この状態を「第1状態」とする。ここで、画像30の中心O30と撮像基準点O3は一致している。また、図11に示す第6アーム16に装着されたハンド102の位置を「第1位置」とする。
Specifically, first, the
次いで、制御装置5は、ロボット1の姿勢を変化させる(ステップS2262)。制御装置5は、TCPを回転軸として5°程度回転させる。具体的には、図12に示すように、制御装置5は、第1姿勢で、ロボットアーム10を駆動させて第6アーム16を中心軸A6周りに所定の角度で回動させる。この際の所定の角度は、画像30外に第2マーカー72が出ない範囲内(モバイルカメラ3の撮像領域内に収まる範囲内)の所定の角度(例えば1〜10°程度)とする。
Next, the
次いで、制御装置5は、マーカーを画像の中央に移動させる(ステップS2263)。具体的には、図13に示すように、制御装置5は、ロボットアーム10を駆動させて、第2マーカー72が中心O30に一致するようにモバイルカメラ3及び第6アーム16をロボット座標系におけるxr軸及びyr軸を含む平面(基準面82のx−y平面)に平行な平面内に並進移動させる。この図13に示すモバイルカメラ3及び第6アーム16の姿勢を「第2姿勢」とし、この状態を「第2状態」とする。
Next, the
次いで、制御装置5は、ツールオフセットを計算し、ツール1に設定する(ステップS2264)。このような第1状態から第4状態となるモバイルカメラ3及び第6アーム16の移動は、図11に示す第1状態と図13に示す第2状態とを見ると、中心O30(撮像基準点O3)を通る線分を回動中心軸にして軸座標O6(第6アーム16)が回動していることと同等であることが分かる。したがって、図11−図13に示すように、第1状態から第2状態となる移動は、中心O30(撮像基準点O3)を通る線分を回動中心軸として軸座標O6を回動角度θ10で移動させたことと等しい。それゆえ、回動角度θ10と、第1状態でのロボット座標系における軸座標O6の座標と、第2状態でのロボット座標系における軸座標O6の座標とに基づいて、ロボット座標系における撮像基準点O3の座標を求める。そして、求めたロボット座標系における撮像基準点O3の座標と、第1状態及び第3状態のいずれか一方のロボット座標系における軸座標O6の座標とから、軸座標O6に対する撮像基準点O3の仮オフセット成分Δx’、Δy’(仮ツールセット)を求める。
Next, the
次いで、制御装置5は、ロボットアーム10の第6アーム16に装着されたハンド102を移動させる(ステップS2265)。ロボット1の近傍に、他のロボット、装置等の干渉物(障害物)X1が配置されていた場合について考える。この場合、あるロボット1が、当該ロボット1が有するロボットアーム10の第6アーム16に装着されたハンド102を中心軸A6周りに所定の角度で回動させた場合に、ハンド102が干渉物X1に接触してしまうことが想定される。
そこで、本実施形態では、第2状態で、ハンド102を中心軸A6周りに所定の角度で回動させるとハンド102が干渉物X1に接触してしまう場合、制御装置5は、ロボットアーム10の第6アーム16に装着されたハンド102を第1位置から、ハンド102を中心軸A6周りに所定の角度で回動させてもハンド102が干渉物X1に接触しない第2位置へ移動させる。具体的には、制御装置5は、この一例において、当該場合には、現在のモバイルカメラ3の姿勢を保持したまま、当該ハンド102を第1位置から上方向へ所定の距離だけ移動させることによって、ハンド102を中心軸A6周りに所定の角度で回動させてもハンド102が障害物X1に接触しない第2位置へ並進移動させる(逃がす)。なお、制御装置5は、ハンド102を第1位置から上方向へ所定の距離だけ移動させることに代えて、他の方向に所定の距離だけ並進移動させる構成であってもよく、予め決められた他の位置に移動させる構成であってもよい。予め決められた他の位置に移動させる場合、第1位置と第2位置とのそれぞれにおいて、モバイルカメラ3の姿勢は、同じ姿勢でなければならない。しかし、第1位置から第2位置までの移動中におけるモバイルカメラ3の姿勢は、変化してもよい。
Next, the
Therefore, in the present embodiment, in the second state, when the
次いで、制御装置5は、ロボットの姿勢を変化させる(ステップS2266)。具体的には、制御装置5は、第1の姿勢に対して、ツール先端を回転中心として180°回転させる。ツール先端を回転中心として180°回転させた状態のモバイルカメラ3及び第6アーム16を図14に示す。図14に示した例では、制御装置5がハンド102を第1位置から第2位置へ移動させた後においても、モバイルカメラ3の画像30に第2マーカー72が入っている。なお、この状態では、モバイルカメラ3の画像30に第2マーカー72が入っていなくてもよい。
Next, the
次いで、制御装置5は、第6アーム16に装着されたハンド102の位置を第1位置に移動させる(ステップS2267)。この場合において、ロボットの姿勢は、第1の姿勢と180°異なる。
次いで、制御装置5は、マーカーを画像の中央に移動させる(ステップS2268)。具体的には、制御装置5は、第2マーカー72が画像30外に出ないように仮オフセット成分Δx’、Δy’を基にしてロボットアーム10を駆動させ、撮像基準点O3(中心O30)を通る線分を回動中心軸として軸座標O6を所定の角度で回動させる。図15に示すように、制御装置5は、ロボットアーム10の駆動によりモバイルカメラ3及び第6アーム16をロボット座標系におけるxr軸及びyr軸を含む平面(基準面82のx−y平面)に平行な平面内に並進移動させ、画像30の中心O30に第2マーカー72を位置させる。この図15に示すモバイルカメラ3及び第6アーム16の姿勢を「第3姿勢」とし、この状態を「第3状態」とする。
Next, the
Next, the
次いで、制御装置5は、ツールオフセットを計算し、ツール1に設定する(ステップS2269)。このような図11の第1状態から、図15の第3状態となるモバイルカメラ3及び第6アーム16の移動は、図11に示す第1状態と図15に示す第3状態とを見ると、中心O30(撮像基準点O3)を通る線分を回動中心軸にして軸座標O6を回動させていることと同等であることが分かる。したがって、図16に示すように、図11の第1状態から図15の第3状態となる移動は、中心O30(撮像基準点O3)を通る線分を回動中心軸として軸座標O6を回動角度θ1で移動させたことと等しい。それゆえ、回動角度θ1と、第1状態でのロボット座標系における軸座標O6の座標と、第3状態でのロボット座標系における軸座標O6の座標とに基づいて、ロボット座標系における撮像基準点O3の座標を求める。そして、求めたロボット座標系における撮像基準点O3の座標と、第1状態及び第3状態のいずれか一方のロボット座標系における軸座標O6の座標とから、軸座標O6に対する撮像基準点O3のオフセット成分Δx、Δy(ツールセット)を求める。
次いで、制御装置5は、ロボットアーム10の第6アーム16に装着されたハンド102を干渉物がない場所に移動させる(ステップS2270)。
次いで、制御装置5は、ロボットの姿勢を元に戻す(ステップS2271)。具体的には、制御装置5は、ツール先端を回転中心として−180°回転させる。
次いで、制御装置5は、第6アーム16に装着されたハンド102の位置を第1位置に移動させる(ステップS2272)。
Next, the
Next, the
Next, the
Next, the
このような処理によれば、軸座標O6に対する撮像基準点O3のオフセット成分Δx、Δyを容易かつ高精度に求めることができる。
また、前述したように、本実施形態では、第1状態から第2状態に移行する処理を行うことにより、仮オフセット成分Δx’、Δy’を算出している。すなわち、第2マーカー72がモバイルカメラ3の画像30内(撮像領域内)に収まる範囲内の微小な角度で、第6アーム16を中心軸A6周りに回動させる処理を行うことで、仮オフセット成分Δx’、Δy’を算出している。このような仮オフセット成分Δx’、Δy’の情報を用いて、ステップS2268の処理を行うことで、第2マーカー72を確実に画像30内に写すことができる。
According to such processing, the offset components Δx and Δy of the imaging reference point O3 with respect to the axis coordinate O6 can be obtained easily and with high accuracy.
Further, as described above, in the present embodiment, the temporary offset components Δx ′ and Δy ′ are calculated by performing the process of shifting from the first state to the second state. That is, the temporary offset is performed by performing the process of rotating the
次に、図8に示すように、制御装置5は、軸座標O6に対する撮像基準点O3のオフセット成分Δzを求める(ステップS227)。以下、オフセット成分Δzを求める方法を、図17を参照しつつ説明する。なお、図17は、オフセット成分Δzを求める際のモバイルカメラ3及び第6アーム16の過程を図示しており、説明の便宜上、図17中の実線で示すモバイルカメラ3が、「設計上のモバイルカメラ3」の位置を示しており、図17中の点線で示すモバイルカメラ3’が、「実際のモバイルカメラ3」の位置を示している。
Next, as shown in FIG. 8, the
図17に示すように、まず、制御装置5は、例えば第2マーカー72がモバイルカメラ3’の画像の中心に写るようにロボットアーム10を駆動させて、図16に示す状態Aとする。次いで、制御装置5は、モバイルカメラ3’で第2マーカー72を撮像して、図17に示すモバイルカメラ3の受光面311と第2マーカー72との間の距離Hを求める。
ここで、本実施形態では、モバイルカメラ3の焦点距離は予め求められていて、既知である。このため、距離Hは、例えば、モバイルカメラ3の焦点距離と、モバイルカメラ3の画像におけるマーカー75同士のピッチの長さ「ピクセル」と、実際のマーカー75同
士のピッチ「mm」とから算出することができる。
As shown in FIG. 17, first, the
Here, in the present embodiment, the focal length of the
なお、モバイルカメラ3の焦点距離は、例えば、校正用部材70のマーカー75を写しながら、モバイルカメラ3を光軸OA3方向(zr方向)へ微小量だけ動かした場合における動作前後での、画像上のマーカー75同士のピッチの長さ「ピクセル」と、実際のマーカー75同士のピッチ「mm」とから求めることも可能である。
次いで、図16中の状態Bに示すように、制御装置5は、ロボットアーム10を駆動させて、モバイルカメラ3’を設計上のオフセット成分Δzを基に角度θ2だけ傾ける。
The focal length of the
Next, as shown in state B in FIG. 16, the
次いで、図16中の状態Cに示すように、制御装置5は、ロボットアーム10を駆動させて、状態Bのモバイルカメラ3’の姿勢を保ったまま、第2マーカー72がモバイルカメラ3’の画像の中心に写るようにモバイルカメラ3’をロボット座標系におけるxr軸及びyr軸を含む平面(基準面82のx−y平面)に平行な面内に並進移動させる。そして、制御装置5は、このときのロボット座標系における軸座標O6の移動距離X’(具体的には、設計上のオフセット成分Δzに基づく、基準面82のx−y平面に平行な面内での撮像基準点O3の移動距離)を求める。
Next, as shown in state C in FIG. 16, the
次いで、制御装置5は、下記の式(1)より、モバイルカメラ3’の実際のオフセット成分Δzを求めるための補正量ΔHを求める。
ΔH=(X´/tanθ2)−H (1)
次いで、制御装置5は、補正量ΔHと設計上のオフセット成分Δzとを基に、実際のオフセット成分Δzを求める。
このようにして、オフセット成分Δzを求めることができる。このような処理によれば、オフセット成分Δzを容易に算出することができる。
Next, the
ΔH = (X ′ / tan θ2) −H (1)
Next, the
In this way, the offset component Δz can be obtained. According to such processing, the offset component Δz can be easily calculated.
次に、図8に示すように、制御装置5は、設計上のオフセット成分から、求めた実際のオフセット成分Δx、Δy、Δz、Δu、Δv、Δwにデータを更新する(ステップS228)。
以上にて、図6に示すオフセットを求める処理(ステップS22)が終了する。
Next, as shown in FIG. 8, the
Thus, the process for obtaining the offset shown in FIG. 6 (step S22) is completed.
[作業面を特定する処理(ステップS23)]
次に、図6に示すように、作業面を特定する処理(ステップS23)を行う。作業面を特定する処理(ステップS23)は、ロボット座標系における作業面611の位置及び姿勢、すなわち、作業面611の成分xr、yr、zr、ur、vr、wrを求める処理である。
[Process for Specifying Work Surface (Step S23)]
Next, as shown in FIG. 6, a process of specifying a work surface (step S23) is performed. The process for identifying the work surface (step S23) is a process for obtaining the position and orientation of the
ここで、作業面611は、基準面82に対して平行であり、基準面82の法線方向(zr方向)にオフセットした位置にある。このため、この作業面を特定する処理(ステップS23)では、作業面611の基準面82に対する法線方向(zr方向)のオフセット量を決定することにより、作業面611の成分xr、yr、zr、ur、vr、wrを求めることができる。
Here, the
作業面611の基準面82に対する法線方向(zr方向)のオフセット量は、予め求めておいたモバイルカメラ3の焦点距離と、校正用部材70の隣り合うマーカー75のピッチの値(実寸)に対するモバイルカメラ3の画素数と、前述した実際のオフセット成分とに基づいて求めることができる。
The offset amount in the normal direction (zr direction) of the
このようにしてロボット座標系における作業面611の位置及び姿勢を求めることで、ロボット1は作業面611上に載置された対象物に対して高精度に作業を行うことができる。
By obtaining the position and orientation of the
[ロボットにマーカーの位置及び姿勢を教示する処理(ステップS24)]
次に、図6に示すように、ロボット1にマーカーの位置及び姿勢を教示する処理(ステップS24)を行う。
ここでは、例えば、基準面82(または作業面611)のx−y平面における第2マーカー72のロボット座標をロボット1に教示する。
[Process of Teaching Robot to Position and Posture of Marker (Step S24)]
Next, as shown in FIG. 6, processing for teaching the position and posture of the marker to the robot 1 is performed (step S24).
Here, for example, the robot 1 is taught the robot coordinates of the
具体的には、まず、制御装置5は、前述したオフセット成分を求める処理(ステップS22)にて算出した軸座標O6に対する撮像基準点O3の位置及び光軸OA3の方向のオフセット成分を基にして、基準面82のz軸にモバイルカメラ3の光軸OA2を得る。その後、制御装置5は、ロボットアーム10の駆動により、基準面82のx−y平面に平行な面内にモバイルカメラ3を並進移動させ、第2マーカー72をモバイルカメラ3の画像中心に合わせる。そして、制御装置5は、第2マーカー72をモバイルカメラ3の画像中心に合せた際のモバイルカメラ3の撮像基準点O3の位置を第2マーカー72のロボット座標として教示する。
Specifically, first, the
なお、例えば、軸座標O6におけるオフセットが既知である教示専用ツール(タッチアップ用ハンド)を第2マーカー72に接触させることにより、ロボット1にマーカー75の位置及び姿勢を教示してもよい。ただし、モバイルカメラ3で第2マーカー72の画像を撮像することにより、ロボット1に第2マーカー72の位置及び姿勢を教示する方が、例えば校正用部材70の材質等によらずに第2マーカー72を高精度に教示することができるため、好ましい。
For example, the robot 1 may be taught the position and orientation of the
[モバイルカメラの画像座標系とロボット座標系との関係を求める処理(ステップS25)]
次に、図6に示すように、モバイルカメラの画像座標系とロボット座標系との関係を求める処理(ステップS25)を行う。
モバイルカメラ3の画像座標系とロボット座標系との関係を求める処理(ステップS25)が終了すると、9つの画像に基づいたモバイルカメラ3の画像座標系における第2マーカー72の座標(成分xb、yb、ub)と、前述したステップS21で求めたロボット座標系における基準面82の座標(成分xr、yr、ur)とに基づいて、固定カメラ2の画像座標をロボット座標系における基準面82の座標に変換する補正パラメーター(座標変換行列)を求めることができる。
[Process for obtaining relationship between image coordinate system of mobile camera and robot coordinate system (step S25)]
Next, as shown in FIG. 6, a process of obtaining the relationship between the image coordinate system of the mobile camera and the robot coordinate system (step S25).
When the process of obtaining the relationship between the image coordinate system of the
このようにして求めた補正パラメーターを用いれば、モバイルカメラ3で撮像した対象物等の位置及び姿勢(具体的には、成分xb、yb、ub)をロボット座標系における値(具体的には、成分xr、yr、ur)に変換することができる。
以上により、図4に示す撮像部の校正が終了する。
このような撮像部の校正方法によれば、固定カメラ2及びモバイルカメラ3でそれぞれ撮像した画像を基にして基準面81、82の姿勢を求めることができるため、従来のように作業者による判断を省くことができる。そのため、人為的な誤差や、作業者によるバラツキを低減することができ、よって、高精度な校正ができる。
Using the correction parameters obtained in this way, the position and orientation (specifically, components xb, yb, ub) of the object and the like imaged by the
Thus, the calibration of the imaging unit shown in FIG. 4 is completed.
According to such a calibration method of the imaging unit, the postures of the reference planes 81 and 82 can be obtained based on the images captured by the fixed
以上、本発明のロボット、制御装置及びロボットシステムを、図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、他の任意の構成物が付加されていてもよい。また、本発明は、前記各実施形態のうちの、任意の2以上の構成(特徴)を組み合わせたものであってもよい。 The robot, the control device, and the robot system of the present invention have been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each unit is an arbitrary configuration having the same function. Can be substituted. Moreover, other arbitrary components may be added. Further, the present invention may be a combination of any two or more configurations (features) of the above embodiments.
また、前記実施形態では、6軸の垂直多関節ロボットを用いた場合を例に説明したが、本発明におけるロボットは、垂直多関節ロボット以外のロボット、例えば水平多関節ロボット等であってもよい。なお、水平多関節ロボットとは、例えば、基台と、基台に接続され、水平方向に延びている第1アームと、第1アームに接続され、水平方向に延びる部分を有する第2アームとを有する構成である。また、本発明におけるロボットが水平多関節ロボットである場合、前述したような校正を行うことで、例えば、ロボットが作業面に対して平行に設置されているか否かや、固定カメラの光軸がロボット座標系におけるxr軸及びyr軸を含む面に対して鉛直になるように固定カメラが設置されているか否か等を把握することができる。 In the above embodiment, a case where a 6-axis vertical articulated robot is used has been described as an example. However, the robot in the present invention may be a robot other than the vertical articulated robot, for example, a horizontal articulated robot. . The horizontal articulated robot is, for example, a base, a first arm connected to the base and extending in the horizontal direction, and a second arm connected to the first arm and having a portion extending in the horizontal direction. It is the structure which has. Further, when the robot according to the present invention is a horizontal articulated robot, by performing the calibration as described above, for example, whether the robot is installed in parallel to the work surface or whether the optical axis of the fixed camera is It can be ascertained whether or not the fixed camera is installed so as to be perpendicular to the plane including the xr axis and the yr axis in the robot coordinate system.
また、前記実施形態では、ロボットが有するロボットアームの回動軸の数は、6つであるが、本発明では、これに限定されず、ロボットアームの回動軸の数は、例えば、2つ、3つ、4つ、5つまたは7つ以上でもよい。また、前記実施形態では、ロボットが有するアームの数は、6つであるが、本発明では、これに限定されず、ロボットが有するアームの数は、例えば、2つ、3つ、4つ、5つ、または、7つ以上でもよい。 In the embodiment, the number of rotation axes of the robot arm included in the robot is six. However, the present invention is not limited to this, and the number of rotation axes of the robot arm is, for example, two. There may be three, four, five or more than seven. Moreover, in the said embodiment, the number of arms which a robot has is six, However, In this invention, it is not limited to this, For example, the number of arms which a robot has is 2, 3, 4, Five or seven or more may be used.
また、前記実施形態では、ロボットが有するロボットアームの数は、1つであるが、本発明では、これに限定されず、ロボットが有するロボットアームの数は、例えば、2つ以上でもよい。すなわち、ロボットは、例えば、双腕ロボット等の複数腕ロボットであってもよい。
また、前記実施形態では、撮像部としての固定カメラ及びモバイルカメラは、それぞれ、撮像素子及びレンズを有する構成であったが、本発明における撮像部は、第1マーカー、第2マーカー及び第3マーカーを撮像することができる構成であればいかなる構成であってもよい。
Moreover, in the said embodiment, although the number of the robot arms which a robot has is one, in this invention, it is not limited to this, For example, the number of the robot arms which a robot has may be two or more. That is, the robot may be a multi-arm robot such as a double-arm robot.
In the above-described embodiment, the fixed camera and the mobile camera as the imaging unit have an imaging element and a lens, respectively. However, the imaging unit according to the present invention includes a first marker, a second marker, and a third marker. Any configuration may be used as long as it can capture an image of the image.
また、前記実施形態では、校正用部材を用いて固定カメラの校正を行ったが、固定カメラの校正では、校正用部材を用いなくてもよい。校正用部材を用いない場合には、例えば、ロボットアームの先端部(軸座標)に1つのマーカーを付して、その1つのマーカーを基準マーカーとして用いればよい。この場合には、1つのマーカーを「第1基準マーカー、第2基準マーカー及び第3基準マーカー」と捉える。
また、前記実施形態では、ロボットアーム10に装着されるツールとして、ハンドを適用したが、ロボットアーム10に装着されるツールとしてディスペンサが適用されてもよい。
In the above embodiment, the calibration of the fixed camera is performed using the calibration member. However, the calibration member may not be used in the calibration of the fixed camera. When the calibration member is not used, for example, one marker may be attached to the tip (axis coordinate) of the robot arm, and the one marker may be used as the reference marker. In this case, one marker is regarded as “a first reference marker, a second reference marker, and a third reference marker”.
In the above embodiment, a hand is applied as a tool attached to the
以上説明したように、本実施形態におけるロボット(この一例において、ロボット1)は、第1状態(この一例において、第1状態)及び第3状態(この一例において、第3状態)において撮像部(この一例において、モバイルカメラ3)により撮像された画像に基づいて、所定部位(この一例において、ハンド102のTCP)のアーム(この一例において、ロボットアーム10)に対するオフセットを設定できる。これにより、ロボットは、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを設定するよりも、人為的な誤差や作業者によるばらつきを低減することができる。 As described above, the robot (in this example, the robot 1) in the present embodiment has the imaging unit (in this example, the first state) and the third state (in this example, the third state) in the imaging unit ( In this example, an offset with respect to an arm (in this example, the robot arm 10) of a predetermined part (in this example, the TCP of the hand 102) can be set based on an image captured by the mobile camera 3). As a result, the robot can reduce human error and variations due to the operator, rather than setting the tool offset while teaching the position of the reference point by the operator operating the arm.
また、ロボットは、障害物がない位置で、所定部位を通り撮像部の光軸に平行な回転軸を中心にツールを回転させることができる。これにより、ロボットは、障害物への衝突を回避して、所定部位を通り撮像部の光軸に平行な回転軸を中心にツールを回転させることができるため、ツールの所定部位の周辺に障害物がある場合でもオフセットを精度よく算出することができる。 Further, the robot can rotate the tool around a rotation axis parallel to the optical axis of the imaging unit through a predetermined portion at a position where there is no obstacle. As a result, the robot can avoid the collision with the obstacle and rotate the tool around the rotation axis parallel to the optical axis of the imaging unit through the predetermined part. Even when there is an object, the offset can be calculated with high accuracy.
また、制御装置は、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットを、ロボットに設定することができる。これにより、制御装置は、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを、ロボットに設定するよりも、オフセットを精度よく設定できる。 Moreover, the control apparatus can set the offset with respect to the arm of a predetermined site | part to a robot based on the image imaged by the imaging part in the 1st state and the 3rd state. Thus, the control device can set the offset with higher accuracy than setting the offset of the tool in the robot while teaching the position of the reference point by operating the arm by the operator.
また、ロボットシステムでは、制御装置は、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットを、ロボットに設定することができる。これにより、ロボットシステムでは、制御装置は、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを、ロボットに設定するよりも、オフセットを精度よく設定することができる。 Further, in the robot system, the control device can set an offset for the arm of the predetermined part in the robot based on the images captured by the imaging unit in the first state and the third state. Thereby, in the robot system, the control device can set the offset with higher accuracy than setting the offset of the tool in the robot while teaching the position of the reference point by operating the arm by the operator.
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。
また、以上に説明した装置(例えば、制御装置)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and changes, substitutions, deletions, and the like are possible without departing from the gist of the present invention. May be.
Further, a program for realizing the function of an arbitrary component in the above-described apparatus (for example, a control apparatus) is recorded on a computer-readable recording medium, and the program is read by a computer system and executed. It may be. Here, the “computer system” includes hardware such as an OS (Operating System) and peripheral devices. The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD (Compact Disk) -ROM, or a storage device such as a hard disk built in the computer system. . Furthermore, “computer-readable recording medium” means a volatile memory (RAM) inside a computer system that becomes a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
1…ロボット、2…固定カメラ、3…モバイルカメラ、3'…モバイルカメラ、5…制御装置、10…ロボットアーム、11…第1アーム、12…第2アーム、13…第3アーム、14…第4アーム、15…第5アーム、16…第6アーム、21…撮像素子、22…レンズ、30…画像、31…撮像素子、32…レンズ、41…表示機器、42…操作機器、51…駆動制御部、52…情報取得部、53…処理部、54…記憶部、61…作業台、62…供給台、70…校正用部材、71…第1マーカー、72…第2マーカー、73…第3マーカー、75…マーカー、81…基準面、82…基準面、90…作業領域、100…ロボットシステム、101…基台、102…ハンド、111…回動軸部材、120…モータードライバー、121…回動軸部材、130…駆動部、131…回動軸部材、141…回動軸部材、151…回動軸部材、161…回動軸部材、211…受光面、311…受光面、411…モニター、611…作業面、701…表面、A…状態、A6…中心軸、B…状態、C…状態、H…距離、O2…撮像基準点、O3…撮像基準点、O30…中心、O6…軸座標、OA2…光軸、OA3…光軸、P…ピッチ、P1、P2、P3、P4…ピッチ、P1'、P2'、P3'、P4'…ピッチ、TCP…ツールセンターポイント、X'…移動距離、ΔH…補正量、θ1…回動角度、θ10…回動角度、θ2…角度
DESCRIPTION OF SYMBOLS 1 ... Robot, 2 ... Fixed camera, 3 ... Mobile camera, 3 '... Mobile camera, 5 ... Control apparatus, 10 ... Robot arm, 11 ... 1st arm, 12 ... 2nd arm, 13 ... 3rd arm, 14 ... 4th arm, 15 ... 5th arm, 16 ... 6th arm, 21 ... Imaging device, 22 ... Lens, 30 ... Image, 31 ... Imaging device, 32 ... Lens, 41 ... Display device, 42 ... Operating device, 51 ... Drive
Claims (4)
前記アームは、
前記アームに装着されたツールの所定部位を撮像部によって前記所定部位を撮像可能な第1状態から移動させた第2状態で、前記所定部位を通り前記撮像部の光軸に平行な回転軸を中心に前記ツールを回転させ、前記所定部位を前記回転による姿勢の変化を保ったまま前記第1状態における位置と同じ位置である第3状態に移動させ、
前記第1状態及び前記第3状態において前記撮像部により撮像された画像に基づいて設定された前記所定部位の前記アームに対するオフセットを用いて制御される、
ロボット。 With an arm,
The arm is
In a second state in which the predetermined part of the tool attached to the arm is moved from the first state in which the predetermined part can be imaged by the imaging unit, a rotation axis that passes through the predetermined part and is parallel to the optical axis of the imaging unit The tool is rotated to the center, and the predetermined part is moved to a third state that is the same position as the position in the first state while maintaining a change in posture due to the rotation,
It is controlled using an offset for the arm of the predetermined part set based on images captured by the imaging unit in the first state and the third state.
robot.
前記第1状態で障害物がある場合に、前記ツールを第1状態から、当該障害物がない第2状態へ移動させる、
請求項1に記載のロボット。 The arm is
When there is an obstacle in the first state, the tool is moved from the first state to a second state without the obstacle;
The robot according to claim 1.
制御装置。 Controlling the robot according to claim 1 or 2,
Control device.
請求項3に記載の制御装置と、
を備えるロボットシステム。 The robot according to claim 1 or 2,
A control device according to claim 3;
A robot system comprising:
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016130876A JP2018001332A (en) | 2016-06-30 | 2016-06-30 | Robot, control device, and robot system |
| US15/637,094 US10551821B2 (en) | 2016-06-30 | 2017-06-29 | Robot, robot control apparatus and robot system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016130876A JP2018001332A (en) | 2016-06-30 | 2016-06-30 | Robot, control device, and robot system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018001332A true JP2018001332A (en) | 2018-01-11 |
| JP2018001332A5 JP2018001332A5 (en) | 2019-05-16 |
Family
ID=60944744
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016130876A Pending JP2018001332A (en) | 2016-06-30 | 2016-06-30 | Robot, control device, and robot system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018001332A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111152243A (en) * | 2018-11-08 | 2020-05-15 | 发那科株式会社 | Control system |
| JP2021139809A (en) * | 2020-03-06 | 2021-09-16 | 株式会社豊田中央研究所 | Stationary sensor calibration device and stationary sensor calibration method |
| WO2021210456A1 (en) * | 2020-04-13 | 2021-10-21 | ファナック株式会社 | Device for obtaining position of visual sensor in control coordinate system of robot, robot system, method, and computer program |
| US11338440B2 (en) | 2018-07-30 | 2022-05-24 | Fanuc Corporation | Robot system and calibration method |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH054180A (en) * | 1991-06-27 | 1993-01-14 | Toyota Autom Loom Works Ltd | Co-ordinate system matching method for multi-axis robot with hand-eye |
| JPH0885083A (en) * | 1994-09-16 | 1996-04-02 | Kobe Steel Ltd | Method for deriving and calibrating tool parameter of robot |
| JP2005300230A (en) * | 2004-04-07 | 2005-10-27 | Fanuc Ltd | Measuring instrument |
-
2016
- 2016-06-30 JP JP2016130876A patent/JP2018001332A/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH054180A (en) * | 1991-06-27 | 1993-01-14 | Toyota Autom Loom Works Ltd | Co-ordinate system matching method for multi-axis robot with hand-eye |
| JPH0885083A (en) * | 1994-09-16 | 1996-04-02 | Kobe Steel Ltd | Method for deriving and calibrating tool parameter of robot |
| JP2005300230A (en) * | 2004-04-07 | 2005-10-27 | Fanuc Ltd | Measuring instrument |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11338440B2 (en) | 2018-07-30 | 2022-05-24 | Fanuc Corporation | Robot system and calibration method |
| CN111152243A (en) * | 2018-11-08 | 2020-05-15 | 发那科株式会社 | Control system |
| JP2020075327A (en) * | 2018-11-08 | 2020-05-21 | ファナック株式会社 | Control system |
| US11241797B2 (en) | 2018-11-08 | 2022-02-08 | Fanuc Corporation | Control system |
| CN111152243B (en) * | 2018-11-08 | 2024-02-06 | 发那科株式会社 | Control system |
| JP2021139809A (en) * | 2020-03-06 | 2021-09-16 | 株式会社豊田中央研究所 | Stationary sensor calibration device and stationary sensor calibration method |
| JP7409163B2 (en) | 2020-03-06 | 2024-01-09 | 株式会社豊田中央研究所 | Stationary sensor calibration device and stationary sensor calibration method |
| WO2021210456A1 (en) * | 2020-04-13 | 2021-10-21 | ファナック株式会社 | Device for obtaining position of visual sensor in control coordinate system of robot, robot system, method, and computer program |
| JPWO2021210456A1 (en) * | 2020-04-13 | 2021-10-21 | ||
| CN115397634A (en) * | 2020-04-13 | 2022-11-25 | 发那科株式会社 | Device for acquiring position of visual sensor in robot control coordinate system, robot system, method, and computer program |
| CN115397634B (en) * | 2020-04-13 | 2025-09-12 | 发那科株式会社 | Device, robot system, method, and computer program for obtaining the position of a vision sensor in a control coordinate system of a robot |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6710946B2 (en) | Controllers, robots and robot systems | |
| JP2018012184A (en) | Control device, robot and robot system | |
| US8406923B2 (en) | Apparatus for determining pickup pose of robot arm with camera | |
| US10551821B2 (en) | Robot, robot control apparatus and robot system | |
| US9884425B2 (en) | Robot, robot control device, and robotic system | |
| US9517560B2 (en) | Robot system and calibration method of the robot system | |
| JP4191080B2 (en) | Measuring device | |
| US8306661B2 (en) | Method and system for establishing no-entry zone for robot | |
| JP5664629B2 (en) | Robot system and method of manufacturing processed product | |
| US20180161985A1 (en) | Control device, robot, and robot system | |
| JP6900290B2 (en) | Robot system | |
| JP6897396B2 (en) | Control devices, robot systems and control methods | |
| JP2015182144A (en) | Robot system and calibration method of robot system | |
| JP2018111155A (en) | Robot control device, robot and robot system | |
| JP2023069253A (en) | Robot teaching system | |
| JP2018001332A (en) | Robot, control device, and robot system | |
| JP2019195885A (en) | Control device and robot system | |
| US11759955B2 (en) | Calibration method | |
| CN115362049B (en) | Device for correcting the teaching position of a robot, teaching device, robot system, teaching position correction method, and computer program | |
| CN117565107A (en) | Method, system, medium and equipment for robot space positioning | |
| JP2019198930A (en) | Control device and robot system | |
| WO2023277095A1 (en) | Correction system and teaching data correction method | |
| CN111113373B (en) | Control device, robot system and control method | |
| JP2022030207A (en) | Teaching method and robot system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181026 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190403 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190403 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200226 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200310 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200422 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200714 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200903 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210209 |