[go: up one dir, main page]

JP2018001332A - Robot, control device, and robot system - Google Patents

Robot, control device, and robot system Download PDF

Info

Publication number
JP2018001332A
JP2018001332A JP2016130876A JP2016130876A JP2018001332A JP 2018001332 A JP2018001332 A JP 2018001332A JP 2016130876 A JP2016130876 A JP 2016130876A JP 2016130876 A JP2016130876 A JP 2016130876A JP 2018001332 A JP2018001332 A JP 2018001332A
Authority
JP
Japan
Prior art keywords
robot
arm
marker
image
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016130876A
Other languages
Japanese (ja)
Other versions
JP2018001332A5 (en
Inventor
如洋 山口
Yukihiro Yamaguchi
如洋 山口
太郎 石毛
Taro Ishige
太郎 石毛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016130876A priority Critical patent/JP2018001332A/en
Priority to US15/637,094 priority patent/US10551821B2/en
Publication of JP2018001332A publication Critical patent/JP2018001332A/en
Publication of JP2018001332A5 publication Critical patent/JP2018001332A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot capable of reducing variations due to an artificial error and a worker in comparison with the case where an operator sets an offset of a tool while teaching a position of a reference point by operating an arm.SOLUTION: A robot comprises an arm. The arm rotates a tool with a rotating axis passing through a predetermined portion of the tool mounted on the arm and being parallel to an optical axis of an imaging section as a center in a second state moved from a first state where the imaging section can image the predetermined portion, and moves the predetermined portion to a third state having the same position as a position in the first state while holding a change in posture by rotation. The robot is controlled by using an offset of the predetermined portion with respect to the arm set on the basis of images imaged by the imaging section in the first state and the third state.SELECTED DRAWING: Figure 8

Description

本発明は、ロボット、制御装置、及びロボットシステムに関する。   The present invention relates to a robot, a control device, and a robot system.

従来、アームに装着されるツールを用いてワークを処理する前に、アームに対するツールのオフセットを設定する処理が行われている。特許文献1には、アームに装着されたツールを実空間の基準点に位置合わせする操作を、アームの姿勢を変えて複数回実行した結果に基づいて、アームに対するツールのオフセットを導出する方法が開示されている。   2. Description of the Related Art Conventionally, processing for setting an offset of a tool with respect to an arm has been performed before processing a workpiece using a tool attached to the arm. Patent Document 1 discloses a method for deriving an offset of a tool with respect to an arm based on a result of performing an operation of aligning a tool attached to an arm with a reference point in real space a plurality of times while changing the posture of the arm. It is disclosed.

特開平8−85083号公報JP-A-8-85083

特許文献1に記載された技術によると、ツールで基準点を触るようにアームをオペレーターが操作することによって基準点の位置を教示する必要がある。しかし、アームが基準点に触わるか触らないかの境界の状態を目視で特定しながら、アームを正確に操作することは容易ではない。すなわち特許文献1に記載された技術では、基準点の位置を正確に教示することが困難な場合がある。そして、基準点の位置を正確に教示しながらツールのオフセットを設定するとすれば、設定に要する所要時間が長引く場合があり、設定対象のロボットが増えるほど、当該所要時間が長くなる。   According to the technique described in Patent Document 1, it is necessary to teach the position of the reference point by the operator operating the arm so as to touch the reference point with a tool. However, it is not easy to accurately operate the arm while visually identifying the boundary state whether the arm touches or does not touch the reference point. That is, with the technique described in Patent Document 1, it may be difficult to accurately teach the position of the reference point. If the tool offset is set while accurately teaching the position of the reference point, the required time for setting may be prolonged, and the required time becomes longer as the number of robots to be set increases.

上記課題の少なくとも一つを解決するために本発明の一態様は、アームを備え、前記アームは、前記アームに装着されたツールの所定部位を撮像部によって前記所定部位を撮像可能な第1状態から移動させた第2状態で、前記所定部位を通り前記撮像部の光軸に平行な回転軸を中心に前記ツールを回転させ、前記所定部位を前記回転による姿勢の変化を保ったまま前記第1状態における位置と同じ位置である第3状態に移動させ、前記第1状態及び前記第3状態において前記撮像部により撮像された画像に基づいて設定された前記所定部位の前記アームに対するオフセットを用いて制御される、ロボットである。
この構成により、ロボットは、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットが設定される。これにより、ロボットは、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを設定するよりも、人為的な誤差や作業者によるばらつきを低減することができる。
In order to solve at least one of the above problems, an aspect of the present invention includes an arm, and the arm is capable of imaging a predetermined part of a tool attached to the arm by an imaging unit. In the second state, the tool is rotated about a rotation axis that passes through the predetermined part and is parallel to the optical axis of the imaging unit, and the predetermined part is maintained in the posture change due to the rotation. It is moved to a third state that is the same position as the position in the first state, and an offset with respect to the arm of the predetermined part set based on images captured by the imaging unit in the first state and the third state is used. Controlled robot.
With this configuration, the robot is set with an offset with respect to the arm at the predetermined part based on images captured by the imaging unit in the first state and the third state. As a result, the robot can reduce human error and variations due to the operator, rather than setting the tool offset while teaching the position of the reference point by the operator operating the arm.

また、本発明の他の態様は、ロボットにおいて、前記アームは、前記第1状態で障害物がある場合に、前記ツールを第1状態から、当該障害物がない第2状態へ移動させる、構成が用いられてもよい。
この構成により、ロボットは、障害物がない位置で、所定部位を通り撮像部の光軸に平行な回転軸を中心にツールを回転させる。これにより、ロボットは、障害物への衝突を回避して、所定部位を通り撮像部の光軸に平行な回転軸を中心にツールを回転させることができるため、ツールの所定部位の周辺に障害物がある場合でもオフセットを精度よく算出することができる。
According to another aspect of the present invention, in the robot, the arm moves the tool from the first state to a second state without the obstacle when there is an obstacle in the first state. May be used.
With this configuration, the robot rotates the tool around a rotation axis that passes through a predetermined part and is parallel to the optical axis of the imaging unit at a position where there is no obstacle. As a result, the robot can avoid the collision with the obstacle and rotate the tool around the rotation axis parallel to the optical axis of the imaging unit through the predetermined part. Even when there is an object, the offset can be calculated with high accuracy.

また、本発明の他の態様は、上記に記載のロボットを制御する制御装置である、構成が用いられてもよい。
この構成により、制御装置は、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットを、ロボットに設定する。これにより、制御装置は、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを、ロボットに設定するよりも、オフセットを精度よく設定することができる。
Moreover, the structure which is a control apparatus which controls the robot as described in the other aspect of this invention may be used.
With this configuration, the control device sets the offset for the arm at the predetermined part in the robot based on the images captured by the imaging unit in the first state and the third state. Accordingly, the control device can set the offset with higher accuracy than setting the offset of the tool in the robot while teaching the position of the reference point by operating the arm by the operator.

また、本発明の他の態様は、上記に記載のロボットと、上記に記載の制御装置とを備える、ロボットシステムである、構成が用いられてもよい。
この構成により、ロボットシステムでは、制御装置は、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットを、ロボットに設定する。これにより、ロボットシステムでは、制御装置は、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを、ロボットに設定するよりも、オフセットを精度よく設定することができる。
Moreover, the structure which is a robot system provided with the robot described above and the control apparatus described above may be used for the other aspect of this invention.
With this configuration, in the robot system, the control device sets the offset for the arm at the predetermined site in the robot based on the images captured by the imaging unit in the first state and the third state. Thereby, in the robot system, the control device can set the offset with higher accuracy than setting the offset of the tool in the robot while teaching the position of the reference point by operating the arm by the operator.

以上により、ロボットは、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットが設定される。これにより、ロボットは、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを設定するよりも、人為的な誤差や作業者によるばらつきを低減することができる。
また、制御装置は、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットを、ロボットに設定する。これにより、制御装置は、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを設定するよりも、オフセットを精度よく設定することができる。
また、ロボットシステムでは、制御装置は、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットを、ロボットに設定する。これにより、ロボットシステムでは、制御装置は、ロボットに、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを、ロボットに設定するよりも、オフセットを精度よく容易に設定することができる。
As described above, the robot sets the offset with respect to the arm at the predetermined part based on the images captured by the imaging unit in the first state and the third state. As a result, the robot can reduce human error and variations due to the operator, rather than setting the tool offset while teaching the position of the reference point by the operator operating the arm.
Further, the control device sets an offset with respect to the arm of the predetermined part in the robot based on the images captured by the imaging unit in the first state and the third state. Thus, the control device can set the offset with higher accuracy than setting the offset of the tool while teaching the position of the reference point by operating the arm by the operator.
Further, in the robot system, the control device sets an offset for the arm of the predetermined part in the robot based on the images captured by the imaging unit in the first state and the third state. As a result, in the robot system, the control device sets the offset of the tool with accuracy and more easily than setting the offset of the tool in the robot while teaching the robot the position of the reference point by operating the arm. be able to.

実施形態に係るロボットシステムを示す概略斜視図である。1 is a schematic perspective view showing a robot system according to an embodiment. 図1に示すロボットの概略図である。It is the schematic of the robot shown in FIG. 図1に示すロボットシステムのブロック図である。It is a block diagram of the robot system shown in FIG. 図1に示すロボットシステムを用いた撮像部の校正方法を示すフローチャートである。It is a flowchart which shows the calibration method of the imaging part using the robot system shown in FIG. 図4に示す撮像部の校正で使用する校正用部材の平面図である。FIG. 5 is a plan view of a calibration member used for calibration of the imaging unit shown in FIG. 4. 図4に示すモバイルカメラの校正を説明するためのフローチャートである。5 is a flowchart for explaining calibration of the mobile camera shown in FIG. 4. 図6に示すモバイルカメラの校正を説明するためのロボットの概略図である。It is the schematic of the robot for demonstrating calibration of the mobile camera shown in FIG. 図6に示すオフセット成分を求める処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process which calculates | requires the offset component shown in FIG. 図8に示すオフセット成分Δu、Δv、Δwを求める処理を説明するための図である。It is a figure for demonstrating the process which calculates | requires offset component (DELTA) u, (DELTA) v, and (DELTA) w shown in FIG. 図8に示すオフセット成分Δx、Δyを求める処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process which calculates | requires offset component (DELTA) x and (DELTA) y shown in FIG. 図8に示すオフセット成分Δx、Δyを求める処理を説明するための図である。It is a figure for demonstrating the process which calculates | requires offset component (DELTA) x and (DELTA) y shown in FIG. 図8に示すオフセット成分Δx、Δyを求める処理を説明するための図である。It is a figure for demonstrating the process which calculates | requires offset component (DELTA) x and (DELTA) y shown in FIG. 図8に示すオフセット成分Δx、Δyを求める処理を説明するための図である。It is a figure for demonstrating the process which calculates | requires offset component (DELTA) x and (DELTA) y shown in FIG. 図8に示すオフセット成分Δx、Δyを求める処理を説明するための図である。It is a figure for demonstrating the process which calculates | requires offset component (DELTA) x and (DELTA) y shown in FIG. 図8に示すオフセット成分Δx、Δyを求める処理を説明するための図である。It is a figure for demonstrating the process which calculates | requires offset component (DELTA) x and (DELTA) y shown in FIG. 図8に示すオフセット成分Δx、Δyを求める処理を説明するための座標図である。It is a coordinate diagram for demonstrating the process which calculates | requires offset component (DELTA) x and (DELTA) y shown in FIG. 図8に示すオフセット成分Δzを求める処理を説明するため図である。It is a figure for demonstrating the process which calculates | requires offset component (DELTA) z shown in FIG.

以下、本発明のロボット、制御装置及びロボットシステムを添付図面に示す好適な実施形態に基づいて詳細に説明する。   Hereinafter, a robot, a control device, and a robot system according to the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.

[実施形態]
≪ロボットシステム≫
図1は、本発明の実施形態に係るロボットシステムを示す概略斜視図である。図2は、図1に示すロボットの概略図である。図3は、図1に示すロボットシステムのブロック図である。
[Embodiment]
≪Robot system≫
FIG. 1 is a schematic perspective view showing a robot system according to an embodiment of the present invention. FIG. 2 is a schematic diagram of the robot shown in FIG. FIG. 3 is a block diagram of the robot system shown in FIG.

なお、以下では、説明の都合上、図2中の上側(zr方向)を「上」または「上方」、下側(−zr方向)を「下」または「下方」と言う。また、図2中の上下方向を「鉛直方向」とし、その鉛直方向に交差する面を「水平面」とし、水平面に平行な方向を「水平方向」とする。ここで、本願明細書で言う「水平」とは、完全な水平に限定されず、水平に対して5°以下の範囲で傾斜している場合も含む。また、本願明細書で言う「鉛直」とは、完全な鉛直に限定されず、鉛直に対して5°以下の範囲で傾斜している場合も含む。また、図2中に示すロボットの基台側を「基端」、その反対側(ハンド側)を「先端」と言う。   Hereinafter, for convenience of explanation, the upper side (zr direction) in FIG. 2 is referred to as “upper” or “upper”, and the lower side (−zr direction) is referred to as “lower” or “lower”. Also, the vertical direction in FIG. 2 is defined as “vertical direction”, the plane intersecting the vertical direction is defined as “horizontal plane”, and the direction parallel to the horizontal plane is defined as “horizontal direction”. Here, “horizontal” as used in the specification of the present application is not limited to complete horizontal, but includes a case where the horizontal axis is inclined within a range of 5 ° or less. In addition, the term “vertical” as used in the specification of the present application is not limited to complete vertical, but includes a case where the vertical inclination is within a range of 5 ° or less. Further, the base side of the robot shown in FIG. 2 is referred to as “base end”, and the opposite side (hand side) is referred to as “tip”.

図1に示すロボットシステム100は、例えば、電子部品及び電子機器等の対象物の把持、搬送及び組立て等の作業で用いられる装置である。
図1に示すように、ロボットシステム100は、ロボットアーム10を有するロボット1と、作業領域90内に固定された撮像機能を有する固定カメラ2(撮像部)と、ロボット1に取り付けられた撮像機能を有するモバイルカメラ3(撮像部)と、ロボット1、固定カメラ2及びモバイルカメラ3をそれぞれ制御する制御装置5(校正装置)とを、有する。
また、本実施形態では、作業領域90内に、対象物の組立てを行う作業台61(組立て台)と、対象物が例えば作業者によって供給される供給台62とが設けられている。作業台61及び供給台62は、それぞれ、ロボット1のロボットアーム10の駆動範囲内に設けられている。
A robot system 100 shown in FIG. 1 is an apparatus used in operations such as gripping, transporting, and assembling objects such as electronic components and electronic devices.
As shown in FIG. 1, the robot system 100 includes a robot 1 having a robot arm 10, a fixed camera 2 (imaging unit) having an imaging function fixed in a work area 90, and an imaging function attached to the robot 1. And a control device 5 (calibration device) that controls the robot 1, the fixed camera 2, and the mobile camera 3, respectively.
In the present embodiment, a work table 61 (assembly table) for assembling an object and a supply table 62 for supplying the object by, for example, an operator are provided in the work area 90. The work table 61 and the supply table 62 are each provided within the drive range of the robot arm 10 of the robot 1.

以下、ロボットシステム100が有する各部を順次説明する。
<ロボット>
図1及び図2に示すロボット1は、対象物の把持、搬送及び組立て等の作業を行うことができる。
ロボット1は、6軸の垂直多関節ロボットであり、基台101と、基台101に接続されたロボットアーム10と、ロボットアーム10の先端部に設けられたハンド102(ツール)と、を有する。また、図3に示すように、ロボット1は、ロボットアーム10を駆動させる動力を発生させる複数の駆動部130及び複数のモータードライバー120を備えている。
Hereinafter, each unit of the robot system 100 will be sequentially described.
<Robot>
The robot 1 shown in FIGS. 1 and 2 can perform operations such as gripping, conveying, and assembling an object.
The robot 1 is a six-axis vertical articulated robot, and includes a base 101, a robot arm 10 connected to the base 101, and a hand 102 (tool) provided at the tip of the robot arm 10. . As shown in FIG. 3, the robot 1 includes a plurality of driving units 130 that generate power for driving the robot arm 10 and a plurality of motor drivers 120.

基台101は、ロボット1を作業領域90内の所定の箇所に取り付ける部分である。
ロボットアーム10は、第1アーム11(アーム)と、第2アーム12(アーム)と、第3アーム13(アーム)と、第4アーム14(アーム)と、第5アーム15(アーム)と、第6アーム16(アーム)とを有する。第1アーム11は、基台101に接続されており、第1アーム11と第2アーム12と第3アーム13と第4アーム14と第5アーム15と第6アーム16とは、基端側から先端側に向ってこの順に連結されている。
The base 101 is a part for attaching the robot 1 to a predetermined location in the work area 90.
The robot arm 10 includes a first arm 11 (arm), a second arm 12 (arm), a third arm 13 (arm), a fourth arm 14 (arm), a fifth arm 15 (arm), And a sixth arm 16 (arm). The first arm 11 is connected to the base 101, and the first arm 11, the second arm 12, the third arm 13, the fourth arm 14, the fifth arm 15, and the sixth arm 16 are on the base end side. Are connected in this order from the tip toward the tip.

図2に示すように、第1アーム11は、基台101に連結された回動軸部材111を有し、回動軸部材111の中心軸を回動中心として基台101に対して回動可能となっている。また、第2アーム12は、第1アーム11に連結された回動軸部材121を有し、回動軸部材121の中心軸を回動中心として第1アーム11に対して回動可能となっている。また、第3アーム13は、第2アーム12に連結された回動軸部材131を有し、回動軸部材131の中心軸を回動中心として第2アーム12に対して回動可能となっている。また、第4アーム14は、第3アーム13に連結された回動軸部材141を有し、回動軸部材141の中心軸を回動中心として第3アーム13に対して回動可能となっている。また、第5アーム15は、第4アーム14に連結された回動軸部材151を有し、回動軸部材151の中心軸を回動中心として第4アーム14に対して回動可能となっている。また、第6アーム16は、第5アーム15に連結された回動軸部材161を有し、回動軸部材161の中心軸A6を回動中心として第5アーム15に対して回動可能となっている。ここで、中心軸A6と第6アーム16の先端面との交わる点(第6アーム16の先端面の中心)を軸座標O6(所定の部位)という。   As shown in FIG. 2, the first arm 11 has a rotating shaft member 111 connected to the base 101, and rotates with respect to the base 101 about the central axis of the rotating shaft member 111. It is possible. Further, the second arm 12 has a rotation shaft member 121 connected to the first arm 11, and can rotate with respect to the first arm 11 with the central axis of the rotation shaft member 121 as the rotation center. ing. The third arm 13 has a rotation shaft member 131 connected to the second arm 12, and can rotate with respect to the second arm 12 about the central axis of the rotation shaft member 131. ing. The fourth arm 14 has a rotation shaft member 141 connected to the third arm 13, and can rotate with respect to the third arm 13 with the central axis of the rotation shaft member 141 as the rotation center. ing. Further, the fifth arm 15 has a rotation shaft member 151 connected to the fourth arm 14, and is rotatable with respect to the fourth arm 14 with the central axis of the rotation shaft member 151 as the rotation center. ing. Further, the sixth arm 16 has a rotation shaft member 161 connected to the fifth arm 15, and is rotatable with respect to the fifth arm 15 about the central axis A 6 of the rotation shaft member 161. It has become. Here, a point where the center axis A6 and the tip surface of the sixth arm 16 intersect (the center of the tip surface of the sixth arm 16) is referred to as an axis coordinate O6 (predetermined part).

ハンド102は、第6アーム16の先端面に取り付けられており、ハンド102の中心軸が第6アーム16の中心軸A6と一致している。ここで、ハンド102の先端面の中心をTCP(ツールセンターポイント)という。本実施形態では、ハンド102が有する2つの指の間の領域の中心をいう。
また、第1アーム11〜第6アーム16には、それぞれ、サーボモーター等のモーター及び減速機を有する複数の駆動部130が設けられている。すなわち、図3に示すように、ロボット1は、第1アーム11〜第6アーム16に対応した数(本実施形態では6つ)の駆動部130を有している。そして、第1アーム11〜第6アーム16は、それぞれ、対応する駆動部130に電気的に接続された複数(本実施形態では6つ)のモータードライバー120を介して制御装置5により制御されている。
The hand 102 is attached to the distal end surface of the sixth arm 16, and the center axis of the hand 102 coincides with the center axis A <b> 6 of the sixth arm 16. Here, the center of the front end surface of the hand 102 is referred to as TCP (tool center point). In the present embodiment, it refers to the center of an area between two fingers of the hand 102.
Each of the first arm 11 to the sixth arm 16 is provided with a plurality of drive units 130 each having a motor such as a servo motor and a speed reducer. That is, as shown in FIG. 3, the robot 1 has the number of driving units 130 (six in this embodiment) corresponding to the first arm 11 to the sixth arm 16. The first arm 11 to the sixth arm 16 are each controlled by the control device 5 via a plurality (six in this embodiment) of motor drivers 120 electrically connected to the corresponding driving units 130. Yes.

また、各駆動部130には、例えば、エンコーダー、ロータリーエンコーダー等の角度センサー(図示せず)が設けられている。これにより、各駆動部130が有するモーターまたは減速機の回転軸の回転角度を検出することができる。
また、図1及び図2に示すように、本実施形態では、ロボット1を制御する際に用いられるロボット座標系(ロボット1の座標系)として、水平方向に対してそれぞれ平行なxr軸とyr軸と、水平方向に対して直交し、かつ、鉛直上向きを正方向とするzr軸とによって定まる3次元の直交座標系を設定している。また、xr軸に対する並進成分を「成分xr」とし、yr軸に対する並進成分を「成分yr」とし、zr軸に対する並進成分を「成分zr」とし、zr軸周りの回転成分を「成分ur」とし、yr軸周りの回転成分を「成分vr」とし、xr軸周りの回転成分を「成分wr」とする。成分xr、成分yr及び成分zrの長さ(大きさ)の単位は「mm」であり、成分ur、成分vr及び成分wrの角度(大きさ)の単位は「°」である。
Each drive unit 130 is provided with an angle sensor (not shown) such as an encoder or a rotary encoder. Thereby, the rotation angle of the rotating shaft of the motor or reduction gear which each drive part 130 has can be detected.
As shown in FIGS. 1 and 2, in this embodiment, the robot coordinate system (the coordinate system of the robot 1) used when controlling the robot 1 is an xr axis and yr parallel to the horizontal direction. A three-dimensional orthogonal coordinate system determined by an axis and a zr axis that is orthogonal to the horizontal direction and has a vertically upward direction as a positive direction is set. The translation component for the xr axis is “component xr”, the translation component for the yr axis is “component yr”, the translation component for the zr axis is “component zr”, and the rotation component around the zr axis is “component ur”. , The rotation component around the yr axis is referred to as “component vr”, and the rotation component around the xr axis is referred to as “component wr”. The unit of the length (size) of the component xr, the component yr, and the component zr is “mm”, and the unit of the angle (size) of the component ur, the component vr, and the component wr is “°”.

<固定カメラ>
図1及び図2に示す固定カメラ2は、対象物等を撮像する機能を有する。
図2に示すように、固定カメラ2は、複数の画素を有するCCD(Charge Coupled Device)イメージセンサで構成された撮像素子21と、レンズ22(光学系)と、を有している。この固定カメラ2は、対象物等からの光をレンズ22によって撮像素子21の受光面211(センサー面)で結像させ、光を電気信号に変換して、その電気信号を制御装置5へと出力する。ここで、受光面211とは、撮像素子21の表面であって、光が結像する面である。また、本実施形態では、受光面211から光軸OA2方向に焦点距離だけ進んだ位置を「固定カメラ2の撮像基準点O2」とする。
<Fixed camera>
The fixed camera 2 shown in FIGS. 1 and 2 has a function of capturing an object or the like.
As shown in FIG. 2, the fixed camera 2 includes an imaging element 21 configured by a CCD (Charge Coupled Device) image sensor having a plurality of pixels, and a lens 22 (optical system). The fixed camera 2 forms an image of light from an object or the like on the light receiving surface 211 (sensor surface) of the image sensor 21 by the lens 22, converts the light into an electric signal, and the electric signal is sent to the control device 5. Output. Here, the light receiving surface 211 is a surface of the image sensor 21 and is a surface on which light is imaged. In the present embodiment, the position advanced from the light receiving surface 211 by the focal length in the direction of the optical axis OA2 is defined as an “imaging reference point O2 of the fixed camera 2”.

このような固定カメラ2は、鉛直方向上方を撮像できるように作業領域90内の所定の箇所に固定されている。また、本実施形態では、固定カメラ2は、その光軸OA2(レンズ22の光軸)が鉛直方向に対してほぼ平行になるように取り付けられている。
また、本実施形態では、固定カメラ2の画像座標系(固定カメラ2から出力される画像の座標系)として、画像の面内方向に対してそれぞれ平行なxa軸とya軸とよって定まる2次元の直交座標系を設定している。また、xa軸に対する並進成分を「成分xa」とし、ya軸に対する並進成分を「成分ya」とし、xa−ya平面の法線周りの回転成分を「成分ua」とする。成分xa及び成分yaの長さ(大きさ)の単位は「ピクセル」であり、成分uaの角度(大きさ)の単位は「°」である。
Such a fixed camera 2 is fixed at a predetermined location in the work area 90 so as to capture an image in the vertical direction. In the present embodiment, the fixed camera 2 is mounted such that its optical axis OA2 (the optical axis of the lens 22) is substantially parallel to the vertical direction.
In this embodiment, the image coordinate system of the fixed camera 2 (the coordinate system of the image output from the fixed camera 2) is a two-dimensional determined by the xa axis and the ya axis that are parallel to the in-plane direction of the image. The Cartesian coordinate system is set. Further, the translation component with respect to the xa axis is referred to as “component xa”, the translation component with respect to the ya axis is referred to as “component ya”, and the rotation component around the normal line of the xa-ya plane is referred to as “component ua”. The unit of the length (size) of the component xa and the component ya is “pixel”, and the unit of the angle (size) of the component ua is “°”.

なお、固定カメラ2の画像座標系は、固定カメラ2のカメラ視野に写る3次元直交座標を、レンズ22の光学特性(焦点距離、歪みなど)と撮像素子21の画素数及び大きさとを加味して非線形変換した2次元の直交座標系である。   The image coordinate system of the fixed camera 2 takes into account the optical characteristics (focal length, distortion, etc.) of the lens 22 and the number of pixels and the size of the image sensor 21 with respect to the three-dimensional orthogonal coordinates reflected in the camera field of view of the fixed camera 2. This is a two-dimensional orthogonal coordinate system obtained by nonlinear transformation.

<モバイルカメラ>
図1及び図2に示すモバイルカメラ3は、対象物等を撮像する機能を有する。
図2に示すように、モバイルカメラ3は、複数の画素を有するCCD(Charge Coupled Device)イメージセンサで構成された撮像素子31と、レンズ32(光学系)と、を有する。このモバイルカメラ3は、対象物等からの光をレンズ32によって撮像素子31の受光面311(センサー面)で結像させ、光を電気信号に変換して、その電気信号を制御装置5へと出力する。ここで、受光面311とは、撮像素子31の表面であって、光が結像する面である。また、本実施形態では、受光面311から光軸OA3方向に焦点距離だけ進んだ位置を「モバイルカメラ3の撮像基準点O3」とする。
<Mobile camera>
The mobile camera 3 shown in FIGS. 1 and 2 has a function of capturing an object or the like.
As shown in FIG. 2, the mobile camera 3 includes an imaging element 31 configured with a CCD (Charge Coupled Device) image sensor having a plurality of pixels, and a lens 32 (optical system). The mobile camera 3 forms an image of light from an object or the like on a light receiving surface 311 (sensor surface) of the image sensor 31 by a lens 32, converts the light into an electrical signal, and the electrical signal is sent to the control device 5. Output. Here, the light receiving surface 311 is the surface of the image sensor 31 and is a surface on which light is imaged. In the present embodiment, the position advanced from the light receiving surface 311 in the direction of the optical axis OA3 by the focal length is referred to as “imaging reference point O3 of the mobile camera 3”.

このようなモバイルカメラ3は、第6アーム16よりもロボットアーム10の先端側を撮像できるように第6アーム16に取り付けられている。また、本実施形態では、設計上、モバイルカメラ3は、その光軸OA3(レンズ32の光軸)が第6アーム16の中心軸A6に対してほぼ平行になるように、第6アーム16に取り付けられている。また、モバイルカメラ3は、第6アーム16に取り付けられているため、ロボットアーム10の駆動により、第6アーム16と共にその姿勢を変えることができる。   Such a mobile camera 3 is attached to the sixth arm 16 so that the distal end side of the robot arm 10 can be imaged more than the sixth arm 16. In the present embodiment, the mobile camera 3 is designed so that the optical axis OA3 (the optical axis of the lens 32) is substantially parallel to the center axis A6 of the sixth arm 16 by design. It is attached. Since the mobile camera 3 is attached to the sixth arm 16, the posture of the mobile camera 3 can be changed together with the sixth arm 16 by driving the robot arm 10.

また、本実施形態では、モバイルカメラ3の画像座標系(モバイルカメラ3で出力される画像の座標系)として、画像の面内方向に対してそれぞれ平行なxb軸とyb軸とによって定まる2次元の直交座標系を設定している。また、xb軸に対する並進成分を「成分xb」とし、yb軸に対する並進成分を「成分yb」とし、xb−yb平面の法線周りの回転成分を「成分ub」とする。成分xb及び成分ybの長さ(大きさ)の単位は「ピクセル」であり、成分ubの角度(大きさ)の単位は「°」である。   In this embodiment, the image coordinate system of the mobile camera 3 (the coordinate system of the image output by the mobile camera 3) is a two-dimensional determined by an xb axis and a yb axis that are parallel to the in-plane direction of the image. The Cartesian coordinate system is set. Further, the translation component with respect to the xb axis is referred to as “component xb”, the translation component with respect to the yb axis is referred to as “component yb”, and the rotation component around the normal line of the xb-yb plane is referred to as “component ub”. The unit of length (size) of the component xb and the component yb is “pixel”, and the unit of angle (size) of the component ub is “°”.

なお、モバイルカメラ3の画像座標系は、モバイルカメラ3のカメラ視野に写る3次元直交座標を、レンズ32の光学特性(焦点距離、歪みなど)と撮像素子31の画素数及び大きさとを加味して非線形変換した2次元の直交座標系である。   Note that the image coordinate system of the mobile camera 3 takes into account the optical characteristics (focal length, distortion, etc.) of the lens 32 and the number of pixels and the size of the image sensor 31 with respect to the three-dimensional orthogonal coordinates reflected in the camera field of view of the mobile camera 3. This is a two-dimensional orthogonal coordinate system obtained by nonlinear transformation.

<制御装置>
図1に示す制御装置5は、ロボット1、固定カメラ2及びモバイルカメラ3の各部を制御する。この制御装置5は、例えば、CPU(Central Processing Unit)やROM(read only memory)及びRAM(Random Access Memory)が内蔵されたパーソナルコンピューター(PC)等で構成することができる。
図3に示すように、制御装置5は、駆動制御部51と、情報取得部52と、処理部53と、記憶部54と、を備える。
<Control device>
A control device 5 shown in FIG. 1 controls each part of the robot 1, the fixed camera 2, and the mobile camera 3. The control device 5 can be configured by, for example, a personal computer (PC) with a built-in CPU (Central Processing Unit), ROM (read only memory), and RAM (Random Access Memory).
As illustrated in FIG. 3, the control device 5 includes a drive control unit 51, an information acquisition unit 52, a processing unit 53, and a storage unit 54.

駆動制御部51は、ロボット1が有する第1アーム11〜第6アーム16の駆動を担う各駆動部130の駆動を制御し、第1アーム11〜第6アーム16をそれぞれ独立して駆動させたり停止させたりすることができる。例えば、駆動制御部51は、ハンド102を目標位置に移動させるために、第1アーム11〜第6アーム16に設けられた各駆動部130が有するモーターの目標値を導出する。また、駆動制御部51は、各駆動部130が有する角度センサーから出力された回転角度(検出結果)を基にロボット1をフィードバック制御する。また、駆動制御部51は、固定カメラ2及びモバイルカメラ3の撮像等を制御したりする。   The drive control unit 51 controls the driving of each driving unit 130 responsible for driving the first arm 11 to the sixth arm 16 of the robot 1 and drives the first arm 11 to the sixth arm 16 independently. It can be stopped. For example, in order to move the hand 102 to the target position, the drive control unit 51 derives a target value of a motor included in each driving unit 130 provided in the first arm 11 to the sixth arm 16. Further, the drive control unit 51 performs feedback control of the robot 1 based on the rotation angle (detection result) output from the angle sensor included in each drive unit 130. Further, the drive control unit 51 controls the imaging of the fixed camera 2 and the mobile camera 3.

情報取得部52は、ロボット1、固定カメラ2及びモバイルカメラ3からそれぞれ出力される検出結果を取得する。検出結果としては、例えば、ロボット1の各駆動部130が有するモーターまたは減速機の回転軸の回転角度、固定カメラ2及びモバイルカメラ3でそれぞれ撮像した画像、及び、ロボット座標系における軸座標O6の座標(成分xr、yr、zr、ur、vr、wr:位置及び姿勢)等が挙げられる。   The information acquisition unit 52 acquires detection results output from the robot 1, the fixed camera 2, and the mobile camera 3, respectively. As the detection result, for example, the rotation angle of the rotation axis of the motor or the speed reducer included in each driving unit 130 of the robot 1, images captured by the fixed camera 2 and the mobile camera 3, and the axis coordinate O6 in the robot coordinate system. Coordinates (components xr, yr, zr, ur, vr, wr: position and orientation) are included.

処理部53は、情報取得部52で取得した検出結果を基にして各種演算や各種判断等の処理を行う。例えば、処理部53は、固定カメラ2で撮像した画像を基にして固定カメラ2の画像座標系における撮像対象の座標(成分xa、ya、ua:位置及び姿勢)を演算したり、モバイルカメラ3で撮像した画像を基にしてモバイルカメラ3の画像座標系における撮像対象の座標(成分xb、yb、ub:位置及び姿勢)を演算したりする。また、例えば、処理部53は、固定カメラ2の画像座標系における対象物の座標をロボット座標系における座標に変換するための補正パラメーターを求めたり、モバイルカメラ3の画像座標系における対象物の座標をロボット座標系における座標に変換するための補正パラメーターを求めたりする。   The processing unit 53 performs various calculations and various determinations based on the detection result acquired by the information acquisition unit 52. For example, the processing unit 53 calculates the coordinates (components xa, ya, ua: position and orientation) of the imaging target in the image coordinate system of the fixed camera 2 based on the image captured by the fixed camera 2, or the mobile camera 3 The coordinates (components xb, yb, ub: position and orientation) of the imaging target in the image coordinate system of the mobile camera 3 are calculated on the basis of the image captured in (1). Further, for example, the processing unit 53 obtains correction parameters for converting the coordinates of the object in the image coordinate system of the fixed camera 2 into coordinates in the robot coordinate system, or coordinates of the object in the image coordinate system of the mobile camera 3. The correction parameter for converting to the coordinate in the robot coordinate system is obtained.

記憶部54は、制御装置5が各種処理を行うためのプログラムやデータ等を記憶する。また、記憶部54は、各種検出結果等を記憶する。
また、図1及び図3に示すように、制御装置5には、表示機器41及び操作機器42が接続されている。
The storage unit 54 stores programs, data, and the like for the control device 5 to perform various processes. The storage unit 54 stores various detection results and the like.
As shown in FIGS. 1 and 3, a display device 41 and an operation device 42 are connected to the control device 5.

表示機器41は、液晶表示パネル等の表示パネルで構成されたモニター411を有する。作業者は、このモニター411を介して、固定カメラ2及びモバイルカメラ3で撮像した画像やロボット1による作業等を確認したりすることができる。
操作機器42は、キーボードで構成された入力デバイスであり、作業者による操作に応じた操作信号を制御装置5に対して出力する。したがって、作業者は、操作機器42を操作することで、制御装置5に対して各種処理等の指示を行うことができる。
以上、ロボットシステム100の基本的な構成について簡単に説明した。
The display device 41 includes a monitor 411 configured with a display panel such as a liquid crystal display panel. An operator can check an image captured by the fixed camera 2 and the mobile camera 3, work performed by the robot 1, and the like via the monitor 411.
The operation device 42 is an input device configured with a keyboard, and outputs an operation signal corresponding to an operation by the operator to the control device 5. Therefore, the operator can instruct the control device 5 to perform various processes by operating the operation device 42.
The basic configuration of the robot system 100 has been briefly described above.

このような構成のロボットシステム100では、例えば、以下のような作業を行うことができる。
まず、制御装置5の制御により、ロボットアーム10を駆動させてハンド102で対象物を把持する。その後、ロボットアーム10を駆動させてハンド102を固定カメラ2上に移動させる。次いで、固定カメラ2で対象物を撮像して、その固定カメラ2で撮像した画像を基に、制御装置5は、ハンド102によって対象物を的確に把持しているか否かを判断する。的確に把持していたら、ロボットアーム10の駆動によりハンド102を作業台61上に移動させる。そして、モバイルカメラ3で撮像した画像を基にして、ハンド102で把持している対象物を作業台61上に予め配置されていた対象物に対して組み込む。
In the robot system 100 having such a configuration, for example, the following work can be performed.
First, under the control of the control device 5, the robot arm 10 is driven and the hand 102 holds the object. Thereafter, the robot arm 10 is driven to move the hand 102 onto the fixed camera 2. Next, the object is imaged by the fixed camera 2, and the control device 5 determines whether or not the object is accurately held by the hand 102 based on the image captured by the fixed camera 2. If it is grasped accurately, the hand 102 is moved onto the work table 61 by driving the robot arm 10. Then, based on the image picked up by the mobile camera 3, the object gripped by the hand 102 is incorporated into the object previously arranged on the work table 61.

このような上記作業では、固定カメラ2及びモバイルカメラ3でそれぞれ撮像した対象物の画像を基にして、ロボット1が対象物に対して作業を行う。
このような作業において、固定カメラ2で撮像した画像を基にロボット1が対象物に対して的確に作業を行うためには、固定カメラ2の画像上の座標(画像座標系における位置及び姿勢)をロボット座標系における座標に変換するための補正パラメーターを求める処理、すなわち、固定カメラ2の校正(キャリブレーション)が必要である。また、同様に、モバイルカメラ3で撮像した画像を基にロボット1が対象物等に対して的確に作業を行うためには、モバイルカメラ3の画像上の座標(画像座標系における位置及び姿勢)をロボット座標系における座標に変換するための補正パラメーターを求める処理、すなわち、モバイルカメラ3の校正(キャリブレーション)が必要である。
In such an operation, the robot 1 performs an operation on the object based on the images of the object captured by the fixed camera 2 and the mobile camera 3 respectively.
In such an operation, in order for the robot 1 to accurately perform an operation on an object based on an image captured by the fixed camera 2, coordinates on the image of the fixed camera 2 (position and orientation in the image coordinate system). Needs to be corrected, that is, calibration of the fixed camera 2 (calibration). Similarly, in order for the robot 1 to accurately perform an operation on an object or the like based on an image captured by the mobile camera 3, coordinates on the image of the mobile camera 3 (position and posture in the image coordinate system). Needs to be corrected, that is, calibration of the mobile camera 3 (calibration).

以下、ロボットシステム100を用いた固定カメラ2の校正方法及びモバイルカメラ3の校正方法(以下、これらをまとめて「撮像部の校正方法(キャリブレーション方法)」という)について説明する。   Hereinafter, a calibration method for the fixed camera 2 and a calibration method for the mobile camera 3 using the robot system 100 (hereinafter, these are collectively referred to as an “imaging unit calibration method (calibration method)”) will be described.

≪撮像部の校正方法(キャリブレーション方法)≫
図4は、図1に示すロボットシステムを用いた撮像部の校正方法を示すフローチャートである。図5は、図4に示す撮像部の校正で使用する校正用部材の平面図である。図6は、図4に示すモバイルカメラの校正を説明するためのフローチャートである。図7は、図6に示すモバイルカメラの校正を説明するためのロボットの概略図である。図8は、図6に示すオフセット成分を求める処理を説明するためのフローチャートである。図9は、図6に示すオフセット成分Δu、Δv、Δwを求める処理を説明するための図である。図10は、それぞれ、図8に示すオフセット成分Δx、Δyを求める処理を説明するためのフローチャートである。図11、図12、図13、図14及び図15は、それぞれ、図8に示すオフセット成分Δx、Δyを求める処理を説明するための図である。図16は、図8に示すオフセット成分Δx、Δyを求める処理を説明するための座標図である。図17は、図8に示すオフセット成分Δzを求める処理を説明するため図である。
≪Imager calibration method (calibration method) ≫
FIG. 4 is a flowchart showing a method of calibrating the imaging unit using the robot system shown in FIG. FIG. 5 is a plan view of a calibration member used for calibration of the imaging unit shown in FIG. FIG. 6 is a flowchart for explaining calibration of the mobile camera shown in FIG. FIG. 7 is a schematic diagram of a robot for explaining calibration of the mobile camera shown in FIG. FIG. 8 is a flowchart for explaining the processing for obtaining the offset component shown in FIG. FIG. 9 is a diagram for explaining processing for obtaining the offset components Δu, Δv, Δw shown in FIG. FIG. 10 is a flowchart for explaining processing for obtaining the offset components Δx and Δy shown in FIG. 11, FIG. 12, FIG. 13, FIG. 14 and FIG. 15 are diagrams for explaining the processing for obtaining the offset components Δx and Δy shown in FIG. 8, respectively. FIG. 16 is a coordinate diagram for explaining processing for obtaining the offset components Δx and Δy shown in FIG. FIG. 17 is a diagram for explaining the processing for obtaining the offset component Δz shown in FIG.

図4に示すように、本実施形態の撮像部の校正方法では、固定カメラ2の校正(ステップS1)を行った後、モバイルカメラ3の校正(ステップS2)を行う。
撮像部の校正は、作業者が操作機器42を用いて制御装置5に撮像部の校正開始の指示をすることにより開始される。そして、作業者が制御装置5に撮像部の校正開始の指示さえすれば、それ以降、撮像部の校正は、ロボットシステム100により自動的に行われる。なお、この撮像部の校正は、例えば、ロボット1の作業内容等が変わるごとに行われる。
As shown in FIG. 4, in the calibration method of the imaging unit of the present embodiment, the calibration of the mobile camera 3 (step S2) is performed after the calibration of the fixed camera 2 (step S1).
Calibration of the imaging unit is started when the operator instructs the control device 5 to start calibration of the imaging unit using the operation device 42. Then, as long as the operator instructs the control device 5 to start the calibration of the imaging unit, the calibration of the imaging unit is automatically performed by the robot system 100 thereafter. The imaging unit is calibrated each time the work content of the robot 1 is changed, for example.

ここで、本実施形態では、図5に示す校正用部材70(キャリブレーションボード)を用いて撮像部の校正を行う。
校正用部材70は、四角形の平板状の部材であり、校正用部材70の表面701には、複数のマーカー75が付されている。複数のマーカー75は、互いに同じ円形状(形状)であり、互いにほぼ同じ大きさである。また、複数のマーカー75は、隣り合うマーカー75同士のピッチ(間隔)が全てほぼ一定になるように配置されている。また、マーカー75同士のピッチは、予め測定されており、既知である。
Here, in the present embodiment, the imaging unit is calibrated using the calibration member 70 (calibration board) shown in FIG.
The calibration member 70 is a rectangular flat plate member, and a plurality of markers 75 are attached to the surface 701 of the calibration member 70. The plurality of markers 75 have the same circular shape (shape) and are substantially the same size. Further, the plurality of markers 75 are arranged such that the pitches (intervals) between the adjacent markers 75 are almost constant. The pitch between the markers 75 is measured in advance and is known.

これら複数のマーカー75のうちの図5中の上側に位置するマーカー75と、図5中の中央部(表面701の中央部)に位置するマーカー75と、図5中の右側に位置するマーカー75には、それぞれ、マーカー75を囲む円がさらに付されている。これら3つのマーカー75とそれを囲む円とで構成された同心円状をなすマーカーのうち、図5中の上側に位置するマーカーを「第1マーカー71(第1基準点)」とし、図5中の中央部に位置するマーカーを「第2マーカー72(第2基準点)」とし、図5中の右側に位置するマーカーを「第3マーカー73(第3基準点)」とする。このような第1マーカー71、第2マーカー72及び第3マーカー73は、後述する撮像部の校正の基準面を特定する処理において、基準マーカーとして用いられる。それゆえ、第1マーカー71、第2マーカー72及び第3マーカー73は、互いに異なる位置にあり、かつ、第1マーカー71、第2マーカー72及び第3マーカー73が同一直線上にない。   Among the plurality of markers 75, the marker 75 located on the upper side in FIG. 5, the marker 75 located at the center in FIG. 5 (the center of the surface 701), and the marker 75 located on the right in FIG. Each is further provided with a circle surrounding the marker 75. Of the concentric markers composed of these three markers 75 and a circle surrounding them, the marker located on the upper side in FIG. 5 is referred to as “first marker 71 (first reference point)” in FIG. The marker located in the center of the second is referred to as “second marker 72 (second reference point)”, and the marker located on the right side in FIG. 5 is referred to as “third marker 73 (third reference point)”. The first marker 71, the second marker 72, and the third marker 73 are used as reference markers in processing for specifying a reference plane for calibration of the imaging unit, which will be described later. Therefore, the first marker 71, the second marker 72, and the third marker 73 are at different positions, and the first marker 71, the second marker 72, and the third marker 73 are not on the same straight line.

なお、複数のマーカー75、第1マーカー71、第2マーカー72及び第3マーカー73の形状は、それぞれ、図示の形状に限定されず、いかなる形状であってもよい。また、マーカー75、第1マーカー71、第2マーカー72及び第3マーカー73は、それぞれ、視認できる形態であればよく、いかなる色であってもよいし、凹凸を有する形態であってもよい。また、複数のマーカー75、第1マーカー71、第2マーカー72及び第3マーカー73は、異なる形態あってもよい。例えば、複数のマーカー75、第1マーカー71、第2マーカー72及び第3マーカー73は、それぞれ異なる色や形であってもよい。ただし、第1マーカー71、第2マーカー72及び第3マーカー73は、基準マーカーとして用いるため、他のマーカー75との識別力を有する形態であることが好ましい。   Note that the shapes of the plurality of markers 75, the first marker 71, the second marker 72, and the third marker 73 are not limited to the illustrated shapes, and may be any shape. Moreover, the marker 75, the 1st marker 71, the 2nd marker 72, and the 3rd marker 73 should just be a form which can be visually recognized, respectively, and may be what kind of color and the form which has an unevenness | corrugation. The plurality of markers 75, the first marker 71, the second marker 72, and the third marker 73 may have different forms. For example, the plurality of markers 75, the first marker 71, the second marker 72, and the third marker 73 may have different colors and shapes. However, since the 1st marker 71, the 2nd marker 72, and the 3rd marker 73 are used as a reference marker, it is preferable that it is a form which has discriminating power with other markers 75.

このような構成の校正用部材70は、作業者による撮像部の校正開始の指示をする前に、予め、ロボット1にハンド102で把持させておく。また、本実施形態では、第2マーカー72が第6アーム16の中心軸A6上に位置するように、ハンド102によって校正用部材70を把持させる。また、本実施形態では、ロボット座標系における軸座標O6の座標に対する第2マーカー72の座標が特定されており、ロボット座標系における第2マーカー72の座標を求めることができるようになっている。   The calibration member 70 having such a configuration is previously held by the robot 1 with the hand 102 before the operator gives an instruction to start calibration of the imaging unit. In the present embodiment, the calibration member 70 is gripped by the hand 102 so that the second marker 72 is positioned on the central axis A6 of the sixth arm 16. In this embodiment, the coordinates of the second marker 72 relative to the coordinates of the axis coordinate O6 in the robot coordinate system are specified, and the coordinates of the second marker 72 in the robot coordinate system can be obtained.

なお、本実施形態では、第2マーカー72が第6アーム16の中心軸A6上に位置しているが、ロボット座標系における第2マーカー72の座標を求めることができるよう設定されていれば、第2マーカー72が第6アーム16の中心軸A6上に位置していなくてもよい。   In the present embodiment, the second marker 72 is located on the central axis A6 of the sixth arm 16, but if the coordinates of the second marker 72 in the robot coordinate system are set to be obtained, The second marker 72 may not be located on the central axis A6 of the sixth arm 16.

<固定カメラの校正(ステップS1)>
図4に示すように、作業者による撮像部の校正の開始の指示がなされると、制御装置5は、まず、固定カメラ2の校正(ステップS1)を開始する。
固定カメラ2の校正(ステップS1)では、基準面を特定する処理を行った後、固定カメラ2の画像座標系とロボット座標系との関係を求める処理を行う。
<Calibration of fixed camera (step S1)>
As shown in FIG. 4, when an instruction to start calibration of the imaging unit is given by the operator, the control device 5 first starts calibration of the fixed camera 2 (step S <b> 1).
In the calibration of the fixed camera 2 (step S1), after the process of specifying the reference plane is performed, the process of obtaining the relationship between the image coordinate system of the fixed camera 2 and the robot coordinate system is performed.

[基準面を特定する処理]
以下、基準面を特定する処理を説明する。
基準面を特定する処理が開始すると、まず、制御装置5は、ロボットアーム10を駆動させて、校正用部材70を固定カメラ2に対向させる。
次いで、制御装置5は、ロボットアーム10を駆動させて、校正用部材70に付された第2マーカー72が固定カメラ2の画像の中心部に位置するように校正用部材70を移動させる。
[Process to identify reference plane]
Hereinafter, processing for specifying the reference plane will be described.
When the process of specifying the reference plane is started, first, the control device 5 drives the robot arm 10 so that the calibration member 70 faces the fixed camera 2.
Next, the control device 5 drives the robot arm 10 to move the calibration member 70 so that the second marker 72 attached to the calibration member 70 is positioned at the center of the image of the fixed camera 2.

次いで、制御装置5は、固定カメラ2に第2マーカー72を撮像させる。このとき、制御装置5は、固定カメラ2の焦点が第2マーカー72に合う(合焦する)ように、ロボットアーム10を駆動させることにより、校正用部材70を移動させる処理(合焦処理)を行う。なお、この合焦処理は省略しても構わない。
次いで、制御装置5は、固定カメラ2で撮像した第2マーカー72の画像を「第1画像」として記憶部54に記憶し、かつ、第1画像を撮像した際のロボット座標系における軸座標O6の座標を記憶部54に記憶する。ここで、固定カメラ2における基準面を特定する処理では、第1画像を撮像した際の第2マーカー72を「第1基準マーカー」とする。
次に、制御装置5は、ロボットアーム10を駆動させて、固定カメラ2の画像上において移動させた位置とは異なる位置に第2マーカー72が位置するように、校正用部材70をロボット座標系におけるxr軸、yr軸及びzr軸に沿って並進移動させる。
Next, the control device 5 causes the fixed camera 2 to image the second marker 72. At this time, the control device 5 moves the calibration member 70 by driving the robot arm 10 so that the focus of the fixed camera 2 is focused (focused) on the second marker 72 (focusing process). I do. This focusing process may be omitted.
Next, the control device 5 stores the image of the second marker 72 captured by the fixed camera 2 in the storage unit 54 as a “first image”, and the axis coordinate O6 in the robot coordinate system when the first image is captured. Are stored in the storage unit 54. Here, in the process of specifying the reference plane in the fixed camera 2, the second marker 72 when the first image is captured is referred to as a “first reference marker”.
Next, the control device 5 drives the robot arm 10 to move the calibration member 70 to the robot coordinate system so that the second marker 72 is positioned at a position different from the position moved on the image of the fixed camera 2. Is translated along the xr, yr, and zr axes.

次いで、制御装置5は、固定カメラ2に第2マーカー72を撮像させる。
次いで、固定カメラ2で撮像した画像における第2マーカー72の形状及び大きさと、記憶部54に記憶した第1画像における第2マーカー72の形状及び大きさとを比較する。そして、第2マーカー72の形状及び大きさと、第1画像における第2マーカー72の形状及び大きさとの差が、所定の閾値内であるか否かを判断する。
所定の閾値内でないと判断した場合には、所定の閾値内になるようにロボットアーム10の駆動により校正用部材70を移動させる。
次に、制御装置5は、所定の閾値内であると判断したら、固定カメラ2で撮像した第2マーカー72の画像を「第2画像(第n画像)」として記憶部54に記憶し、かつ、第2画像(第n画像)を撮像した際のロボット座標系における軸座標O6の座標を記憶部54に記憶する。ここで、固定カメラ2における基準面を特定する処理では、第2画像を撮像した際の第2マーカー72を「第2基準マーカー」とする。なお、第2画像を撮像する際には、ハンド102に把持されている校正用部材70に付された第2マーカー72は、第1画像を撮像する際における位置と異なる位置にある。
Next, the control device 5 causes the fixed camera 2 to image the second marker 72.
Next, the shape and size of the second marker 72 in the image captured by the fixed camera 2 are compared with the shape and size of the second marker 72 in the first image stored in the storage unit 54. Then, it is determined whether or not the difference between the shape and size of the second marker 72 and the shape and size of the second marker 72 in the first image is within a predetermined threshold.
When it is determined that it is not within the predetermined threshold, the calibration member 70 is moved by driving the robot arm 10 so as to be within the predetermined threshold.
Next, when the control device 5 determines that the value is within the predetermined threshold, it stores the image of the second marker 72 captured by the fixed camera 2 in the storage unit 54 as a “second image (nth image)”, and The coordinates of the axis coordinate O6 in the robot coordinate system when the second image (nth image) is captured are stored in the storage unit 54. Here, in the process of specifying the reference plane in the fixed camera 2, the second marker 72 when the second image is captured is referred to as a “second reference marker”. When the second image is captured, the second marker 72 attached to the calibration member 70 held by the hand 102 is at a position different from the position at which the first image is captured.

次に、撮像した画像の数nが予め設定した所定数(ただし、nは整数であって、3≦nの関係を満足する数)であるか否かを判断する。
ここで、本実施形態では、画像の数が3になるまで画像を取得すること、すなわち、固定カメラ2で3つの画像(第1画像、第2画像及び第3画像)を撮像することを予め設定している。ここで、固定カメラ2における基準面を特定する処理では、第3画像を撮像した際の第2マーカー72を「第3基準マーカー」とする。なお、第3画像を撮像する際には、ハンド102に把持されている校正用部材70に付された第2マーカー72は、第1画像を撮像する際における位置及び第2画像を撮像する際における位置と異なる位置にあり、それらは同一直線上にない。また、固定カメラ2における基準面を特定する処理では、第2マーカー72が「第1基準マーカー、第2基準マーカー及び第3基準マーカー」を兼ねていると捉えることができる。
Next, it is determined whether or not the number n of captured images is a predetermined number (where n is an integer and satisfies the relationship of 3 ≦ n).
Here, in the present embodiment, acquiring images until the number of images reaches three, that is, capturing three images (first image, second image, and third image) with the fixed camera 2 in advance. It is set. Here, in the process of specifying the reference plane in the fixed camera 2, the second marker 72 when the third image is captured is referred to as a “third reference marker”. When the third image is captured, the second marker 72 attached to the calibration member 70 held by the hand 102 is positioned when the first image is captured and when the second image is captured. They are not in the same straight line. Further, in the process of specifying the reference plane in the fixed camera 2, it can be understood that the second marker 72 also serves as “the first reference marker, the second reference marker, and the third reference marker”.

次に、画像の数nが所定数であると判断したら、処理部53は、記憶部54に記憶したn個(本実施形態では3つ)のロボット座標系における軸座標O6の座標を基に、撮像素子21(3つの異なる箇所に配置された状態の第2マーカー72を通る平面)に平行な基準面81の原点及びx軸、y軸、z軸の各方向を求める。そして、制御装置5は、ロボット座標系における基準面81の位置及び姿勢、すなわち、基準面81の成分xr、yr、zr、ur、vr、wrを定義する。   Next, if it is determined that the number n of images is a predetermined number, the processing unit 53 is based on the coordinates of the axis coordinate O6 in the n (three in the present embodiment) robot coordinate system stored in the storage unit 54. Then, the origin of the reference surface 81 parallel to the image pickup device 21 (the plane passing through the second marker 72 arranged in three different locations) and the x-axis, y-axis, and z-axis directions are obtained. Then, the control device 5 defines the position and orientation of the reference surface 81 in the robot coordinate system, that is, the components xr, yr, zr, ur, vr, and wr of the reference surface 81.

[固定カメラの画像座標系とロボット座標系との関係を求める処理]
次に、固定カメラの画像座標系とロボット座標系との関係を求める処理を行う。
制御装置5は、まず、ロボットアーム10を駆動させて、基準面81内の格子状に配列された任意の9つの基準点(仮想の目標点)にそれぞれ軸座標O6が位置するように、校正用部材70を移動させる。すなわち、第2マーカー72を格子状に配列された9つの箇所に移動させる。このとき、制御装置5は、校正用部材70を移動させるごとに、固定カメラ2に第2マーカー72を撮像させる。
ここで、9つの基準点は、全て固定カメラ2の画像の範囲内(撮像領域内)にあり、隣り合う基準点同士の間隔が全て等しくなっているものとする。
[Process to obtain the relationship between the image coordinate system of the fixed camera and the robot coordinate system]
Next, processing for obtaining the relationship between the image coordinate system of the fixed camera and the robot coordinate system is performed.
First, the control device 5 drives the robot arm 10 to perform calibration so that the axial coordinates O6 are positioned at any nine reference points (virtual target points) arranged in a grid pattern in the reference plane 81, respectively. The working member 70 is moved. That is, the second marker 72 is moved to nine locations arranged in a lattice pattern. At this time, the control device 5 causes the fixed camera 2 to image the second marker 72 every time the calibration member 70 is moved.
Here, it is assumed that the nine reference points are all within the range of the image of the fixed camera 2 (in the imaging region), and the intervals between adjacent reference points are all equal.

次に、制御装置5は、9つの画像に基づいた固定カメラ2の画像座標系における第2マーカー72の座標(成分xa、ya、ua)と、ロボット座標系における基準面81の座標(成分xr、yr、ur)とに基づいて、固定カメラ2の画像座標をロボット座標系における基準面81の座標に変換する補正パラメーター(座標変換行列)を求める。
このようにして求めた補正パラメーターを用いれば、固定カメラ2で撮像した対象物等の位置及び姿勢(具体的には、成分xa、ya、ua)をロボット座標系における値(具体的には、成分xr、yr、ur)に変換することができる。なお、この補正パラメーターは、レンズ22の歪み等の固定カメラ2の内部パラメーターも加味した値である。
Next, the control device 5 determines the coordinates (components xa, ya, ua) of the second marker 72 in the image coordinate system of the fixed camera 2 based on the nine images and the coordinates (component xr) of the reference plane 81 in the robot coordinate system. , Yr, ur), a correction parameter (coordinate conversion matrix) for converting the image coordinates of the fixed camera 2 into the coordinates of the reference plane 81 in the robot coordinate system is obtained.
Using the correction parameters obtained in this way, the position and orientation (specifically, components xa, ya, ua) of an object or the like imaged by the fixed camera 2 are converted into values in the robot coordinate system (specifically, Component xr, yr, ur). This correction parameter is a value that takes into account internal parameters of the fixed camera 2 such as distortion of the lens 22.

<モバイルカメラの校正(ステップS2)>
次に、制御装置5は、図4に示すモバイルカメラ3の校正(ステップS2)を開始する。
図6に示すように、モバイルカメラ3の校正(ステップS2)では、基準面を特定する処理(ステップS21)、オフセット成分を求める処理(ステップS22)、作業面を特定する処理(ステップS23)、ロボット1にマーカーの位置及び姿勢を教示する処理(ステップS24)、及び、モバイルカメラ3の画像座標系とロボット座標系との関係を求める処理(ステップS25)を、この順に行う。
<Calibration of mobile camera (step S2)>
Next, the control device 5 starts calibration (step S2) of the mobile camera 3 shown in FIG.
As shown in FIG. 6, in the calibration (step S2) of the mobile camera 3, a process for specifying a reference plane (step S21), a process for obtaining an offset component (step S22), a process for specifying a work plane (step S23), Processing for teaching the position and orientation of the marker to the robot 1 (step S24) and processing for obtaining the relationship between the image coordinate system of the mobile camera 3 and the robot coordinate system (step S25) are performed in this order.

[基準面を特定する処理(ステップS21)]
まず、図7に示すように、基準面を特定する処理(ステップS21)を行う前に、予め、ハンド102で把持していた校正用部材70を作業台61の作業面611上に載置しておく。その後、基準面を特定する処理(ステップS21)を行う。
まず、制御装置5は、ロボットアーム10を駆動させて、モバイルカメラ3を校正用部材70に対向させる。次いで、制御装置5は、ロボットアーム10を駆動させて、校正用部材70に付された第1マーカー71がモバイルカメラ3の画像の中心部に位置するようにモバイルカメラ3を移動させる。
[Process for Specifying Reference Surface (Step S21)]
First, as shown in FIG. 7, the calibration member 70 gripped by the hand 102 is placed on the work surface 611 of the work table 61 in advance before performing the process of specifying the reference surface (step S <b> 21). Keep it. Then, the process (step S21) which specifies a reference plane is performed.
First, the control device 5 drives the robot arm 10 so that the mobile camera 3 faces the calibration member 70. Next, the control device 5 drives the robot arm 10 to move the mobile camera 3 so that the first marker 71 attached to the calibration member 70 is positioned at the center of the image of the mobile camera 3.

次いで、制御装置5は、モバイルカメラ3に第1マーカー71を撮像させる。このとき、制御装置5は、モバイルカメラ3の焦点が第1マーカー71に合う(合焦する)ようにロボットアーム10を駆動させることにより、モバイルカメラ3を移動させる処理(合焦処理)を行う。なお、この合焦処理は省略しても構わない。
次いで、制御装置5は、モバイルカメラ3で撮像した第1マーカー71の画像を「第1画像」として記憶部54に記憶し、かつ、第1画像を撮像した際のロボット座標系における軸座標O6の座標を記憶部54に記憶する。ここで、モバイルカメラ3における基準面を特定する処理では、第1マーカー71を「第1基準マーカー」とする。
次に、制御装置5は、ロボットアーム10を駆動させて、第2マーカー72がモバイルカメラ3の画像の中心部に位置するようにモバイルカメラ3を並進移動させる。
次いで、制御装置5は、モバイルカメラ3に第2マーカー72(第nマーカー)を撮像させる。
Next, the control device 5 causes the mobile camera 3 to image the first marker 71. At this time, the control device 5 performs a process of moving the mobile camera 3 (focusing process) by driving the robot arm 10 so that the mobile camera 3 is focused on (focused on) the first marker 71. . This focusing process may be omitted.
Next, the control device 5 stores the image of the first marker 71 captured by the mobile camera 3 in the storage unit 54 as a “first image”, and the axis coordinate O6 in the robot coordinate system when the first image is captured. Are stored in the storage unit 54. Here, in the process of specifying the reference plane in the mobile camera 3, the first marker 71 is set as a “first reference marker”.
Next, the control device 5 drives the robot arm 10 to translate the mobile camera 3 so that the second marker 72 is positioned at the center of the image of the mobile camera 3.
Next, the control device 5 causes the mobile camera 3 to image the second marker 72 (nth marker).

次いで、モバイルカメラ3で撮像した画像における第2マーカー72の形状及び大きさと、記憶部54に記憶した第1画像における第1マーカー71の形状及び大きさとを比較する。そして、第2マーカー72の形状及び大きさと、第1マーカー71の形状及び大きさとの差が、所定の閾値内であるか否かを判断する。
所定の閾値内でないと判断した場合には、所定の閾値内になるようにロボットアーム10の駆動によりモバイルカメラ3を移動させる。
次に、制御装置5は、所定の閾値内であると判断したら、モバイルカメラ3で撮像した第2マーカー72(第nマーカー)の画像を「第2画像(第n画像)」として記憶部54に記憶し、かつ、第2画像(第n画像)を撮像した際のロボット座標系における軸座標O6の座標を記憶部54に記憶する。ここで、モバイルカメラ3における基準面を特定する処理(ステップS21)では、第2マーカー72を「第2基準マーカー」とする。
Next, the shape and size of the second marker 72 in the image captured by the mobile camera 3 are compared with the shape and size of the first marker 71 in the first image stored in the storage unit 54. Then, it is determined whether or not the difference between the shape and size of the second marker 72 and the shape and size of the first marker 71 is within a predetermined threshold.
If it is determined that it is not within the predetermined threshold, the mobile camera 3 is moved by driving the robot arm 10 so that it is within the predetermined threshold.
Next, when the control device 5 determines that the value is within the predetermined threshold, the image of the second marker 72 (n-th marker) captured by the mobile camera 3 is stored as a “second image (n-th image)” in the storage unit 54. And the coordinates of the axis coordinate O6 in the robot coordinate system when the second image (n-th image) is captured are stored in the storage unit 54. Here, in the process of identifying the reference plane in the mobile camera 3 (step S21), the second marker 72 is set as the “second reference marker”.

次に、撮像した画像の数nが予め設定した所定数(ただし、nは整数であって、3≦nの関係を満足する数)であるか否かを判断する。
ここで、本実施形態では、モバイルカメラ3で3つの画像(第1画像、第2画像及び第3画像)を撮像することを予め設定している。そのため、本実施形態では、モバイルカメラ3で第2画像を撮像した後に、さらにもう1回、モバイルカメラ3で撮像した第3マーカー73の画像を「第3画像」として記憶部54に記憶し、かつ、第3画像を撮像した際のロボット座標系における軸座標O6の座標を記憶部54に記憶する。ここで、モバイルカメラ3における基準面を特定する処理では、第3マーカー73を「第3基準マーカー」とする。
Next, it is determined whether or not the number n of captured images is a predetermined number (where n is an integer and satisfies the relationship of 3 ≦ n).
Here, in this embodiment, it is preset that the mobile camera 3 captures three images (first image, second image, and third image). Therefore, in this embodiment, after the second image is captured by the mobile camera 3, the image of the third marker 73 captured by the mobile camera 3 is stored in the storage unit 54 as a "third image" once more, And the coordinate of the axis coordinate O6 in the robot coordinate system at the time of imaging a 3rd image is memorize | stored in the memory | storage part 54. FIG. Here, in the process of specifying the reference plane in the mobile camera 3, the third marker 73 is referred to as a “third reference marker”.

次に、画像の数nが所定数であると判断したら、処理部53は、記憶部54に記憶したn個(本実施形態では3つ)のロボット座標系における軸座標O6の座標を基に、図7に示すような表面701(第1マーカー71、第2マーカー72及び第3マーカー73を通る平面)に平行な基準面82の原点及びx軸、y軸、z軸の各方向を求める。そして、制御装置5は、ロボット座標系における基準面82の位置及び姿勢、すなわち、基準面82の成分xr、yr、zr、ur、vr、wrを定義する。   Next, if it is determined that the number n of images is a predetermined number, the processing unit 53 is based on the coordinates of the axis coordinate O6 in the n (three in the present embodiment) robot coordinate system stored in the storage unit 54. 7, the origin of the reference plane 82 parallel to the surface 701 (the plane passing through the first marker 71, the second marker 72, and the third marker 73) and the respective directions of the x-axis, y-axis, and z-axis are obtained. . Then, the control device 5 defines the position and orientation of the reference plane 82 in the robot coordinate system, that is, the components xr, yr, zr, ur, vr, and wr of the reference plane 82.

[オフセット成分を求める処理(ステップS22)]
次に、オフセット成分を求める処理(ステップS22)を、図8に示すフローチャートを参照しつつ説明する。
[Process for obtaining offset component (step S22)]
Next, the process for obtaining the offset component (step S22) will be described with reference to the flowchart shown in FIG.

ここで、前述したように、モバイルカメラ3は、設計上、光軸OA3が第6アーム16の中心軸A6に対してほぼ平行になるように、第6アーム16に対してオフセットして取り付けられている。しかし、実際には、その設計上のオフセット成分(第6アーム16に対するモバイルカメラ3の位置及び姿勢)からズレが生じる。このズレは、例えば、モバイルカメラ3の組み付け誤差や、モバイルカメラ3の筐体に対する撮像素子31の組み付け誤差等により生じる。   Here, as described above, the mobile camera 3 is offset and attached to the sixth arm 16 so that the optical axis OA3 is substantially parallel to the central axis A6 of the sixth arm 16 by design. ing. However, in practice, a deviation occurs from an offset component in the design (position and posture of the mobile camera 3 with respect to the sixth arm 16). This deviation occurs due to, for example, an assembly error of the mobile camera 3 or an assembly error of the image sensor 31 with respect to the housing of the mobile camera 3.

そこで、このオフセット成分を求める処理(ステップS22)にて、実際のオフセット成分(第6アーム16に対するモバイルカメラ3の位置及び姿勢)を求める。
以下のオフセット成分を求める処理(ステップS22)では、回動軸部材161の軸座標O6に対するモバイルカメラ3の撮像基準点O3の位置及び光軸OA3の方向(姿勢)のオフセット成分(Δx、Δx、Δy、Δu、Δv、Δw)を求める。
Therefore, an actual offset component (position and posture of the mobile camera 3 with respect to the sixth arm 16) is obtained in the process of obtaining the offset component (step S22).
In the processing for obtaining the following offset components (step S22), the offset components (Δx, Δx,...) Of the position of the imaging reference point O3 of the mobile camera 3 and the direction (posture) of the optical axis OA3 with respect to the axis coordinate O6 of the rotating shaft member 161. Δy, Δu, Δv, Δw) are obtained.

なお、本実施形態では、軸座標O6に対する撮像基準点O3の位置及び光軸OA3の方向のオフセット成分を求めるが、オフセット成分を求めるにあたり基準とする箇所は、軸座標O6及び撮像基準点O3に限定されず任意である。例えば、オフセット成分を求めるにあたり基準とする箇所を、ロボットアーム10に装着されたハンド102のTCP等のツールの所定部位であってもよい。   In the present embodiment, the position of the imaging reference point O3 with respect to the axis coordinate O6 and the offset component in the direction of the optical axis OA3 are obtained, but the reference points for obtaining the offset component are the axis coordinate O6 and the imaging reference point O3. It is not limited and is arbitrary. For example, the reference part for obtaining the offset component may be a predetermined part of a tool such as TCP of the hand 102 attached to the robot arm 10.

図8に示すように、オフセットを求める処理(ステップS22)が開始すると、まず、制御装置5は、ロボットアーム10を駆動させて、モバイルカメラ3に校正用部材70を検出させる(ステップS221)。
次に、制御装置5は、モバイルカメラ3の受光面311が校正用部材70の表面701に正対するようにロボットアーム10を駆動させる(ステップS222)。
As shown in FIG. 8, when the process for obtaining the offset (step S22) is started, the control device 5 first drives the robot arm 10 to cause the mobile camera 3 to detect the calibration member 70 (step S221).
Next, the control device 5 drives the robot arm 10 so that the light receiving surface 311 of the mobile camera 3 faces the surface 701 of the calibration member 70 (step S222).

次いで、制御装置5は、モバイルカメラ3の受光面311に対する校正用部材70の表面701の平行度を検証する(ステップS223)。そして、制御装置5は、平行度が所定の閾値内であるか否かを判断する(ステップS224)。
図9に示すように、平行度は、画像における表面701に付された隣り合うマーカー75同士のピッチPの差を用いて検証する。例えば、図9中の実線で示すように、隣り合うマーカー75同士のピッチP1、P2、P3、P4の差がほぼ同じであり、その差が所定の閾値内である場合には、ステップS225に移行する。一方、図9中の2点鎖線で示すように、隣り合うマーカー75同士のピッチP1’、P2’、P3’、P4’の差が異なり、その差が所定の閾値を超える場合には、所定の閾値内になるまで、ステップS221からステップS224を繰り返す。ここで、所定の閾値内であることは、前述した基準面82と光軸OA3とが閾値以内で垂直になっていることを意味する。
Next, the control device 5 verifies the parallelism of the surface 701 of the calibration member 70 with respect to the light receiving surface 311 of the mobile camera 3 (step S223). Then, the control device 5 determines whether or not the parallelism is within a predetermined threshold (step S224).
As shown in FIG. 9, the parallelism is verified using a difference in pitch P between adjacent markers 75 attached to the surface 701 in the image. For example, as shown by the solid line in FIG. 9, if the difference between the pitches P1, P2, P3, and P4 between the adjacent markers 75 is substantially the same and the difference is within a predetermined threshold, the process goes to step S225. Transition. On the other hand, as shown by a two-dot chain line in FIG. 9, when the difference between the pitches P1 ′, P2 ′, P3 ′, and P4 ′ between the adjacent markers 75 is different and the difference exceeds a predetermined threshold value, Step S221 to Step S224 are repeated until the value is within the threshold value. Here, being within the predetermined threshold means that the above-described reference plane 82 and the optical axis OA3 are perpendicular to each other within the threshold.

次に、制御装置5は、所定の閾値内であると判断したら、所定の閾値内であると判断した際のロボット座標系における軸座標O6の成分ur、vr、wrと、前述した基準面を特定する処理(ステップS21)で求めた際のロボット座標系における基準面82の成分ur、vr、wrとの差からオフセット成分Δu、Δv、Δwを求める(ステップS225)。このオフセット成分Δu、Δv、Δwは、軸座標O6に対する光軸OA3のオフセット成分Δu、Δv、Δwに相当する。   Next, when the control device 5 determines that it is within the predetermined threshold value, the components ur, vr, wr of the axis coordinate O6 in the robot coordinate system when it is determined to be within the predetermined threshold value, and the reference plane described above are used. Offset components Δu, Δv, Δw are obtained from the differences from the components ur, vr, wr of the reference plane 82 in the robot coordinate system obtained in the specifying process (step S21) (step S225). The offset components Δu, Δv, Δw correspond to the offset components Δu, Δv, Δw of the optical axis OA3 with respect to the axis coordinate O6.

次に、図8に示すように、制御装置5は、軸座標O6に対する撮像基準点O3のオフセット成分Δx、Δyを求める(ステップS226)。以下、オフセット成分Δx、Δyを求める方法を図10〜図16を参照しつつ説明する。なお、図10は、オフセット成分Δx、Δyを求める処理をフローチャートであり、図11〜図16は、例えば、ロボット1を鉛直方向上方から見たときのモバイルカメラ3及び第6アーム16を模式的に示している。   Next, as shown in FIG. 8, the control device 5 obtains offset components Δx and Δy of the imaging reference point O3 with respect to the axis coordinate O6 (step S226). Hereinafter, a method for obtaining the offset components Δx and Δy will be described with reference to FIGS. FIG. 10 is a flowchart of processing for obtaining the offset components Δx and Δy. FIGS. 11 to 16 schematically illustrate the mobile camera 3 and the sixth arm 16 when the robot 1 is viewed from above in the vertical direction, for example. It shows.

具体的には、まず、制御装置5は、マーカーを画像の中央に移動させる(ステップS2261)。図11に示すように、制御装置5は、例えばモバイルカメラ3の画像30の中心O30(重心)に第2マーカー72が位置するようにロボットアーム10を駆動させる。この図11に示すモバイルカメラ3及び第6アーム16の姿勢を「第1姿勢」とし、この状態を「第1状態」とする。ここで、画像30の中心O30と撮像基準点O3は一致している。また、図11に示す第6アーム16に装着されたハンド102の位置を「第1位置」とする。   Specifically, first, the control device 5 moves the marker to the center of the image (step S2261). As illustrated in FIG. 11, the control device 5 drives the robot arm 10 so that the second marker 72 is positioned at the center O30 (center of gravity) of the image 30 of the mobile camera 3, for example. The posture of the mobile camera 3 and the sixth arm 16 shown in FIG. 11 is referred to as a “first posture”, and this state is referred to as a “first state”. Here, the center O30 of the image 30 and the imaging reference point O3 coincide. Further, the position of the hand 102 attached to the sixth arm 16 shown in FIG.

次いで、制御装置5は、ロボット1の姿勢を変化させる(ステップS2262)。制御装置5は、TCPを回転軸として5°程度回転させる。具体的には、図12に示すように、制御装置5は、第1姿勢で、ロボットアーム10を駆動させて第6アーム16を中心軸A6周りに所定の角度で回動させる。この際の所定の角度は、画像30外に第2マーカー72が出ない範囲内(モバイルカメラ3の撮像領域内に収まる範囲内)の所定の角度(例えば1〜10°程度)とする。   Next, the control device 5 changes the posture of the robot 1 (step S2262). The control device 5 rotates about 5 ° about the TCP as a rotation axis. Specifically, as shown in FIG. 12, the control device 5 drives the robot arm 10 in the first posture to rotate the sixth arm 16 around the central axis A6 at a predetermined angle. The predetermined angle at this time is set to a predetermined angle (for example, about 1 to 10 °) within a range where the second marker 72 does not appear outside the image 30 (within a range within the imaging region of the mobile camera 3).

次いで、制御装置5は、マーカーを画像の中央に移動させる(ステップS2263)。具体的には、図13に示すように、制御装置5は、ロボットアーム10を駆動させて、第2マーカー72が中心O30に一致するようにモバイルカメラ3及び第6アーム16をロボット座標系におけるxr軸及びyr軸を含む平面(基準面82のx−y平面)に平行な平面内に並進移動させる。この図13に示すモバイルカメラ3及び第6アーム16の姿勢を「第2姿勢」とし、この状態を「第2状態」とする。   Next, the control device 5 moves the marker to the center of the image (step S2263). Specifically, as shown in FIG. 13, the control device 5 drives the robot arm 10 to move the mobile camera 3 and the sixth arm 16 in the robot coordinate system so that the second marker 72 coincides with the center O30. Translation is performed in a plane parallel to a plane including the xr axis and the yr axis (the xy plane of the reference plane 82). The posture of the mobile camera 3 and the sixth arm 16 shown in FIG. 13 is referred to as a “second posture”, and this state is referred to as a “second state”.

次いで、制御装置5は、ツールオフセットを計算し、ツール1に設定する(ステップS2264)。このような第1状態から第4状態となるモバイルカメラ3及び第6アーム16の移動は、図11に示す第1状態と図13に示す第2状態とを見ると、中心O30(撮像基準点O3)を通る線分を回動中心軸にして軸座標O6(第6アーム16)が回動していることと同等であることが分かる。したがって、図11−図13に示すように、第1状態から第2状態となる移動は、中心O30(撮像基準点O3)を通る線分を回動中心軸として軸座標O6を回動角度θ10で移動させたことと等しい。それゆえ、回動角度θ10と、第1状態でのロボット座標系における軸座標O6の座標と、第2状態でのロボット座標系における軸座標O6の座標とに基づいて、ロボット座標系における撮像基準点O3の座標を求める。そして、求めたロボット座標系における撮像基準点O3の座標と、第1状態及び第3状態のいずれか一方のロボット座標系における軸座標O6の座標とから、軸座標O6に対する撮像基準点O3の仮オフセット成分Δx’、Δy’(仮ツールセット)を求める。   Next, the control device 5 calculates the tool offset and sets it to the tool 1 (step S2264). The movements of the mobile camera 3 and the sixth arm 16 that change from the first state to the fourth state are as follows when the first state shown in FIG. 11 and the second state shown in FIG. It can be seen that this is equivalent to the rotation of the axis coordinate O6 (sixth arm 16) with the line segment passing through O3) as the rotation center axis. Accordingly, as shown in FIG. 11 to FIG. 13, the movement from the first state to the second state is performed by using the line segment passing through the center O30 (imaging reference point O3) as the rotation center axis and the axis coordinate O6 as the rotation angle θ10. Equivalent to moving with Therefore, the imaging reference in the robot coordinate system is based on the rotation angle θ10, the coordinate of the axis coordinate O6 in the robot coordinate system in the first state, and the coordinate of the axis coordinate O6 in the robot coordinate system in the second state. The coordinates of the point O3 are obtained. Then, based on the obtained coordinates of the imaging reference point O3 in the robot coordinate system and the coordinates of the axis coordinate O6 in either one of the first state and the third state, the provisional reference point O3 relative to the axis coordinate O6 is provisional. Offset components Δx ′ and Δy ′ (temporary tool set) are obtained.

次いで、制御装置5は、ロボットアーム10の第6アーム16に装着されたハンド102を移動させる(ステップS2265)。ロボット1の近傍に、他のロボット、装置等の干渉物(障害物)X1が配置されていた場合について考える。この場合、あるロボット1が、当該ロボット1が有するロボットアーム10の第6アーム16に装着されたハンド102を中心軸A6周りに所定の角度で回動させた場合に、ハンド102が干渉物X1に接触してしまうことが想定される。
そこで、本実施形態では、第2状態で、ハンド102を中心軸A6周りに所定の角度で回動させるとハンド102が干渉物X1に接触してしまう場合、制御装置5は、ロボットアーム10の第6アーム16に装着されたハンド102を第1位置から、ハンド102を中心軸A6周りに所定の角度で回動させてもハンド102が干渉物X1に接触しない第2位置へ移動させる。具体的には、制御装置5は、この一例において、当該場合には、現在のモバイルカメラ3の姿勢を保持したまま、当該ハンド102を第1位置から上方向へ所定の距離だけ移動させることによって、ハンド102を中心軸A6周りに所定の角度で回動させてもハンド102が障害物X1に接触しない第2位置へ並進移動させる(逃がす)。なお、制御装置5は、ハンド102を第1位置から上方向へ所定の距離だけ移動させることに代えて、他の方向に所定の距離だけ並進移動させる構成であってもよく、予め決められた他の位置に移動させる構成であってもよい。予め決められた他の位置に移動させる場合、第1位置と第2位置とのそれぞれにおいて、モバイルカメラ3の姿勢は、同じ姿勢でなければならない。しかし、第1位置から第2位置までの移動中におけるモバイルカメラ3の姿勢は、変化してもよい。
Next, the control device 5 moves the hand 102 attached to the sixth arm 16 of the robot arm 10 (step S2265). Consider a case where an interference (obstacle) X1 such as another robot or device is disposed in the vicinity of the robot 1. In this case, when a certain robot 1 rotates the hand 102 attached to the sixth arm 16 of the robot arm 10 of the robot 1 at a predetermined angle around the central axis A6, the hand 102 becomes the interference object X1. It is assumed that it will touch.
Therefore, in the present embodiment, in the second state, when the hand 102 rotates around the central axis A6 at a predetermined angle, the hand 102 comes into contact with the interference X1, the control device 5 The hand 102 attached to the sixth arm 16 is moved from the first position to the second position where the hand 102 does not contact the interference X1 even if the hand 102 is rotated around the central axis A6 at a predetermined angle. Specifically, in this example, the control device 5 moves the hand 102 upward from the first position by a predetermined distance while maintaining the current posture of the mobile camera 3 in this example. Then, even if the hand 102 is rotated around the central axis A6 by a predetermined angle, the hand 102 is translated (relieved) to the second position where it does not contact the obstacle X1. The control device 5 may be configured to translate the hand 102 by a predetermined distance in the other direction instead of moving the hand 102 upward from the first position by a predetermined distance. The structure which moves to another position may be sufficient. When moving to another predetermined position, the posture of the mobile camera 3 must be the same in each of the first position and the second position. However, the posture of the mobile camera 3 during movement from the first position to the second position may change.

次いで、制御装置5は、ロボットの姿勢を変化させる(ステップS2266)。具体的には、制御装置5は、第1の姿勢に対して、ツール先端を回転中心として180°回転させる。ツール先端を回転中心として180°回転させた状態のモバイルカメラ3及び第6アーム16を図14に示す。図14に示した例では、制御装置5がハンド102を第1位置から第2位置へ移動させた後においても、モバイルカメラ3の画像30に第2マーカー72が入っている。なお、この状態では、モバイルカメラ3の画像30に第2マーカー72が入っていなくてもよい。   Next, the control device 5 changes the posture of the robot (step S2266). Specifically, the control device 5 rotates 180 degrees with respect to the first posture with the tool tip as the rotation center. FIG. 14 shows the mobile camera 3 and the sixth arm 16 in a state in which the tool tip is rotated 180 ° around the tool tip. In the example illustrated in FIG. 14, the second marker 72 is included in the image 30 of the mobile camera 3 even after the control device 5 moves the hand 102 from the first position to the second position. In this state, the second marker 72 may not be included in the image 30 of the mobile camera 3.

次いで、制御装置5は、第6アーム16に装着されたハンド102の位置を第1位置に移動させる(ステップS2267)。この場合において、ロボットの姿勢は、第1の姿勢と180°異なる。
次いで、制御装置5は、マーカーを画像の中央に移動させる(ステップS2268)。具体的には、制御装置5は、第2マーカー72が画像30外に出ないように仮オフセット成分Δx’、Δy’を基にしてロボットアーム10を駆動させ、撮像基準点O3(中心O30)を通る線分を回動中心軸として軸座標O6を所定の角度で回動させる。図15に示すように、制御装置5は、ロボットアーム10の駆動によりモバイルカメラ3及び第6アーム16をロボット座標系におけるxr軸及びyr軸を含む平面(基準面82のx−y平面)に平行な平面内に並進移動させ、画像30の中心O30に第2マーカー72を位置させる。この図15に示すモバイルカメラ3及び第6アーム16の姿勢を「第3姿勢」とし、この状態を「第3状態」とする。
Next, the control device 5 moves the position of the hand 102 attached to the sixth arm 16 to the first position (step S2267). In this case, the posture of the robot differs from the first posture by 180 °.
Next, the control device 5 moves the marker to the center of the image (step S2268). Specifically, the control device 5 drives the robot arm 10 based on the temporary offset components Δx ′ and Δy ′ so that the second marker 72 does not come out of the image 30, and the imaging reference point O3 (center O30). The axis coordinate O6 is rotated at a predetermined angle with the line segment passing through as the rotation center axis. As shown in FIG. 15, the control device 5 drives the robot arm 10 to move the mobile camera 3 and the sixth arm 16 to a plane including the xr axis and the yr axis in the robot coordinate system (the xy plane of the reference plane 82). The second marker 72 is positioned at the center O30 of the image 30 by translation in a parallel plane. The posture of the mobile camera 3 and the sixth arm 16 shown in FIG. 15 is referred to as a “third posture”, and this state is referred to as a “third state”.

次いで、制御装置5は、ツールオフセットを計算し、ツール1に設定する(ステップS2269)。このような図11の第1状態から、図15の第3状態となるモバイルカメラ3及び第6アーム16の移動は、図11に示す第1状態と図15に示す第3状態とを見ると、中心O30(撮像基準点O3)を通る線分を回動中心軸にして軸座標O6を回動させていることと同等であることが分かる。したがって、図16に示すように、図11の第1状態から図15の第3状態となる移動は、中心O30(撮像基準点O3)を通る線分を回動中心軸として軸座標O6を回動角度θ1で移動させたことと等しい。それゆえ、回動角度θ1と、第1状態でのロボット座標系における軸座標O6の座標と、第3状態でのロボット座標系における軸座標O6の座標とに基づいて、ロボット座標系における撮像基準点O3の座標を求める。そして、求めたロボット座標系における撮像基準点O3の座標と、第1状態及び第3状態のいずれか一方のロボット座標系における軸座標O6の座標とから、軸座標O6に対する撮像基準点O3のオフセット成分Δx、Δy(ツールセット)を求める。
次いで、制御装置5は、ロボットアーム10の第6アーム16に装着されたハンド102を干渉物がない場所に移動させる(ステップS2270)。
次いで、制御装置5は、ロボットの姿勢を元に戻す(ステップS2271)。具体的には、制御装置5は、ツール先端を回転中心として−180°回転させる。
次いで、制御装置5は、第6アーム16に装着されたハンド102の位置を第1位置に移動させる(ステップS2272)。
Next, the control device 5 calculates the tool offset and sets it to the tool 1 (step S2269). The movement of the mobile camera 3 and the sixth arm 16 from the first state shown in FIG. 11 to the third state shown in FIG. 15 will be described when the first state shown in FIG. 11 and the third state shown in FIG. It can be seen that this is equivalent to rotating the axis coordinate O6 with the line segment passing through the center O30 (imaging reference point O3) as the rotation center axis. Therefore, as shown in FIG. 16, the movement from the first state of FIG. 11 to the third state of FIG. 15 is performed by rotating the axis coordinate O6 about the line segment passing through the center O30 (imaging reference point O3) as the rotation center axis. Equivalent to moving at a moving angle θ1. Therefore, the imaging reference in the robot coordinate system is based on the rotation angle θ1, the coordinate of the axis coordinate O6 in the robot coordinate system in the first state, and the coordinate of the axis coordinate O6 in the robot coordinate system in the third state. The coordinates of the point O3 are obtained. Then, the offset of the imaging reference point O3 with respect to the axis coordinate O6 from the coordinates of the imaging reference point O3 in the obtained robot coordinate system and the coordinates of the axis coordinate O6 in one of the robot coordinate systems in the first state and the third state. Components Δx and Δy (tool set) are obtained.
Next, the control device 5 moves the hand 102 attached to the sixth arm 16 of the robot arm 10 to a place where there is no interference (step S2270).
Next, the control device 5 returns the robot to its original posture (step S2271). Specifically, the control device 5 rotates −180 ° about the tool tip as the rotation center.
Next, the control device 5 moves the position of the hand 102 attached to the sixth arm 16 to the first position (step S2272).

このような処理によれば、軸座標O6に対する撮像基準点O3のオフセット成分Δx、Δyを容易かつ高精度に求めることができる。
また、前述したように、本実施形態では、第1状態から第2状態に移行する処理を行うことにより、仮オフセット成分Δx’、Δy’を算出している。すなわち、第2マーカー72がモバイルカメラ3の画像30内(撮像領域内)に収まる範囲内の微小な角度で、第6アーム16を中心軸A6周りに回動させる処理を行うことで、仮オフセット成分Δx’、Δy’を算出している。このような仮オフセット成分Δx’、Δy’の情報を用いて、ステップS2268の処理を行うことで、第2マーカー72を確実に画像30内に写すことができる。
According to such processing, the offset components Δx and Δy of the imaging reference point O3 with respect to the axis coordinate O6 can be obtained easily and with high accuracy.
Further, as described above, in the present embodiment, the temporary offset components Δx ′ and Δy ′ are calculated by performing the process of shifting from the first state to the second state. That is, the temporary offset is performed by performing the process of rotating the sixth arm 16 about the central axis A6 at a minute angle within a range in which the second marker 72 is within the image 30 (in the imaging region) of the mobile camera 3. Components Δx ′ and Δy ′ are calculated. By using the information of the temporary offset components Δx ′ and Δy ′ as described above, the second marker 72 can be reliably copied in the image 30 by performing the process of step S2268.

次に、図8に示すように、制御装置5は、軸座標O6に対する撮像基準点O3のオフセット成分Δzを求める(ステップS227)。以下、オフセット成分Δzを求める方法を、図17を参照しつつ説明する。なお、図17は、オフセット成分Δzを求める際のモバイルカメラ3及び第6アーム16の過程を図示しており、説明の便宜上、図17中の実線で示すモバイルカメラ3が、「設計上のモバイルカメラ3」の位置を示しており、図17中の点線で示すモバイルカメラ3’が、「実際のモバイルカメラ3」の位置を示している。   Next, as shown in FIG. 8, the control device 5 obtains an offset component Δz of the imaging reference point O3 with respect to the axis coordinate O6 (step S227). Hereinafter, a method for obtaining the offset component Δz will be described with reference to FIG. FIG. 17 illustrates the process of the mobile camera 3 and the sixth arm 16 when obtaining the offset component Δz. For convenience of explanation, the mobile camera 3 indicated by the solid line in FIG. The position of the camera 3 ”is shown, and the mobile camera 3 ′ indicated by the dotted line in FIG. 17 indicates the position of the“ actual mobile camera 3 ”.

図17に示すように、まず、制御装置5は、例えば第2マーカー72がモバイルカメラ3’の画像の中心に写るようにロボットアーム10を駆動させて、図16に示す状態Aとする。次いで、制御装置5は、モバイルカメラ3’で第2マーカー72を撮像して、図17に示すモバイルカメラ3の受光面311と第2マーカー72との間の距離Hを求める。
ここで、本実施形態では、モバイルカメラ3の焦点距離は予め求められていて、既知である。このため、距離Hは、例えば、モバイルカメラ3の焦点距離と、モバイルカメラ3の画像におけるマーカー75同士のピッチの長さ「ピクセル」と、実際のマーカー75同
士のピッチ「mm」とから算出することができる。
As shown in FIG. 17, first, the control device 5 drives the robot arm 10 so that the second marker 72 appears in the center of the image of the mobile camera 3 ′, for example, and enters the state A shown in FIG. 16. Next, the control device 5 captures an image of the second marker 72 with the mobile camera 3 ′, and obtains a distance H between the light receiving surface 311 of the mobile camera 3 and the second marker 72 shown in FIG.
Here, in the present embodiment, the focal length of the mobile camera 3 is obtained in advance and is known. Therefore, the distance H is calculated from, for example, the focal length of the mobile camera 3, the length “pixel” of the pitch between the markers 75 in the image of the mobile camera 3, and the pitch “mm” between the actual markers 75. be able to.

なお、モバイルカメラ3の焦点距離は、例えば、校正用部材70のマーカー75を写しながら、モバイルカメラ3を光軸OA3方向(zr方向)へ微小量だけ動かした場合における動作前後での、画像上のマーカー75同士のピッチの長さ「ピクセル」と、実際のマーカー75同士のピッチ「mm」とから求めることも可能である。
次いで、図16中の状態Bに示すように、制御装置5は、ロボットアーム10を駆動させて、モバイルカメラ3’を設計上のオフセット成分Δzを基に角度θ2だけ傾ける。
The focal length of the mobile camera 3 is, for example, on the image before and after the operation when the mobile camera 3 is moved by a minute amount in the optical axis OA3 direction (zr direction) while copying the marker 75 of the calibration member 70. It is also possible to obtain from the pitch length “pixel” between the markers 75 and the actual pitch “mm” between the markers 75.
Next, as shown in state B in FIG. 16, the control device 5 drives the robot arm 10 to tilt the mobile camera 3 ′ by an angle θ2 based on the designed offset component Δz.

次いで、図16中の状態Cに示すように、制御装置5は、ロボットアーム10を駆動させて、状態Bのモバイルカメラ3’の姿勢を保ったまま、第2マーカー72がモバイルカメラ3’の画像の中心に写るようにモバイルカメラ3’をロボット座標系におけるxr軸及びyr軸を含む平面(基準面82のx−y平面)に平行な面内に並進移動させる。そして、制御装置5は、このときのロボット座標系における軸座標O6の移動距離X’(具体的には、設計上のオフセット成分Δzに基づく、基準面82のx−y平面に平行な面内での撮像基準点O3の移動距離)を求める。   Next, as shown in state C in FIG. 16, the control device 5 drives the robot arm 10 to keep the posture of the mobile camera 3 ′ in the state B while the second marker 72 is in the mobile camera 3 ′. The mobile camera 3 ′ is translated in a plane parallel to a plane including the xr axis and the yr axis (xy plane of the reference plane 82) in the robot coordinate system so as to appear in the center of the image. The control device 5 then moves the movement distance X ′ of the axis coordinate O6 in the robot coordinate system at this time (specifically, in the plane parallel to the xy plane of the reference plane 82 based on the designed offset component Δz). (Movement distance of imaging reference point O3) at (1).

次いで、制御装置5は、下記の式(1)より、モバイルカメラ3’の実際のオフセット成分Δzを求めるための補正量ΔHを求める。
ΔH=(X´/tanθ2)−H (1)
次いで、制御装置5は、補正量ΔHと設計上のオフセット成分Δzとを基に、実際のオフセット成分Δzを求める。
このようにして、オフセット成分Δzを求めることができる。このような処理によれば、オフセット成分Δzを容易に算出することができる。
Next, the control device 5 obtains a correction amount ΔH for obtaining the actual offset component Δz of the mobile camera 3 ′ from the following equation (1).
ΔH = (X ′ / tan θ2) −H (1)
Next, the control device 5 obtains the actual offset component Δz based on the correction amount ΔH and the designed offset component Δz.
In this way, the offset component Δz can be obtained. According to such processing, the offset component Δz can be easily calculated.

次に、図8に示すように、制御装置5は、設計上のオフセット成分から、求めた実際のオフセット成分Δx、Δy、Δz、Δu、Δv、Δwにデータを更新する(ステップS228)。
以上にて、図6に示すオフセットを求める処理(ステップS22)が終了する。
Next, as shown in FIG. 8, the control device 5 updates the data from the designed offset component to the actual offset components Δx, Δy, Δz, Δu, Δv, and Δw that are obtained (step S228).
Thus, the process for obtaining the offset shown in FIG. 6 (step S22) is completed.

[作業面を特定する処理(ステップS23)]
次に、図6に示すように、作業面を特定する処理(ステップS23)を行う。作業面を特定する処理(ステップS23)は、ロボット座標系における作業面611の位置及び姿勢、すなわち、作業面611の成分xr、yr、zr、ur、vr、wrを求める処理である。
[Process for Specifying Work Surface (Step S23)]
Next, as shown in FIG. 6, a process of specifying a work surface (step S23) is performed. The process for identifying the work surface (step S23) is a process for obtaining the position and orientation of the work surface 611 in the robot coordinate system, that is, the components xr, yr, zr, ur, vr, and wr of the work surface 611.

ここで、作業面611は、基準面82に対して平行であり、基準面82の法線方向(zr方向)にオフセットした位置にある。このため、この作業面を特定する処理(ステップS23)では、作業面611の基準面82に対する法線方向(zr方向)のオフセット量を決定することにより、作業面611の成分xr、yr、zr、ur、vr、wrを求めることができる。   Here, the work surface 611 is parallel to the reference surface 82 and is at a position offset in the normal direction (zr direction) of the reference surface 82. For this reason, in the process of identifying the work surface (step S23), the offset amount in the normal direction (zr direction) of the work surface 611 with respect to the reference surface 82 is determined to thereby determine the components xr, yr, zr of the work surface 611. , Ur, vr, wr can be obtained.

作業面611の基準面82に対する法線方向(zr方向)のオフセット量は、予め求めておいたモバイルカメラ3の焦点距離と、校正用部材70の隣り合うマーカー75のピッチの値(実寸)に対するモバイルカメラ3の画素数と、前述した実際のオフセット成分とに基づいて求めることができる。   The offset amount in the normal direction (zr direction) of the work surface 611 with respect to the reference surface 82 is relative to the focal length of the mobile camera 3 obtained in advance and the pitch value (actual size) of the adjacent marker 75 of the calibration member 70. It can be obtained based on the number of pixels of the mobile camera 3 and the actual offset component described above.

このようにしてロボット座標系における作業面611の位置及び姿勢を求めることで、ロボット1は作業面611上に載置された対象物に対して高精度に作業を行うことができる。   By obtaining the position and orientation of the work surface 611 in the robot coordinate system in this way, the robot 1 can work with high accuracy on the object placed on the work surface 611.

[ロボットにマーカーの位置及び姿勢を教示する処理(ステップS24)]
次に、図6に示すように、ロボット1にマーカーの位置及び姿勢を教示する処理(ステップS24)を行う。
ここでは、例えば、基準面82(または作業面611)のx−y平面における第2マーカー72のロボット座標をロボット1に教示する。
[Process of Teaching Robot to Position and Posture of Marker (Step S24)]
Next, as shown in FIG. 6, processing for teaching the position and posture of the marker to the robot 1 is performed (step S24).
Here, for example, the robot 1 is taught the robot coordinates of the second marker 72 in the xy plane of the reference plane 82 (or the work plane 611).

具体的には、まず、制御装置5は、前述したオフセット成分を求める処理(ステップS22)にて算出した軸座標O6に対する撮像基準点O3の位置及び光軸OA3の方向のオフセット成分を基にして、基準面82のz軸にモバイルカメラ3の光軸OA2を得る。その後、制御装置5は、ロボットアーム10の駆動により、基準面82のx−y平面に平行な面内にモバイルカメラ3を並進移動させ、第2マーカー72をモバイルカメラ3の画像中心に合わせる。そして、制御装置5は、第2マーカー72をモバイルカメラ3の画像中心に合せた際のモバイルカメラ3の撮像基準点O3の位置を第2マーカー72のロボット座標として教示する。   Specifically, first, the control device 5 is based on the offset component in the direction of the optical axis OA3 and the position of the imaging reference point O3 with respect to the axis coordinate O6 calculated in the above-described processing for obtaining the offset component (step S22). The optical axis OA2 of the mobile camera 3 is obtained on the z axis of the reference plane 82. Thereafter, the control device 5 translates the mobile camera 3 in a plane parallel to the xy plane of the reference plane 82 by driving the robot arm 10 and aligns the second marker 72 with the image center of the mobile camera 3. Then, the control device 5 teaches the position of the imaging reference point O3 of the mobile camera 3 when the second marker 72 is aligned with the image center of the mobile camera 3 as the robot coordinates of the second marker 72.

なお、例えば、軸座標O6におけるオフセットが既知である教示専用ツール(タッチアップ用ハンド)を第2マーカー72に接触させることにより、ロボット1にマーカー75の位置及び姿勢を教示してもよい。ただし、モバイルカメラ3で第2マーカー72の画像を撮像することにより、ロボット1に第2マーカー72の位置及び姿勢を教示する方が、例えば校正用部材70の材質等によらずに第2マーカー72を高精度に教示することができるため、好ましい。   For example, the robot 1 may be taught the position and orientation of the marker 75 by bringing a dedicated tool (touch-up hand) whose offset at the axis coordinate O6 is known into contact with the second marker 72. However, when the mobile camera 3 captures an image of the second marker 72, the second marker 72 is taught to the robot 1 regardless of the material of the calibration member 70, for example. 72 is preferable because it can be taught with high accuracy.

[モバイルカメラの画像座標系とロボット座標系との関係を求める処理(ステップS25)]
次に、図6に示すように、モバイルカメラの画像座標系とロボット座標系との関係を求める処理(ステップS25)を行う。
モバイルカメラ3の画像座標系とロボット座標系との関係を求める処理(ステップS25)が終了すると、9つの画像に基づいたモバイルカメラ3の画像座標系における第2マーカー72の座標(成分xb、yb、ub)と、前述したステップS21で求めたロボット座標系における基準面82の座標(成分xr、yr、ur)とに基づいて、固定カメラ2の画像座標をロボット座標系における基準面82の座標に変換する補正パラメーター(座標変換行列)を求めることができる。
[Process for obtaining relationship between image coordinate system of mobile camera and robot coordinate system (step S25)]
Next, as shown in FIG. 6, a process of obtaining the relationship between the image coordinate system of the mobile camera and the robot coordinate system (step S25).
When the process of obtaining the relationship between the image coordinate system of the mobile camera 3 and the robot coordinate system (step S25) ends, the coordinates (components xb, yb) of the second marker 72 in the image coordinate system of the mobile camera 3 based on the nine images. Ub) and the coordinates of the reference plane 82 in the robot coordinate system (components xr, yr, ur) obtained in step S21 described above, the image coordinates of the fixed camera 2 are converted to the coordinates of the reference plane 82 in the robot coordinate system. A correction parameter (coordinate transformation matrix) to be converted into can be obtained.

このようにして求めた補正パラメーターを用いれば、モバイルカメラ3で撮像した対象物等の位置及び姿勢(具体的には、成分xb、yb、ub)をロボット座標系における値(具体的には、成分xr、yr、ur)に変換することができる。
以上により、図4に示す撮像部の校正が終了する。
このような撮像部の校正方法によれば、固定カメラ2及びモバイルカメラ3でそれぞれ撮像した画像を基にして基準面81、82の姿勢を求めることができるため、従来のように作業者による判断を省くことができる。そのため、人為的な誤差や、作業者によるバラツキを低減することができ、よって、高精度な校正ができる。
Using the correction parameters obtained in this way, the position and orientation (specifically, components xb, yb, ub) of the object and the like imaged by the mobile camera 3 are converted into values in the robot coordinate system (specifically, Component xr, yr, ur).
Thus, the calibration of the imaging unit shown in FIG. 4 is completed.
According to such a calibration method of the imaging unit, the postures of the reference planes 81 and 82 can be obtained based on the images captured by the fixed camera 2 and the mobile camera 3, respectively. Can be omitted. For this reason, it is possible to reduce an artificial error and a variation by an operator, and thus a highly accurate calibration can be performed.

以上、本発明のロボット、制御装置及びロボットシステムを、図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、他の任意の構成物が付加されていてもよい。また、本発明は、前記各実施形態のうちの、任意の2以上の構成(特徴)を組み合わせたものであってもよい。   The robot, the control device, and the robot system of the present invention have been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each unit is an arbitrary configuration having the same function. Can be substituted. Moreover, other arbitrary components may be added. Further, the present invention may be a combination of any two or more configurations (features) of the above embodiments.

また、前記実施形態では、6軸の垂直多関節ロボットを用いた場合を例に説明したが、本発明におけるロボットは、垂直多関節ロボット以外のロボット、例えば水平多関節ロボット等であってもよい。なお、水平多関節ロボットとは、例えば、基台と、基台に接続され、水平方向に延びている第1アームと、第1アームに接続され、水平方向に延びる部分を有する第2アームとを有する構成である。また、本発明におけるロボットが水平多関節ロボットである場合、前述したような校正を行うことで、例えば、ロボットが作業面に対して平行に設置されているか否かや、固定カメラの光軸がロボット座標系におけるxr軸及びyr軸を含む面に対して鉛直になるように固定カメラが設置されているか否か等を把握することができる。   In the above embodiment, a case where a 6-axis vertical articulated robot is used has been described as an example. However, the robot in the present invention may be a robot other than the vertical articulated robot, for example, a horizontal articulated robot. . The horizontal articulated robot is, for example, a base, a first arm connected to the base and extending in the horizontal direction, and a second arm connected to the first arm and having a portion extending in the horizontal direction. It is the structure which has. Further, when the robot according to the present invention is a horizontal articulated robot, by performing the calibration as described above, for example, whether the robot is installed in parallel to the work surface or whether the optical axis of the fixed camera is It can be ascertained whether or not the fixed camera is installed so as to be perpendicular to the plane including the xr axis and the yr axis in the robot coordinate system.

また、前記実施形態では、ロボットが有するロボットアームの回動軸の数は、6つであるが、本発明では、これに限定されず、ロボットアームの回動軸の数は、例えば、2つ、3つ、4つ、5つまたは7つ以上でもよい。また、前記実施形態では、ロボットが有するアームの数は、6つであるが、本発明では、これに限定されず、ロボットが有するアームの数は、例えば、2つ、3つ、4つ、5つ、または、7つ以上でもよい。   In the embodiment, the number of rotation axes of the robot arm included in the robot is six. However, the present invention is not limited to this, and the number of rotation axes of the robot arm is, for example, two. There may be three, four, five or more than seven. Moreover, in the said embodiment, the number of arms which a robot has is six, However, In this invention, it is not limited to this, For example, the number of arms which a robot has is 2, 3, 4, Five or seven or more may be used.

また、前記実施形態では、ロボットが有するロボットアームの数は、1つであるが、本発明では、これに限定されず、ロボットが有するロボットアームの数は、例えば、2つ以上でもよい。すなわち、ロボットは、例えば、双腕ロボット等の複数腕ロボットであってもよい。
また、前記実施形態では、撮像部としての固定カメラ及びモバイルカメラは、それぞれ、撮像素子及びレンズを有する構成であったが、本発明における撮像部は、第1マーカー、第2マーカー及び第3マーカーを撮像することができる構成であればいかなる構成であってもよい。
Moreover, in the said embodiment, although the number of the robot arms which a robot has is one, in this invention, it is not limited to this, For example, the number of the robot arms which a robot has may be two or more. That is, the robot may be a multi-arm robot such as a double-arm robot.
In the above-described embodiment, the fixed camera and the mobile camera as the imaging unit have an imaging element and a lens, respectively. However, the imaging unit according to the present invention includes a first marker, a second marker, and a third marker. Any configuration may be used as long as it can capture an image of the image.

また、前記実施形態では、校正用部材を用いて固定カメラの校正を行ったが、固定カメラの校正では、校正用部材を用いなくてもよい。校正用部材を用いない場合には、例えば、ロボットアームの先端部(軸座標)に1つのマーカーを付して、その1つのマーカーを基準マーカーとして用いればよい。この場合には、1つのマーカーを「第1基準マーカー、第2基準マーカー及び第3基準マーカー」と捉える。
また、前記実施形態では、ロボットアーム10に装着されるツールとして、ハンドを適用したが、ロボットアーム10に装着されるツールとしてディスペンサが適用されてもよい。
In the above embodiment, the calibration of the fixed camera is performed using the calibration member. However, the calibration member may not be used in the calibration of the fixed camera. When the calibration member is not used, for example, one marker may be attached to the tip (axis coordinate) of the robot arm, and the one marker may be used as the reference marker. In this case, one marker is regarded as “a first reference marker, a second reference marker, and a third reference marker”.
In the above embodiment, a hand is applied as a tool attached to the robot arm 10, but a dispenser may be applied as a tool attached to the robot arm 10.

以上説明したように、本実施形態におけるロボット(この一例において、ロボット1)は、第1状態(この一例において、第1状態)及び第3状態(この一例において、第3状態)において撮像部(この一例において、モバイルカメラ3)により撮像された画像に基づいて、所定部位(この一例において、ハンド102のTCP)のアーム(この一例において、ロボットアーム10)に対するオフセットを設定できる。これにより、ロボットは、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを設定するよりも、人為的な誤差や作業者によるばらつきを低減することができる。   As described above, the robot (in this example, the robot 1) in the present embodiment has the imaging unit (in this example, the first state) and the third state (in this example, the third state) in the imaging unit ( In this example, an offset with respect to an arm (in this example, the robot arm 10) of a predetermined part (in this example, the TCP of the hand 102) can be set based on an image captured by the mobile camera 3). As a result, the robot can reduce human error and variations due to the operator, rather than setting the tool offset while teaching the position of the reference point by the operator operating the arm.

また、ロボットは、障害物がない位置で、所定部位を通り撮像部の光軸に平行な回転軸を中心にツールを回転させることができる。これにより、ロボットは、障害物への衝突を回避して、所定部位を通り撮像部の光軸に平行な回転軸を中心にツールを回転させることができるため、ツールの所定部位の周辺に障害物がある場合でもオフセットを精度よく算出することができる。   Further, the robot can rotate the tool around a rotation axis parallel to the optical axis of the imaging unit through a predetermined portion at a position where there is no obstacle. As a result, the robot can avoid the collision with the obstacle and rotate the tool around the rotation axis parallel to the optical axis of the imaging unit through the predetermined part. Even when there is an object, the offset can be calculated with high accuracy.

また、制御装置は、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットを、ロボットに設定することができる。これにより、制御装置は、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを、ロボットに設定するよりも、オフセットを精度よく設定できる。   Moreover, the control apparatus can set the offset with respect to the arm of a predetermined site | part to a robot based on the image imaged by the imaging part in the 1st state and the 3rd state. Thus, the control device can set the offset with higher accuracy than setting the offset of the tool in the robot while teaching the position of the reference point by operating the arm by the operator.

また、ロボットシステムでは、制御装置は、第1状態及び第3状態において撮像部により撮像された画像に基づいて、所定部位のアームに対するオフセットを、ロボットに設定することができる。これにより、ロボットシステムでは、制御装置は、アームをオペレーターが操作することによって基準点の位置を教示しながらツールのオフセットを、ロボットに設定するよりも、オフセットを精度よく設定することができる。   Further, in the robot system, the control device can set an offset for the arm of the predetermined part in the robot based on the images captured by the imaging unit in the first state and the third state. Thereby, in the robot system, the control device can set the offset with higher accuracy than setting the offset of the tool in the robot while teaching the position of the reference point by operating the arm by the operator.

以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。
また、以上に説明した装置(例えば、制御装置)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and changes, substitutions, deletions, and the like are possible without departing from the gist of the present invention. May be.
Further, a program for realizing the function of an arbitrary component in the above-described apparatus (for example, a control apparatus) is recorded on a computer-readable recording medium, and the program is read by a computer system and executed. It may be. Here, the “computer system” includes hardware such as an OS (Operating System) and peripheral devices. The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD (Compact Disk) -ROM, or a storage device such as a hard disk built in the computer system. . Furthermore, “computer-readable recording medium” means a volatile memory (RAM) inside a computer system that becomes a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

1…ロボット、2…固定カメラ、3…モバイルカメラ、3'…モバイルカメラ、5…制御装置、10…ロボットアーム、11…第1アーム、12…第2アーム、13…第3アーム、14…第4アーム、15…第5アーム、16…第6アーム、21…撮像素子、22…レンズ、30…画像、31…撮像素子、32…レンズ、41…表示機器、42…操作機器、51…駆動制御部、52…情報取得部、53…処理部、54…記憶部、61…作業台、62…供給台、70…校正用部材、71…第1マーカー、72…第2マーカー、73…第3マーカー、75…マーカー、81…基準面、82…基準面、90…作業領域、100…ロボットシステム、101…基台、102…ハンド、111…回動軸部材、120…モータードライバー、121…回動軸部材、130…駆動部、131…回動軸部材、141…回動軸部材、151…回動軸部材、161…回動軸部材、211…受光面、311…受光面、411…モニター、611…作業面、701…表面、A…状態、A6…中心軸、B…状態、C…状態、H…距離、O2…撮像基準点、O3…撮像基準点、O30…中心、O6…軸座標、OA2…光軸、OA3…光軸、P…ピッチ、P1、P2、P3、P4…ピッチ、P1'、P2'、P3'、P4'…ピッチ、TCP…ツールセンターポイント、X'…移動距離、ΔH…補正量、θ1…回動角度、θ10…回動角度、θ2…角度 DESCRIPTION OF SYMBOLS 1 ... Robot, 2 ... Fixed camera, 3 ... Mobile camera, 3 '... Mobile camera, 5 ... Control apparatus, 10 ... Robot arm, 11 ... 1st arm, 12 ... 2nd arm, 13 ... 3rd arm, 14 ... 4th arm, 15 ... 5th arm, 16 ... 6th arm, 21 ... Imaging device, 22 ... Lens, 30 ... Image, 31 ... Imaging device, 32 ... Lens, 41 ... Display device, 42 ... Operating device, 51 ... Drive control unit 52 ... Information acquisition unit 53 ... Processing unit 54 ... Storage unit 61 ... Working table 62 ... Supply table 70 ... Calibration member 71 ... First marker 72 ... Second marker 73 ... 3rd marker, 75 ... marker, 81 ... reference plane, 82 ... reference plane, 90 ... work area, 100 ... robot system, 101 ... base, 102 ... hand, 111 ... rotating shaft member, 120 ... motor driver, 121 ... Rotating shaft Numeral 130, drive unit 131, rotation shaft member, 141 rotation shaft member, 151 rotation shaft member, 161 rotation shaft member, 211 light receiving surface, 311 light receiving surface, 411 monitor, 611 ... work surface, 701 ... surface, A ... state, A6 ... central axis, B ... state, C ... state, H ... distance, O2 ... imaging reference point, O3 ... imaging reference point, O30 ... center, O6 ... axis coordinate, OA2 ... optical axis, OA3 ... optical axis, P ... pitch, P1, P2, P3, P4 ... pitch, P1 ', P2', P3 ', P4' ... pitch, TCP ... tool center point, X '... moving distance, ΔH: correction amount, θ1: rotation angle, θ10: rotation angle, θ2: angle

Claims (4)

アームを備え、
前記アームは、
前記アームに装着されたツールの所定部位を撮像部によって前記所定部位を撮像可能な第1状態から移動させた第2状態で、前記所定部位を通り前記撮像部の光軸に平行な回転軸を中心に前記ツールを回転させ、前記所定部位を前記回転による姿勢の変化を保ったまま前記第1状態における位置と同じ位置である第3状態に移動させ、
前記第1状態及び前記第3状態において前記撮像部により撮像された画像に基づいて設定された前記所定部位の前記アームに対するオフセットを用いて制御される、
ロボット。
With an arm,
The arm is
In a second state in which the predetermined part of the tool attached to the arm is moved from the first state in which the predetermined part can be imaged by the imaging unit, a rotation axis that passes through the predetermined part and is parallel to the optical axis of the imaging unit The tool is rotated to the center, and the predetermined part is moved to a third state that is the same position as the position in the first state while maintaining a change in posture due to the rotation,
It is controlled using an offset for the arm of the predetermined part set based on images captured by the imaging unit in the first state and the third state.
robot.
前記アームは、
前記第1状態で障害物がある場合に、前記ツールを第1状態から、当該障害物がない第2状態へ移動させる、
請求項1に記載のロボット。
The arm is
When there is an obstacle in the first state, the tool is moved from the first state to a second state without the obstacle;
The robot according to claim 1.
請求項1又は2に記載のロボットを制御する、
制御装置。
Controlling the robot according to claim 1 or 2,
Control device.
請求項1又は2に記載のロボットと、
請求項3に記載の制御装置と、
を備えるロボットシステム。
The robot according to claim 1 or 2,
A control device according to claim 3;
A robot system comprising:
JP2016130876A 2016-06-30 2016-06-30 Robot, control device, and robot system Pending JP2018001332A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016130876A JP2018001332A (en) 2016-06-30 2016-06-30 Robot, control device, and robot system
US15/637,094 US10551821B2 (en) 2016-06-30 2017-06-29 Robot, robot control apparatus and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016130876A JP2018001332A (en) 2016-06-30 2016-06-30 Robot, control device, and robot system

Publications (2)

Publication Number Publication Date
JP2018001332A true JP2018001332A (en) 2018-01-11
JP2018001332A5 JP2018001332A5 (en) 2019-05-16

Family

ID=60944744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016130876A Pending JP2018001332A (en) 2016-06-30 2016-06-30 Robot, control device, and robot system

Country Status (1)

Country Link
JP (1) JP2018001332A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111152243A (en) * 2018-11-08 2020-05-15 发那科株式会社 Control system
JP2021139809A (en) * 2020-03-06 2021-09-16 株式会社豊田中央研究所 Stationary sensor calibration device and stationary sensor calibration method
WO2021210456A1 (en) * 2020-04-13 2021-10-21 ファナック株式会社 Device for obtaining position of visual sensor in control coordinate system of robot, robot system, method, and computer program
US11338440B2 (en) 2018-07-30 2022-05-24 Fanuc Corporation Robot system and calibration method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH054180A (en) * 1991-06-27 1993-01-14 Toyota Autom Loom Works Ltd Co-ordinate system matching method for multi-axis robot with hand-eye
JPH0885083A (en) * 1994-09-16 1996-04-02 Kobe Steel Ltd Method for deriving and calibrating tool parameter of robot
JP2005300230A (en) * 2004-04-07 2005-10-27 Fanuc Ltd Measuring instrument

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH054180A (en) * 1991-06-27 1993-01-14 Toyota Autom Loom Works Ltd Co-ordinate system matching method for multi-axis robot with hand-eye
JPH0885083A (en) * 1994-09-16 1996-04-02 Kobe Steel Ltd Method for deriving and calibrating tool parameter of robot
JP2005300230A (en) * 2004-04-07 2005-10-27 Fanuc Ltd Measuring instrument

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11338440B2 (en) 2018-07-30 2022-05-24 Fanuc Corporation Robot system and calibration method
CN111152243A (en) * 2018-11-08 2020-05-15 发那科株式会社 Control system
JP2020075327A (en) * 2018-11-08 2020-05-21 ファナック株式会社 Control system
US11241797B2 (en) 2018-11-08 2022-02-08 Fanuc Corporation Control system
CN111152243B (en) * 2018-11-08 2024-02-06 发那科株式会社 Control system
JP2021139809A (en) * 2020-03-06 2021-09-16 株式会社豊田中央研究所 Stationary sensor calibration device and stationary sensor calibration method
JP7409163B2 (en) 2020-03-06 2024-01-09 株式会社豊田中央研究所 Stationary sensor calibration device and stationary sensor calibration method
WO2021210456A1 (en) * 2020-04-13 2021-10-21 ファナック株式会社 Device for obtaining position of visual sensor in control coordinate system of robot, robot system, method, and computer program
JPWO2021210456A1 (en) * 2020-04-13 2021-10-21
CN115397634A (en) * 2020-04-13 2022-11-25 发那科株式会社 Device for acquiring position of visual sensor in robot control coordinate system, robot system, method, and computer program
CN115397634B (en) * 2020-04-13 2025-09-12 发那科株式会社 Device, robot system, method, and computer program for obtaining the position of a vision sensor in a control coordinate system of a robot

Similar Documents

Publication Publication Date Title
JP6710946B2 (en) Controllers, robots and robot systems
JP2018012184A (en) Control device, robot and robot system
US8406923B2 (en) Apparatus for determining pickup pose of robot arm with camera
US10551821B2 (en) Robot, robot control apparatus and robot system
US9884425B2 (en) Robot, robot control device, and robotic system
US9517560B2 (en) Robot system and calibration method of the robot system
JP4191080B2 (en) Measuring device
US8306661B2 (en) Method and system for establishing no-entry zone for robot
JP5664629B2 (en) Robot system and method of manufacturing processed product
US20180161985A1 (en) Control device, robot, and robot system
JP6900290B2 (en) Robot system
JP6897396B2 (en) Control devices, robot systems and control methods
JP2015182144A (en) Robot system and calibration method of robot system
JP2018111155A (en) Robot control device, robot and robot system
JP2023069253A (en) Robot teaching system
JP2018001332A (en) Robot, control device, and robot system
JP2019195885A (en) Control device and robot system
US11759955B2 (en) Calibration method
CN115362049B (en) Device for correcting the teaching position of a robot, teaching device, robot system, teaching position correction method, and computer program
CN117565107A (en) Method, system, medium and equipment for robot space positioning
JP2019198930A (en) Control device and robot system
WO2023277095A1 (en) Correction system and teaching data correction method
CN111113373B (en) Control device, robot system and control method
JP2022030207A (en) Teaching method and robot system

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190403

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210209