JP2018167334A - 教示装置および教示方法 - Google Patents
教示装置および教示方法 Download PDFInfo
- Publication number
- JP2018167334A JP2018167334A JP2017064541A JP2017064541A JP2018167334A JP 2018167334 A JP2018167334 A JP 2018167334A JP 2017064541 A JP2017064541 A JP 2017064541A JP 2017064541 A JP2017064541 A JP 2017064541A JP 2018167334 A JP2018167334 A JP 2018167334A
- Authority
- JP
- Japan
- Prior art keywords
- teaching
- image
- robot
- operation target
- arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1669—Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/02—Arm motion controller
- Y10S901/03—Teaching system
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
【課題】簡単に教示を行う技術の提供。【解決手段】ロボットのアームの動作に連動する操作対象物と操作対象物の教示位置とを含む画像を取得する画像取得部と、アームを制御して画像内の操作対象物を教示位置に移動させる移動制御部と、画像内の操作対象物が教示位置に存在する状態におけるアームの状態を教示情報として取得する教示情報取得部と、を備える教示装置が構成される。【選択図】図4
Description
本発明は、教示装置および教示方法に関する。
ロボットに作業を行わせる際には、作業を複数の工程に分解し、各工程において複数の教示位置間を操作対象物が移動するように制御されることが多い。教示位置は、通常、ロボットの動作開始前に教示されている必要がある。教示を行うための技術としては、ティーチングペンダントを利用する技術(例えば、特許文献1参照)や、教示者自身がロボットを移動させてダイレクトティーチを行う技術(例えば、特許文献2参照)が知られている。
ティーチングペンダントによる教示は、ティーチングペンダントの操作や、操作によるロボットの移動、回転を熟知する必要があり、熟練者以外の者が教示を行うことが困難であった。ダイレクトティーチによる教示は、教示者自身でロボットを移動させる必要があり、重量の大きいロボットでの教示や微妙な位置調整を伴う教示等を行うことが困難であった。すなわち、利用者が、直接的または間接的にロボットを移動させて教示を行う構成においては教示の難易度が高い。
上記課題の少なくとも一つを解決するために、教示装置は、ロボットのアームの動作に連動する操作対象物と操作対象物の教示位置とを含む画像を取得する画像取得部と、アームを制御して画像内の操作対象物を教示位置に移動させる移動制御部と、画像内の操作対象物が教示位置に存在する状態におけるアームの状態を教示情報として取得する教示情報取得部と、を備える。
すなわち、画像に基づいて操作対象物の教示位置への移動が行われ、操作対象物の教示位置への移動が完了した状態でのアームの状態が教示情報として取得される。この構成によれば、利用者は、直接的な接触によるアームの移動や、ティーチングペンダントを利用した間接的な操作によるアームの移動を行う必要がなく、自動で教示を行うことができる。従って、極めて簡単に教示を行うことが可能である。
また、教示位置は、画像に含まれる基準対象物に対する相対的な位置によって規定される構成であっても良い。この構成によれば、画像に基づいて教示位置を特定することが可能になる。
さらに、基準対象物に対する相対的な位置の入力を受け付ける入力受付部を備え、移動制御部は、操作対象物および基準対象物の画像に基づいて基準対象物に対する操作対象物の相対的な位置を取得し、当該相対的な位置が教示位置となるようにアームを制御する構成であっても良い。この構成によれば、利用者が、基準対象物に対する相対的な位置を入力することにより、簡単に教示を行うことができる。
さらに、移動制御部は、画像に基づいて基準対象物を検出し、基準対象物を強調した画像をディスプレイに表示させる構成であっても良い。この構成によれば、利用者は、ディスプレイを視認することにより、教示位置を特定する際の基準となる基準対象物が画像内で正確に検出さているか否かを判断することができる。
さらに、移動制御部は、画像に基づいて操作対象物を検出し、操作対象物を強調した画像をディスプレイに表示させる構成であっても良い。この構成によれば、利用者は、ディスプレイを視認することにより、アームが教示すべき状態であるか否かを判定する際の基準となる操作対象物が、画像内で正確に検出されているか否かを判定することができる。
さらに、画像取得部は、操作対象物および教示位置を除く背景の少なくとも一部を除去した画像を取得する構成であっても良い。この構成によれば、操作対象物を移動させるためのノイズとなり得る部位を画像から除去することができる。
さらに、移動制御部は、画像内で操作対象物を教示位置に存在する目標画像に一致させるようにアームを制御する構成であっても良い。この構成によれば、画像に基づいて仮想的な位置を特定することなく、操作対象物を教示位置に移動させることができる。
以下、本発明の実施形態について添付図面を参照しながら以下の順に説明する。なお、各図において対応する構成要素には同一の符号が付され、重複する説明は省略される。
(1)ロボットの構成:
(2)教示装置の構成:
(3)教示処理:
(4)ビジュアルサーボ処理:
(5)他の実施形態:
(1)ロボットの構成:
(2)教示装置の構成:
(3)教示処理:
(4)ビジュアルサーボ処理:
(5)他の実施形態:
(1)ロボットの構成:
図1は本発明の一実施形態にかかるロボット1の斜視図である。図1に示すように、ロボット1は、アーム10とエンドエフェクター20とを備える。アーム10は、3個の曲げ関節B1〜B3と3個のねじり関節R1〜R3とを有する6軸アームである。曲げ関節B1〜B3とは、アーム10を構成する部材同士が、アーム10の長さ方向に直交する軸を中心に回転する関節である。ねじり関節R1〜R3とは、アーム10を構成する部材同士が、アーム10の長さ方向の軸を中心に回転する関節である。アーム10は、曲げ関節B1〜B3とねじり関節R1〜R3とを動作させるための駆動部としてのモーター(不図示)を備えている。また、アーム10は、各モーターの回転角度に対応する値を検出するエンコーダー(不図示)を備えている。
図1は本発明の一実施形態にかかるロボット1の斜視図である。図1に示すように、ロボット1は、アーム10とエンドエフェクター20とを備える。アーム10は、3個の曲げ関節B1〜B3と3個のねじり関節R1〜R3とを有する6軸アームである。曲げ関節B1〜B3とは、アーム10を構成する部材同士が、アーム10の長さ方向に直交する軸を中心に回転する関節である。ねじり関節R1〜R3とは、アーム10を構成する部材同士が、アーム10の長さ方向の軸を中心に回転する関節である。アーム10は、曲げ関節B1〜B3とねじり関節R1〜R3とを動作させるための駆動部としてのモーター(不図示)を備えている。また、アーム10は、各モーターの回転角度に対応する値を検出するエンコーダー(不図示)を備えている。
エンドエフェクター20は、アーム10の先端に装着されている。ロボット1は、6軸のアーム10を駆動させることによって、可動範囲内においてエンドエフェクター20を任意の位置に配置し、任意の姿勢(角度)とすることができる。なお、本明細書において単に位置と記述された場合、姿勢も含み得る。エンドエフェクター20には力覚センサーPとグリッパー21が備えられている。力覚センサーPは、エンドエフェクター20に作用する3軸の並進力と、当該3軸まわりに作用する回転力(トルク)を計測するセンサーである。
ロボット1は、教示を行うことにより各種作業が可能となる汎用ロボットである。本実施形態においては、操作対象物W1を基準対象物W2に挿入する組立作業を行うための教示が行われ、当該組立作業が行われる場合を例として説明する。すなわち、ロボット1は、グリッパー21を操作対象物W1のストック位置に移動させ、グリッパー21によって操作対象物W1をピックアップし、基準対象物W2の上空まで運ぶ。そして、ロボット1は、当該基準対象物W2の凹部に対して操作対象物W1を挿入する作業を行う。
本実施形態において、ロボット1およびカメラ30a,30bは、ロボット制御装置40に接続されている。ロボット1は、当該ロボット制御装置40によって制御される。また、ロボット制御装置40は、カメラ30a,30bを利用したビジュアルサーボを実行することができる。本実施形態においては、教示装置50を利用してロボット1に対する教示を行うことができる。
ロボット制御装置40は、図示しないプログラムの実行部(CPU,RAM,ROM等)を備えている。ロボット制御装置40は、図示しないインタフェースを介して信号の入出力を行うことが可能であり、ロボット1のエンドエフェクターに装着された力覚センサーPの出力やアーム10に組み込まれたエンコーダーE(不図示)の出力を取得し、アーム10が備える各モーターを制御するための制御信号を出力することが可能である。また、ロボット制御装置40は、図示しないインタフェースを介してカメラ30a,30bが出力する画像を取得することが可能である。
すなわち、ロボット制御装置40は、カメラ30a,30bが出力した画像に基づいて、目標の動作を決定し、力覚センサーP、エンコーダーEの出力に基づいて目標の動作を実行するようにロボット1を制御するビジュアルサーボを行うことができる。また、ロボット制御装置40は、ROM等の記憶媒体に教示情報を記憶することが可能である。本実施形態において教示情報は、予め教示された教示位置に操作対象物W1を移動させるために必要な制御情報であり、ロボット制御装置40は当該教示情報に基づいてロボット1を制御し、教示位置に操作対象物W1を移動させることができる。
これらの制御においては、複数の座標系によって各部の位置や各部に作用する力が規定される。例えば、ロボット1のアーム10やエンドエフェクター20、グリッパー21、操作対象物W1、基準対象物W2の位置や作用する力はロボット座標系(図1に示す直交xyz座標系)によって規定され得る。
また、ビジュアルサーボが行われる際には、ロボット1に対するカメラ30a,30bの相対的な姿勢が定義される。本実施形態において、ロボット1に対するカメラ30a,30bの姿勢はロボット座標系に対するカメラ座標系の向きによって規定されている。具体的には、カメラ30a,30bは、複数の画素を備えるラインが複数個並べられたエリアセンサーを備えている。本実施形態においては、当該エリアセンサーのライン方向およびラインが並ぶ方向のそれぞれ平行な2軸と、エリアセンサーに光を導く光学系の光軸方向に平行な1軸とによって、直交座標系が形成され、既定の位置(例えば、カメラ30a,30の光軸間の中点等)を原点とする座標系がカメラ座標系として定義されている。図1においては、当該カメラ座標系の各軸をi軸、j軸、k軸として示している。
当該カメラ座標系は、カメラ30a,30bに対して固定されており、カメラ30a,30bの位置および姿勢の変化に応じて原点および軸の向きが変化する。そして、カメラ座標系の向きは、ロボット座標系の各軸(x軸、y軸、z軸)に対するカメラ座標系の各軸(i軸、j軸、k軸)の向きによって規定されている。具体的には、x軸、y軸、z軸のそれぞれとi軸、j軸、k軸のそれぞれとが平行である状態を基準とし、カメラ座標系がz軸に対して回転している角度uと、カメラ座標系がy軸に対して回転している角度vと、カメラ座標系がx軸に対して回転している角度wとによってカメラ座標系の姿勢が特定されることで、ロボット1に対するカメラ30a,30bの向きが定義されている。
なお、本実施形態においては、ロボット1からみたカメラ30a,30bの位置も規定されている。すなわち、カメラ座標系の原点の位置がロボット座標系における座標として規定されている。ただし、ビジュアルサーボにおいて当該ロボット1からみたカメラ30a,30bの位置が考慮されない場合、ビジュアルサーボにおいてロボット1からみたカメラ30a,30bの位置が規定されていることは必須ではない。以上のように、本実施形態においては座標系の関係が予め定義され、ロボット制御装置40の記憶媒体に記録されている。
(2)教示装置の構成:
教示装置50は、図示しないプログラムの実行部(CPU,RAM,ROM等)を備えている。教示装置50は、図示しないインタフェースを介してロボット制御装置40と信号の入出力を行うことが可能である。すなわち、教示装置50は、ロボット制御装置40からカメラ30a,30bの出力画像等を取得してロボット制御装置40に指示を出力し、ロボット1のビジュアルサーボを実行させることができる。本実施形態において教示装置50は、当該ビジュアルサーボによってロボット1に対する教示を行うための機能を備えている。
教示装置50は、図示しないプログラムの実行部(CPU,RAM,ROM等)を備えている。教示装置50は、図示しないインタフェースを介してロボット制御装置40と信号の入出力を行うことが可能である。すなわち、教示装置50は、ロボット制御装置40からカメラ30a,30bの出力画像等を取得してロボット制御装置40に指示を出力し、ロボット1のビジュアルサーボを実行させることができる。本実施形態において教示装置50は、当該ビジュアルサーボによってロボット1に対する教示を行うための機能を備えている。
図2は、教示装置50の構成を示すブロック図である。教示装置50は、ロボット制御装置40に対して指示を行うことにより、カメラ30a,30bの出力画像、エンコーダーE、力覚センサーPの出力を取得し、アーム10が備えるモーターMを制御することができる。図2においては、ロボット制御装置40を介する信号の入出力をロボット制御装置40内の破線によって示している。また、教示装置50には、ディスプレイ50a、入力部50bが接続されており、教示装置50は、ディスプレイ50aに任意の画像を表示させることができる。入力部50bは、キーボードやポインティングデバイス等を備えており、教示装置50は、利用者の入力を受け付けることができる。
教示装置50は、図示しないプログラムにより、画像取得部51、入力受付部52、移動制御部53、教示情報取得部54として機能する。画像取得部51は、ロボット1のアーム10の動作に連動する操作対象物W1と操作対象物W1の教示位置とを含む画像を取得する機能である。すなわち、教示装置50は、画像取得部51の機能により、ロボット制御装置40に対して指示を行い、操作対象物W1および基準対象物W2がカメラ30a,30bの視野に含まれる状態でカメラ30a,30bが取得した画像を取得する。
本実施形態において教示位置は、操作対象物W1の移動目標となる位置であり、基準対象物W2に対する相対的な位置によって規定される。例えば、図1に示す操作対象物W1を基準対象物W2の凹部Cvに挿入する作業において、操作対象物W1の重心Cgを重ねるべき位置Poが基準対象物W2から見た位置として規定される。そこで、教示を行う際に教示装置50は、画像取得部51の機能により、当該基準対象物W2に対する相対的な位置(図1に示す例であれば位置Po)と、操作対象物W1とが視野に含まれた状態でカメラ30a,30bが撮影を行った画像を取得する。
また、教示装置50は、画像取得部51の機能により、当該取得した画像をディスプレイ50aに出力し、ディスプレイに当該画像を表示させる。従って、利用者は、ディスプレイ50aを視認することにより、操作対象物W1と基準対象物W2とがカメラ30a,30bによって撮像されている状態であるか否かを確認することができる。
入力受付部52は、基準対象物W2に対する相対的な位置の入力を受け付ける機能である。すなわち、教示装置50は、入力受付部52の機能により、ディスプレイ50aを制御し、教示位置を入力するためのユーザーインターフェイス画面を表示させる。また、教示装置50は、入力受付部52の機能により、入力部50bに対する利用者の入力を受け付け、教示位置を取得する。
教示位置は、基準対象物W2に対する相対的な位置によって規定されていれば良く、本実施形態においては、基準対象物W2に固定された基準対象物座標系において、操作対象物W1に固定された操作対象物座標系の位置および姿勢が入力されることによって教示位置が特定される。基準対象物W2に固定された基準対象物座標系としては、例えば、基準対象物W2の重心に原点が存在し、基準対象物W2の稜に平行な軸を有する直交座標系が挙げられ、操作対象物W1に固定された操作対象物座標系としては、例えば、操作対象物W1の重心に原点が存在し、操作対象物W1の稜に平行な軸を有する直交座標系が挙げられる。
教示装置50は、入力受付部52の機能により、操作対象物座標系の原点の位置および各軸の角度の入力を受け付け、基準対象物座標系での位置および角度と見なすことにより、教示位置を受け付ける。この構成によれば、教示位置を簡易かつ明快に定義することができる。
移動制御部53は、アーム10を制御して画像内の操作対象物W1を教示位置に移動させる機能である。すなわち、教示装置50は、移動制御部53の機能により、操作対象物W1および基準対象物W2の画像に基づいて基準対象物W2に対する操作対象物W1の相対的な位置を取得し、当該相対的な位置が教示位置となるようにアーム10を制御する。すなわち、教示装置50は、画像取得部51の機能によって取得された画像からテンプレートマッチング等によって操作対象物W1の画像と基準対象物W2の画像とを特定する。また、特定された画像に基づいて、教示装置50は、カメラ座標系における操作対象物W1と基準対象物W2との位置(および姿勢)を特定する。位置(および姿勢)の特定は、例えば、テンプレートに対して位置(および姿勢)が対応づけられた構成等によって実現可能である。
カメラ座標系における操作対象物W1と基準対象物W2との位置(および姿勢)が特定されると、教示装置50は、座標系の関係に基づいて、基準対象物W2に対する操作対象物W1の相対的な位置を特定し、教示位置と比較する。両者が異なる場合、教示装置50は、ロボット1を移動させる。すなわち、教示装置50は、エンコーダーEの出力に基づいて現在のアーム10の位置(および姿勢)を特定し、操作対象物W1を教示位置に近づけるように微小移動させるための制御目標を特定する。そして、教示装置50は、当該制御目標をロボット制御装置40に出力し、当該制御目標を実現するようにロボット1を制御させる。教示装置50が以上の処理を繰り返すと、やがて、画像内の操作対象物W1が教示位置に到達する。
以上の構成によれば、利用者が入力部50bによって指示した教示位置に操作対象物W1が移動するようにロボット1を制御することができ、ティーチングペンダントやダイレクトティーチを行うことなくロボット1を教示すべき状態にすることができる。また、利用者は、入力部50bによって基準対象物W2に対する相対的な位置を入力するのみで教示位置を指定し、教示を行うことができるため、簡単に試行錯誤を行うことが可能である。
教示情報取得部54は、画像内の操作対象物W1が教示位置に存在する状態におけるアーム10の状態を教示情報として取得する機能である。すなわち、画像内の操作対象物W1が教示位置に到達すると、教示装置50は、ロボット制御装置40を介してエンコーダーEの出力値を取得し、操作対象物W1が教示位置に存在する状態を実現する各アーム10の角度を取得する。そして、教示装置50は、各アーム10の角度を示す情報を教示情報としてロボット制御装置40に対して出力する。ロボット制御装置40は、当該教示情報を図示しないROM等に記録する。教示情報が記録されると、ロボット制御装置40は、当該教示情報が示す教示位置に操作対象物W1を移動させる作業をロボット1に実行させることができる。なお、教示情報は、自動的に図示しないROM等に保存されても良いし、利用者等によるロボット1の位置姿勢の確認の後に保存されても良く、種々の構成を採用可能である。
以上の構成によれば、利用者は、利用者自身が直接的なアーム10に触れることによるアーム10の移動や、ティーチングペンダントを利用した間接的な操作によるアーム10の移動を行う必要がない。また、利用者が入力部50bによって教示位置を入力するのみで、自動的に教示を行うことができる。従って、極めて簡単に教示を行うことが可能である。
(3)教示処理:
次に、教示装置50が実行する教示処理を図3に示すフローチャートに沿って詳細に説明する。教示装置50が起動されると、教示装置50は、入力受付部52の機能によりディスプレイ50aを制御し、教示処理のためのユーザーインターフェイスをディスプレイ50aに表示させる。
次に、教示装置50が実行する教示処理を図3に示すフローチャートに沿って詳細に説明する。教示装置50が起動されると、教示装置50は、入力受付部52の機能によりディスプレイ50aを制御し、教示処理のためのユーザーインターフェイスをディスプレイ50aに表示させる。
図4は、ユーザーインターフェイスの例を示す図である。図4に示すユーザーインターフェイスにおいては、タスク番号、カメラ、操作対象物、基準対象物の指定ボックスB1〜B4が設けられており、各指定ボックスでタスク番号、カメラ、操作対象物、基準対象物を指定可能である。すなわち、利用者は、入力部50bを操作することにより、タスク番号を数値で指定可能であり、教示に使用するカメラをカメラ30a,30bの少なくとも一方を指定することが可能であり、操作対象物、基準対象物を指定可能である。図4に示す例においては、図1に示す操作対象物W1が基準対象物W2が指定されている。
図4に示すユーザーインターフェイスにおいては、さらに、画像取得、対象物検出、教示実行のそれぞれを指示するためのボタンB5〜B7が設けられている。また、図4に示すユーザーインターフェイスにおいては、カメラ30aが撮像した画像の表示部B8と、カメラ30bが撮像した画像の表示部B9が設けられている。
各指定ボックスでタスク番号、カメラ、操作対象物、基準対象物が指定された状態で、利用者がボタンB5によって画像取得を指示すると、教示装置50は、画像取得部51の処理により、画像を取得する(ステップS100)。すなわち、指定ボックスB2で指定されたカメラの撮像画像を取得する。画像が取得されると、教示装置50は、ディスプレイ50aを制御し、指定されたカメラの撮像画像をユーザーインターフェイスの表示部B8、B9に表示させる。
この状態で利用者が表示部B8、B9を視認すれば、カメラ30a,30bの視野に、操作対象物W1と基準対象物W2とが含まれているか否かを確認することができる。カメラ30a,30bの視野に、操作対象物W1と基準対象物W2とが含まれていなければ、利用者は、ロボット1の制御や基準対象物W2の移動等を行うことで、カメラ30a,30bの視野に、操作対象物W1と基準対象物W2とが含まれるまでやり直すことができる。むろん、ロボット1の制御と画像の解析により、カメラ30a,30bの視野に操作対象物W1と基準対象物W2とが含まれる状態が自動的に実現されても良い。
カメラ30a,30bの視野に操作対象物W1と基準対象物W2とが含まれる状態で、利用者がボタンB6によって対象物検出を指示すると、教示装置50は、移動制御部53の機能により、操作対象物W1と基準対象物W2を検出する(ステップS105)。すなわち、教示装置50は、図示しないROM等に記録されたテンプレート画像を取得し、テンプレートマッチング処理を行うことによって画像内の操作対象物W1と基準対象物W2とを検出する。
適正に検出が行われると、教示装置50は、テンプレート画像に基づいて操作対象物W1と基準対象物W2の位置および姿勢を特定する。基準対象物W2が検出されると、教示装置50は、移動制御部53の処理により基準対象物W2を強調した画像をディスプレイ50aに表示させる。本実施形態においては、基準対象物W2の画像の輪郭(最外周エッジ)を強調して示す構成が採用されており、図4においては、基準対象物W2の輪郭が太い線で強調されている状態を示している。むろん、強調態様は他にも種々の態様を採用可能であり、特定の色で輪郭を表示する構成等であっても良い。
当該強調は、基準対象物W2の検出が失敗した状態、または適正に検出されていない状態では適正な位置に表示されない。従って、以上の構成によれば、利用者は、ディスプレイ50aを視認することにより、教示位置を特定する際の基準となる基準対象物W2が画像内で正確に検出さているか否かを判断することができる。
次に、教示装置50は、移動制御部53の機能により、動作条件を設定する(ステップS110)。本実施形態においては、動作条件は、ビジュアルサーボ動作の正常終了条件および異常終了条件と、教示位置であり、動作条件を示す情報はROM等に記録される。本実施形態において終了条件は予め決められているが、教示位置は利用者が入力可能である。むろん、終了条件が利用者によって定義可能であってもよい。
教示位置の入力において、教示装置50は、入力受付部52の機能によりディスプレイ50aを制御し、教示位置を入力するためのユーザーインターフェイスをディスプレイ50aに表示させる。図5は、教示位置を入力するためのユーザーインターフェイスの例を示している。図5に示す例においては、上述の図4に示すユーザーインターフェイスの表示部B8、B9が表示部B10および指定ボックスB11に置換されている。
表示部B10においては、基準対象物座標系内で操作対象物W1と基準対象物W2の3次元モデルが表示される(図5においては、各対象物が模式的に示されている)。すなわち、教示装置50は、ROM等の記録媒体に操作対象物W1と基準対象物W2の3次元モデルを示すデータを記憶している。基準対象物座標系の原点や軸の方向は基準対象物W2に対して固定されており、表示部B10においては基準対象物W2の3次元モデルとともに基準対象物座標系の軸が示される。なお、図5においては、基準対象物座標系の2軸(X軸およびZ軸)が視認可能な状態であり、当該2軸が破線によって示されている。
操作対象物座標系の原点や軸の方向は操作対象物W1に対して固定されており、表示部B10においては操作対象物W1の3次元モデルとともに操作対象物座標系の軸が示される。なお、図5においては、操作対象物座標系においても2軸(A軸およびB軸)が視認可能な状態であり、当該2軸が一点鎖線によって示されている。本実施形態における操作対象物座標系は、操作対象物W1の重心に原点が存在する座標系であるが、他の位置が原点であっても良い。
指定ボックスB11においては、操作対象物座標系の原点の位置および姿勢を、基準対象物座標系における位置および姿勢として指定することができる。すなわち、指定ボックスB11に示された位置X,Y,Zは、操作対象物座標系の原点の位置を基準対象物座標系で表現した値であり、基準対象物座標系を構成するX,Y,Z軸の各軸方向の位置として定義される。また、指定ボックスB11に示された姿勢U,V,Wは、操作対象物座標系の軸(A軸,B軸,C軸)の姿勢を、基準対象物座標系の軸(X軸,Y軸,Z軸)に対する角度で表現した値である。
また、本実施形態において教示装置50は、入力受付部52の機能により、指定ボックスB11に入力された値に応じて、操作対象物W1および操作対象物座標系の画像を変化させる。すなわち、図5に示す例においては、指定ボックスB11において位置Zのみが40であり他の値が0であるため、操作対象物W1の重心Cgは基準対象物座標系の原点からZ軸方向に距離40だけ離れた位置となり、X軸方向、Y軸方向において重心Cgと基準対象物座標系の原点は一致する。また、基準対象物座標系の各軸と操作対象物座標系の各軸が平行になる。他の値、例えば、姿勢Uが入力されると、入力値に応じてA軸がX軸に対して傾斜した状態の画像が描画される。
以上の構成により、利用者は、指定ボックスB11に対して数値を入力し、表示部B10上で操作対象物W1の画像を移動させながら教示位置を入力することができる。なお、図5に示す表示部B10の表示内容は一例であり、ポインティングデバイス等による操作で各対象物の斜視状態が表示されても良いし、ポインティングデバイス等による操作で操作対象物W1の位置や姿勢が入力されても良い。
動作条件を構成する終了条件は、種々の条件であって良く、正常終了条件としては、画像に基づいて特定される操作対象物W1の基準対象物W2に対する相対位置と、利用者に入力された教示位置との差分が閾値以下であること等が挙げられる。異常終了条件としては、教示処理開始後の操作対象物W1の累積移動量が閾値以上であること、力覚センサーPの出力値が閾値以上であること、操作対象物W1、基準対象物W2の検出失敗、タイムアウトのいずれかまたは組み合わせが挙げられる。
次に、教示装置50は、移動制御部53の機能により、ビジュアルサーボ処理を実行する(ステップS115)。すなわち、教示装置50は、指定ボックスB2で指定されたカメラの撮像画像を取得し、撮像画像に基づいてロボット制御装置40に指示を行い、アーム10を制御させ、操作対象物W1を教示位置に移動させる処理を行う。なお、ビジュアルサーボ処理の詳細は後述する。
ビジュアルサーボ処理が正常終了した場合、または、異常終了した場合、教示装置50は、移動制御部53の機能により、終了条件が異常終了条件、正常終了条件のいずれであったか判定する(ステップS120)。終了条件が異常終了条件であったとステップS120において判定された場合、教示装置50は、ステップS115以降の処理を繰り返す。
終了条件が正常終了条件であったとステップS120において判定された場合、教示装置50は、教示情報取得部54の機能により、教示情報を取得する(ステップS125)。すなわち、教示装置50は、ロボット制御装置40を介してエンコーダーEの出力値を取得し、各アーム10の角度を示す情報を教示情報として取得し、ロボット制御装置40に対して出力する。
(4)ビジュアルサーボ処理:
次に、ステップS115のビジュアルサーボ処理を詳細に説明する。図6は、ビジュアルサーボ処理のフローチャートである。本実施形態においては、カメラ30a,30bの視野に操作対象物W1および基準対象物W2が含まれている状態でビジュアルサーボ処理が実行される。ビジュアルサーボ処理において教示装置50は、カメラの画像を取得し、操作対象物W1の位置を取得する(ステップS200)。すなわち、教示装置50は、カメラ30a,30bが出力する画像を取得する。
次に、ステップS115のビジュアルサーボ処理を詳細に説明する。図6は、ビジュアルサーボ処理のフローチャートである。本実施形態においては、カメラ30a,30bの視野に操作対象物W1および基準対象物W2が含まれている状態でビジュアルサーボ処理が実行される。ビジュアルサーボ処理において教示装置50は、カメラの画像を取得し、操作対象物W1の位置を取得する(ステップS200)。すなわち、教示装置50は、カメラ30a,30bが出力する画像を取得する。
また、教示装置50は、画像に対して特徴量抽出やパターンマッチング等の解析を行い、操作対象物W1の位置および姿勢を特定する。なお、本実施形態のようにカメラ30a,30bが2台以上存在する場合、カメラ間の視差を利用して操作対象物W1とカメラとの距離を特定し、距離に基づいて操作対象物W1の位置および姿勢が特定されても良い。以上の解析の結果、カメラ座標系における操作対象物W1の位置および姿勢が特定された状態になる。図7は、カメラ30a,30bで撮影される画像内の対象物を模式的に示す図であり、ステップS200が行われると、操作対象物W1の位置および姿勢として重心Cgの位置および姿勢が特定される。
ステップS200において教示装置50は、画像に基づいて操作対象物W1を検出し、操作対象物W1を強調した画像をディスプレイ50aに表示させる。本実施形態においては、操作対象物W1の画像の輪郭(最外周エッジ)を強調して示す構成が採用されている。図8は、ビジュアルサーボ実行中のユーザーインターフェイスの例を示しており、強調表示は当該ユーザーインターフェイスの表示部B8,B9で行われる。この例においては、操作対象物W1の輪郭が太い線で強調されている状態を示している。むろん、強調態様は他にも種々の態様を採用可能であり、特定の色で輪郭を表示する構成等であっても良い。
当該強調は、操作対象物W1の検出が失敗した状態、または適正に検出されていない状態では適正な位置に表示されない。従って、以上の構成によれば、利用者は、ディスプレイ50aを視認することにより、教示可能な状態であるか否かの基準となる操作対象物W1が画像内で正確に検出さているか否かを判断することができる。
次に、教示装置50は、教示位置と、現在の位置との差分を取得する(ステップS205)。すなわち、教示装置50は、画像に対して特徴量抽出やパターンマッチング等の解析を行い、基準対象物W2の位置および姿勢を特定する。ここでも、カメラ30a,30bが2台以上存在する場合には、カメラ間の視差を利用して操作対象物W1とカメラとの距離を特定し、距離に基づいて操作対象物W1の位置および姿勢が特定されて良い。以上の解析の結果、カメラ座標系における基準対象物W2の位置および姿勢が特定された状態になる。
さらに、教示装置50は、基準対象物W2の位置および姿勢に基づいて、基準対象物座標系における基準対象物W2と操作対象物W1との位置および姿勢を特定する。すなわち、教示装置50は、カメラ座標系における位置および姿勢を基準対象物座標系における位置および姿勢に変換する。教示位置は、基準対象物W2に対する相対的な位置、すなわち、基準対象物W2に固定された基準対象物座標系における操作対象物座標系の原点位置および軸方向として規定されている。
そこで、教示装置50は、ステップS200で特定された現在の操作対象物W1の重心Cgの位置および姿勢と、教示位置の位置および姿勢(操作対象物座標系の原点位置および軸方向)とを比較し、差分を取得する。図7においては、操作対象物W1を教示位置に配置した状態における操作対象物W1の位置および姿勢を破線によって示しており(符号W11)、教示位置は当該状態における重心Cgの位置Poおよび姿勢である(ただし、図7に示す例において姿勢の差分は0(すなわち、姿勢を変化させる必要がない)である)。そして、位置の差分がベクトルdPである。以下、この例について説明するが姿勢の差分が有限であっても制御に本質的な差は無い。
次に、教示装置50は、終了条件が充足したか否かを判定する(ステップS210)。すなわち、教示装置50は、ステップS205で取得された差分が閾値以下となった場合、例えば、差分が0である場合に、正常終了条件を充足したと判定する。また、教示処理開始後の操作対象物W1の累積移動量が閾値以上であるなど、予め決められた異常終了条件が充足されていると、教示装置50は、異常終了条件を充足したと判定する。ステップS210において、終了条件が充足したと判定された場合、教示装置50は、ビジュアルサーボ処理を終了する。なお、差分と比較される閾値は、種々の値であって良く、固定値であっても良いし利用者によって設定されても良い。差分の値を大きい値に設定すれば、収束までの時間が短縮される。
一方、ステップS210において、終了条件が充足したと判定されない場合、教示装置50は、ステップS205で取得された差分を基準対象物座標系での表現からロボット座標系での表現に変換する(ステップS215)。すなわち、本実施形態においては、ロボット座標系に対するカメラ座標系の向きによってロボット1に対するカメラ30a,30bの姿勢が規定され、カメラ座標系と基準対象物座標系との対応関係は、ステップS205で基準対象物W2の位置および姿勢が特定されることで取得される。そこで、教示装置50は、これらの座標系の対応関係に基づいて差分をロボット座標系での表現に変換する。図7に示す例であれば、基準対象物座標系での差分であるベクトルdPに相当する位置変化がロボット座標系(図1に示すxyz座標系)において特定される。
次に教示装置50は、ステップS215で取得された差分にゲインをかけて移動量を取得する(ステップS220)。すなわち、本実施形態においては、微小移動を繰り返すことによって徐々に操作対象物W1の重心Cgを教示位置に向けて移動させる制御を繰り返す構成が採用されている。このため、差分に対してゲイン(<1)をかけることにより、ロボット1が徐々に差分を解消し、基準対象物W2の凹部に対して操作対象物W1を挿入する作業を行うように構成されている。
ゲインを乗じることによって移動量が取得されると、教示装置50は、ロボット制御装置40に指示を行い、当該移動量だけロボット1を移動させる(ステップS225)。すなわち、教示装置50は、当該移動量だけ移動した後の重心Cgの位置をロボット座標系で特定し、当該重心Cgの位置を目標位置とした位置制御をロボット制御装置40に実行させる。移動が行われると、教示装置50は、ステップS200以降の処理を繰り返す。この結果、操作対象物W1が教示位置に対して徐々に近づき、最終的に操作対象物W1が基準対象物W2の凹部に挿入される。
(5)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、他にも種々の実施形態を採用可能である。例えば、教示装置は、ロボット制御装置やロボットに内蔵されていても良いし、ロボットの設置場所と異なる場所、例えば外部のサーバ等に備えられていても良い。さらに、教示装置が複数のロボットを制御するように構成されていても良い。教示装置が複数の装置に分散して配置されていても良い。例えば、教示装置の一部がロボットに内蔵され、他の一部がロボットの外部のサーバ等に配置されていても良い。さらに、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。
以上の実施形態は本発明を実施するための一例であり、他にも種々の実施形態を採用可能である。例えば、教示装置は、ロボット制御装置やロボットに内蔵されていても良いし、ロボットの設置場所と異なる場所、例えば外部のサーバ等に備えられていても良い。さらに、教示装置が複数のロボットを制御するように構成されていても良い。教示装置が複数の装置に分散して配置されていても良い。例えば、教示装置の一部がロボットに内蔵され、他の一部がロボットの外部のサーバ等に配置されていても良い。さらに、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。
アームは、ロボットの設置位置に対して相対的に移動し、姿勢が変化するように構成されていれば良く、その自由度(可動軸の数等)は任意である。ロボットの態様は、種々の態様であって良く、直交ロボット、水平多関節ロボット、垂直多関節ロボット、双腕ロボット等であって良い。むろん、軸の数やアームの数、エンドエフェクターの態様等は種々の態様を採用可能である。
さらに、上述の実施形態においては、カメラ30a,30bの撮像画像に基づいてロボットがビジュアルサーボを実行可能であるが、ロボット運用の際にはカメラ30a,30bが利用されない構成であっても良い。すなわち、カメラ30a,30bの撮像画像は教示に利用されるが、教示後のロボットの実運用に際してはカメラ30a,30bが利用されない構成であってもよい。
教示装置50は、ロボット制御装置40を介してカメラ30a,30bの出力画像等を取得していたが、むろん、カメラ30a,30bやロボット1と接続され、直接的に出力画像の取得やロボット1の制御等が行われてもよい。
画像取得部は、ロボットのアームの動作に連動する操作対象物と操作対象物の教示位置とを含む画像を取得することができればよい。すなわち、ビジュアルサーボによって操作対象物の位置を教示する際の基になる画像を取得することができればよい。画像を撮像するカメラは、上述の実施形態のように2台であっても良いし、1台であっても良く、種々の構成を採用可能である。また、カメラの固定位置も上述の実施形態のような態様に限定されず、例えば、ロボットに取り付けられていても良い。
操作対象物は、アームの動作に連動し、特定の位置に存在する場合にアームの状態が教示される物体であれば良い。従って、上述のように、ロボットに把持された対象物が操作対象物となっても良いし、ロボットのエンドエフェクターの一部(例えば、マニピュレーターの先端部)が操作対象物となっても良く、種々の格子を採用可能である。
操作対象物の教示位置は、アームの状態を教示する際に操作対象物が配置されるべき位置である。教示位置は、上述のように、基準対象物に関連していない状態(例えば、作業スペースの特定の位置がロボット座標系で特定される等)であっても良い。教示位置が、物体の表面ではなく、物体から特定の距離等にある位置として定義された場合、教示前において、教示位置には操作対象物が存在せず空間が存在するのみである場合がある。この場合であっても、画像取得部は、操作対象物が教示位置まで移動したか否かを判定できるように、少なくとも当該教示位置を含む画像を取得する。
移動制御部は、アームを制御して画像内の操作対象物を教示位置に移動させることができればよい。すなわち、移動制御部は、画像に基づいて操作対象物と教示位置との相対関係を特定し、画像から特定される操作対象物と教示位置との相対位置差が実質的になくなるようにフィードバック制御するビジュアルサーボを実施することができればよい。
操作対象物を教示位置に移動させるための構成は、種々の構成を採用可能である。例えば、画像に基づいて仮想的な3次元空間内で操作対象物や教示位置を特定し、当該3次元空間での位置を変化させるアームの動作を特定することで操作対象物を教示位置に移動させてもよい。また、例えば、画像に基づいてアームを移動させ、操作対象物が教示位置に達することが画像によって確認できるまでアームを移動させる構成であっても良い。アームの移動方向は、画像に基づいて特定されても良いし、画像に基づいてどのような方向に移動させるべきであるのか、機械学習等によって学習されても良い。
教示情報取得部は、画像内の操作対象物が教示位置に存在する状態におけるアームの状態を教示情報として取得することができればよい。すなわち、操作対象物が教示位置に達したことが画像に基づいて特定される場合、そのアームの状態を再現すれば、操作対象物を他の位置から教示位置に移動させることができる。従って、当該アームの状態を教示情報として利用することができる。
教示情報は、種々の態様で定義可能である。すなわち、後にロボットを動作させる過程において、再現すべき要素に応じて定義されれば良い。例えば、操作対象物が教示位置に存在する状態におけるアームの状態を、位置、姿勢ともに再現したい場合、教示情報にはアームの状態を再現する情報(例えば、全アームの可動部のパラメーター(関節の角度等))が含まれる。少なくとも操作対象物の位置が再現されればよい構成であれば、当該位置に操作対象物を配置するためにアームに対して最低限与えるべき情報が教示情報となり得る。例えば、操作対象物の位置が指定された場合に当該位置に操作対象物を移動させるためのアームの条件が特定される構成であれば、操作対象物の位置が教示情報となり得る。また、アームの状態を規定し得る複数のパラメーターのいずれかまたは組み合わせが教示情報となり得る。
基準対象物に対する相対的な位置として教示位置が定義される構成としては、上述の実施形態以外にも種々の定義が採用可能である。例えば、基準対象物の特定の部位(面、辺等)に対して特定の関係(特定の距離、平行、垂直、特定の角度等)にある位置が教示位置として定義されても良い。
入力受付部は、基準対象物に対する相対的な位置の入力を受け付けることができればよく、上述の実施形態のように数値を入力する構成以外にも種々の構成が採用されてよい。例えば、画面上で操作対象物の3次元モデルの位置や姿勢を変化させる入力を実行可能であり、入力が確定した段階で相対位置が特定される構成等が採用されてもよい。
さらに、教示装置50は、画像取得部51の機能により、操作対象物および教示位置を除く背景の少なくとも一部を除去した画像を取得する構成であっても良い。すなわち、カメラ30a,30bの撮像画像には、教示に必要な操作対象物および教示位置(基準対象物を利用する場合には基準対象物)が含まれていれば良い。操作対象物および教示位置と異なる物体の画像が含まれていると、例えば、テンプレートマッチングや現在位置と教示位置との差分の取得に時間を要したり、これらの処理が困難になったりする場合がある。
そこで、画像から背景が除去される構成とすれば、教示に関する処理の高速化や困難性の低下を実現することができる。なお、背景の除去は種々の手法で実施されて良く、例えば、操作対象物と基準対象物とが存在しない画像をカメラ30a,30bで撮影し、操作対象物と基準対象物とが存在する画像と比較して変化がない部分の画素の階調値を一定値に修正する等の処理で実現可能である。背景の除去が行われた場合、カメラ30a,30bの画像は図4の表示部B8,B9に示すような状態となる(背景の除去が行われなければ表示部B8,B9に示す画像に背景が含まれ得る)。
さらに、教示装置50は、移動制御部53の機能により、画像内で操作対象物を教示位置に存在する目標画像に一致させるようにアームを制御する構成であっても良い。すなわち、ビジュアルサーボを行う際の手法としては、上述のように画像に基づいて各種の座標系での位置や姿勢を演算し、目標に近づける構成に限定されず、画像の比較によって目標に近づける構成が採用されてもよい。
図9は、目標画像が設定される構成におけるユーザーインターフェイスを示す例である。同図9に示されるように、カメラ30a,30bで撮像された画像には、目標画像I1,I2が重ねられている。この状態において、教示装置50は、操作対象物W1の画像が目標画像に重なるようにロボット制御装置40による制御を実行させる。この構成によれば、簡易な処理によって操作対象物W1を教示位置まで移動させることができる。なお、目標画像は、種々の手法で作成されて良く、例えば、操作対象物W1の3次元モデルを利用者がディスプレイ上で任意の位置および姿勢に移動させることができるようにユーザーインターフェイスが構成されている構成等が採用可能である。この構成において、操作対象物W1の3次元モデルが教示位置に配置されれば、目標画像の位置および姿勢を定義することが可能になる。
1…ロボット、10…アーム、20…エンドエフェクター、21…グリッパー、30…カメラ、30a…カメラ、30b…カメラ、40…ロボット制御装置、50…教示装置、50a…ディスプレイ、50b…入力部、51…画像取得部、52…入力受付部、53…移動制御部、54…教示情報取得部
Claims (8)
- ロボットに教示を行う教示装置であって、
ロボットのアームの動作に連動する操作対象物と前記操作対象物の教示位置とを含む画像を取得する画像取得部と、
前記アームを制御して前記画像内の前記操作対象物を前記教示位置に移動させる移動制御部と、
前記画像内の前記操作対象物が前記教示位置に存在する状態における前記アームの状態を教示情報として取得する教示情報取得部と、
を備える教示装置。 - 前記教示位置は、前記画像に含まれる基準対象物に対する相対的な位置によって規定される、
請求項1に記載の教示装置。 - 前記基準対象物に対する相対的な位置の入力を受け付ける入力受付部を備え、
前記移動制御部は、前記操作対象物および前記基準対象物の前記画像に基づいて前記操作対象物の前記基準対象物に対する相対的な位置を取得し、当該相対的な位置が前記教示位置となるように前記アームを制御する、
請求項2に記載の教示装置。 - 前記移動制御部は、前記画像に基づいて前記基準対象物を検出し、前記基準対象物を強調した前記画像をディスプレイに表示させる、
請求項2または請求項3のいずれかに記載の教示装置。 - 前記移動制御部は、前記画像に基づいて前記操作対象物を検出し、前記操作対象物を強調した前記画像をディスプレイに表示させる、
請求項2〜請求項4のいずれかに記載の教示装置。 - 前記画像取得部は、前記操作対象物および前記教示位置を除く背景の少なくとも一部を除去した前記画像を取得する、
請求項1〜請求項5のいずれかに記載の教示装置。 - 前記移動制御部は、前記画像内で前記操作対象物を前記教示位置に存在する目標画像に一致させるように前記アームを制御する、
請求項1〜請求項6のいずれかに記載の教示装置。 - ロボットに教示を行う教示方法であって、
ロボットのアームの動作に連動する操作対象物と前記操作対象物の教示位置とを含む画像を取得し、
前記アームを制御して前記画像内の前記操作対象物を前記教示位置に移動させ、
前記画像内の前記操作対象物が前記教示位置に存在する状態における前記アームの状態を教示情報として取得する、
教示方法。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017064541A JP2018167334A (ja) | 2017-03-29 | 2017-03-29 | 教示装置および教示方法 |
| US15/935,627 US11040451B2 (en) | 2017-03-29 | 2018-03-26 | Teaching device and teaching method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017064541A JP2018167334A (ja) | 2017-03-29 | 2017-03-29 | 教示装置および教示方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018167334A true JP2018167334A (ja) | 2018-11-01 |
Family
ID=63672806
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017064541A Pending JP2018167334A (ja) | 2017-03-29 | 2017-03-29 | 教示装置および教示方法 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US11040451B2 (ja) |
| JP (1) | JP2018167334A (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021024075A (ja) * | 2019-08-01 | 2021-02-22 | ファナック株式会社 | ロボットの位置を制御するロボット装置の制御装置 |
| US20220134571A1 (en) * | 2020-10-30 | 2022-05-05 | Seiko Epson Corporation | Display Control Method, Display Program, And Robot System |
| JPWO2022195680A1 (ja) * | 2021-03-15 | 2022-09-22 | ||
| JP2023116669A (ja) * | 2019-04-12 | 2023-08-22 | 株式会社ニコン | 加工システム、加工方法、ロボットシステム、接続装置及びエンドエフェクタ装置 |
| US12290945B2 (en) | 2019-08-01 | 2025-05-06 | Fanuc Corporation | Robot device controller for controlling position of robot |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018167334A (ja) * | 2017-03-29 | 2018-11-01 | セイコーエプソン株式会社 | 教示装置および教示方法 |
| DE102017219407A1 (de) * | 2017-10-27 | 2019-05-02 | Robert Bosch Gmbh | Erfassungsvorrichtung |
| DE102019122790B4 (de) * | 2018-08-24 | 2021-03-25 | Nvidia Corp. | Robotersteuerungssystem |
| US11833681B2 (en) * | 2018-08-24 | 2023-12-05 | Nvidia Corporation | Robotic control system |
| JP7286963B2 (ja) * | 2018-12-26 | 2023-06-06 | セイコーエプソン株式会社 | ロボットシステムおよびロボット制御方法 |
| JP6978454B2 (ja) * | 2019-02-22 | 2021-12-08 | ファナック株式会社 | 物体検出装置、制御装置及び物体検出用コンピュータプログラム |
| CN111633635B (zh) * | 2020-07-01 | 2021-12-07 | 中科新松有限公司 | 基于视觉定位的机器人上下料作业方法 |
| JP7658148B2 (ja) * | 2021-04-15 | 2025-04-08 | セイコーエプソン株式会社 | ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム |
| JP2025056964A (ja) * | 2023-09-27 | 2025-04-09 | キヤノン株式会社 | ロボットの制御方法、システム、物品の製造方法、プログラム、記録媒体 |
Family Cites Families (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4305130A (en) * | 1979-05-29 | 1981-12-08 | University Of Rhode Island | Apparatus and method to enable a robot with vision to acquire, orient and transport workpieces |
| US5602967A (en) * | 1981-05-11 | 1997-02-11 | Sensor Adaptive Machines, Inc. | Vision target based assembly |
| US5374830A (en) * | 1984-10-12 | 1994-12-20 | Sensor Adaptive Machines, Inc. | Target based determination of robot and sensor alignment |
| JPS63288683A (ja) * | 1987-05-21 | 1988-11-25 | 株式会社東芝 | 組立てロボット |
| US4985846A (en) * | 1989-05-11 | 1991-01-15 | Fallon Patrick J | Acoustical/optical bin picking system |
| JPH03138219A (ja) * | 1989-10-23 | 1991-06-12 | Mitsubishi Electric Corp | 積付け管理装置 |
| JPH05185387A (ja) * | 1992-01-14 | 1993-07-27 | Mitsubishi Electric Corp | ロボットの制御装置 |
| US5960125A (en) * | 1996-11-21 | 1999-09-28 | Cognex Corporation | Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object |
| JP3300682B2 (ja) * | 1999-04-08 | 2002-07-08 | ファナック株式会社 | 画像処理機能を持つロボット装置 |
| US6304050B1 (en) * | 1999-07-19 | 2001-10-16 | Steven B. Skaar | Means and method of robot control relative to an arbitrary surface using camera-space manipulation |
| WO2003064116A2 (en) * | 2002-01-31 | 2003-08-07 | Braintech Canada, Inc. | Method and apparatus for single camera 3d vision guided robotics |
| CA2369845A1 (en) * | 2002-01-31 | 2003-07-31 | Braintech, Inc. | Method and apparatus for single camera 3d vision guided robotics |
| JP3991077B2 (ja) | 2002-02-18 | 2007-10-17 | 川崎重工業株式会社 | ロボット教示方法およびロボット教示装置 |
| JP2008506953A (ja) * | 2004-07-14 | 2008-03-06 | ブレインテック カナダ インコーポレイテッド | 機械視覚のための方法及び装置 |
| JP4271232B2 (ja) * | 2006-12-20 | 2009-06-03 | ファナック株式会社 | ロボットのオフラインプログラミングを実行するための装置、方法、プログラム及び記録媒体 |
| US7957583B2 (en) * | 2007-08-02 | 2011-06-07 | Roboticvisiontech Llc | System and method of three-dimensional pose estimation |
| JP5200777B2 (ja) | 2008-09-04 | 2013-06-05 | 株式会社Ihi | ロボット装置の教示方法及びロボット装置の教示用治具 |
| JP5852364B2 (ja) * | 2011-08-26 | 2016-02-03 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
| JP6660102B2 (ja) * | 2014-08-27 | 2020-03-04 | キヤノン株式会社 | ロボット教示装置およびその制御方法、ロボットシステム、プログラム |
| JP6630042B2 (ja) | 2014-12-26 | 2020-01-15 | 川崎重工業株式会社 | 双腕ロボットの教示システム及び双腕ロボットの教示方法 |
| CN106926237A (zh) * | 2015-12-28 | 2017-07-07 | 精工爱普生株式会社 | 机器人、机器人控制装置以及机器人系统 |
| JP7314475B2 (ja) * | 2016-11-11 | 2023-07-26 | セイコーエプソン株式会社 | ロボット制御装置、及び、ロボット制御方法 |
| JP2018167334A (ja) * | 2017-03-29 | 2018-11-01 | セイコーエプソン株式会社 | 教示装置および教示方法 |
| JP6798425B2 (ja) * | 2017-05-30 | 2020-12-09 | セイコーエプソン株式会社 | ロボット制御方法、及びロボットシステム |
-
2017
- 2017-03-29 JP JP2017064541A patent/JP2018167334A/ja active Pending
-
2018
- 2018-03-26 US US15/935,627 patent/US11040451B2/en active Active
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023116669A (ja) * | 2019-04-12 | 2023-08-22 | 株式会社ニコン | 加工システム、加工方法、ロボットシステム、接続装置及びエンドエフェクタ装置 |
| JP7639851B2 (ja) | 2019-04-12 | 2025-03-05 | 株式会社ニコン | 加工システム、加工方法、ロボットシステム、接続装置及びエンドエフェクタ装置 |
| JP2021024075A (ja) * | 2019-08-01 | 2021-02-22 | ファナック株式会社 | ロボットの位置を制御するロボット装置の制御装置 |
| JP7384653B2 (ja) | 2019-08-01 | 2023-11-21 | ファナック株式会社 | ロボットの位置を制御するロボット装置の制御装置 |
| US12290945B2 (en) | 2019-08-01 | 2025-05-06 | Fanuc Corporation | Robot device controller for controlling position of robot |
| US20220134571A1 (en) * | 2020-10-30 | 2022-05-05 | Seiko Epson Corporation | Display Control Method, Display Program, And Robot System |
| JPWO2022195680A1 (ja) * | 2021-03-15 | 2022-09-22 | ||
| WO2022195680A1 (ja) * | 2021-03-15 | 2022-09-22 | 株式会社日立ハイテク | ロボットの作業教示装置及び作業教示方法 |
| JP7546143B2 (ja) | 2021-03-15 | 2024-09-05 | 株式会社日立ハイテク | ロボットの作業教示装置 |
| US12384028B2 (en) | 2021-03-15 | 2025-08-12 | Hitachi High-Tech Corporation | Work teaching device and work teaching method for robot |
Also Published As
| Publication number | Publication date |
|---|---|
| US20180281197A1 (en) | 2018-10-04 |
| US11040451B2 (en) | 2021-06-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2018167334A (ja) | 教示装置および教示方法 | |
| US8406923B2 (en) | Apparatus for determining pickup pose of robot arm with camera | |
| JP6445092B2 (ja) | ロボットの教示のための情報を表示するロボットシステム | |
| JP6973119B2 (ja) | ロボット制御装置及びロボットシステム | |
| CN111093903B (zh) | 机器人系统及其运行方法 | |
| WO2020090809A1 (ja) | 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体 | |
| US20150273689A1 (en) | Robot control device, robot, robotic system, teaching method, and program | |
| CN106003018A (zh) | 机器人、机器人控制装置以及机器人系统 | |
| CN104802174A (zh) | 机器人控制系统、机器人、程序以及机器人控制方法 | |
| EP4400274A1 (en) | Command value generating device, method, and program | |
| JP2018051634A (ja) | ロボット制御装置、ロボット、ロボットシステムおよび姿勢特定装置 | |
| CN110709211A (zh) | 机器人系统和机器人系统的控制方法 | |
| US20180117764A1 (en) | Force control coordinate axis setting device, robot, and force control coordinate axis setting method | |
| CN105312885A (zh) | 齿轮组装系统及齿轮组装方法 | |
| JP2006026790A (ja) | 教示モデル生成装置 | |
| US12311541B2 (en) | Generation method, computer program, and generation system | |
| CN115213894A (zh) | 机器人图像的显示方法、显示系统以及记录介质 | |
| US20210291377A1 (en) | Calibration Method | |
| JP3577124B2 (ja) | 力制御ロボットを用いて嵌合データを取得する方法 | |
| WO2022092168A1 (ja) | ロボット制御装置及びロボットシステム | |
| JP7447568B2 (ja) | シミュレーション装置およびプログラム | |
| WO2021210514A1 (ja) | ロボットの制御装置及び制御方法、ロボットシステム、ロボットの動作プログラムを生成する装置及び方法 | |
| JPH1177568A (ja) | 教示支援方法及び装置 | |
| JP2616225B2 (ja) | 相対位置決め方式 | |
| US20240342919A1 (en) | Device for teaching position and posture for robot to grasp workpiece, robot system, and method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20180910 |