JP2007061979A - ロボットアームの視覚センサ補正方法およびコンピュータプログラム - Google Patents
ロボットアームの視覚センサ補正方法およびコンピュータプログラム Download PDFInfo
- Publication number
- JP2007061979A JP2007061979A JP2005253712A JP2005253712A JP2007061979A JP 2007061979 A JP2007061979 A JP 2007061979A JP 2005253712 A JP2005253712 A JP 2005253712A JP 2005253712 A JP2005253712 A JP 2005253712A JP 2007061979 A JP2007061979 A JP 2007061979A
- Authority
- JP
- Japan
- Prior art keywords
- robot arm
- visual sensor
- movement
- workpiece
- tip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】 ロボットアームの先端に取り付けられた視覚センサの取り付け状態値を決定するロボットアームの視覚センサ補正方法およびコンピュータにロボットアームの先端での視覚センサの取り付け状態値を補正させるコンピュータプログラムを提供する。
【解決手段】 ロボット1は、先端(手先)の位置/姿勢を変更可能なロボットアーム2と、ロボットアーム2の先端に取り付けられたロボットハンド3と、ロボットハンド3と同様にロボットアーム2の先端に取り付けられたカメラ4と、カメラ4の情報(カメラ4が取得した画像:カメラ画像)を処理して処理画像を求めるための画像処理部5と、ロボットアーム2の動作目的と画像処理部5の出力(処理画像に基づく信号情報)に応じてロボットアーム2およびロボットハンド3の各関節を駆動・制御するロボット制御部6とを主要構成として含む。
【選択図】 図1
【解決手段】 ロボット1は、先端(手先)の位置/姿勢を変更可能なロボットアーム2と、ロボットアーム2の先端に取り付けられたロボットハンド3と、ロボットハンド3と同様にロボットアーム2の先端に取り付けられたカメラ4と、カメラ4の情報(カメラ4が取得した画像:カメラ画像)を処理して処理画像を求めるための画像処理部5と、ロボットアーム2の動作目的と画像処理部5の出力(処理画像に基づく信号情報)に応じてロボットアーム2およびロボットハンド3の各関節を駆動・制御するロボット制御部6とを主要構成として含む。
【選択図】 図1
Description
本発明は、作業対象物(ワーク)を認識するためにロボットアームの先端に取り付けられた視覚センサの取り付け状態値(例えば、取り付け位置、取り付け姿勢など)を補正するロボットアームの視覚センサ補正方法およびコンピュータプログラムに関する。
位置決めされていないワークに対し、カメラを視覚センサとして用い推定したワークの位置あるいは姿勢に基づきワークに対し所定の作業を施すロボットアームは産業用、生活支援用などを中心に広く利用されつつある。
特に、エンドエフェクタ(先端効果器)としてグリッパを含むロボットハンドを搭載したロボットアームシステムで、エンドエフェクタの位置/姿勢をカメラ(視覚センサ)により撮像し、得られた画像を処理して求めたワークの位置/姿勢に対応させてエンドエフェクタの位置/姿勢を変更する技術は「ロボットハンドアイ(Hand−Eye)」システムとして知られている。また、カメラにより取得した画像に基づいてロボットハンドの位置/姿勢を調整するような制御は、「ビジュアルフィードバック(Visual−Feedback)」と呼ばれている。
「ロボットハンドアイ」の構成は、エンドエフェクタに対するカメラの取り付け方によって大きく2つに分類することができる。すなわち、カメラがロボットアームなどによって位置/姿勢を変更されるエンドエフェクタの周辺すなわちロボットアームの先端付近に配置されている場合と、カメラがロボットアームの基底付近に配置されておりエンドエフェクタの位置/姿勢とは連動しない場合である。
カメラがロボットアームの基底付近に設置されている場合には、エンドエフェクタの移動とは関係なくワークが配置されるエリア(作業領域)をカメラにより監視しておくことができるので、ロボットアームの動作を巨視的に監視しておくことができる。ただし、ロボットアームの誤差によって生じるエンドエフェクタの位置誤差を吸収するためには、ワークの位置認識だけでは不十分であるため別途エンドエフェクタの位置推定を行わなければならないという問題がある。
ロボットアームの基底付近にカメラが設置されている場合には、カメラによる位置推定結果をロボットアームの手先位置に変換するために用いるキャリブレーション(補正)は、ロボットアームの基底座標系(以下「基底座標系」という。)に対して行えばよい。
他方、カメラがエンドエフェクタの周辺に取り付けられている場合には、カメラはエンドエフェクタに生じる位置誤差要因の影響をエンドエフェクタと同様に受けると考えられるので、エンドエフェクタとワークの位置関係を直接推定することができるという利点がある。なお、エンドエフェクタに生じる位置誤差要因とは、ロボットアームの重力によるたわみ、ロボットアームの関節角度誤差、ロボットアームの組み付け誤差、比例制御のサーボ系を使った場合のサーボオフセット誤差などである。ただし、カメラがエンドエフェクタ付近に取り付けられていることから、ワークに対してエンドエフェクタが作業を行っているときや、作業直後においてはカメラの視野が狭くなる傾向を生じるという問題がある。
ロボットアームのエンドエフェクタ周辺にカメラが設置されている場合には、カメラのキャリブレーションはロボットアームの先端座標系(以下「先端座標系」という。)に対して行う必要がある。
ロボットアームのエンドエフェクタの周辺にカメラが設置されている場合、カメラ(視覚センサ)のキャリブレーション方法として、ロボットアームの先端に取り付けたカメラからジグによって固定され座標が既知の複数の基準点を観測し、ロボットアームとカメラのパラメータを変更してカメラの認識による座標と実際の座標が最小になるまで繰返し収束計算を行うことにより、ロボットアームとカメラのキャリブレーションを同時に行うものが提案されている(例えば、特許文献1参照。)。
特開平8−272414号公報
しかしながら、従来の方法では位置が既知である複数の基準点を設け、基準点を複数のカメラ視点から観測することによりカメラのキャリブレーションを行う必要があったので、キャリブレーション作業はロボットアームの実際の作業とはまったく異なる状況設定においてなされる必要があり、例えばエンドエフェクタ周辺に設置されているカメラに何らかの外力が働くことによりカメラの取り付け状態値(取り付け位置・取り付け姿勢)が変化した場合には、再度キャリブレーション用の状況設定を行う必要があった。
すなわち、カメラのキャリブレーションを行うモードと、ロボットアームがカメラによってワークを撮像した画像を処理して行うビジュアルフィードバックなどの作業モードは、カメラにより撮像して処理する画像処理の対象が異なるものであったため、例えば作業中にカメラ状態の変化が生じることなどについては考慮されていなかった。
また、キャリブレーションに用いる視覚センサの認識対象は、実際の作業対象であるワークとはまったく異なる物体であるため、キャリブレーションでの画像処理の内容と、ビジュアルフィードバックなど実際の作業でのワークに対する画像処理の内容とは、まったく異なるものであった。
したがって、実際の作業対象であるワークの認識を行った場合、画像処理が正確にワークの位置を反映した結果を出力するように画像処理の内容をさらに調整する必要があった。また、この調整を行わない場合は、キャリブレーションが行われていてもワークの認識結果と実際の位置の誤差が吸収されないことから、ロボットアームの作業に支障をきたす恐れがあった。
本発明はこのような状況に鑑みてなされたものであり、ロボットアームの先端を所定の移動量で移動させ、移動の前後それぞれで視覚センサにより取得したワークの画像の処理画像に対して視覚センサの取り付け状態値を不定のパラメータ(複数の仮パラメータ)として各仮パラメータに対応させてワークの画像の位置変化量を求め、ロボットアームの移動量と位置変化量とを比較して求めた複数の状態差の中で最小の状態差に対応する仮パラメータを視覚センサの取り付け状態値として抽出することにより、ロボットアームの先端に取り付けられた視覚センサの取り付け状態値(取り付け位置/取り付け姿勢)を決定するロボットアームの視覚センサ補正方法(およびコンピュータにロボットアームの先端での視覚センサの取り付け状態値を補正させるコンピュータプログラム)を提供することを目的とする。
ロボットアームの先端に取り付けられた視覚センサによってワークの位置を認識することによりロボットアームの先端での視覚センサの取り付け状態値を補正するロボットアームの視覚センサ補正方法において、ロボットアームの先端を所定の移動量で移動させ、移動の前後それぞれで視覚センサにより取得したワークの画像の処理画像から求めた基準位置の変動を位置変動量として抽出し、移動量と位置変動量とを比較して算出した比較差が所定値の範囲外である場合には上述したロボットアームの視覚センサ補正方法を適用して視覚センサの取り付け状態値を補正するロボットアームの視覚センサ補正方法(およびコンピュータにロボットアームの先端での視覚センサの取り付け状態値を補正させるコンピュータプログラム)を提供することを他の目的とする。
本発明に係るロボットアームの視覚センサ補正方法は、ロボットアームの先端に取り付けられた視覚センサによってワークの位置を認識することにより前記ロボットアームの先端での前記視覚センサの取り付け状態値を補正するロボットアームの視覚センサ補正方法において、前記ロボットアームの移動による前記ロボットアームの先端の移動量を基準座標で特定する移動量特定ステップと、前記移動の前後それぞれで前記視覚センサにより取得したワークの画像に対して画像処理を施すことにより移動前後での処理画像を求める画像処理ステップと、前記移動前後の処理画像に対して前記視覚センサの取り付け状態値の推定値としての仮パラメータを適用して前記移動前後での処理画像を基準座標に座標変換することにより前記移動前後に対するワークの位置変化量を前記仮パラメータに対応させて求める位置変化量抽出ステップと、前記移動量と前記位置変化量との差を状態差として算出する状態差算出ステップと、前記仮パラメータを変更して位置変化量抽出ステップを複数回繰り返すことにより複数の前記状態差を求め、複数の前記状態差の中で最小の状態差に対応する前記仮パラメータを視覚センサの取り付け状態値として抽出する状態値抽出ステップとを備えることを特徴とする。
この構成により、実際の作業対象であるワークを用いて視覚センサのキャリブレーションを行うので、キャリブレーションのための画像処理の方法と、ビジュアルフィードバックなどに用いる作業用の画像処理の方法を一致させることができることから、ロボットハンドアイシステムによるロボットアームのカメラキャリブレーション(視覚センサ補正方法)のための労力を大幅に低減でき、ロボットアームの先端に対する視覚センサの位置関係に不確定性がある場合に、ロボットアームの先端に対する視覚センサの位置関係の補正を確実、迅速、容易に行うことが可能となる。
本発明に係るロボットアームの視覚センサ補正方法では、前記画像処理は、ワークの表面の濃淡パターンを用いたパターンマッチングにより前記視覚センサが取得した画像のどの位置にワークの基準位置があるかを抽出するテンプレートマッチングを用いていることを特徴とする。
本発明に係るロボットアームの視覚センサ補正方法では、前記画像処理は、ワークの表面と前記視覚センサとの間の距離を利用してワークの基準位置を抽出することを特徴とする。
本発明に係るロボットアームの視覚センサ補正方法では、ワークの表面のデータを予め登録してあることを特徴とする。
本発明に係るロボットアームの視覚センサ補正方法では、前記視覚センサの取り付け状態値は、前記ロボットアームの先端での前記視覚センサの取り付け角度であることを特徴とする。
本発明に係るロボットアームの視覚センサ補正方法では、前記視覚センサの取り付け状態値は、前記ロボットアームの先端での前記視覚センサの取り付け位置を含むことを特徴とする。
本発明に係るロボットアームの視覚センサ補正方法は、ロボットアームの先端に取り付けられた視覚センサによってワークの位置を認識することによりロボットアームの先端での視覚センサの取り付け状態値を補正するロボットアームの視覚センサ補正方法において、ロボットアームの移動により基準座標でのロボットアームの先端の移動量を特定する移動量特定ステップと、前記移動の前後それぞれで前記視覚センサにより取得したワークの画像に対して画像処理を施すことにより移動前後での処理画像を求める画像処理ステップと、前記処理画像から移動前後のワークの基準位置をそれぞれ求めて基準位置の変動を位置変動量として抽出する位置変動量抽出ステップと、前記移動量と前記位置変動量とを比較して比較差を算出する比較差算出ステップと、前記比較差が所定値の範囲内か否かを判定する判定ステップとを備え、前記比較差が所定値の範囲外である場合には請求項1ないし請求項6のいずれか一つに記載のロボットアームの視覚センサ補正方法を適用して前記視覚センサの取り付け状態値を補正することを特徴とする。
この構成により、予期しない視覚センサの取り付け位置ズレが生じた場合でも速やかに再度視覚センサのキャリブレーションを実行できることから、ロボットアームの操作の安全性、信頼性を向上させることができる。また、視覚センサの取り付け状態の変化を検知し、異常があった場合に視覚センサのキャリブレーションを再度行うことにより、ロボットアームは作業を中断することなく通常の動作に復帰することができるようになる。つまり、ロボットアームはワーク自体を用いて継ぎ目なしに視覚センサのキャリブレーションと実際のビジュアルフィードバック処理の作業を行うことができるようになる。
本発明に係るコンピュータプログラムは、コンピュータに、ロボットアームの先端に取り付けられた視覚センサによってワークの位置を認識することにより前記ロボットアームの先端での前記視覚センサの取り付け状態値を補正させるコンピュータプログラムにおいて、コンピュータに、前記ロボットアームの移動による前記ロボットアームの先端の移動量を基準座標で特定させる移動量特定ステップと、コンピュータに、前記移動の前後それぞれで前記視覚センサにより取得したワークの画像に対して画像処理を施すことにより移動前後での処理画像を求めさせる画像処理ステップと、コンピュータに、前記移動前後の処理画像に対して前記視覚センサの取り付け状態値の推定値としての仮パラメータを適用して前記移動前後での処理画像を基準座標に座標変換することにより前記移動前後に対するワークの位置変化量を前記仮パラメータに対応させて求めさせる位置変化量抽出ステップと、コンピュータに、前記移動量と前記位置変化量との差を状態差として算出させる状態差算出ステップと、コンピュータに、前記仮パラメータを変更して位置変化量抽出ステップを複数回繰り返すことにより複数の前記状態差を求め、複数の前記状態差の中で最小の状態差に対応する前記仮パラメータを視覚センサの取り付け状態値として抽出させる状態値抽出ステップとを実行させることを特徴とする。
本発明に係るコンピュータプログラムは、コンピュータに、ロボットアームの先端に取り付けられた視覚センサによってワークの位置を認識することによりロボットアームの先端での視覚センサの取り付け状態値を補正させるコンピュータプログラムにおいて、コンピュータに、ロボットアームの移動により基準座標でのロボットアームの先端の移動量を特定させる移動量特定ステップと、コンピュータに、前記移動の前後それぞれで前記視覚センサにより取得したワークの画像に対して画像処理を施すことにより移動前後での処理画像を求めさせる画像処理ステップと、コンピュータに、前記処理画像から移動前後のワークの基準位置をそれぞれ求めて基準位置の変動を位置変動量として抽出させる位置変動量抽出ステップと、コンピュータに、前記移動量と前記位置変動量とを比較して比較差を算出させる比較差算出ステップと、コンピュータに、前記比較差が所定値の範囲内か否かを判定させる判定ステップとを実行させ、コンピュータに、前記比較差が所定値の範囲外である場合には請求項8に記載のコンピュータプログラムを実行させて前記視覚センサの取り付け状態値を補正させることを特徴とする。
本発明に係るロボットアームの視覚センサ補正方法およびコンピュータプログラムによれば、視覚センサの取り付け状態値として推定値の仮パラメータを適用して演算処理し、実際の移動量と仮パラメータを適用して求めた位置変化量との差が最小となる仮パラメータを視覚センサの取り付け状態値として決定することから、ロボットハンドアイシステムによるロボットアームのカメラキャリブレーション(視覚センサ補正方法)のための労力を大幅に低減でき、ロボットアームの先端に対する視覚センサの位置関係に不確定性がある場合に、ロボットアームの先端に対する視覚センサの位置関係の補正を確実、迅速、容易に行うことが可能となる。
本発明に係るロボットアームの視覚センサ補正方法およびコンピュータプログラムによれば、予期しない視覚センサの取り付け位置ズレが生じた場合でも速やかに再度視覚センサのキャリブレーションを実行できることから、ロボットアームの操作の安全性、信頼性を向上させることができる。つまり、ロボットアームはワーク自体を用いて継ぎ目なしにカメラのキャリブレーションと実際のビジュアルフィードバック処理の作業を行うことができるようになるという効果を奏する。
以下、本発明の実施の形態を図面に基づいて説明する。
<実施の形態1>
図1は、本発明の実施の形態1に係るロボットアームの視覚センサ補正方法を適用するロボットアームの概略ブロック構成を示す要部ブロック図である。
図1は、本発明の実施の形態1に係るロボットアームの視覚センサ補正方法を適用するロボットアームの概略ブロック構成を示す要部ブロック図である。
ロボット1は、例えば7関節により先端(手先)の位置/姿勢を変更可能なロボットアーム2と、ロボットアーム2の先端に取り付けられたロボットハンド3と、ロボットハンド3と同様にロボットアーム2の先端に取り付けられたカメラ4と、カメラ4の情報(カメラ4が取得した画像:カメラ画像)を処理して処理画像を求めるための画像処理部5と、ロボットアーム2の動作目的と画像処理部5の出力(処理画像に基づく信号情報)に応じてロボットアーム2およびロボットハンド3の各関節を駆動・制御するロボット制御部6とを主要構成として含む。
なお、ロボット1は、ロボット基底BSに装着してあり、ロボット基底BSは、基準座標としての基底座標系XYZを画定している。なお、矢符PSは、ロボットアーム2の手先を平行移動(図3参照)する状態を示している。
画像処理部5およびロボット制御部6はカメラ画像入力装置、画像処理用中央演算装置(CPU)、モータ制御用中央演算装置(CPU)、プログラム格納用メモリ、演算結果一時保存用メモリ、モータサーボ用回路、モータドライバなどで構成される。
画像処理用中央演算装置(CPU)、モータ制御用中央演算装置(CPU)、プログラム格納用メモリ、演算結果一時保存用メモリなどは、いわゆるコンピュータを構成し、画像処理部5およびロボット制御部6は、コンピュータにより制御する構成としてある。
つまり、本実施の形態に係るロボットアームの視覚センサ補正方法は、プログラム格納用メモリに記録されたコンピュータプログラムをコンピュータ(CPUを中心部として構成される)に実行させること(いわゆるソフトウエア処理)によって実現することができる。
本実施の形態では、ロボットアーム2の作業として、作業対象物としてのワークWをロボットハンド3で把持する場合の動作を考える。ワークWは、例えば茶碗のようなすり鉢状の物体であり、内側の傾斜にはワークWの識別を可能にするテクスチャWta、Wtb(図2参照)が施されている。
カメラ4はワークWを例えば矢符Aの方向(正面視の方向)で撮像することになる。本実施の形態では、ロボットアーム2へのカメラ4の取り付け状態値(取り付け位置/取り付け姿勢)の内で取り付け姿勢(取り付け角度)が未確定な場合のカメラのキャリブレーション方法に関して説明を行うが、取り付け位置が未確定な場合に対しても同様に適用することが可能である。
図2は、ワークを図1の矢符A方向から見た平面図である。
外側に2重実線で表してある外周円Waが、ワークWの上端部の縁であり、内側に実線で表してある内周円Wbが、ワークWの底面であり、内周円Wbの中心が内側底面中心Wcとなる。外周円Waと内周円Wbとの間には内側表面があり代表高さWhaで示される位置にはテクスチャWtaが施され、代表高さWhbで示される位置にはテクスチャWtbが施されている。
ロボット1はワークWをカメラ4によって撮像し、撮像した内側表面のテクスチャWta、Wtbの濃淡値(ワークの表面の濃淡パターン)と、画像処理パラメータを変更しながらアフィン変換したリファレンス画像の濃淡値(ワークの表面の濃淡パターン)の差を画素ごとに加算し、加算値が最小になる画像処理パラメータを画像内のワークWの位置(ワークWの基準位置)を表す画像処理パラメータとして出力する画像処理を画像処理部5において行う。
画像処理部5におけるこのような画像処理は「テンプレートマッチング」(テンプレートマッチング法)と呼ばれ、ワークWの種類(形状、材質など)によらず処理の内容を一律にすることができるため画像処理を簡便に行えるという利点がある。本実施の形態では、テンプレートマッチングによりリファレンス画像(処理画像の特徴として抽出した画像。例えばワークWの画像)の基準位置がカメラ4によって撮像した画像内においてどの位置にあるかを認識して、どのように移動したかを利用するものとする。
なお、ワークWの(ワークWの画像の)基準位置(中心位置、代表位置)は、ワークWについて任意に設定したものであり、例えばワークWの外周円Waの中心、内周円Wbの中心(内側底面中心Wc)、代表高さWhaの中心、代表高さWhbの中心など把握しやすい位置、レベルで設定することができる。
カメラ4によって取得した画像内のワークW(の位置)を認識する方法として種々の方法が可能であるが、本実施の形態では、画像内のワークWの表面でのテクスチャWta、Wtbの濃淡を特徴(抽出要素)として利用できる、いわゆるテンプレートマッチングを用いる。
テンプレートマッチングによりワークWの位置を推定することにより、ロボットアーム2はワークWの特性(形状、模様、位置など)に対応させて画像処理内容を変更する必要がなくなり、処理を一律のアルゴリズムで行うことができるようになるので、ワークWの種類が増加した場合であっても画像処理のためのアルゴリズム(プログラム)を個別に作成する必要がなくなり、ユーザの作業量を削減することができるようになる。
なお、ワークWのテクスチャ(Wta、Wtb)に関する情報(表面の濃淡情報)を用いてカメラ4が取得した画像内のワークWの位置を推定する場合、カメラ4の位置を移動させると、カメラ4の移動の並進方向成分については、カメラ4から対象テクスチャまでの距離が遠いほど、画像内における対象テクスチャの移動量が小さくなる性質がある。例えば、カメラ4から近いテクスチャWtaは画像内で大きく移動するが、カメラ4から遠いテクスチャWtbは画像内での移動は小さくなる。
したがって、ワークWの表面の模様を一律に扱ってテクスチャ全体をテンプレートとして利用する場合、カメラ4からの距離の遠近とテクスチャの特性によっては画像内のワークWの位置を正しく推定できない場合がある。つまり、カメラ4からワークWの表面の模様(対象テクスチャ)までの距離に応じてカメラ画像(以下、単に画像、ワークの画像などとも記載する。)内に映る模様の移動量が異なるためワークWの中心位置(例えば、底面中心Wc)を正確に計算できないという問題が生じることがある。
このような問題に対しては、ワークWの表面のテクスチャWta、Wtbそれぞれをある程度まとめて代表高さWha、代表高さWhbと共にワークWの表面のデータとして予め登録しておくことにより、画面内のワークWの基準位置をより正確に推定する(精度良く求める)ことができるようになる。
つまり、テンプレートマッチングという一律の画像処理手法を用いる場合であっても、カメラ4からの距離を計算できるように、事前に例えばワークWの表面形状などのデータを登録して、ワークWの表面とカメラ4(視覚センサ)との間の距離(距離情報)を利用してワークWの基準位置を抽出することにより、ロボットアーム2の先端付近(手先)に取り付けてあるカメラ4のキャリブレーションを高精度に行うことができるようになる。
図3は、本発明の実施の形態1に係るロボットアームの視覚センサ補正方法の処理フローを示すフローチャートである。
なお、ロボット1のロボットアーム2は、事前にキャリブレーションが行われており、ワークWに対する作業に支障がない程度に手先位置精度が保証されているものとする。例えば、ロボット基底BSからロボットアーム2の先端までの距離が最大500mmのロボット1で、ロボットアーム2が直径および高さ100mm程度のワークWに対して作業する場合、必要となる手先位置精度は±3mm程度であり、ロボットアーム2に保証される手先位置精度は±2mmであるとする。このとき、カメラ4に要求されるワークWの位置認識精度は±1mm以下である。
ステップS100:
ロボットアーム2の手先(ロボットアーム2の先端)を設定位置(手先位置)に平行移動(図1参照)して、移動前後での移動量を基底座標系で特定する(移動量特定ステップ)。設定位置とはカメラ4のキャリブレーション(補正)を行うための未知の取り付け状態値を精度良く同定するのに必要なロボットアーム2の手先位置を表す。設定位置は、ワークWがカメラ4の視野の中に入る範囲内で適宜設定することができる。
ロボットアーム2の手先(ロボットアーム2の先端)を設定位置(手先位置)に平行移動(図1参照)して、移動前後での移動量を基底座標系で特定する(移動量特定ステップ)。設定位置とはカメラ4のキャリブレーション(補正)を行うための未知の取り付け状態値を精度良く同定するのに必要なロボットアーム2の手先位置を表す。設定位置は、ワークWがカメラ4の視野の中に入る範囲内で適宜設定することができる。
平行移動は例えば、設定位置A、設定位置B、設定位置C、・・・とロボットアーム2の手先を順次移動することにより行う。このとき、移動量は、例えば、設定位置Aと設定位置Bとの差が設定位置Aから設定位置Bへの平行移動のときの移動量となり、設定位置Bと設定位置Cとの差が設定位置Bから設定位置Cへの平行移動のときの移動量(平行移動量)となる。つまり、移動量(平行移動量)は、基底座標系での移動前後の間の相対値(移動前後の間の差)で定義される。
キャリブレーションによって同定するロボットアーム2の先端に対するカメラ4の相対位置・相対姿勢を表すパラメータ(取り付け状態値)は最大6(並進方向3、回転方向3)であるが、並進方向に関する誤差(取り付け誤差を含む)は大きな誤差要因にならないとみなせば、同定すべきパラメータは回転方向の3方向の角度となる。これらのパラメータも機構上の設計値と大きく変わることはないという前提に立てば、パラメータを最適化、すなわちカメラ4のキャリブレーションを実行するための時間を大幅に軽減することが可能になる。
したがって、未知の取り付け状態値として、ロボットアーム2の先端に対するカメラ4の例えば取り付け姿勢(取り付け角度)を対象とすることとなり、直交座標系3軸方向に対する回転角度として取扱えば3つのパラメータ(取り付け状態値)を同定することが必要となる。なお、未知の取り付け状態値として取り付け姿勢の他に取り付け位置を対象として含ませることも可能であり、これによりさらに精密な制御が可能となる。
また、上述した3つのパラメータに加えてカメラ4の基準位置でのカメラ4からワークWの表面の基準位置までの距離をパラメータとすれば、ロボットアーム2の先端の移動によるカメラ4の移動と、それにともなうカメラ4により取得した画像内でのワークWの基準位置の移動をより正確に推定することができるようになる。
ロボットアーム2の先端を平行移動する場合、例えば20mm程度の十分小さい平行移動量であれば、ロボットアーム2に保証される手先位置精度±2mm(上述)よりも十分小さい数値となる精度が期待できる。その理由は、ロボットアーム2を大きく動かす場合には組み付けやサーボ誤差が大きく影響するが、十分小さい動作(例えば平行移動)ではこの影響は相対的に小さなものとなり無視できる程度に小さくなるためである。
ロボットアーム2の先端の平行移動量が十分な精度で取得できる場合、基準座標としての基底座標系XYZを用いることから、一度の平行移動について2つの未知数を特定できるので、3つのパラメータを同定するために最小3点の手先位置が必要となる。
ただし、本実施の形態ではより高精度にパラメータの同定(キャリブレーション:補正)ができるように、基底座標系のXYZ各方向に例えば5点ずつ平行移動して、合計125点からワークWを撮像するものとする。
なお、ワークWの表面高さ(例えば、代表高さWha、代表高さWhb、外周円Waの内周円Wbからの高さ)とカメラ4のレンズ面の高さは基底座標系において既知であるとする。基底座標系におけるワークWの設置面の高さが既知であれば、ワークWの形状データおよび設置面からカメラ4のレンズまでの高さを計測するだけで良いので比較的容易に求めることが可能である。
ステップS102:
平行移動(ステップS100)に対応させて、移動前、移動後のそれぞれについてカメラ4を用いてワークWを含む画像(ワークWの画像)を取得する。したがって、ステップS100とステップS102は実質的に並行して行われる。
平行移動(ステップS100)に対応させて、移動前、移動後のそれぞれについてカメラ4を用いてワークWを含む画像(ワークWの画像)を取得する。したがって、ステップS100とステップS102は実質的に並行して行われる。
ステップS104:
取得した移動前後の各画像に対してテンプレートマッチングによる画像処理を画像処理部5において施すことによりテンプレートマッチング処理済の画像(処理画像、ワークWの処理画像)を求める(画像処理ステップ)。つまり、ワークWの位置(基準位置)を認識する。
取得した移動前後の各画像に対してテンプレートマッチングによる画像処理を画像処理部5において施すことによりテンプレートマッチング処理済の画像(処理画像、ワークWの処理画像)を求める(画像処理ステップ)。つまり、ワークWの位置(基準位置)を認識する。
ステップS106:
未知の取り付け状態値を求めるために取り付け状態値の推定値としての仮パラメータ(パラメータを同定するために仮に推定したパラメータ。ステップS100参照)を選択する。なお、仮パラメータの選択は、まだ選択されていないパラメータθx、θy、θzの組み合わせをひとつ選択することにより行う。
未知の取り付け状態値を求めるために取り付け状態値の推定値としての仮パラメータ(パラメータを同定するために仮に推定したパラメータ。ステップS100参照)を選択する。なお、仮パラメータの選択は、まだ選択されていないパラメータθx、θy、θzの組み合わせをひとつ選択することにより行う。
パラメータとはロボットアームの設計上のカメラ取り付け角度などに想定される誤差を加味した範囲内での値である。具体的には、カメラ4の実際の取り付け角度をオイラー角XYZで記述したときの角度をθx、θy、θzとし、設計上の取り付け角度を取り付け角度の初期値θx0、θy0、θz0(例えばそれぞれ10度、20度、30度)とする。また、想定される取り付け誤差を±Δθx、±Δθy、±Δθz(例えば各±2度)と
する。
する。
キャリブレーションの分解能を0.2度であるとすれば推定値(仮パラメータ)θx、θy、θzの組み合わせは各方向について21通り、全部で9261通り(=21×21×21通り)存在することになる。
ステップS108:
選択した仮パラメータを用いて、テンプレートマッチング処理済みの移動前後の処理画像(ステップS104参照)に対して基準座標としての基底座標系への座標変換を行い、座標変換画像とする。つまり、ワークWの位置(基準位置)を認識する。移動前後での座標変換画像を相互に比較してワークWの基準位置の相対位置変化(位置変化量)を求める(位置変化量抽出ステップ)。
選択した仮パラメータを用いて、テンプレートマッチング処理済みの移動前後の処理画像(ステップS104参照)に対して基準座標としての基底座標系への座標変換を行い、座標変換画像とする。つまり、ワークWの位置(基準位置)を認識する。移動前後での座標変換画像を相互に比較してワークWの基準位置の相対位置変化(位置変化量)を求める(位置変化量抽出ステップ)。
ステップS110:
仮パラメータに対応させて、ステップS100で特定した移動量とステップS108で求めた位置変化量との差を状態差(比較結果)として算出する(状態差算出ステップ)。
仮パラメータに対応させて、ステップS100で特定した移動量とステップS108で求めた位置変化量との差を状態差(比較結果)として算出する(状態差算出ステップ)。
ステップS112:
状態差をフラッシュメモリなどで構成した演算結果一時保存用メモリ(例えばロボット制御部6に配置)に適宜保存記憶しておく。
状態差をフラッシュメモリなどで構成した演算結果一時保存用メモリ(例えばロボット制御部6に配置)に適宜保存記憶しておく。
ステップS114:
すべての仮パラメータを選択したか否かを判定する。すべての仮パラメータを選択した場合(ステップS114:YES)にはステップS116へ進む。選択しない仮パラメータがある場合(ステップS114:NO)にはステップS106へ戻り、他の仮パラメータに対してステップS106からステップS112の処理フローを繰り返す。
すべての仮パラメータを選択したか否かを判定する。すべての仮パラメータを選択した場合(ステップS114:YES)にはステップS116へ進む。選択しない仮パラメータがある場合(ステップS114:NO)にはステップS106へ戻り、他の仮パラメータに対してステップS106からステップS112の処理フローを繰り返す。
なお、ステップS106からステップS112の処理フローは、ロボットアーム2の手先位置を移動しカメラ4により画像を取得するステップS100〜S104と並行して行っても良い。ロボットアーム2を安全に移動させ、先端が静止した状態で振れのない画像を取得するためには例えば1秒程度の時間がかかるが、ロボットアーム2を移動するためのモータ回転制御などをハードウェア上に実装すれば、処理の負荷自体は大きくないので、推定値としての仮パラメータを変更(選択)しながら繰り返し行うステップS106〜S112の処理と同時に行うことによりキャリブレーションの時間を短縮することができる。
ステップS116:
すべての手先位置に対する処理(ステップS100〜S114)を終了したか否かを判定する。すべての手先位置への平行移動が終了している場合(ステップS116:YES)はステップS118へ進む。終了していない場合(ステップS116:NO)はステップS100へ戻り、ステップS100からステップS114の処理フローを繰り返す。
すべての手先位置に対する処理(ステップS100〜S114)を終了したか否かを判定する。すべての手先位置への平行移動が終了している場合(ステップS116:YES)はステップS118へ進む。終了していない場合(ステップS116:NO)はステップS100へ戻り、ステップS100からステップS114の処理フローを繰り返す。
ステップS118:
ロボット制御部6の演算結果一時保存用メモリに保存しておいた各仮パラメータの組み合わせにおける状態差をすべての手先位置について二乗和として計算し、最小になる仮パラメータの組み合わせを抽出し、最小の状態差に対応する仮パラメータを視覚センサとしてのカメラ4の取り付け状態値として採用し(状態値抽出ステップ)、視覚センサのキャリブレーション(補正)を行う。
ロボット制御部6の演算結果一時保存用メモリに保存しておいた各仮パラメータの組み合わせにおける状態差をすべての手先位置について二乗和として計算し、最小になる仮パラメータの組み合わせを抽出し、最小の状態差に対応する仮パラメータを視覚センサとしてのカメラ4の取り付け状態値として採用し(状態値抽出ステップ)、視覚センサのキャリブレーション(補正)を行う。
上述したとおり本実施の形態では、実際のワークWを用いてカメラ4のキャリブレーションを行うことから、ロボットアーム2の手先位置にある視覚センサのキャリブレーションを行う補正モードで利用する処理画像と、ビジュアルフィードバックなどの実際の作業を行う実働モードで利用する処理画像に大きな差がなくなり、ワークWによる影響の生じない正確な補正が可能となる。
つまり、実際の作業対象であるワークWを用いてカメラ4のキャリブレーションを行うので、キャリブレーションのための画像処理の方法と、ビジュアルフィードバックなどに用いる作業用の画像処理の方法を一致させることができるので、仮に画像処理で誤差が存在するとしても誤差を完全に吸収することが可能となる。
また、ロボットハンドアイシステムによるロボットアーム2のカメラキャリブレーション(視覚センサ補正方法)のための労力を大幅に低減でき、ロボットアーム2の先端に対するカメラ4の位置関係に不確定性がある場合に、ロボットアーム2の先端に対するカメラ4の位置関係の補正を確実、迅速、容易に行うことが可能となる。
ステップS100〜S118の処理は、コンピュータプログラムを適用してコンピュータに実行させることにより、確実で迅速な処理を容易に行うことが可能となる。
<実施の形態2>
図4は、本発明の実施の形態2に係るロボットアームの視覚センサ補正方法の処理フローを示すフローチャートである。ロボット1の構成および画像処理のフローは実施の形態1と同様であるので詳細な説明は省略する。
図4は、本発明の実施の形態2に係るロボットアームの視覚センサ補正方法の処理フローを示すフローチャートである。ロボット1の構成および画像処理のフローは実施の形態1と同様であるので詳細な説明は省略する。
本実施の形態では、ロボットアーム2がビジュアルフィードバックなどによる実働作業を行っている途中で、何らかの原因によりロボットアーム2に取り付けられたカメラ4の取り付け姿勢などの取り付け状態値が変わった場合に、異常を検出するフローおよび異常への対応策としての視覚センサの再度の補正を行うフローを示す。
ステップS140:
ロボットアーム2はワークWのおおよその位置をカメラ4の視野内に入れるようにロボットアーム2を移動させた後、カメラ4によってワークWの画像を取得する。
ロボットアーム2はワークWのおおよその位置をカメラ4の視野内に入れるようにロボットアーム2を移動させた後、カメラ4によってワークWの画像を取得する。
ステップS142:
取得した画像に対してワークWの高さを考慮したテンプレートマッチングによる画像処理を施し、処理画像を求める(画像処理ステップ)。求めた処理画像を基準座標に座標変換することにより移動前のワークWの基準位置(例えば中心位置)を求める(推定する)。つまり、ワークWの位置(基準位置)を認識する。
取得した画像に対してワークWの高さを考慮したテンプレートマッチングによる画像処理を施し、処理画像を求める(画像処理ステップ)。求めた処理画像を基準座標に座標変換することにより移動前のワークWの基準位置(例えば中心位置)を求める(推定する)。つまり、ワークWの位置(基準位置)を認識する。
なお、カメラ4は既に実施の形態1で示した視覚センサ補正方法により補正され、取り付け状態値は既に求まっているものとする。
ステップS144:
ロボットアーム2の手先(ロボットアーム2の先端)を平行移動し、基準座標での移動量を特定する(移動量特定ステップ)。
ロボットアーム2の手先(ロボットアーム2の先端)を平行移動し、基準座標での移動量を特定する(移動量特定ステップ)。
ステップS146:
平行移動後のカメラ4の位置からワークWを含む画像(ワークWの画像)を取得する。
平行移動後のカメラ4の位置からワークWを含む画像(ワークWの画像)を取得する。
ステップS148:
取得した画像に対してテンプレートマッチングによる画像処理を施して処理画像を求める(画像処理ステップ)。求めた処理画像を基準座標に座標変換することにより移動後のワークWの基準位置を求める(推定する)。つまり、ワークWの位置(基準位置)を認識する。
取得した画像に対してテンプレートマッチングによる画像処理を施して処理画像を求める(画像処理ステップ)。求めた処理画像を基準座標に座標変換することにより移動後のワークWの基準位置を求める(推定する)。つまり、ワークWの位置(基準位置)を認識する。
仮に処理画像(ステップS142)でのワークWの基準位置が所定の範囲に収まっている場合でも、確認のために少なくとも一度はロボットアーム2を平行移動して画像を取得し、画像処理を施すものとする(ステップS144〜S148)。
なお、ステップS144〜S148で取得したワークWの基準位置は、ロボットアーム2の先端を平行移動する前の処理画像(ステップS142で求めた処理画像)と比較して、平行移動分が反映されたものになるはずである。
ステップS150:
移動前後の処理画像からそれぞれ求めたワークWの基準位置に基づいて、移動前後での基準位置の変動(位置変動量)を抽出(位置変動量抽出ステップ)し、ステップS144での手先の移動量と位置変動量とを比較して比較差を算出する(比較差算出ステップ)。
移動前後の処理画像からそれぞれ求めたワークWの基準位置に基づいて、移動前後での基準位置の変動(位置変動量)を抽出(位置変動量抽出ステップ)し、ステップS144での手先の移動量と位置変動量とを比較して比較差を算出する(比較差算出ステップ)。
なお、ワークWの位置変動量は、初回はステップS140で取得した画像によるワークWの基準位置とステップS146で取得した画像によるワークWの基準位置との差であり、2回目以降は直前回のステップS146で求めた画像によるワークWの基準位置と当該回のステップS146で取得した画像によるワークWの基準位置との差である(ステップS144ないしステップS158のルーティン参照)。
ステップS152:
ステップS150で求めた比較差が、所定値の範囲内か否かを判定する。比較差が許容範囲内である場合(ステップS152:YES)はステップS154へ進む。所定値の範囲外である場合(ステップS152:NO)はステップS156へ進む。
ステップS150で求めた比較差が、所定値の範囲内か否かを判定する。比較差が許容範囲内である場合(ステップS152:YES)はステップS154へ進む。所定値の範囲外である場合(ステップS152:NO)はステップS156へ進む。
ステップS154:
カメラ4の取り付け状態値の変動はないものとみなしてビジュアルフィードバック(ビジュアルフィードバック処理)を続行する。すなわち、処理画像を確認して、ステップS158へ進む。
カメラ4の取り付け状態値の変動はないものとみなしてビジュアルフィードバック(ビジュアルフィードバック処理)を続行する。すなわち、処理画像を確認して、ステップS158へ進む。
ステップS156:
カメラ4の取り付け状態値に何らかの変動があったものとみなして、実施の形態1で示した視覚センサ(カメラ4)の補正を再度行う。
カメラ4の取り付け状態値に何らかの変動があったものとみなして、実施の形態1で示した視覚センサ(カメラ4)の補正を再度行う。
実施の形態1のキャリブレーションでのカメラ4の視点変更(平行移動)は、125回行っている(ステップS100参照)が、ロボットアーム2の認識精度がそれほど必要のない場合、ロボットアーム2の作業を短時間で続行したい場合などでは、視点変更の回数を例えば27回(XYZ方向に各3点ずつ移動)にしても良い。また、カメラの取り付け角度の初期値値θx0、θy0、θz0は、ビジュアルフィードバック処理を行う前のカメラ4のキャリブレーションで求めている値を使用するものとする。
本実施の形態でのロボット1の構成(システム)(図1参照)のように、ロボットハンド3の周辺にカメラ4が取り付けてある場合は、ロボット1の作業中に何らかの外力がカメラ4に加わり、カメラ4の取り付け状態が変化することがある。カメラ4の取り付け位置が例えば数mm変化してもロボットアームの作業には大きな影響を与えないが、取り付け角度が数度変化すればカメラ4を用いたワークWの認識結果は大きくずれるので作業に支障をきたすことになる。
カメラ4の取り付け状態の変化を検知し、異常があった場合に実施の形態1に係るカメラ4のキャリブレーションを再度行うことにより、ロボットアーム2は作業を中断することなく通常の動作に復帰することができるようになる。つまり、ロボットアーム2はワークW自体を用いて継ぎ目なしにカメラ4のキャリブレーションと実際のビジュアルフィードバック処理の作業を行うことができるようになるという効果を奏する。
ステップS158:
処理画像が、ビジュアルフィードバック終了条件を満たすか否かを判定する。終了条件を満たす場合(ステップS158:YES)、つまり、処理画像でのワークWの基準位置が所定の範囲内に存在すればビジュアルフィードバック処理を終了する。終了条件を満たさない場合(ステップS158:NO)、つまり、ワークWの基準位置が所定の範囲外に存在すればステップS144へ戻ってビジュアルフィードバック処理を続行する。
処理画像が、ビジュアルフィードバック終了条件を満たすか否かを判定する。終了条件を満たす場合(ステップS158:YES)、つまり、処理画像でのワークWの基準位置が所定の範囲内に存在すればビジュアルフィードバック処理を終了する。終了条件を満たさない場合(ステップS158:NO)、つまり、ワークWの基準位置が所定の範囲外に存在すればステップS144へ戻ってビジュアルフィードバック処理を続行する。
ワークWに対する位置決め作業において、ロボットアーム2の移動量とカメラ4が取得した画像でのワークWの位置とが、直近のキャリブレーション結果と相反するものであった場合にはロボットアーム2はキャリブレーションの再確認を行うための追加動作(ステップS152)を行い、必要であればキャリブレーション結果の再補正を行う(ステップS156)ようにすることができる。
また、ビジュアルフィードバック作業を実行中のロボットアーム2の移動量に対し、カメラ4の画像内で期待されるワークWの移動量が確認できなかった場合には、直ちに再度キャリブレーションモード(補正モード:ステップS156)を実行することができるようになる。つまり、カメラ4の取り付け位置ズレが生じた場合でも速やかに再度視覚センサのキャリブレーションを実行できることから、ロボットアーム2の操作の安全性、信頼性を向上させることができる。
ステップS140〜S158の処理は、コンピュータプログラムを適用してコンピュータに実行させることにより、確実で迅速な処理を容易に行うことが可能となる。
1 ロボット
2 ロボットアーム
3 ロボットハンド
4 カメラ
5 画像処理部
6 ロボット制御部
W ワーク
Wa 外周円
Wb 内周円
Wha 代表高さ
Whb 代表高さ
Wta テクスチャ
Wtb テクスチャ
2 ロボットアーム
3 ロボットハンド
4 カメラ
5 画像処理部
6 ロボット制御部
W ワーク
Wa 外周円
Wb 内周円
Wha 代表高さ
Whb 代表高さ
Wta テクスチャ
Wtb テクスチャ
Claims (9)
- ロボットアームの先端に取り付けられた視覚センサによってワークの位置を認識することにより前記ロボットアームの先端での前記視覚センサの取り付け状態値を補正するロボットアームの視覚センサ補正方法において、
前記ロボットアームの移動による前記ロボットアームの先端の移動量を基準座標で特定する移動量特定ステップと、
前記移動の前後それぞれで前記視覚センサにより取得したワークの画像に対して画像処理を施すことにより移動前後での処理画像を求める画像処理ステップと、
前記移動前後の処理画像に対して前記視覚センサの取り付け状態値の推定値としての仮パラメータを適用して前記移動前後での処理画像を基準座標に座標変換することにより前記移動前後に対するワークの位置変化量を前記仮パラメータに対応させて求める位置変化量抽出ステップと、
前記移動量と前記位置変化量との差を状態差として算出する状態差算出ステップと、
前記仮パラメータを変更して位置変化量抽出ステップを複数回繰り返すことにより複数の前記状態差を求め、複数の前記状態差の中で最小の状態差に対応する前記仮パラメータを視覚センサの取り付け状態値として抽出する状態値抽出ステップと
を備えることを特徴とするロボットアームの視覚センサ補正方法。 - 前記画像処理は、ワークの表面の濃淡パターンを用いたパターンマッチングにより前記視覚センサが取得した画像のどの位置にワークの基準位置があるかを抽出するテンプレートマッチングを用いていることを特徴とする請求項1に記載のロボットアームの視覚センサ補正方法。
- 前記画像処理は、ワークの表面と前記視覚センサとの間の距離を利用してワークの基準位置を抽出することを特徴とする請求項2に記載のロボットアームの視覚センサ補正方法。
- ワークの表面のデータを予め登録してあることを特徴とする請求項3に記載のロボットアームの視覚センサ補正方法。
- 前記視覚センサの取り付け状態値は、前記ロボットアームの先端での前記視覚センサの取り付け角度であることを特徴とする請求項1ないし請求項4のいずれか一つに記載のロボットアームの視覚センサ補正方法。
- 前記視覚センサの取り付け状態値は、前記ロボットアームの先端での前記視覚センサの取り付け位置を含むことを特徴とする請求項5に記載のロボットアームの視覚センサ補正方法。
- ロボットアームの先端に取り付けられた視覚センサによってワークの位置を認識することによりロボットアームの先端での視覚センサの取り付け状態値を補正するロボットアームの視覚センサ補正方法において、
ロボットアームの移動により基準座標でのロボットアームの先端の移動量を特定する移動量特定ステップと、
前記移動の前後それぞれで前記視覚センサにより取得したワークの画像に対して画像処理を施すことにより移動前後での処理画像を求める画像処理ステップと、
前記処理画像から移動前後のワークの基準位置をそれぞれ求めて基準位置の変動を位置変動量として抽出する位置変動量抽出ステップと、
前記移動量と前記位置変動量とを比較して比較差を算出する比較差算出ステップと、
前記比較差が所定値の範囲内か否かを判定する判定ステップと
を備え、
前記比較差が所定値の範囲外である場合には請求項1ないし請求項6のいずれか一つに記載のロボットアームの視覚センサ補正方法を適用して前記視覚センサの取り付け状態値を補正すること
を特徴とするロボットアームの視覚センサ補正方法。 - コンピュータに、ロボットアームの先端に取り付けられた視覚センサによってワークの位置を認識することにより前記ロボットアームの先端での前記視覚センサの取り付け状態値を補正させるコンピュータプログラムにおいて、
コンピュータに、前記ロボットアームの移動による前記ロボットアームの先端の移動量を基準座標で特定させる移動量特定ステップと、
コンピュータに、前記移動の前後それぞれで前記視覚センサにより取得したワークの画像に対して画像処理を施すことにより移動前後での処理画像を求めさせる画像処理ステップと、
コンピュータに、前記移動前後の処理画像に対して前記視覚センサの取り付け状態値の推定値としての仮パラメータを適用して前記移動前後での処理画像を基準座標に座標変換することにより前記移動前後に対するワークの位置変化量を前記仮パラメータに対応させて求めさせる位置変化量抽出ステップと、
コンピュータに、前記移動量と前記位置変化量との差を状態差として算出させる状態差算出ステップと、
コンピュータに、前記仮パラメータを変更して位置変化量抽出ステップを複数回繰り返すことにより複数の前記状態差を求め、複数の前記状態差の中で最小の状態差に対応する前記仮パラメータを視覚センサの取り付け状態値として抽出させる状態値抽出ステップと
を実行させることを特徴とするコンピュータプログラム。 - コンピュータに、ロボットアームの先端に取り付けられた視覚センサによってワークの位置を認識することによりロボットアームの先端での視覚センサの取り付け状態値を補正させるコンピュータプログラムにおいて、
コンピュータに、ロボットアームの移動により基準座標でのロボットアームの先端の移動量を特定させる移動量特定ステップと、
コンピュータに、前記移動の前後それぞれで前記視覚センサにより取得したワークの画像に対して画像処理を施すことにより移動前後での処理画像を求めさせる画像処理ステップと、
コンピュータに、前記処理画像から移動前後のワークの基準位置をそれぞれ求めて基準位置の変動を位置変動量として抽出させる位置変動量抽出ステップと、
コンピュータに、前記移動量と前記位置変動量とを比較して比較差を算出させる比較差算出ステップと、
コンピュータに、前記比較差が所定値の範囲内か否かを判定させる判定ステップと
を実行させ、
コンピュータに、前記比較差が所定値の範囲外である場合には請求項8に記載のコンピュータプログラムを実行させて前記視覚センサの取り付け状態値を補正させることを特徴とするコンピュータプログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005253712A JP2007061979A (ja) | 2005-09-01 | 2005-09-01 | ロボットアームの視覚センサ補正方法およびコンピュータプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005253712A JP2007061979A (ja) | 2005-09-01 | 2005-09-01 | ロボットアームの視覚センサ補正方法およびコンピュータプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2007061979A true JP2007061979A (ja) | 2007-03-15 |
Family
ID=37924774
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005253712A Pending JP2007061979A (ja) | 2005-09-01 | 2005-09-01 | ロボットアームの視覚センサ補正方法およびコンピュータプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2007061979A (ja) |
Cited By (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009172718A (ja) * | 2008-01-24 | 2009-08-06 | Canon Inc | 作業装置及びその校正方法 |
| JP2010156669A (ja) * | 2008-12-30 | 2010-07-15 | Ind Technol Res Inst | 動的校正機能付きカメラおよびその方法 |
| JP2011067889A (ja) * | 2009-09-25 | 2011-04-07 | Ihi Corp | キャリブレーション装置及びキャリブレーション方法 |
| JP2011235400A (ja) * | 2010-05-11 | 2011-11-24 | Daihen Corp | マニピュレータのキャリブレーション方法及びロボット制御システム |
| JP2012022600A (ja) * | 2010-07-16 | 2012-02-02 | Denso Wave Inc | マスク画像作成システム |
| JP2012091280A (ja) * | 2010-10-27 | 2012-05-17 | Mitsubishi Electric Corp | 座標系校正方法及びロボットシステム |
| JPWO2015129473A1 (ja) * | 2014-02-28 | 2017-03-30 | ソニー株式会社 | ロボットアーム装置、キャリブレーション方法及びプログラム |
| KR20170087996A (ko) * | 2016-01-21 | 2017-08-01 | 현대로보틱스주식회사 | 로봇의 캘리브레이션 장치 및 그 방법 |
| JP6275345B1 (ja) * | 2017-02-03 | 2018-02-07 | 三菱電機株式会社 | 変換係数算出装置、変換係数算出方法及び変換係数算出プログラム |
| CN108237521A (zh) * | 2017-12-19 | 2018-07-03 | 珠海格力智能装备有限公司 | 主动臂结构及具有其的机器人 |
| JP2019177450A (ja) * | 2018-03-30 | 2019-10-17 | 日本電産株式会社 | キャリブレーション精度の評価方法及び評価装置 |
| CN111721779A (zh) * | 2020-05-27 | 2020-09-29 | 联宝(合肥)电子科技有限公司 | 一种产品重工方法、装置及存储介质 |
| CN112087984A (zh) * | 2018-06-14 | 2020-12-15 | 国际商业机器公司 | 机器人识别管理器 |
| CN112797944A (zh) * | 2020-12-26 | 2021-05-14 | 深兰人工智能芯片研究院(江苏)有限公司 | 柔性检测方法、装置、设备及计算机可读存储介质 |
| CN113733079A (zh) * | 2020-05-29 | 2021-12-03 | 配天机器人技术有限公司 | 机器人安装角度校验方法、装置以及计算机存储介质 |
| CN113804106A (zh) * | 2021-08-18 | 2021-12-17 | 南京理工大学 | 一种基于视觉的两次校准的双臂协同装配方法 |
| CN114347011A (zh) * | 2020-10-12 | 2022-04-15 | 丰田自动车株式会社 | 位置校正系统、位置校正方法及存储有位置校正程序的存储介质 |
| CN114619489A (zh) * | 2022-04-01 | 2022-06-14 | 西南交通大学 | 一种基于图像处理的机械臂搬运物体坐标识别与修正系统及方法 |
| CN116423525A (zh) * | 2023-06-12 | 2023-07-14 | 上海仙工智能科技有限公司 | 一种自动手眼标定方法及系统、存储介质 |
| US11865730B2 (en) | 2018-06-05 | 2024-01-09 | Hitachi, Ltd. | Camera position/attitude calibration device, camera position/attitude calibration method, and robot |
| WO2025057290A1 (ja) * | 2023-09-12 | 2025-03-20 | ファナック株式会社 | パラメータ修正装置 |
-
2005
- 2005-09-01 JP JP2005253712A patent/JP2007061979A/ja active Pending
Cited By (26)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009172718A (ja) * | 2008-01-24 | 2009-08-06 | Canon Inc | 作業装置及びその校正方法 |
| JP2010156669A (ja) * | 2008-12-30 | 2010-07-15 | Ind Technol Res Inst | 動的校正機能付きカメラおよびその方法 |
| JP2011067889A (ja) * | 2009-09-25 | 2011-04-07 | Ihi Corp | キャリブレーション装置及びキャリブレーション方法 |
| JP2011235400A (ja) * | 2010-05-11 | 2011-11-24 | Daihen Corp | マニピュレータのキャリブレーション方法及びロボット制御システム |
| JP2012022600A (ja) * | 2010-07-16 | 2012-02-02 | Denso Wave Inc | マスク画像作成システム |
| JP2012091280A (ja) * | 2010-10-27 | 2012-05-17 | Mitsubishi Electric Corp | 座標系校正方法及びロボットシステム |
| JPWO2015129473A1 (ja) * | 2014-02-28 | 2017-03-30 | ソニー株式会社 | ロボットアーム装置、キャリブレーション方法及びプログラム |
| KR102314092B1 (ko) | 2016-01-21 | 2021-10-19 | 현대중공업지주 주식회사 | 로봇의 캘리브레이션 장치 및 그 방법 |
| KR20170087996A (ko) * | 2016-01-21 | 2017-08-01 | 현대로보틱스주식회사 | 로봇의 캘리브레이션 장치 및 그 방법 |
| JP6275345B1 (ja) * | 2017-02-03 | 2018-02-07 | 三菱電機株式会社 | 変換係数算出装置、変換係数算出方法及び変換係数算出プログラム |
| WO2018142582A1 (ja) * | 2017-02-03 | 2018-08-09 | 三菱電機株式会社 | 変換係数算出装置、変換係数算出方法及び変換係数算出プログラム |
| CN108237521A (zh) * | 2017-12-19 | 2018-07-03 | 珠海格力智能装备有限公司 | 主动臂结构及具有其的机器人 |
| JP7035727B2 (ja) | 2018-03-30 | 2022-03-15 | 日本電産株式会社 | キャリブレーション精度の評価方法及び評価装置 |
| JP2019177450A (ja) * | 2018-03-30 | 2019-10-17 | 日本電産株式会社 | キャリブレーション精度の評価方法及び評価装置 |
| US11865730B2 (en) | 2018-06-05 | 2024-01-09 | Hitachi, Ltd. | Camera position/attitude calibration device, camera position/attitude calibration method, and robot |
| CN112087984A (zh) * | 2018-06-14 | 2020-12-15 | 国际商业机器公司 | 机器人识别管理器 |
| CN112087984B (zh) * | 2018-06-14 | 2024-06-11 | 勤达睿公司 | 机器人识别管理器 |
| CN111721779A (zh) * | 2020-05-27 | 2020-09-29 | 联宝(合肥)电子科技有限公司 | 一种产品重工方法、装置及存储介质 |
| CN113733079A (zh) * | 2020-05-29 | 2021-12-03 | 配天机器人技术有限公司 | 机器人安装角度校验方法、装置以及计算机存储介质 |
| CN114347011A (zh) * | 2020-10-12 | 2022-04-15 | 丰田自动车株式会社 | 位置校正系统、位置校正方法及存储有位置校正程序的存储介质 |
| CN112797944A (zh) * | 2020-12-26 | 2021-05-14 | 深兰人工智能芯片研究院(江苏)有限公司 | 柔性检测方法、装置、设备及计算机可读存储介质 |
| CN113804106A (zh) * | 2021-08-18 | 2021-12-17 | 南京理工大学 | 一种基于视觉的两次校准的双臂协同装配方法 |
| CN114619489A (zh) * | 2022-04-01 | 2022-06-14 | 西南交通大学 | 一种基于图像处理的机械臂搬运物体坐标识别与修正系统及方法 |
| CN116423525A (zh) * | 2023-06-12 | 2023-07-14 | 上海仙工智能科技有限公司 | 一种自动手眼标定方法及系统、存储介质 |
| CN116423525B (zh) * | 2023-06-12 | 2023-09-01 | 上海仙工智能科技有限公司 | 一种自动手眼标定方法及系统、存储介质 |
| WO2025057290A1 (ja) * | 2023-09-12 | 2025-03-20 | ファナック株式会社 | パラメータ修正装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2007061979A (ja) | ロボットアームの視覚センサ補正方法およびコンピュータプログラム | |
| US10112301B2 (en) | Automatic calibration method for robot systems using a vision sensor | |
| JP6836571B2 (ja) | ロボット装置 | |
| CN108297096B (zh) | 校准装置、校准方法以及计算机能够读取的介质 | |
| US10695910B2 (en) | Automatic calibration method for robot system | |
| JP6468741B2 (ja) | ロボットシステム及びロボットシステムの校正方法 | |
| JP4267005B2 (ja) | 計測装置及びキャリブレーション方法 | |
| US20190184582A1 (en) | Imaging device including vision sensor capturing image of workpiece | |
| WO1992015838A1 (fr) | Systeme de correction de position de detection | |
| TW201403277A (zh) | 機器人系統、機器人、機器人控制裝置、機器人控制方法及機器人控制程式 | |
| KR102459373B1 (ko) | 핸드 아이 캘리브레이션 시스템 및 방법 | |
| US11376732B2 (en) | Robot system for correcting teaching of robot using image processing | |
| KR102561103B1 (ko) | 로봇 보정 시스템 및 그것의 보정 방법 | |
| JP2019089188A (ja) | 作動システムおよびプログラム | |
| US12186920B2 (en) | Robot system | |
| US8761936B2 (en) | Teaching line correcting apparatus, teaching line correcting method, and program thereof | |
| US11241797B2 (en) | Control system | |
| US20100262290A1 (en) | Data matching apparatus, data matching method and mobile robot | |
| CN108496354B (zh) | 照相机校正装置和照相机校正方法 | |
| CN117073528A (zh) | 具有至少一摄像机的校正系统与相应方法 | |
| JP7290537B2 (ja) | 補正システム、補正方法、ロボットシステム及び制御装置 | |
| KR20130045557A (ko) | Lvs의 좌표계를 보정하는 방법 | |
| JP6582405B2 (ja) | 組立装置、ロボットハンド位置修正方法、およびロボットハンド位置修正プログラム | |
| JP7674502B2 (ja) | 位置姿勢計測システム | |
| KR100640743B1 (ko) | 로봇을 이용한 레이저 비젼 시스템 교정방법 |