JPH0847881A - ロボットの遠隔操作方法 - Google Patents
ロボットの遠隔操作方法Info
- Publication number
- JPH0847881A JPH0847881A JP18477794A JP18477794A JPH0847881A JP H0847881 A JPH0847881 A JP H0847881A JP 18477794 A JP18477794 A JP 18477794A JP 18477794 A JP18477794 A JP 18477794A JP H0847881 A JPH0847881 A JP H0847881A
- Authority
- JP
- Japan
- Prior art keywords
- target
- robot
- point
- edge
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
Abstract
(57)【要約】
【目的】 遠隔操作を行うロボットに有効な操作を行わ
せることが可能なロボットの遠隔操作方法を提供する。 【構成】 ロボット1の手先5の左右にカメラ8a,8
bを取り付け、その左右のカメラ8a,8bで作業を行
う面を撮影すると共にその画像20をコンピュータ6に
取り込み、一方の画像20から任意の形状をターゲット
14aとして決定し、そのターゲット14aのループ状
に連なったエッジEを抽出して形状を認識し、次に他方
のカメラ8で撮影された画像中対応するターゲットのル
ープ形状を認識し、一方のループ形状の任意の点のエピ
ポーラ線Epiとその任意の点に対応する他方の点の座
標からロボット1の手先5とターゲット14との位置・
姿勢を三角測量し、その三角測量値に基づいてロボット
1の手先5を制御することを特徴としている。
せることが可能なロボットの遠隔操作方法を提供する。 【構成】 ロボット1の手先5の左右にカメラ8a,8
bを取り付け、その左右のカメラ8a,8bで作業を行
う面を撮影すると共にその画像20をコンピュータ6に
取り込み、一方の画像20から任意の形状をターゲット
14aとして決定し、そのターゲット14aのループ状
に連なったエッジEを抽出して形状を認識し、次に他方
のカメラ8で撮影された画像中対応するターゲットのル
ープ形状を認識し、一方のループ形状の任意の点のエピ
ポーラ線Epiとその任意の点に対応する他方の点の座
標からロボット1の手先5とターゲット14との位置・
姿勢を三角測量し、その三角測量値に基づいてロボット
1の手先5を制御することを特徴としている。
Description
【0001】
【産業上の利用分野】本発明は、ロボットの手先と作業
を行う面のターゲットとの位置・姿勢を三角測量して、
手先を、ターゲットに対して正確に位置・姿勢合わせし
て動作できるロボットの遠隔操作方法に関するものであ
る。
を行う面のターゲットとの位置・姿勢を三角測量して、
手先を、ターゲットに対して正確に位置・姿勢合わせし
て動作できるロボットの遠隔操作方法に関するものであ
る。
【0002】
【従来の技術】従来、マニュピュレータやロボットな
ど、6自由度で動くロボットは、例えば複数のアーム同
志が関節で連結され、そのアームの関節を旋回・俯仰さ
せることで、アームの先端の手先を、6自由度(x,
y,z,φ,θ,ψ)方向に自在に移動して各種操作を
行うことができるようになっている。
ど、6自由度で動くロボットは、例えば複数のアーム同
志が関節で連結され、そのアームの関節を旋回・俯仰さ
せることで、アームの先端の手先を、6自由度(x,
y,z,φ,θ,ψ)方向に自在に移動して各種操作を
行うことができるようになっている。
【0003】
【発明が解決しようとする課題】このロボットの遠隔操
作は、ジョイスティックによるマスタースレーブ方式が
主流である。この方法は、手先近く等にカメラを取り付
け、その画像を見ながら、操作者がジョイスティックを
操作して、手先を所望の位置に移動させて行うものであ
るが、コスト的に高くなりやすく、操作者の動作に追従
してそれ程高速な動きはできないと共にロボットの手先
の姿勢制御や位置制御は、操作者にかなりの負担をかけ
る問題がある。
作は、ジョイスティックによるマスタースレーブ方式が
主流である。この方法は、手先近く等にカメラを取り付
け、その画像を見ながら、操作者がジョイスティックを
操作して、手先を所望の位置に移動させて行うものであ
るが、コスト的に高くなりやすく、操作者の動作に追従
してそれ程高速な動きはできないと共にロボットの手先
の姿勢制御や位置制御は、操作者にかなりの負担をかけ
る問題がある。
【0004】また、ロボットに予め操作のための移動手
順をティーチングによりコンピュータに記憶させてお
き、ティーチングさせた通りにロボットを動かす方法も
あるが、操作対象物が違えば、その都度ティーチングを
行わなければならない問題がある。
順をティーチングによりコンピュータに記憶させてお
き、ティーチングさせた通りにロボットを動かす方法も
あるが、操作対象物が違えば、その都度ティーチングを
行わなければならない問題がある。
【0005】最近、この種のロボットの作業タクスは、
例えば宇宙ステーションでのORU交換や原子炉などの
各種検査など、作業者が、直接その作業環境内で操作で
きない条件で使用されることを対象とするものが要求さ
れており、従来の制御方法では、良好な作業タクスが得
られることは期待できない。
例えば宇宙ステーションでのORU交換や原子炉などの
各種検査など、作業者が、直接その作業環境内で操作で
きない条件で使用されることを対象とするものが要求さ
れており、従来の制御方法では、良好な作業タクスが得
られることは期待できない。
【0006】そこで、本発明の目的は、上記課題を解決
し、遠隔操作を行うロボットに有効な操作を行わせるこ
とが可能なロボットの遠隔操作方法を提供することにあ
る。
し、遠隔操作を行うロボットに有効な操作を行わせるこ
とが可能なロボットの遠隔操作方法を提供することにあ
る。
【0007】
【課題を解決するための手段】上記目的を達成するため
に本発明は、ロボットの手先の左右にカメラを取り付
け、その左右のカメラで作業を行う面を撮影すると共に
その画像をコンピュータに取り込み、一方の画像から任
意の形状をターゲットとして決定し、そのターゲットの
ループ状に連なったエッジを抽出して形状を認識し、次
に他方のカメラで撮影された画像中対応するターゲット
のループ形状を認識し、一方のループ形状の任意の点の
エピポーラ線とその任意の点に対応する他方の点の座標
からロボットの手先とターゲットとの位置・姿勢を三角
測量し、その三角測量値に基づいてロボットの手先を制
御するものである。
に本発明は、ロボットの手先の左右にカメラを取り付
け、その左右のカメラで作業を行う面を撮影すると共に
その画像をコンピュータに取り込み、一方の画像から任
意の形状をターゲットとして決定し、そのターゲットの
ループ状に連なったエッジを抽出して形状を認識し、次
に他方のカメラで撮影された画像中対応するターゲット
のループ形状を認識し、一方のループ形状の任意の点の
エピポーラ線とその任意の点に対応する他方の点の座標
からロボットの手先とターゲットとの位置・姿勢を三角
測量し、その三角測量値に基づいてロボットの手先を制
御するものである。
【0008】
【作用】上記構成によれば、先ず、両カメラの中心と、
その画像の中のターゲットの任意の点と、実際のターゲ
ットの点とは、エピポーラ面と称される同一平面上にあ
り、このエピポーラ面と画像面との交線がエピポーラ線
であり、エピポーラ面上のターゲットの点はエピポーラ
線上にあり実際のターゲットの点とは三角測量で求める
ことができ、左右の各点を測量することでステレオ対応
付けが行えるため、手先とターゲットとの位置・姿勢を
求めることが可能となり、これを元にロボットを簡単に
制御することが可能となる。
その画像の中のターゲットの任意の点と、実際のターゲ
ットの点とは、エピポーラ面と称される同一平面上にあ
り、このエピポーラ面と画像面との交線がエピポーラ線
であり、エピポーラ面上のターゲットの点はエピポーラ
線上にあり実際のターゲットの点とは三角測量で求める
ことができ、左右の各点を測量することでステレオ対応
付けが行えるため、手先とターゲットとの位置・姿勢を
求めることが可能となり、これを元にロボットを簡単に
制御することが可能となる。
【0009】
【実施例】以下、本発明の一実施例を添付図面に基づい
て詳述する。
て詳述する。
【0010】先ず、図1により本発明の概略を説明す
る。
る。
【0011】図1において、1はマニュピレータ、ハン
ドリング装置などのロボットで、例えば、図示のように
機台2に旋回自在にかつ俯仰自在に第1アーム3が設け
られ、その第1アーム3に、第2アーム4が屈曲自在に
設けられ、さらにその第2アーム4にハンドリングのた
めの手先5が回転自在にかつ屈曲自在に設けられて構成
され、その手先5が3次元(x,y,z)方向に移動
し、かつその各軸回りに(φ,θ,ψ)方向に回転でき
て6自由度(x,y,z,φ,θ,ψ)方向に移動でき
るようになっている。
ドリング装置などのロボットで、例えば、図示のように
機台2に旋回自在にかつ俯仰自在に第1アーム3が設け
られ、その第1アーム3に、第2アーム4が屈曲自在に
設けられ、さらにその第2アーム4にハンドリングのた
めの手先5が回転自在にかつ屈曲自在に設けられて構成
され、その手先5が3次元(x,y,z)方向に移動
し、かつその各軸回りに(φ,θ,ψ)方向に回転でき
て6自由度(x,y,z,φ,θ,ψ)方向に移動でき
るようになっている。
【0012】このロボット1の各アーム3,4及び手先
5の制御の詳細は省略するが、各アーム3,4及び手先
5に角度検出センサーが設けられており、各アーム3,
4及び手先5の座標が認識できるようになっており、ま
たコンピュータ6からの指令は、通信信号7でロボット
1を駆動する駆動装置(図示せず)を制御して指令した
位置に移動できるようにされると共に手先5で任意の物
品や装置を把持して移動できるようになっている。
5の制御の詳細は省略するが、各アーム3,4及び手先
5に角度検出センサーが設けられており、各アーム3,
4及び手先5の座標が認識できるようになっており、ま
たコンピュータ6からの指令は、通信信号7でロボット
1を駆動する駆動装置(図示せず)を制御して指令した
位置に移動できるようにされると共に手先5で任意の物
品や装置を把持して移動できるようになっている。
【0013】このロボット1の手先5の左右には、CC
Dカメラなどのカメラ8a,8bが取り付けられ、その
手先5の前方を両カメラ8a,8bで撮像できるように
なっている。
Dカメラなどのカメラ8a,8bが取り付けられ、その
手先5の前方を両カメラ8a,8bで撮像できるように
なっている。
【0014】またカメラ8a,8bの画像は、通信信号
7にてコンピュータ6に取り込めるようになっている。
7にてコンピュータ6に取り込めるようになっている。
【0015】コンピュータ6は、本体9とディスプレイ
10とキーボード11とからなり、また本体9にマウス
12が接続されている。
10とキーボード11とからなり、また本体9にマウス
12が接続されている。
【0016】いまロボット1の手先5が、物品13をハ
ンドリングするとし、またその手先5で物品13の突起
部14を挟んで把持するとする。
ンドリングするとし、またその手先5で物品13の突起
部14を挟んで把持するとする。
【0017】本発明においては、カメラ8a,8bが物
品13を撮影し、その画像がコンピュータ6に取り込ま
れ、そのカメラ8a,8bの画像のいずれかがディスプ
レイ10に表示され、マウス12のポインタ15をディ
スプレイ10に表示された物品13aの突起部14aの
位置に合わせ、その位置で突起部14aをターゲットと
しクリックすることで、手先5に対する物品13の突起
部14の位置を三角測量できるようになっている。
品13を撮影し、その画像がコンピュータ6に取り込ま
れ、そのカメラ8a,8bの画像のいずれかがディスプ
レイ10に表示され、マウス12のポインタ15をディ
スプレイ10に表示された物品13aの突起部14aの
位置に合わせ、その位置で突起部14aをターゲットと
しクリックすることで、手先5に対する物品13の突起
部14の位置を三角測量できるようになっている。
【0018】以下この処理フローを図2により説明す
る。
る。
【0019】制御が開始されると、先ず左右の画像を取
り込み、次にオペレータによる左画像中のターゲット指
定(右画像でもよい)を行い、次に指定したターゲット
面を構成するループ状に連なったエッジの抽出を行い、
同様にステレオ対応づけによる右画像中のターゲット面
抽出を行う。
り込み、次にオペレータによる左画像中のターゲット指
定(右画像でもよい)を行い、次に指定したターゲット
面を構成するループ状に連なったエッジの抽出を行い、
同様にステレオ対応づけによる右画像中のターゲット面
抽出を行う。
【0020】この左右のターゲット面を抽出すること
で、両ターゲット形状の相違は両カメラで立体視した時
のズレであり、同時にこのズレは、三角法(三角測量原
理)で実空間中の座標を決定できる位置・姿勢情報とな
る。
で、両ターゲット形状の相違は両カメラで立体視した時
のズレであり、同時にこのズレは、三角法(三角測量原
理)で実空間中の座標を決定できる位置・姿勢情報とな
る。
【0021】そこで、左画像のターゲット面上にある任
意の点の右画像における対応点検出を行う。この点は3
点以上の検出を行う。同様に、右画像のターゲット面の
3点についても行い、各点のエピポーラ線上で探索して
他方の点と実際のターゲット面との点とをステレオ対応
付けを行って、ターゲットの各点の座標を決定する。
意の点の右画像における対応点検出を行う。この点は3
点以上の検出を行う。同様に、右画像のターゲット面の
3点についても行い、各点のエピポーラ線上で探索して
他方の点と実際のターゲット面との点とをステレオ対応
付けを行って、ターゲットの各点の座標を決定する。
【0022】次にロボットの手先に対するターゲットの
位置/姿勢を算出し、手先でそのターゲットを把持する
などの指令を行い、制御を終了する。
位置/姿勢を算出し、手先でそのターゲットを把持する
などの指令を行い、制御を終了する。
【0023】次にこの各フローについて説明する。
【0024】a.左右画像の取り込み CCDカメラなどで撮像された左右の画像の画素データ
をコンピュータに記憶し、このうち左画像をディスプレ
イに表示する。
をコンピュータに記憶し、このうち左画像をディスプレ
イに表示する。
【0025】b.オペレータによる左画像中のターゲッ
トの指定 先ず、オペレータは、写し出された物品13aの突起部
14aをターゲットとして選択する際、マウス12で画
面上のポインタ15を移動し、そのポインタ15を、タ
ーゲットのエッジを指し示すのではなく、ターゲットの
表面の略中央を指し、その位置をマウス12でクリック
する。
トの指定 先ず、オペレータは、写し出された物品13aの突起部
14aをターゲットとして選択する際、マウス12で画
面上のポインタ15を移動し、そのポインタ15を、タ
ーゲットのエッジを指し示すのではなく、ターゲットの
表面の略中央を指し、その位置をマウス12でクリック
する。
【0026】マウスのポインタは、画像中の任意のポイ
ント(ドット)をクリックでき、そのクリックした点の
周囲から、指し示されたポイントを内部に持つループ状
に連なったエッジを探索する。
ント(ドット)をクリックでき、そのクリックした点の
周囲から、指し示されたポイントを内部に持つループ状
に連なったエッジを探索する。
【0027】(1) 1つのエッジの探索;先ず、図3に示
すように画像は、ターゲットTL のエッジEL が写し出
されており、そのターゲット面ML の略中央をマウス1
2のポインタでクリックすると、最初に指し示されたク
リップポイントpを中心に、図示の矢印Aで示すように
円を徐々に広げるようにエッジEL を探索する。
すように画像は、ターゲットTL のエッジEL が写し出
されており、そのターゲット面ML の略中央をマウス1
2のポインタでクリックすると、最初に指し示されたク
リップポイントpを中心に、図示の矢印Aで示すように
円を徐々に広げるようにエッジEL を探索する。
【0028】(2) ループ状に連なったエッジの追跡:図
4に示すように、エッジEL の内外には、ループを構成
する以外のエッジE1 ,E6 ,Ex が含まれており、こ
れらエッジと検出すべきループ状のエッジEL とを区別
する必要がある。
4に示すように、エッジEL の内外には、ループを構成
する以外のエッジE1 ,E6 ,Ex が含まれており、こ
れらエッジと検出すべきループ状のエッジEL とを区別
する必要がある。
【0029】従って、最初に検出したエッジの端点か
ら、図示の丸で囲んだ範囲内に別のエッジの端点を探索
する。次に新たに検出したエッジのもう一方の端点か
ら、さらにある範囲内にある別のエッジの端点を探索す
る。
ら、図示の丸で囲んだ範囲内に別のエッジの端点を探索
する。次に新たに検出したエッジのもう一方の端点か
ら、さらにある範囲内にある別のエッジの端点を探索す
る。
【0030】このようにして図示のようにエッジE1 で
は、点線の矢印P1 のようにエッジの端点を探索する
と、丸C1 では、端点が検出できなくなるため、ループ
状のエッジとは判断せず、次に別のエッジE2 を探索す
る。この際、追跡を開始したエッジE2 を図示の点線の
矢印2のように探索し、順次丸C3 〜C6 で、他の連な
ったエッジE2 〜E5 を探索する。エッジE5 では、丸
C7 では、ループと関係ない外エッジE6 が連なってい
るが、丸C6 で他のエッジを探索できないため、丸C7
に戻って探索し、エッジE7 を探索する。このエッジE
6 は2度選択されないように削除する。またこの丸C7
の近傍にはエッジEx があるが、丸C7 の範囲から外れ
るため、探索は行わない。以上のようにして順次、丸C
9 まで探索し、追跡を開始したエッジE2 を検出したな
らば、追跡したエッジEL がループ状に連なったターゲ
ットの形状として検出できる。
は、点線の矢印P1 のようにエッジの端点を探索する
と、丸C1 では、端点が検出できなくなるため、ループ
状のエッジとは判断せず、次に別のエッジE2 を探索す
る。この際、追跡を開始したエッジE2 を図示の点線の
矢印2のように探索し、順次丸C3 〜C6 で、他の連な
ったエッジE2 〜E5 を探索する。エッジE5 では、丸
C7 では、ループと関係ない外エッジE6 が連なってい
るが、丸C6 で他のエッジを探索できないため、丸C7
に戻って探索し、エッジE7 を探索する。このエッジE
6 は2度選択されないように削除する。またこの丸C7
の近傍にはエッジEx があるが、丸C7 の範囲から外れ
るため、探索は行わない。以上のようにして順次、丸C
9 まで探索し、追跡を開始したエッジE2 を検出したな
らば、追跡したエッジEL がループ状に連なったターゲ
ットの形状として検出できる。
【0031】なお、ループ状に連なったエッジを検出せ
ずに、探索すべきエッジがなくなったとき、この処理は
失敗したことになる。
ずに、探索すべきエッジがなくなったとき、この処理は
失敗したことになる。
【0032】(3) 指し示された点を内部に持つループの
判定:検出したループには、図5(a)に示すように、
指し示されたポイントpを内部に持つものと、図5
(b)に示すように、そうでないものとがある。これを
判定するため、ループを構成するそれぞれのエッジの端
点と指定されたポイントpとによって作られるベクトル
Vを求め、次に隣り合ったベクトルV同士のなす角度θ
を算出し、この全ベクトルV間の角度θの総和が2π(r
ad) のとき、指し示された点を内部に持つループと決定
する。
判定:検出したループには、図5(a)に示すように、
指し示されたポイントpを内部に持つものと、図5
(b)に示すように、そうでないものとがある。これを
判定するため、ループを構成するそれぞれのエッジの端
点と指定されたポイントpとによって作られるベクトル
Vを求め、次に隣り合ったベクトルV同士のなす角度θ
を算出し、この全ベクトルV間の角度θの総和が2π(r
ad) のとき、指し示された点を内部に持つループと決定
する。
【0033】c.ステレオ対応付け 図6(a)に示すように左画像より検出されたターゲッ
トEL を構成するループを、図6(b)に示す右画像よ
りステレオ対応付けを行って右画像のエッジER を抽出
する。左画像において検出したループを構成するエッジ
EL 以外のものは、予め全て削除し、余分なステレオ対
応付けを行わないようにしておく。
トEL を構成するループを、図6(b)に示す右画像よ
りステレオ対応付けを行って右画像のエッジER を抽出
する。左画像において検出したループを構成するエッジ
EL 以外のものは、予め全て削除し、余分なステレオ対
応付けを行わないようにしておく。
【0034】ステレオ対応付けを行った後、左画像にお
いて検出したループを構成するエッジER において未だ
対応を付けられなかったエッジE7 に対して、右画像よ
りすでに対応付けられたエッジE5 の端点のある丸C7
の範囲内にあるエッジE7 を探索する。検出したエッジ
E7 の向きと長さがある程度の条件を満たしていれば、
これを対応付けする。
いて検出したループを構成するエッジER において未だ
対応を付けられなかったエッジE7 に対して、右画像よ
りすでに対応付けられたエッジE5 の端点のある丸C7
の範囲内にあるエッジE7 を探索する。検出したエッジ
E7 の向きと長さがある程度の条件を満たしていれば、
これを対応付けする。
【0035】最後に、ステレオ対応付けされた左右のエ
ッジEL ,ER の端点における視差の偏差σを求める。
このとき、図7(a),(b)に示すように、3σ以上
の偏差σを持つエッジE7 E7 の組みは対応ミスとして
削除する。
ッジEL ,ER の端点における視差の偏差σを求める。
このとき、図7(a),(b)に示すように、3σ以上
の偏差σを持つエッジE7 E7 の組みは対応ミスとして
削除する。
【0036】尚、このステレオ対応付けがうまく行かな
かったとき、オペレータによるエッジの修正を行う。
かったとき、オペレータによるエッジの修正を行う。
【0037】d.ターゲットの位置/姿勢の検出 ターゲットの位置/姿勢の検出を行う際に、左右のカメ
ラが、図9に示すように光軸が、それぞれ任意の方向に
ある場合を考慮する。これは後述するカメラのキャリブ
レーションの際に、カメラのロボットのツール座標から
見た位置/姿勢を得るためである。但しステレオ画像を
得るのに物理的に不可能な配置や、左右のカメラが入れ
替わったり上下が逆さまになるような配置は考えず、だ
いたい光軸に対して平行に置かれているものとする。
ラが、図9に示すように光軸が、それぞれ任意の方向に
ある場合を考慮する。これは後述するカメラのキャリブ
レーションの際に、カメラのロボットのツール座標から
見た位置/姿勢を得るためである。但しステレオ画像を
得るのに物理的に不可能な配置や、左右のカメラが入れ
替わったり上下が逆さまになるような配置は考えず、だ
いたい光軸に対して平行に置かれているものとする。
【0038】(1) 対応点の選択:ターゲット面の位置/
姿勢を検出するために3次元空間上で3点を検出する。
そこで、左右画像のループ状に連なったエッジ上にある
3つの対応点を選択する。通常はコーナーなどの特徴点
を利用するが、多くの凸角を持つ面の場合、コーナー点
の対応ミスがしばしば考えられる。そこで、に左画像の
エッジに対応付けされたもの以外すべて余分なエッジは
削除されているものとする。
姿勢を検出するために3次元空間上で3点を検出する。
そこで、左右画像のループ状に連なったエッジ上にある
3つの対応点を選択する。通常はコーナーなどの特徴点
を利用するが、多くの凸角を持つ面の場合、コーナー点
の対応ミスがしばしば考えられる。そこで、に左画像の
エッジに対応付けされたもの以外すべて余分なエッジは
削除されているものとする。
【0039】エピポーラ線は、図9から次のように算出
する。
する。
【0040】先ず、ターゲットの点をPとし、そのワー
ルド座標をX,Y,Zとし、左右のレンズの中心をそれ
ぞれOl ,Or とし、左画像面20a,右画像面20b
の姿勢の座標を、それぞれ(xl ,yl ,zl )、(x
r ,yr ,zr )とする。
ルド座標をX,Y,Zとし、左右のレンズの中心をそれ
ぞれOl ,Or とし、左画像面20a,右画像面20b
の姿勢の座標を、それぞれ(xl ,yl ,zl )、(x
r ,yr ,zr )とする。
【0041】次に、左右のレンズ中心Ol ,Or を結ぶ
線をd、左右の画像20a,20bのターゲットの点を
Pl,Pr、ターゲットPと左レンズの中心Ol を結ぶ
直線POl 、ターゲットPと右レンズの中心Or を結ぶ
直線POr とすると、これら点P,Ol ,Or ,Pl,
Pr及び線d,POl ,POr は、同一のエピポーラ面
EPにある。
線をd、左右の画像20a,20bのターゲットの点を
Pl,Pr、ターゲットPと左レンズの中心Ol を結ぶ
直線POl 、ターゲットPと右レンズの中心Or を結ぶ
直線POr とすると、これら点P,Ol ,Or ,Pl,
Pr及び線d,POl ,POr は、同一のエピポーラ面
EPにある。
【0042】今、直線POr と右画像面(右画面を含む
無限に近い広い面)20bが交差する点Pr におけるエ
ピポーラ線をEpiとし、そのエピポーラ線Epiと左
画像のターゲットpとレンズ中心Olとを結ぶ直線PO
l との交点をxe とする。また点Pr における座標を
(tr ,kr ,nl )とし、光軸方向の法線方向を(k
r )とエピポーラ線Epi方向を(tr)とする。
無限に近い広い面)20bが交差する点Pr におけるエ
ピポーラ線をEpiとし、そのエピポーラ線Epiと左
画像のターゲットpとレンズ中心Olとを結ぶ直線PO
l との交点をxe とする。また点Pr における座標を
(tr ,kr ,nl )とし、光軸方向の法線方向を(k
r )とエピポーラ線Epi方向を(tr)とする。
【0043】さて、右画像面20bの点Pr について考
察すると、エピホーラ線の方向ベクトルtr は、光軸方
向のベクトルkr とエピポーラ面EP の法線方向のベク
トルnl で求められる。
察すると、エピホーラ線の方向ベクトルtr は、光軸方
向のベクトルkr とエピポーラ面EP の法線方向のベク
トルnl で求められる。
【0044】この法線ベクトルtr とベクトルnl と
は、次の数1〜4のようになる。
は、次の数1〜4のようになる。
【0045】
【数1】
【0046】
【数2】
【0047】
【数3】
【0048】
【数4】
【0049】この法線ベクトルkr とベクトルnl によ
りエピポーラ線の方向ベクトルtrが求められ、エピポ
ーラ線Epiを求めることができる。
りエピポーラ線の方向ベクトルtrが求められ、エピポ
ーラ線Epiを求めることができる。
【0050】なお、エピポーラ線とエッジとの交点が2
つある場合、選択した任意の点がループの左右どちらの
エッジ上にあるかを考慮し、図8(b)に示すようにエ
ピポーラ線Epiに対して交点が左の場合は図8(a)
で左を、右の場合は交点の右を選択する。
つある場合、選択した任意の点がループの左右どちらの
エッジ上にあるかを考慮し、図8(b)に示すようにエ
ピポーラ線Epiに対して交点が左の場合は図8(a)
で左を、右の場合は交点の右を選択する。
【0051】(2) 3次元空間上の位置検出:検出したそ
れぞれの3つの左右画像の対応点において、3次元空間
上の3点の位置を算出する。
れぞれの3つの左右画像の対応点において、3次元空間
上の3点の位置を算出する。
【0052】求める位置ベクトルPは、c1 ,c2 を係
数として数5〜8のようにして計算できる。
数として数5〜8のようにして計算できる。
【0053】
【数5】
【0054】
【数6】
【0055】
【数7】
【0056】
【数8】
【0057】上述した数1〜4よりエピポーラ線Epi
が求まり、またdは既知であるため、c1 ,c2 を求め
ることができ、位置ベクトルPを計算できる。
が求まり、またdは既知であるため、c1 ,c2 を求め
ることができ、位置ベクトルPを計算できる。
【0058】次に検出するターゲットの位置ベクトル
は、ロボットの手先付近に設置したツール座標系で指定
する。このツール座標系とカメラの姿勢によっては数5
〜8が複雑になるためである。ここで用いるツール座標
系は、そのZ軸がカメラの光軸と垂直にならない位置に
設定する。
は、ロボットの手先付近に設置したツール座標系で指定
する。このツール座標系とカメラの姿勢によっては数5
〜8が複雑になるためである。ここで用いるツール座標
系は、そのZ軸がカメラの光軸と垂直にならない位置に
設定する。
【0059】ターゲット面の姿勢は、図10(a)に示
すように、画象面20上の座標系をx,yとし、ターゲ
ットのエッジEで選択した3点P1 ,P2 ,P3 (図で
は左エッジ上に2点P1 ,P2 、右エッジ上に1点P3
)があるとすると、左エッジの2点P1 ,P2 に対応
した3次元空間上の向きが(画像上の座標系でyの値が
小さい点P1 から大きい点P2 へ)y軸方向を示し、右
エッジ上の点P3 側にy軸方向の平面座標に対して法線
ベクトルの向きを、Z軸方向とすると、図10(b)に
示すようにターゲット面Tの姿勢を求めることができ
る。
すように、画象面20上の座標系をx,yとし、ターゲ
ットのエッジEで選択した3点P1 ,P2 ,P3 (図で
は左エッジ上に2点P1 ,P2 、右エッジ上に1点P3
)があるとすると、左エッジの2点P1 ,P2 に対応
した3次元空間上の向きが(画像上の座標系でyの値が
小さい点P1 から大きい点P2 へ)y軸方向を示し、右
エッジ上の点P3 側にy軸方向の平面座標に対して法線
ベクトルの向きを、Z軸方向とすると、図10(b)に
示すようにターゲット面Tの姿勢を求めることができ
る。
【0060】またターゲット面上の原点は、左エッジ上
の2点P1 ,P2 のうち画像上の座標系でyの値が大き
い点と右エッジの点P3 によって作られた3次元空間の
線分の中点oに置く。
の2点P1 ,P2 のうち画像上の座標系でyの値が大き
い点と右エッジの点P3 によって作られた3次元空間の
線分の中点oに置く。
【0061】d.キャリブレーション ロボットがターゲットを把持するためには、ステレオ画
像計測をして得られたターゲットの位置/姿勢データ
を、ツール座標系から見たデータに変換してロボットに
与える。
像計測をして得られたターゲットの位置/姿勢データ
を、ツール座標系から見たデータに変換してロボットに
与える。
【0062】ツール座標系とデフォルトの手先カメラ座
標系の関係は図11の通りである。
標系の関係は図11の通りである。
【0063】図11より手先座標系とツール座標系とは
(xc,yc,zc)位置がずれている。
(xc,yc,zc)位置がずれている。
【0064】従って、3次元空間におけるカメラのレン
ズ中心とツール座標系との位置/姿勢を表す6つのパラ
メータ(x,y,z,φ,θ,ψ)を決定する。
ズ中心とツール座標系との位置/姿勢を表す6つのパラ
メータ(x,y,z,φ,θ,ψ)を決定する。
【0065】e.手先カメラ座標系の設定 ロボットのツール座標系から手先カメラ座標系へのデフ
ォルトの変換(デフォルトのカメラ座標系)TCを数9
のように設定する。
ォルトの変換(デフォルトのカメラ座標系)TCを数9
のように設定する。
【0066】
【数9】
【0067】以上より、マウスを操作し、画像でターゲ
ットをマウスポインタでクリックするだけでターゲット
の位置/姿勢が求めることが可能であり、ロボットで、
そのターゲットの座標が簡単に認識できるため、これを
容易にハンドリングすることができる。
ットをマウスポインタでクリックするだけでターゲット
の位置/姿勢が求めることが可能であり、ロボットで、
そのターゲットの座標が簡単に認識できるため、これを
容易にハンドリングすることができる。
【0068】この遠隔操作は、ロボットに予め位置/姿
勢を認識するプログラムとロボットを制御するプログラ
ムが組み込まれたコンピュータを搭載し、画像情報のみ
オペレータ側のコンピュータに送信し、そこでターゲッ
トの指定のみを行うことで、完全な自動遠隔操作が可能
となり、作業環境に人が入れない状況下での操作に最適
である。
勢を認識するプログラムとロボットを制御するプログラ
ムが組み込まれたコンピュータを搭載し、画像情報のみ
オペレータ側のコンピュータに送信し、そこでターゲッ
トの指定のみを行うことで、完全な自動遠隔操作が可能
となり、作業環境に人が入れない状況下での操作に最適
である。
【0069】
【発明の効果】以上要するに本発明によれば、ロボット
の手先に設けた左右のカメラのでターゲットを撮影し、
その画像の中のターゲットの任意の点と実際のターゲッ
トの点とをエピポーラ線を用いて三角測量することでス
テレオ対応付けが行えるため、手先とターゲットとの位
置・姿勢を求めることが可能となり、これを元にロボッ
トを簡単に制御することが可能となる。
の手先に設けた左右のカメラのでターゲットを撮影し、
その画像の中のターゲットの任意の点と実際のターゲッ
トの点とをエピポーラ線を用いて三角測量することでス
テレオ対応付けが行えるため、手先とターゲットとの位
置・姿勢を求めることが可能となり、これを元にロボッ
トを簡単に制御することが可能となる。
【図1】本発明の一実施例を示す概略図である。
【図2】本発明の処理のフローを説明する図である。
【図3】本発明において、クリックポイントからのルー
プエッジの探索法を説明する図である。
プエッジの探索法を説明する図である。
【図4】本発明において、ターゲットエッジからループ
エッジを認識するためエッジ追跡法を説明する図であ
る。
エッジを認識するためエッジ追跡法を説明する図であ
る。
【図5】本発明において、クリップポイントとターゲッ
トエッジの関係を説明する図である。
トエッジの関係を説明する図である。
【図6】本発明において、左右のエッジの対応付けを説
明する図である。
明する図である。
【図7】本発明において、左右のエッジの対応付けがで
きなかった例を説明する図である。
きなかった例を説明する図である。
【図8】本発明において、エピポーラ線における左右の
点の対応点の選択を説明する図である。
点の対応点の選択を説明する図である。
【図9】本発明において、エピポーラ面におけるエピポ
ーラ線を用いてターゲットの位置/姿勢を三角測量する
ための説明図である。
ーラ線を用いてターゲットの位置/姿勢を三角測量する
ための説明図である。
【図10】本発明において、ターゲット面の姿勢を説明
する図である。
する図である。
【図11】本発明において、デフォルトのカメラ座標系
と位置計測の関係を示す図である。
と位置計測の関係を示す図である。
1 ロボット 5 手先 6 コンピュータ 8a、8b カメラ 14a ターゲット E エッジ Epi エピポーラ線
───────────────────────────────────────────────────── フロントページの続き (72)発明者 小出 誠二 東京都江東区豊洲三丁目1番15号 石川島 播磨重工業株式会社東二テクニカルセンタ ー内
Claims (1)
- 【請求項1】 ロボットの手先の左右にカメラを取り付
け、その左右のカメラで作業を行う面を撮影すると共に
その画像をコンピュータに取り込み、一方の画像から任
意の形状をターゲットとして決定し、そのターゲットの
ループ状に連なったエッジを抽出して形状を認識し、次
に他方のカメラで撮影された画像中対応するターゲット
のループ形状を認識し、一方のループ形状の任意の点の
エピポーラ線とその任意の点に対応する他方の点の座標
からロボットの手先とターゲットとの位置・姿勢を三角
測量し、その三角測量値に基づいてロボットの手先を制
御することを特徴とするロボットの遠隔操作方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP18477794A JPH0847881A (ja) | 1994-08-05 | 1994-08-05 | ロボットの遠隔操作方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP18477794A JPH0847881A (ja) | 1994-08-05 | 1994-08-05 | ロボットの遠隔操作方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH0847881A true JPH0847881A (ja) | 1996-02-20 |
Family
ID=16159129
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP18477794A Pending JPH0847881A (ja) | 1994-08-05 | 1994-08-05 | ロボットの遠隔操作方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH0847881A (ja) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005186193A (ja) * | 2003-12-25 | 2005-07-14 | Nachi Fujikoshi Corp | ロボットのキャリブレーション方法および三次元位置計測方法 |
| EP1555508A1 (en) * | 2004-01-16 | 2005-07-20 | Fanuc Ltd | Measuring system |
| US7280687B2 (en) | 2002-09-02 | 2007-10-09 | Fanuc Ltd | Device for detecting position/orientation of object |
| JP2009531184A (ja) * | 2006-03-27 | 2009-09-03 | コミッサリア タ レネルジー アトミーク | 操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法 |
| JP2011067889A (ja) * | 2009-09-25 | 2011-04-07 | Ihi Corp | キャリブレーション装置及びキャリブレーション方法 |
| JP2014034075A (ja) * | 2012-08-08 | 2014-02-24 | Canon Inc | ロボット装置 |
| JP2015000454A (ja) * | 2013-06-17 | 2015-01-05 | キヤノン株式会社 | ロボット装置及びロボット制御方法 |
| CN104298244A (zh) * | 2013-07-17 | 2015-01-21 | 刘永 | 一种工业机器人三维实时高精度定位装置及方法 |
| CN112223300A (zh) * | 2020-12-15 | 2021-01-15 | 佛山隆深机器人有限公司 | 一种基于双目视觉和姿态优化的工件无序抓取方法 |
| CN114310900A (zh) * | 2022-01-11 | 2022-04-12 | 重庆智能机器人研究院 | 一种工业机器人视觉在线写绘和视觉涂胶算法 |
| JP2022186063A (ja) * | 2021-06-04 | 2022-12-15 | 日本電気株式会社 | ロボットハンド制御装置、ピッキングシステム、ロボットハンド制御方法およびロボットハンド制御プログラム |
-
1994
- 1994-08-05 JP JP18477794A patent/JPH0847881A/ja active Pending
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7280687B2 (en) | 2002-09-02 | 2007-10-09 | Fanuc Ltd | Device for detecting position/orientation of object |
| JP2005186193A (ja) * | 2003-12-25 | 2005-07-14 | Nachi Fujikoshi Corp | ロボットのキャリブレーション方法および三次元位置計測方法 |
| EP1555508A1 (en) * | 2004-01-16 | 2005-07-20 | Fanuc Ltd | Measuring system |
| US7532949B2 (en) | 2004-01-16 | 2009-05-12 | Fanuc Ltd | Measuring system |
| JP2009531184A (ja) * | 2006-03-27 | 2009-09-03 | コミッサリア タ レネルジー アトミーク | 操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法 |
| JP2011067889A (ja) * | 2009-09-25 | 2011-04-07 | Ihi Corp | キャリブレーション装置及びキャリブレーション方法 |
| JP2014034075A (ja) * | 2012-08-08 | 2014-02-24 | Canon Inc | ロボット装置 |
| US9597803B2 (en) | 2012-08-08 | 2017-03-21 | Canon Kabushiki Kaisha | Robot device |
| JP2015000454A (ja) * | 2013-06-17 | 2015-01-05 | キヤノン株式会社 | ロボット装置及びロボット制御方法 |
| CN104298244A (zh) * | 2013-07-17 | 2015-01-21 | 刘永 | 一种工业机器人三维实时高精度定位装置及方法 |
| CN112223300A (zh) * | 2020-12-15 | 2021-01-15 | 佛山隆深机器人有限公司 | 一种基于双目视觉和姿态优化的工件无序抓取方法 |
| JP2022186063A (ja) * | 2021-06-04 | 2022-12-15 | 日本電気株式会社 | ロボットハンド制御装置、ピッキングシステム、ロボットハンド制御方法およびロボットハンド制御プログラム |
| CN114310900A (zh) * | 2022-01-11 | 2022-04-12 | 重庆智能机器人研究院 | 一种工业机器人视觉在线写绘和视觉涂胶算法 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11813749B2 (en) | Robot teaching by human demonstration | |
| EP1629366B1 (en) | Single camera system for gesture-based input and target indication | |
| US6816755B2 (en) | Method and apparatus for single camera 3D vision guided robotics | |
| JP6855492B2 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
| JP5852364B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
| US8095237B2 (en) | Method and apparatus for single image 3D vision guided robotics | |
| JP3242108B2 (ja) | ターゲットマークの認識・追跡システム及び方法 | |
| JP3208953B2 (ja) | 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置 | |
| JP2004508954A (ja) | 位置決め装置およびシステム | |
| Cipolla et al. | Visually guided grasping in unstructured environments | |
| JP2013036988A (ja) | 情報処理装置及び情報処理方法 | |
| JP6855491B2 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
| US12036663B2 (en) | Method and control arrangement for determining a relation between a robot coordinate system and a movable apparatus coordinate system | |
| JPH0847881A (ja) | ロボットの遠隔操作方法 | |
| CN115213894A (zh) | 机器人图像的显示方法、显示系统以及记录介质 | |
| CN115383740A (zh) | 一种基于双目视觉的机械臂目标物体抓取方法 | |
| CN118322213B (zh) | 大尺寸工作空间下基于视觉的工业机器人运动学标定方法 | |
| CN116398065B (zh) | 基于视觉的煤矿用坑道钻机机器人自动装卸钻杆定位方法 | |
| CN115397634A (zh) | 取得机器人的控制坐标系中的视觉传感器的位置的装置、机器人系统、方法以及计算机程序 | |
| JP7660686B2 (ja) | ロボット制御装置、ロボット制御システム、及びロボット制御方法 | |
| JP7657936B2 (ja) | ロボット制御装置、ロボット制御システム、及びロボット制御方法 | |
| JPH06258028A (ja) | 視覚に基く三次元位置および姿勢の認識方法とその装置 | |
| JPS643661Y2 (ja) | ||
| JPH04269194A (ja) | 平面計測方法 | |
| JP2584151Y2 (ja) | ロボット制御装置 |