[go: up one dir, main page]

JP2009006410A - 遠隔操作支援装置および遠隔操作支援プログラム - Google Patents

遠隔操作支援装置および遠隔操作支援プログラム Download PDF

Info

Publication number
JP2009006410A
JP2009006410A JP2007167501A JP2007167501A JP2009006410A JP 2009006410 A JP2009006410 A JP 2009006410A JP 2007167501 A JP2007167501 A JP 2007167501A JP 2007167501 A JP2007167501 A JP 2007167501A JP 2009006410 A JP2009006410 A JP 2009006410A
Authority
JP
Japan
Prior art keywords
robot
dimensional
model expression
remote operation
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007167501A
Other languages
English (en)
Inventor
Keisuke Wada
圭介 和田
Yutaka Takeuchi
豊 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Systems Co Ltd filed Critical Fuji Electric Systems Co Ltd
Priority to JP2007167501A priority Critical patent/JP2009006410A/ja
Publication of JP2009006410A publication Critical patent/JP2009006410A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

【課題】対象物の位置や姿勢が事前に判らない場合においても、任意の方向から対象物を確認することを可能としつつ、対象物の遠隔操作を支援できるようにする。
【解決手段】環境データ取得手段21aは、レーザスキャナ13にて計測された対象物11上の点群データを環境データ15として取得し、対象物モデル表現手段21bは、対象物11についての環境データ15に基づいて三次元認識処理17を行うことにより、対象物11の形状および姿勢が反映された対象物モデル表現18を生成し、ロボットモデル表現手段21cは、ロボット12の各軸の状態19に基づいてロボット12の動作状態が反映されたロボットモデル表現20を生成し、三次元画像生成手段21dは、三次元空間の指定された視点から見た対象物モデル表現18およびロボットモデル表現20を同一画面上に三次元的に表示させる。
【選択図】 図1

Description

本発明は遠隔操作支援装置および遠隔操作支援プログラムに関し、特に、原子力設備の原子炉内などのように人間が容易に立ち入ることができない環境下に配置された作業用ロボットを遠隔操作する方法に適用して好適なものである。
放射線環境下や宇宙環境下などの人間が容易に立ち入ることができない場所では、そのような環境下に配置された作業用ロボットを遠隔操作することで、保守や点検などの作業が一般的に行われている。
ここで、保守や点検において実施される作業が既知である場合、あるいは定期的な保守における作業の内容が毎回同一である場合には、ロボットの動作を予めプログラミングしておくことで、人間が操作することなく自動運転で作業を行わせることができる。
一方、定期的に行われる同一作業であっても、前回存在しなかった障害物が存在したり、保守対象である装置の一部が壊れているなど予期せぬ状況の発生にも対処できるようにするために、例えば、特許文献1には、作業環境中の物体の位置姿勢やロボットの操作に必要な位置決めに関する情報を環境モデルとして記憶し、カメラが捉えた映像と環境モデルから得られる位置決めに関する情報を図形化して表示した画像とを合成した合成画像を表示することで、手動操作を誘導できるようにする方法が開示されている。
特開2003−311661号公報
しかしながら、特許文献1に開示された方法では、作業環境中の物体の位置姿勢やロボットの操作に必要な位置決めに関する情報を環境モデルとして用意する必要があるため、遠隔操作される対象の配置が事前に判っている必要があるだけでなく、対象物が環境モデルに登録された所定の位置に存在していることが前提となっており、遠隔操作される対象の状態が操作時にも同様に保たれている必要がある。
このため、特許文献1に開示された方法では、対象物の位置が初期の位置と異なっていたり、操作時に対象物の位置が変わったりすると、対象物の遠隔操作ができなくなる上に、予め設定された視点のみからの合成画像しか表示することができず、任意の方向から対象物を確認することができないという問題があった。
そこで、本発明の目的は、対象物の位置や姿勢が事前に判らない場合においても、任意の方向から対象物を確認することを可能としつつ、対象物の遠隔操作を支援することが可能な遠隔操作支援装置および遠隔操作支援プログラムを提供することである。
上述した課題を解決するために、請求項1記載の遠隔操作支援装置によれば、対象物の形状の計測データに基づいて三次元認識処理を行うことにより、前記対象物の形状および姿勢が反映された対象物モデル表現を生成する対象物モデル表現手段と、ロボットの各軸の状態に基づいて前記ロボットの動作状態が反映されたロボットモデル表現を生成するロボットモデル表現手段と、三次元空間の指定された視点から見た前記対象物モデル表現および前記ロボットモデル表現を同一画面上に三次元的に表示させる三次元画像生成手段とを備えることを特徴とする。
また、請求項2記載の遠隔操作支援装置によれば、前記対象物の形状を計測することにより得られた前記対象物上の点を基準座標系の三次元座標に変換する対象物座標変換手段と、前記ロボットの各軸の状態を観測することにより得られた前記ロボット上の点を前記基準座標系の三次元座標に変換するロボット座標変換手段と、前記対象物上の点の三次元座標および前記ロボット上の点の三次元座標に基づいて、前記対象物と前記ロボットとの近接状態を判定する近接状態判定手段とを備えることを特徴とする。
また、請求項3記載の遠隔操作支援プログラムによれば、対象物の形状の計測データに基づいて三次元認識処理を行うことにより、前記対象物の形状および姿勢が反映された対象物モデル表現を生成するステップと、ロボットの各軸の状態に基づいて前記ロボットの動作状態が反映されたロボットモデル表現を生成するステップと、三次元空間の指定された視点から見た前記対象物モデル表現および前記ロボットモデル表現を同一画面上に三次元的に表示させるステップとをコンピュータに実行させることを特徴とする。
また、請求項4記載の遠隔操作支援プログラムによれば、前記対象物の形状を計測することにより得られた前記対象物上の点を基準座標系の三次元座標に変換するステップと、前記ロボットの各軸の状態を観測することにより得られた前記ロボット上の点を前記基準座標系の三次元座標に変換するステップと、前記対象物上の点の三次元座標および前記ロボット上の点の三次元座標に基づいて、前記対象物と前記ロボットとの近接状態を判定するステップとをコンピュータに実行させることを特徴とする。
以上説明したように、本発明によれば、対象物およびロボットの現在の状態が反映された三次元的なモデルを生成し、そのモデルを同一画面上に三次元的に表示させることが可能となる。このため、対象物の位置や姿勢が変化する場合においても、対象物およびロボットの現在の状態を精度よく表示させることが可能となるとともに、対象物およびロボットを三次元的にモデル化することにより、複数のカメラを設置することなく、任意の視点からの画像に切り替えることが可能となり、人間が容易に立ち入ることができない放射線環境下や宇宙環境下などであっても、対象物の遠隔操作を円滑に行うことが可能となる。
以下、本発明の実施形態に係る遠隔操作支援装置について図面を参照しながら説明する。
図1は、本発明の第1実施形態に係る遠隔操作支援装置の概略構成を示す断面図である。
図1において、保守や点検などの作業が行われる作業エリアには、対象物11を操作するロボット12およびロボット12にて操作される対象物11が配置されている。なお、対象物11およびロボット12は、放射線環境下や宇宙環境下などの人間が容易に立ち入ることができない場所に設置することができる。また、ロボット12とは、マニュピュレータなどを含めた遠隔操作で使用される機械装置全般を言う。
ここで、ロボット12には、対象物11を把持するグリッパを設け、そのグリッパを三次元空間の任意の位置に移動させたり、任意の方向に回転させたりするアームに連結することができる。そして、アームは関節点を介して互いに連結され、各アームはX軸、Y軸およびZ軸を中心として回転自在に構成することができる。そして、各アームには軸を設定し、各軸には三次元座標系を設定し、各軸の状態を観測することで、各アームの位置を特定することができる。
一方、ロボット12に人間が指令を出すエリアには、ロボット12の遠隔操作を支援する遠隔操作支援装置21が設置されている。
ここで、遠隔操作支援装置21には、環境データ取得手段21a、対象物モデル表現手段21b、ロボットモデル表現手段21cおよび三次元画像生成手段21dが設けられるとともに、対象物11の形状を計測するレーザスキャナ13、対象物11の種別や姿勢を認識するための情報が格納された三次元認識データベース16および対象物11やロボット12の現在の状態などを表示する表示装置22が接続されている。
環境データ取得手段21aは、レーザスキャナ13にて計測された対象物11上の点群データを環境データ15として取得することができる。対象物モデル表現手段21bは、対象物11についての環境データ15に基づいて三次元認識処理17を行うことにより、対象物11の形状および姿勢が反映された対象物モデル表現18を生成することができる。ロボットモデル表現手段21cは、ロボット12の各軸の状態19に基づいてロボット12の動作状態が反映されたロボットモデル表現20を生成することができる。三次元画像生成手段21dは、三次元空間の指定された視点から見た対象物モデル表現18およびロボットモデル表現20を同一画面上に三次元的に表示させることができる。
なお、対象物モデル表現18およびロボットモデル表現20には、例えば、コンピュータグラフィクスにて一般的に使用されるサーフィスモデルなどを用いることができる。
そして、レーザスキャナ13は、レーザ光にて対象物11を走査することにより、三次元計測処理14を行う。そして、環境データ取得手段21aは、レーザスキャナ13にて三次元計測処理14が行われると、対象物11上の点群データを環境データ15として取得し、遠隔操作支援装置21に格納する。
そして、対象物モデル表現手段21bは、三次元認識データベース16を参照しながら、対象物11についての環境データ15に基づいて三次元認識処理17を行うことで、対象物11の形状および姿勢が反映された対象物モデル表現18を生成する。ここで、三次元認識データベース16には、ロボット12にて操作される複数の対象物11についてのスピンイメージを格納することができる。そして、対象物11についての環境データ15に基づいて三次元認識処理17を行う場合、対象物11の点群データについての法線ベクトルを設定し、計測された点群データについてのスピンイメージと、三次元認識データベース16に格納されたスピンイメージとを照合することができる。なお、スピンイメージを用いた三次元認識処理17については、特開2006−139713号公報に詳細に記載されている。
このスピンイメージを用いた三次元認識処理17では、対象物11の三次元認識を行うために、対象物11全体の点群データを計測する必要がなく、レーザスキャナ13による一方向からの計測で済ませることができるので、計算量を減らすことができる。
また、ロボット12は、ロボット12の各軸の状態19を検出し、遠隔操作支援装置21に送る。そして、ロボットモデル表現手段21cは、ロボット12の各軸の状態19に基づいて、ロボット12の実際の動きが反映されたロボット12と同様な形状を構築することにより、ロボット12の動作状態が反映されたロボットモデル表現20を生成する。なお、ロボットモデル表現20を生成するために必要なアームなどのロボット12の構成要素の寸法は遠隔操作支援装置21に予め登録することができる。また、ロボット12の各軸の状態19は、ロボット12に設置された角度センサや位置センサなどからの信号を用いることができる。
そして、三次元画像生成手段21dは、対象物モデル表現18およびロボットモデル表現20が生成されると、三次元空間の指定された視点から見た対象物モデル表現18およびロボットモデル表現20を三次元的に示す二次元画像を生成し、表示装置22の同一画面上に重ねて表示させることができる。なお、対象物モデル表現18およびロボットモデル表現20を表示装置22に表示させる場合、Ooen GLなどのグラフィックスソフトウェアを利用することで、任意の視点から見た対象物モデル表現18およびロボットモデル表現20を同一画面上に重ねて表示させることができる。
そして、オペレータは、対象物モデル表現18およびロボットモデル表現20を三次元的に示す画像が表示装置22上に表示されると、遠隔操作しやすいように視点を切り替えながら、ロボット12を操作することができる。
これにより、対象物11およびロボット12の現在の状態がそれぞれ反映された三次元的な対象物モデル表現18およびロボットモデル表現20を生成し、その対象物モデル表現18およびロボットモデル表現20を同一画面上に三次元的に表示させることが可能となる。このため、対象物11の位置や姿勢が変化する場合においても、対象物11およびロボット12の現在の状態を精度よく表示させることが可能となるとともに、対象物11およびロボット12を三次元的にモデル化することにより、複数のカメラを設置することなく、任意の視点からの画像に切り替えることが可能となり、人間が容易に立ち入ることができない放射線環境下や宇宙環境下などであっても、ロボット12による対象物11の遠隔操作を円滑に行うことが可能となる。
なお、環境データ取得手段21a、対象物モデル表現手段21b、ロボットモデル表現手段21cおよび三次元画像生成手段21dは、これらの手段で行われる処理を遂行させる命令が記述されたプログラムをコンピュータに実行させることにより実現することができる。
そして、このプログラムをCD−ROMなどの記憶媒体に記憶しておけば、遠隔操作支援装置21のコンピュータに記憶媒体を装着し、そのプログラムをコンピュータにインストールすることにより、環境データ取得手段21a、対象物モデル表現手段21b、ロボットモデル表現手段21cおよび三次元画像生成手段21dで行われる処理を実現することができる。
また、環境データ取得手段21a、対象物モデル表現手段21b、ロボットモデル表現手段21cおよび三次元画像生成手段21dで行われる処理を遂行させる命令が記述されたプログラムをコンピュータに実行させる場合、スタンドアロン型コンピュータで実行させるようにしてもよく、ネットワークに接続された複数のコンピュータに分散処理させるようにしてもよい。
図2は、本発明の一実施形態に係る環境データの表示例を示す図である。
図2において、図1のレーザスキャナ13にて計測された環境データ15が遠隔操作支援装置21にて取得され、その環境データ15が表示装置22に表示される。
図3は本発明の一実施形態に係る環境データおよび対象物のモデル表現の表示例を示す図である。
図3において、対象物11の形状および姿勢が反映された対象物モデル表現18が遠隔操作支援装置21にて生成されると、その対象物モデル表現18が環境データ15に重なるようにして表示装置22に表示される。
図4は、本発明の一実施形態に係る環境データ、対象物のモデル表現およびロボットのモデル表現の表示例を示す図である。
図4において、対象物11の形状および姿勢が反映された対象物モデル表現18およびロボット12の実際の動きが反映されたロボットモデル表現20が遠隔操作支援装置21にて生成されると、それらの対象物モデル表現18およびロボットモデル表現20が環境データ15に重なるようにして表示装置22に表示される。
図5は、本発明の一実施形態に係るグリッパを視点とした対象物のモデル表現の表示例を示す図である。
図5において、対象物モデル表現18およびロボットモデル表現20を三次元的に示す画像の視点を任意に切り替えることにより、例えば、ロボット12のグリッパを視点とした画像が表示装置22に表示される。
図6は、本発明の第2実施形態に係る遠隔操作支援装置の概略構成および処理の流れを示すブロック図である。
図6において、保守や点検などの作業が行われる作業エリアには、対象物11を操作するロボット12およびロボット12にて操作される対象物11が配置されている。一方、ロボット12に人間が指令を出すエリアには、ロボット12の遠隔操作を支援する遠隔操作支援装置35が設置されている。
ここで、遠隔操作支援装置35には、対象物座標変換手段35a、ロボット座標変換手段35bおよび近接状態判定手段35cが設けられるとともに、対象物11の形状を計測するレーザスキャナ13、レーザスキャナ13にて計測された環境データを格納する環境データ格納手段34および対象物11やロボット12の現在の状態などを表示する表示装置36が接続されている。
対象物座標変換手段35aは、対象物11の形状をレーザスキャナ13にて計測することにより得られた対象物11上の点を基準座標系の三次元座標に変換することができる。ロボット座標変換手段35bは、ロボット12の各軸の状態を観測することにより得られたロボット12上の点を基準座標系の三次元座標に変換することができる。近接状態判定手段35cは、対象物11の基準座標系における三次元座標およびロボット12の基準座標系における三次元座標に基づいて、対象物11とロボット12との近接状態を判定することができる。
また、遠隔操作支援装置35には、ロボット座標格納手段37、対象物座標格納手段38、対象物変換行列格納手段39およびロボット変換行列格納手段40が接続されている。
ロボット座標格納手段37は、ロボット12上の各点についての基準座標系の三次元座標A1、B1、C1、D1、・・・を格納することができる。対象物座標格納手段38は、対象物11上の各点についての基準座標系の三次元座標A2、B2、C2、・・・を格納することができる。対象物変換行列格納手段39は、対象物11上の点を基準座標系の三次元座標に変換する変換行列を格納することができる。ロボット変換行列格納手段40は、ロボット12上の点を基準座標系の三次元座標に変換する変換行列を格納することができる。
また、遠隔操作支援装置35には、図1の環境データ取得手段21a、対象物モデル表現手段21b、ロボットモデル表現手段21cおよび三次元画像生成手段21dを設けることができ、三次元空間の指定された視点から見た対象物モデル表現18およびロボットモデル表現20を三次元的に示す二次元画像を生成し、表示装置36の同一画面上に重ねて表示させることができる。
なお、図1の三次元認識処理17による認識結果は、回転変換要素と並行移動要素からなる4×4の変換行列に対応させることができ、基本座標系に予め配置された対象物11を基準座標系の対象物11の位置や姿勢に合わせることができる。
そして、レーザスキャナ13は、レーザ光にて対象物11を走査することにより、図1の三次元計測処理14を行う。そして、遠隔操作支援装置35は、レーザスキャナ13にて三次元計測処理14が行われると、対象物11上の点群データP1を環境データ15として取得し、環境データ格納手段34に格納する。
また、遠隔操作支援装置35は、対象物11についての環境データ15に基づいて図1の三次元認識処理17を行うことで、対象物11の変換行列を算出し、対象物変換行列格納手段39に格納する。さらに、遠隔操作支援装置35は、ロボット12の各軸の状態19を取得し、ロボット12の各軸座標系の変換行列に変換して、ロボット変換行列格納手段40に格納する。なお、ロボット12の各軸の状態19としては、ロボット12の各軸の角度を用いることができる。
そして、対象物座標変換手段35aは、対象物11の変換行列を用いることにより、対象物11上の点を基準座標系の三次元座標に変換し、対象物座標格納手段38に格納する。また、ロボット座標変換手段35bは、ロボット12の変換行列を用いることにより、ロボット12上の点を基準座標系の三次元座標に変換し、ロボット座標格納手段37に格納する。
そして、近接状態判定手段35cは、対象物11の基準座標系における三次元座標およびロボット12の基準座標系における三次元座標に基づいて、対象物11とロボット12との近接状態を判定する。そして、遠隔操作支援装置35は、図1の対象物モデル表現18およびロボットモデル表現20を表示装置36の同一画面上に重ねて表示させながら、対象物11とロボット12との近接状態を表示装置36に表示させることができる。
なお、対象物座標変換手段35a、ロボット座標変換手段35bおよび近接状態判定手段35cは、これらの手段で行われる処理を遂行させる命令が記述されたプログラムをコンピュータに実行させることにより実現することができる。
そして、このプログラムをCD−ROMなどの記憶媒体に記憶しておけば、遠隔操作支援装置35のコンピュータに記憶媒体を装着し、そのプログラムをコンピュータにインストールすることにより、対象物座標変換手段35a、ロボット座標変換手段35bおよび近接状態判定手段35cで行われる処理を実現することができる。
また、対象物座標変換手段35a、ロボット座標変換手段35bおよび近接状態判定手段35cで行われる処理を遂行させる命令が記述されたプログラムをコンピュータに実行させる場合、スタンドアロン型コンピュータで実行させるようにしてもよく、ネットワークに接続された複数のコンピュータに分散処理させるようにしてもよい。
図7は、本発明の一実施形態に係る変換行列を用いた対象物上の点の変換結果を示す図である。
図7において、対象物変換行列格納手段39に格納される変換行列には、回転変換要素R00〜R22と並行移動要素TX、TY、TZを設定することができる。そして、対象物11の基本座標系に変換行列を乗算することで、対象物11の基準座標系に変換することができる。
一方、図6において、ロボット変換行列格納手段40に格納される変換行列は、ロボット12の各軸1、2、・・・ごとに設けることができ、ロボットアームから定期的に現在の軸角度を読み出し、各軸座標系の変換行列(軸1の変換行列、軸2の変換行列、・・・、先端の変換行列)に変換して保存することができる。そして、ロボット12上の指定された点の三次元座標系に変換行列を乗算することで、基準座標系の三次元座標に変換することができる。
図8は、本発明の一実施形態に係る遠隔操作支援装置に適用されるロボット座標系の一例を示す図である。
図8において、ロボット12の三次元座標系は、ロボット12の各軸1、2、・・・ごとに設けることができる。例えば、ロボット12の基準座標系はX0・Y0・Z0座標系、軸1の座標系はX1・Y1・Z1座標系、軸2の座標系はX2・Y2・Z2座標系、・・・、先端の座標系はX5・Y5・Z5座標系とすることができる。そして、ロボット12の各軸間の距離d1、d2、・・・を設定することができる。
そして、例えば、軸1の座標系の点cは、以下の(1)式にて基準座標系の三次元座標に変換することができる。
[点cの基準座標系の三次元座標]=(ロボット12の基準座標系の変換行列)×(軸1の座標系の変換行列)×(軸1上の点cの座標) ・・・(1)
また、例えば、軸2の座標系の点bは、以下の(2)式にて基準座標系の三次元座標に変換することができる。
[点bの基準座標系の三次元座標]=(ロボット12の基準座標系の変換行列)×(軸1の座標系の変換行列)×(軸2の座標系の変換行列)×(軸2上の点bの座標)
・・・(2)
また、例えば、先端の座標系の点aは、以下の(3)式にて基準座標系の三次元座標に変換することができる。
[点aの基準座標系の三次元座標]=(ロボット12の基準座標系の変換行列)×(軸1の座標系の変換行列)×(軸2の座標系の変換行列)×(軸3の座標系の変換行列)×(軸4の座標系の変換行列)×(先端の座標系の変換行列)×(軸5上の点aの座標)
・・・(3)
図9は、本発明の一実施形態に係るロボットと対象物との近接状態の判定方法を示すフローチャートである。
図9において、図6の近接状態判定手段35cは、ロボット12上の点の三次元座標をロボット座標格納手段37から取得するとともに(ステップS1)、対象物11上の点の三次元座標を対象物座標格納手段38から取得する(ステップS2)。そして、近接状態判定手段35cは、ロボット12上の座標点と対象物11上の座標点とのすべての組み合わせについて、ロボット12上の座標点と対象物11上の座標点との間の距離を算出し(ステップS3、S5)、ロボット12上の座標点と対象物11上の座標点との間の距離が最小であるかどうかを判断する(ステップS4)。
そして、ロボット12上の座標点と対象物11上の座標点との間の距離が最小である場合、そのロボット12上の座標点と対象物11上の座標点とを記憶し(ステップS6)、対象物11上の座標点との間で最小の距離となるロボット12上の座標点が先端に位置するかどうかを判断する(ステップS7)。そして、近接状態判定手段35cは、対象物11上の座標点との間で最小の距離となるロボット12上の座標点が先端に位置しない場合、ロボット12が対象物11と衝突する可能性があると判断し(ステップS8)、対象物11上の座標点との間で最小の距離となるロボット12上の座標点が先端に位置する場合、ロボット12が対象物11に接近していると判断する(ステップS9)。
そして、ロボット12と対象物11とが接近または衝突する可能性があると近接状態判定手段35cにて判断された場合、遠隔操作支援装置35は、対象物11とロボット12との近接状態を表示装置36に表示させることができる。
図10は、本発明の一実施形態に係るロボットと対象物との近接状態の表示例を示す図である。
図10において、ロボット12と対象物11とが接近または衝突する可能性があると近接状態判定手段35cにて判断された場合、遠隔操作支援装置35は、図1の対象物モデル表現18およびロボットモデル表現20を表示装置36の同一画面上に重ねて表示させながら、衝突する可能性がある対象物11上の点とロボット12上の点にそれぞれ対応する対象物モデル表現18上の点とロボットモデル表現20上の点との間に線L1を描画させたり、対象物11上の点とロボット12上の点との間の距離D1を表示させたりすることができる。
本発明の第1実施形態に係る遠隔操作支援装置の概略構成および処理の流れを示すブロック図である。 本発明の一実施形態に係る環境データの表示例を示す図である。 本発明の一実施形態に係る環境データおよび対象物のモデル表現の表示例を示す図である。 本発明の一実施形態に係る環境データ、対象物のモデル表現およびロボットのモデル表現の表示例を示す図である。 本発明の一実施形態に係るグリッパを視点とした対象物のモデル表現の表示例を示す図である。 本発明の第2実施形態に係る遠隔操作支援装置の概略構成および処理の流れを示すブロック図である。 本発明の一実施形態に係る変換行列を用いた対象物上の点の変換結果を示す図である。 本発明の一実施形態に係る遠隔操作支援装置に適用されるロボット座標系の一例を示す図である。 本発明の一実施形態に係るロボットと対象物との近接状態の判定方法を示すフローチャートである。 本発明の一実施形態に係るロボットと対象物との近接状態の表示例を示す図である。
符号の説明
11 対象物
12 ロボット
13 レーザスキャナ
14 三次元計測処理
15、34 環境データ
16 三次元認識データベース
17 三次元認識処理
18 対象物のモデル表現
19 各軸の状態
20 ロボットのモデル表現
21、35 遠隔操作支援装置
21a 環境データ取得手段
21b 対象物モデル表現手段
21c ロボットモデル表現手段
21d 三次元画像生成手段
22、36 表示装置
34 環境データ格納手段
35a 対象物座標変換手段
35b ロボット座標変換手段
35c 近接状態判定手段
37 ロボット座標格納手段
38 対象物座標格納手段
39 対象物変換行列格納手段
40 ロボット変換行列格納手段

Claims (4)

  1. 対象物の形状の計測データに基づいて三次元認識処理を行うことにより、前記対象物の形状および姿勢が反映された対象物モデル表現を生成する対象物モデル表現手段と、
    ロボットの各軸の状態に基づいて前記ロボットの動作状態が反映されたロボットモデル表現を生成するロボットモデル表現手段と、
    三次元空間の指定された視点から見た前記対象物モデル表現および前記ロボットモデル表現を同一画面上に三次元的に表示させる三次元画像生成手段とを備えることを特徴とする遠隔操作支援装置。
  2. 前記対象物の形状を計測することにより得られた前記対象物上の点を基準座標系の三次元座標に変換する対象物座標変換手段と、
    前記ロボットの各軸の状態を観測することにより得られた前記ロボット上の点を前記基準座標系の三次元座標に変換するロボット座標変換手段と、
    前記対象物上の点の三次元座標および前記ロボット上の点の三次元座標に基づいて、前記対象物と前記ロボットとの近接状態を判定する近接状態判定手段とを備えることを特徴とする請求項1記載の遠隔操作支援装置。
  3. 対象物の形状の計測データに基づいて三次元認識処理を行うことにより、前記対象物の形状および姿勢が反映された対象物モデル表現を生成するステップと、
    ロボットの各軸の状態に基づいて前記ロボットの動作状態が反映されたロボットモデル表現を生成するステップと、
    三次元空間の指定された視点から見た前記対象物モデル表現および前記ロボットモデル表現を同一画面上に三次元的に表示させるステップとをコンピュータに実行させることを特徴とする遠隔操作支援プログラム。
  4. 前記対象物の形状を計測することにより得られた前記対象物上の点を基準座標系の三次元座標に変換するステップと、
    前記ロボットの各軸の状態を観測することにより得られた前記ロボット上の点を前記基準座標系の三次元座標に変換するステップと、
    前記対象物上の点の三次元座標および前記ロボット上の点の三次元座標に基づいて、前記対象物と前記ロボットとの近接状態を判定するステップとをコンピュータに実行させることを特徴とする請求項3記載の遠隔操作支援プログラム。
JP2007167501A 2007-06-26 2007-06-26 遠隔操作支援装置および遠隔操作支援プログラム Pending JP2009006410A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007167501A JP2009006410A (ja) 2007-06-26 2007-06-26 遠隔操作支援装置および遠隔操作支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007167501A JP2009006410A (ja) 2007-06-26 2007-06-26 遠隔操作支援装置および遠隔操作支援プログラム

Publications (1)

Publication Number Publication Date
JP2009006410A true JP2009006410A (ja) 2009-01-15

Family

ID=40322040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007167501A Pending JP2009006410A (ja) 2007-06-26 2007-06-26 遠隔操作支援装置および遠隔操作支援プログラム

Country Status (1)

Country Link
JP (1) JP2009006410A (ja)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011003324A1 (zh) * 2009-07-06 2011-01-13 湖南三一智能控制设备有限公司 工程车辆臂架控制器、控制系统、工程车辆、及控制方法
WO2011081459A3 (ko) * 2009-12-31 2011-11-24 성균관대학교 산학협력단 확률적 다중 해석에 기반한 3차원 물체 인식 및 자세 추정 시스템과 그 방법
KR101178176B1 (ko) 2009-12-31 2012-08-29 성균관대학교산학협력단 확률적 다중 해석에 기반한 3차원 물체 인식 및 자세 추정 시스템과 그 방법
JP2012521855A (ja) * 2009-03-31 2012-09-20 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 手術ロボットの合成表現
US8864652B2 (en) 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
US8903546B2 (en) 2009-08-15 2014-12-02 Intuitive Surgical Operations, Inc. Smooth control of an articulated instrument across areas with different work space conditions
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9101397B2 (en) 1999-04-07 2015-08-11 Intuitive Surgical Operations, Inc. Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9333042B2 (en) 2007-06-13 2016-05-10 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9345387B2 (en) 2006-06-13 2016-05-24 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
KR101782317B1 (ko) 2016-06-10 2017-09-27 (주)엠아이테크 3차원 스캐너를 이용한 로봇 캘리브레이션 장치 및 이를 이용한 로봇 캘리브레이션 방법
US9788909B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc Synthetic representation of a surgical instrument
KR101850410B1 (ko) 2016-12-26 2018-04-20 한국생산기술연구원 가상 현실 기반 로봇 교시를 위한 시뮬레이션 장치 및 방법
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
KR101876845B1 (ko) * 2015-08-26 2018-07-11 주식회사 뉴로메카 로봇 제어 장치
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
JPWO2018167855A1 (ja) * 2017-03-14 2019-11-21 株式会社Fuji 操作画面表示装置
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
JPWO2022124398A1 (ja) * 2020-12-10 2022-06-16
US12239396B2 (en) 2008-06-27 2025-03-04 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US12266040B2 (en) 2009-03-31 2025-04-01 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US12357400B2 (en) 2006-06-29 2025-07-15 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01209505A (ja) * 1988-02-17 1989-08-23 Toshiba Corp 遠隔操作ロボットの教示装置
JPH0355194A (ja) * 1989-07-21 1991-03-08 Fujitsu Ltd ロボットの遠隔操作装置
JPH0386484A (ja) * 1989-08-25 1991-04-11 Fujitsu Ltd ロボットの遠隔操作装置
JPH0577174A (ja) * 1991-09-20 1993-03-30 Nec Corp ロボツト制御装置
JPH0724767A (ja) * 1993-07-15 1995-01-27 Toshiba Corp ロボットの遠隔操作装置
JPH0795560A (ja) * 1993-09-20 1995-04-07 Hitachi Ltd 遠隔操作システムの画像計測方法及びその装置並びに距離計測方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01209505A (ja) * 1988-02-17 1989-08-23 Toshiba Corp 遠隔操作ロボットの教示装置
JPH0355194A (ja) * 1989-07-21 1991-03-08 Fujitsu Ltd ロボットの遠隔操作装置
JPH0386484A (ja) * 1989-08-25 1991-04-11 Fujitsu Ltd ロボットの遠隔操作装置
JPH0577174A (ja) * 1991-09-20 1993-03-30 Nec Corp ロボツト制御装置
JPH0724767A (ja) * 1993-07-15 1995-01-27 Toshiba Corp ロボットの遠隔操作装置
JPH0795560A (ja) * 1993-09-20 1995-04-07 Hitachi Ltd 遠隔操作システムの画像計測方法及びその装置並びに距離計測方法

Cited By (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9101397B2 (en) 1999-04-07 2015-08-11 Intuitive Surgical Operations, Inc. Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system
US10433919B2 (en) 1999-04-07 2019-10-08 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US10271909B2 (en) 1999-04-07 2019-04-30 Intuitive Surgical Operations, Inc. Display of computer generated image of an out-of-view portion of a medical device adjacent a real-time image of an in-view portion of the medical device
US9232984B2 (en) 1999-04-07 2016-01-12 Intuitive Surgical Operations, Inc. Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system
US9345387B2 (en) 2006-06-13 2016-05-24 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US11865729B2 (en) 2006-06-29 2024-01-09 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US11638999B2 (en) 2006-06-29 2023-05-02 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US10137575B2 (en) 2006-06-29 2018-11-27 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US9801690B2 (en) 2006-06-29 2017-10-31 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical instrument
US9788909B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc Synthetic representation of a surgical instrument
US10730187B2 (en) 2006-06-29 2020-08-04 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US12357400B2 (en) 2006-06-29 2025-07-15 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10773388B2 (en) 2006-06-29 2020-09-15 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10737394B2 (en) 2006-06-29 2020-08-11 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US11432888B2 (en) 2007-06-13 2022-09-06 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9629520B2 (en) 2007-06-13 2017-04-25 Intuitive Surgical Operations, Inc. Method and system for moving an articulated instrument back towards an entry guide while automatically reconfiguring the articulated instrument for retraction into the entry guide
US10695136B2 (en) 2007-06-13 2020-06-30 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9333042B2 (en) 2007-06-13 2016-05-10 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US11399908B2 (en) 2007-06-13 2022-08-02 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US11751955B2 (en) 2007-06-13 2023-09-12 Intuitive Surgical Operations, Inc. Method and system for retracting an instrument into an entry guide
US9901408B2 (en) 2007-06-13 2018-02-27 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US10271912B2 (en) 2007-06-13 2019-04-30 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US12097002B2 (en) 2007-06-13 2024-09-24 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US12295681B2 (en) 2007-06-13 2025-05-13 Intuitive Surgical Operations, Inc. Method and system for retracting an instrument into an entry guide
US10188472B2 (en) 2007-06-13 2019-01-29 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9516996B2 (en) 2008-06-27 2016-12-13 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the position and orienting of its tip
US12239396B2 (en) 2008-06-27 2025-03-04 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US11638622B2 (en) 2008-06-27 2023-05-02 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US11382702B2 (en) 2008-06-27 2022-07-12 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US8864652B2 (en) 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
US10368952B2 (en) 2008-06-27 2019-08-06 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9717563B2 (en) 2008-06-27 2017-08-01 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxilary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US11941734B2 (en) 2009-03-31 2024-03-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10282881B2 (en) 2009-03-31 2019-05-07 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
JP2012521855A (ja) * 2009-03-31 2012-09-20 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 手術ロボットの合成表現
US10984567B2 (en) 2009-03-31 2021-04-20 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US12266040B2 (en) 2009-03-31 2025-04-01 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
WO2011003324A1 (zh) * 2009-07-06 2011-01-13 湖南三一智能控制设备有限公司 工程车辆臂架控制器、控制系统、工程车辆、及控制方法
US11596490B2 (en) 2009-08-15 2023-03-07 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US10772689B2 (en) 2009-08-15 2020-09-15 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US10959798B2 (en) 2009-08-15 2021-03-30 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8903546B2 (en) 2009-08-15 2014-12-02 Intuitive Surgical Operations, Inc. Smooth control of an articulated instrument across areas with different work space conditions
US10271915B2 (en) 2009-08-15 2019-04-30 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US9956044B2 (en) 2009-08-15 2018-05-01 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
KR101178176B1 (ko) 2009-12-31 2012-08-29 성균관대학교산학협력단 확률적 다중 해석에 기반한 3차원 물체 인식 및 자세 추정 시스템과 그 방법
WO2011081459A3 (ko) * 2009-12-31 2011-11-24 성균관대학교 산학협력단 확률적 다중 해석에 기반한 3차원 물체 인식 및 자세 추정 시스템과 그 방법
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US10828774B2 (en) 2010-02-12 2020-11-10 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9622826B2 (en) 2010-02-12 2017-04-18 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US10537994B2 (en) 2010-02-12 2020-01-21 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US11389255B2 (en) 2013-02-15 2022-07-19 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US11806102B2 (en) 2013-02-15 2023-11-07 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
KR101876845B1 (ko) * 2015-08-26 2018-07-11 주식회사 뉴로메카 로봇 제어 장치
KR101782317B1 (ko) 2016-06-10 2017-09-27 (주)엠아이테크 3차원 스캐너를 이용한 로봇 캘리브레이션 장치 및 이를 이용한 로봇 캘리브레이션 방법
KR101850410B1 (ko) 2016-12-26 2018-04-20 한국생산기술연구원 가상 현실 기반 로봇 교시를 위한 시뮬레이션 장치 및 방법
JPWO2018167855A1 (ja) * 2017-03-14 2019-11-21 株式会社Fuji 操作画面表示装置
JPWO2022124398A1 (ja) * 2020-12-10 2022-06-16
US11926064B2 (en) 2020-12-10 2024-03-12 Mitsubishi Electric Corporation Remote control manipulator system and remote control assistance system
JP7224559B2 (ja) 2020-12-10 2023-02-17 三菱電機株式会社 遠隔制御マニピュレータシステムおよび遠隔制御支援システム

Similar Documents

Publication Publication Date Title
JP2009006410A (ja) 遠隔操作支援装置および遠隔操作支援プログラム
JP2009012106A (ja) 遠隔操作支援装置および遠隔操作支援プログラム
CN110977985B (zh) 一种定位的方法及装置
JP7070127B2 (ja) ロボット制御システム
JP2019188477A (ja) ロボットの動作教示装置、ロボットシステムおよびロボット制御装置
JP4737668B2 (ja) 3次元計測方法および3次元計測システム
KR20140008262A (ko) 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램
JP2013043271A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2013215866A (ja) ロボットシステム、ロボットシステムのキャリブレーション方法、キャリブレーション装置およびデジタルカメラ
JP2010127719A (ja) 作業システム及び情報処理方法
JP3225635B2 (ja) 建設支援装置及び方法
JP7439410B2 (ja) 画像処理装置、画像処理方法およびプログラム
WO2015186508A1 (ja) 作業ロボットの教示データ生成装置及び教示データ生成方法
JP2010094777A (ja) 遠隔操作支援装置
US11926064B2 (en) Remote control manipulator system and remote control assistance system
JP2017033429A (ja) 3次元物体検査装置
CN210361314U (zh) 一种基于增强现实技术的机器人示教装置
CN112743537B (zh) 注释装置
JPWO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
CN104070524A (zh) 机器人系统以及图像显示装置
JP7423387B2 (ja) 較正システム、情報処理システム、ロボット制御システム、較正方法、情報処理方法、ロボット制御方法、較正プログラム、情報処理プログラム、較正装置、情報処理装置、及びロボット制御装置
JP6328796B2 (ja) マニプレータ制御方法、システム、およびマニプレータ
CN113752236B (zh) 机械臂示教的装置、标定杆和方法
JP5201341B2 (ja) 遠隔操作支援装置
EP4238721A1 (en) Control device, control method, and program

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Effective date: 20100415

Free format text: JAPANESE INTERMEDIATE CODE: A625

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20110422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111006

A131 Notification of reasons for refusal

Effective date: 20111011

Free format text: JAPANESE INTERMEDIATE CODE: A131

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20111011

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120221