JP2018144228A - ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム - Google Patents
ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム Download PDFInfo
- Publication number
- JP2018144228A JP2018144228A JP2018122129A JP2018122129A JP2018144228A JP 2018144228 A JP2018144228 A JP 2018144228A JP 2018122129 A JP2018122129 A JP 2018122129A JP 2018122129 A JP2018122129 A JP 2018122129A JP 2018144228 A JP2018144228 A JP 2018144228A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- unit
- gripping
- image
- teaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 27
- 238000003384 imaging method Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000005057 finger movement Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 239000012636 effector Substances 0.000 description 5
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
【課題】より容易にロボットの多種多様な動作の教示を行う。【解決手段】ロボット制御装置は、ロボットの画像を表示する表示部と、前記表示部により表示された前記ロボットの画像に対する操作を受け付ける受付部と、前記ロボットの動作を教示する教示部と、を備え、前記表示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を表す画像を表示し、前記教示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を前記ロボットに教示する。【選択図】図1
Description
本発明は、ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラムに関する。
特許文献1には、タッチスクリーンにロボットのCG映像を表示し、当該タッチスクリーン上でロボットのCG映像を仮想的に動作させ、当該仮想的な動作に追従するようにロボットを動作させるロボットシステムが記載されている。また、特許文献1では、例えば、ドラッグ操作によりCG映像のアームの関節角度を変更することが記載されている。
しかしながら、特許文献1では、実際にロボットの作業に必要な動作を、十分に教示することができない。例えば、ハンドで対象物を把持する動作を教示する場合、アームの角度の変更、ハンドの開閉、ハンドの対象物への位置合わせ等、様々な教示をする必要があり、操作が複雑である。また、実際にハンドで対象物を把持できるように、タッチスクリーン上で、アームの角度の変更、ハンドの開閉、ハンドの対象物への位置合わせ等を詳細に教示するのは、困難である。
そこで、本発明は、より容易にロボットの多種多様な動作の教示を行うことを目的とする。
上記の課題を解決する本発明の第一態様は、ロボット制御装置であって、ロボットの画像を表示する表示部と、前記表示部により表示された前記ロボットの画像に対する操作を受け付ける受付部と、前記ロボットの動作を教示する教示部と、を備え、前記表示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を表す画像を表示し、前記教示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を前記ロボットに教示する。これにより、画像の様々な操作に応じた動作を表すロボットの画像が表示され、この動作に対応する教示が行われるため、より容易にロボットの多種多様な動作の教示を行うことができる。
前記ロボット制御装置において、前記受付部は、画面上の接触位置の動きを前記操作として受け付ける、ようにしてもよい。これにより、画像が表示される画面上でタッチ操作等により操作を行えるため、より直感的にロボットの動作を教示することができる。
前記ロボット制御装置において、前記受付部が、前記把持部の画像上から対象物の画像上まで前記接触位置を移動する操作を受け付けた場合、前記表示部は、前記把持部を前記対象物まで移動して把持する動作を表す画像を表示し、前記教示部は、前記把持部を前記対象物まで移動して把持する動作を前記ロボットに教示する、ようにしてもよい。これにより、把持動作を教示する際に、ロボットの詳細な動作を入力しなくても、ドラッグ等の移動操作で、より容易にロボットの把持動作を教示することができる。
前記ロボット制御装置において、前記受付部は、前記把持部の画像を選択した状態で対象物の画像を選択する操作を受け付けた場合、前記表示部は、前記把持部を前記対象物まで移動して把持する動作を表す画像を表示し、前記教示部は、前記把持部を前記対象物まで移動して把持する動作を前記ロボットに教示する、ようにしてもよい。これにより、把持動作を教示する際に、ロボットの詳細な動作を入力しなくても、タップ操作等の選択操作で、より容易にロボットの把持動作を教示することができる。
前記ロボット制御装置において、前記受付部は、前記対象物の画像上の前記接触位置を、把持位置として受け付け、前記表示部は、前記把持部を前記把持位置まで移動して把持する動作を表す画像を表示し、前記教示部は、前記把持部を前記把持位置まで移動して把持する動作を前記ロボットに教示する、ようにしてもよい。これにより、ドラッグ等の移動操作やタップ操作等の選択操作を行いつつ、把持位置を容易に教示することができる。
前記ロボット制御装置において、前記対象物を撮像した撮像画像を取得する画像取得部を備え、前記表示部は、前記撮像画像に基づいて前記対象物の画像を生成し、表示する、ようにしてもよい。これにより、実際の対象物に対する動作を簡単に教示できる。
前記ロボット制御装置において、前記受付部が、前記接触位置を、円弧を描くように移動させる操作を受け付けた場合、前記表示部は、前記把持部を回転する動作を表す画像を表示し、前記教示部は、前記把持部を回転させる動作を前記ロボットに教示する、ようにしてもよい。これにより、把持部の回転動作を容易に教示することができる。
前記ロボット制御装置において、前記接触位置には、第一接触位置と第二接触位置が含まれ、前記受付部が、前記第一接触位置と前記第二接触位置とを近づける又は遠ざける操作を受け付けた場合、前記表示部は、前記把持部を閉じる又は開く動作を表す画像を表示し、前記教示部は、前記把持部を閉じる又は開く動作を前記ロボットに教示する、ようにしてもよい。これにより、把持部の開閉動作を容易に教示することができる。
前記ロボット制御装置において、前記受付部が、前記画面上の所定の領域で、前記接触位置を移動させる操作を受け付けた場合、前記表示部は、視点を変更して前記把持部の画像を表示する、ようにしてもよい。これにより、視点の変更を容易に行うことができる。
前記ロボット制御装置において、前記受付部は、前記画面上の接触位置の動きに替えて、ポインティングデバイスにより操作される前記画面上の指示画像が示す指示位置の動きを前記操作として受け付ける、ようにしてもよい。これにより、マウス等を用いても容易に教示を行うことができる。
上記の課題を解決する本発明の第二態様は、ロボットであって、前記ロボットの画像を表示する表示部と、前記表示部により表示された前記ロボットの画像に対する操作を受け付ける受付部と、前記ロボットの動作を教示する教示部と、を備え、前記表示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を表す画像を表示し、前記教示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を前記ロボットに教示する。これにより、画像の様々な操作に応じた動作を表すロボットの画像が表示され、この動作に対応する教示が行われるため、より容易にロボットの多種多様な動作の教示を行うことができる。
上記の課題を解決する本発明の第三態様は、ロボットと、前記ロボットを制御するロボット制御装置とを備えるロボットシステムであって、前記ロボットの画像を表示する表示部と、前記表示部により表示された前記ロボットの画像に対する操作を受け付ける受付部と、前記ロボットの動作を教示する教示部と、を備え、前記表示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を表す画像を表示し、前記教示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を前記ロボットに教示する。これにより、画像の様々な操作に応じた動作を表すロボットの画像が表示され、この動作に対応する教示が行われるため、より容易にロボットの多種多様な動作の教示を行うことができる。
上記の課題を解決する本発明の第四態様は、ロボットの動作の教示方法であって、前記ロボットの画像を表示する表示ステップと、前記表示ステップで表示された前記ロボットの画像に対する操作を受け付ける受付ステップと、前記ロボットの動作を教示する教示部ステップ、を含み、前記表示ステップは、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を表す画像を表示し、前記教示ステップは、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を前記ロボットに教示する。これにより、画像の様々な操作に応じた動作を表すロボットの画像が表示され、この動作に対応する教示が行われるため、より容易にロボットの多種多様な動作の教示を行うことができる。
上記の課題を解決する本発明の第五態様は、ロボット制御装置のプログラムであって、ロボットの画像を表示する表示部と、前記表示部により表示された前記ロボットの画像に対する操作を受け付ける受付部と、前記ロボットの動作を教示する教示部として、前記ロボット制御装置を機能させ、前記表示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を表す画像を表示し、前記教示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を前記ロボットに教示する。これにより、画像の様々な操作に応じた動作を表すロボットの画像が表示され、この動作に対応する教示が行われるため、より容易にロボットの多種多様な動作の教示を行うことができる。
本発明の一実施形態について、図面を参照して説明する。
図1は、本発明の一実施形態に係るロボットシステムの概略構成の一例を示す図である。
ロボットシステム1は、ロボット2と、ロボット制御装置3とを有する。ロボット2とロボット制御装置3は、通信可能に接続される。また、ロボット制御装置3には、操作端末4が通信可能に接続される。
ロボット2は、ロボット制御装置3からの指示に従って作業を行う。ロボット2は、例えば、作業台Tの近くに配置され、作業台T上の所定の作業領域内で作業を行う。ロボット2の作業内容は特に限定されないが、例えば、対象物(以下、「ワーク」ともいう)Wを把持したり、把持したワークWを移動したり、複数のワークWを組み合わせたりする作業がある。
ロボット2は、胴部20と、アーム21と、ハンド22と、脚部24と、頭部25とを有する。頭部25には、2台の撮像装置26が設けられている。なお、ハンド22は、本発明の把持部に相当する。
アーム21は、胴部20に設けられる。アーム21は、一以上のジョイント(「回転軸」ともいう)21a及び一以上のアーム部材(「リンク」ともいう)21bを含む。
ジョイント21aには、それらを動作させるためのアクチュエーター(図示せず)が設けられる。アクチュエーターは、例えば、サーボモーターやエンコーダーなどを備える。エンコーダーが出力するエンコーダー値は、ロボット2のフィードバック制御などに使用される。
また、アーム21の先端には、力覚センサー21c(図示せず)が設けられる。力覚センサー21cは、ロボット2が出している力に対する反力として受けている力や、モーメントを検出するセンサーである。力覚センサー21cとしては、例えば、並進3軸方向の力成分と、回転3軸回りのモーメント成分の6成分を同時に検出することができる6軸力覚センサーを用いることができる。なお、力覚センサーは、6軸に限らず、例えば3軸でもよい。
各回転軸を連動させることにより、アーム部材21bの姿勢を変化させ、アーム21の先端部などに設定された注目位置(「エンドポイント」ともいう)を、所定の可動範囲内で自在に移動させたり自由な方向へ向けたりすることができる。なお、エンドポイントの位置は、アームの先端部に限定されず、例えば、ハンド22の先端部などに設定されてもよい。
なお、アーム21は、マニピュレーターの一種ということができる。マニピュレーターは、エンドポイントの位置を移動させる機構であり、アームに限られず様々な形態をとることができる。また、マニピュレーターは、図示するように2本に限られず、1本あるいは3本以上設けるようにしてもよい。
ハンド22は、アーム21の先端に設けられる。ハンド22は、例えば、複数の指を備え、少なくとも2本の指でワークを把持したり解放したりすることができる。以下では、ハンド22は、4本の指を備えているものとする。ハンド22は、アーム21の先端部に対して着脱可能であってもよい。なお、各指には、それらを動作させるためのアクチュエーター(図示せず)が設けられる。アクチュエーターは、例えば、サーボモーターやエンコーダーなどを備える。
なお、ハンド22は、エンドエフェクターの一種ということができる。エンドエフェクターは、ワークを把持したり、持ち上げたり、吊り上げたり、吸着したり、ワークを加工したりするための部材である。エンドエフェクターは、ハンド、フック、吸盤など、様々な形態をとることができる。また、エンドエフェクターは、一本のアームに対して複数設けるようにしてもよい。
撮像装置26は、作業台T上の作業領域、アーム21、ハンド22等を撮像することができるように頭部25に配置されている。撮像装置26は、撮像画像データをロボット2内の制御部(図示せず)や、ロボット制御装置3に出力する。撮像装置26は、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等を有するカメラである。本実施形態では、2台の撮像装置26によりステレオ画像を撮像し、画像処理により3次元の立体視、物体認識等が可能である。
もちろん、ロボット2の構成は図示した例に限られない。例えば、図1ではジョイント数が7個(7軸)の例が示されているが、ジョイントの数(「軸数」ともいう)やリンクの数を増減させてもよい。また、ジョイント、リンク、ハンド等の各種部材の形状、大きさ、配置、構造等も適宜変更してよい。
ロボット制御装置3は、ロボット2の動作に関する操作入力をユーザーから受け付ける。例えば、ロボット制御装置3は、ロボット2のモデル画像等を、操作端末4又は表示装置96(図3参照)に出力し、表示させる。また、例えば、ロボット制御装置3は、操作端末4又は入力装置95(図3参照)を介して、ロボット2のモデル画像等に対する操作をユーザーから受け付ける。また、例えば、ロボット制御装置3は、受け付けたモデル画像に対する操作に基づいて、ロボット2の動作を示す教示情報を生成する。
また、ロボット制御装置3は、教示情報に基づいて、軌道計画に基づく位置制御、ビジュアルサーボ制御等によりロボット2を動作させる制御命令を生成し、生成した制御命令をロボット2に出力する。ロボット2は、ロボット制御装置3から出力された制御命令に従ってアクチュエーターを駆動させることで動作する。また、ロボット制御装置3は、撮像装置26を制御して、撮像を行わせ、撮像画像を取得する。
操作端末4は、ロボット制御装置3により制御され、ユーザーからの操作の入力、ユーザーに対する情報の出力等を行うユーザーインターフェイスとして機能する。本実施形態では、操作端末4は、タッチスクリーン、通信インターフェイス等を備える。タッチスクリーンは、例えば、静電容量型のタッチパネル、ディスプレイ等を備える。操作端末4は、例えば、タッチスクリーン上のユーザーの操作を表す操作信号を生成し、通信インターフェイスを介してロボット制御装置3に送信する。また、操作端末4は、例えば、ロボット制御装置3から、通信インターフェイスを介して画面情報を受信し、画面情報に応じた画面をタッチスクリーンに表示する。
上記のロボットシステム1の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記の構成例に限られない。また、一般的なロボットシステムが備える構成を排除するものではない。
例えば、撮像装置26は、ロボット2のアーム21の先端部分、胴部20などに設けられてもよい。また、例えば、撮像装置26は、天井、壁などに設置することもできる。また、例えば、撮像装置26に加えて、他の撮像装置を設けるようにしてもよい。また、例えば、撮像装置26は、ロボット制御装置3に接続されていてもよい。また、例えば、ロボット制御装置3は、制御部としてロボット2に内蔵されていてもよい。また、例えば、ロボット制御装置3の教示に関する機能は、ロボット制御装置3とは別の教示装置として設けられ、当該教示装置からロボット制御装置3又はロボット2の制御部に対して教示又は制御命令を送るようにしてもよい。
図2は、ロボットシステムの機能構成の一例を示す図である。
ロボット2は、動作制御部200等を備える。ロボット制御装置3は、記憶部300、受付部310、表示部320、教示部330、画像取得部340、制御部350等を備える。
動作制御部200は、例えば、ロボット制御装置3から出力される移動指令値を含む制御命令と、各ジョイント21aのアクチュエーターのエンコーダー値等とに基づいて、エンドポイントの現在位置が移動指令値が示す目標位置となるように、各ジョイント21aのアクチュエーターを駆動させる。なお、エンドポイントの現在位置は、例えば各ジョイント21aのアクチュエーターにおけるエンコーダー値等から求めることができる。
また、動作制御部200は、例えば、ロボット制御装置3から出力されるハンド22の各指に対する制御命令に従って、指定された移動量だけ指を閉じたり開いたりする。また、動作制御部200は、例えば、ロボット制御装置3から出力される所定のジョイントの回転させる制御命令に従って、指定された回転量だけ当該所定のジョイントを回転させる。
また、動作制御部200は、例えば、ロボット制御装置3からの指示に従って、撮像装置26を制御して撮像を行い、撮像画像を取得し、ロボット制御装置3に出力する。
記憶部300は、モデル画像記憶部として、ワークWやロボット2等のモデル画像を記憶する。モデル画像は、例えば、3次元CG(コンピューターグラフィックス)である。ワークWのモデル画像は、ロボット2の異なる複数の作業内容に対応できるように、ワークWごとに用意することができる。また、ロボット2のモデル画像は、パーツ(ジョイント21a、アーム部材21b、ハンド22、ハンド22の指、頭部25、胴部20、脚部24等)ごとに用意することもできる。なお、3次元CGは、実物のロボット2のパーツやワークWをデフォルメしたもので構わない。
受付部310は、操作端末4又は入力装置95(図3参照)を介してユーザーの操作を受け付ける。受付部310は、例えば、操作端末4又は表示装置96(図3参照)の画面上の操作を表す操作信号を、操作端末4又は入力装置95から受け付ける。受付部310については、後に詳述する。なお、以下では、入力手段として操作端末4のタッチスクリーンを用いる場合を中心に説明する。
表示部320は、操作端末4又は表示装置96(図3参照)を介してユーザーに対して情報を表示する。表示部320は、例えば、操作端末4又は表示装置96にロボット2のモデル画像等を出力して表示させる。また、表示部320は、例えば、受付部310により受け付けた操作信号に応じた画面情報を生成し、操作端末4又は表示装置96に表示させる。表示部320については、後に詳述する。なお、以下では、表示手段として操作端末4を用いる場合を中心に説明する。
教示部330は、受付部310により受け付けた操作信号に基づいて、ロボット2の動作を示す教示情報を生成する。教示情報には、例えば、ハンド22を移動させる指示(目標位置等を含む)、ハンド22を開閉させる指示(指の移動量、移動方向(開閉のいずれか)等を含む)、ハンド22を回転させる指示(ジョイントの回転量、回転方向等を含む)等が含まれる。教示部330については、後に詳述する。
画像取得部340は、ロボット2に対して撮像の指示を送り、撮像装置26により撮像された撮像画像を取得する。また、画像取得部340は、撮像画像からワークW等の位置及び向きを認識する。例えば、画像取得部340は、パターンマッチング等により、記憶部300に格納されているワークWのモデル画像とマッチする形状を、撮像画像から抽出する。物体認識には、一般的な技術を採用することができるため、詳細な説明は省略する。
制御部350は、教示部330により生成された教示情報に基づいて、軌道計画に基づく位置制御、ビジュアルサーボ制御等によりロボット2を動作させる制御命令を生成し、生成した制御命令をロボット2に出力する。
例えば、制御部350は、ハンド22を移動させる指示が教示情報に含まれる場合、ロボット2から取得したエンドポイントの現在位置と教示情報に含まれる目標位置とに基づいて、軌道計画を行う。そして、制御部350は、計画した軌道に基づいて、ロボット2のエンドポイントを次に移動させる移動指令値を生成し、ロボット2に出力する。
なお、関節を持つロボット2では、各関節の角度を決定すると、フォワードキネマティクス処理によりエンドポイントの位置は一意に決定される。つまり、N関節ロボットではN個の関節角度により1つの位置を表現できることになるから、当該N個の関節角度の組を1つの目標関節角度とすれば、エンドポイントの軌道を目標関節角度の集合と考えることができる。よって、移動指令値は、位置に関する値(目標位置)であってもよいし、関節の角度に関する値(目標角度)であってもよい。
また、制御部350は、教示部330により生成された教示情報に基づいて、ハンド22を開閉したり、ハンド22を回転させたりする。
例えば、制御部350は、ハンド22を開閉させる指示が教示情報に含まれる場合、教示情報に含まれる指の移動量及び移動方向に基づいて、各指の移動指令値を生成し、ロボット2に出力する。また、例えば、制御部350は、ハンド22を回転させる指示が教示情報に含まれる場合、教示情報に含まれるジョイントの回転量及び回転方向に基づいて、ハンド22に最も近い所定のジョイントの回転指令値を生成し、ロボット2に出力する。
図3は、ロボット制御装置の機能を実現するハードウェア構成の一例を示す図である。
ロボット制御装置3は、例えば、図3に示すような、CPU(Central Processing Unit)等の演算装置91と、RAM(Random Access Memory)等の主記憶装置92と、HDD(Hard Disk Drive)等の補助記憶装置93と、有線又は無線により通信ネットワークと接続するための通信インターフェイス(I/F)94と、マウス、キーボード、タッチセンサーやタッチパネルなどの入力装置95と、液晶ディスプレイなどの表示装置96と、DVD(Digital Versatile Disk)などの持ち運び可能な記憶媒体に対する情報の読み書きを行う読み書き装置97と、を備えるコンピューター90で実現することができる。
受付部310、表示部320、教示部330、画像取得部340、制御部350等は、例えば、補助記憶装置93等から主記憶装置92にロードされた所定のプログラムを演算装置91が実行することで実現される。記憶部300は、例えば、演算装置91が主記憶装置92又は補助記憶装置93を利用することで実現されてもよい。ロボット2との通信は、例えば、演算装置91が通信I/F94を利用することで実現される。なお、上記の所定のプログラムは、例えば、読み書き装置97により読み取られた記憶媒体からインストールされてもよいし、通信I/F94を介してネットワークからインストールされてもよい。
なお、操作端末4も、図3に示すようなコンピューター90で実現することができる。また、動作制御部200は、例えば、演算装置、記憶装置、処理回路、駆動回路などを備えるコントローラー基板等により実現することができる。
上述したロボットシステム1の機能構成は、ロボットシステム1の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。ロボットシステム1の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
また、ロボットシステム1の機能及び処理の分担は、説明した例に限られない。例えば、ロボット制御装置3の少なくとも一部の機能は、ロボット2に含まれ、ロボット2により実現されてもよい。また、例えば、ロボット2の少なくとも一部の機能は、ロボット制御装置3に含まれ、ロボット制御装置3により実現されてもよい。
図4は、教示処理の一例を示すフロー図(その1)である。図5は、教示処理の一例を示すフロー図(その2)である。図4のフローは、例えば、受付部310が、操作端末4を介して教示の開始指示をユーザーから受け付けた場合に開始される。
適宜、図6(タッチパネル上の操作及び表示の一例を示す図(その1))、図7(タッチパネル上の操作及び表示の一例を示す図(その2))、及び図8(タッチパネル上の操作及び表示の一例を示す図(その3))を参照して説明する。
まず、制御部350は、ロボットの現在の姿勢を取得する(ステップS1)。具体的には、制御部350は、ロボット2から、各パーツ(ジョイント21a、アーム部材21b、ハンド22、ハンド22の指、頭部25、胴部20、脚部24等)の現在の姿勢を示す情報を取得する。現在の姿勢を示す情報は、例えば、各パーツの位置及び向き(x、y、z、u、v、w等の値で表せる)とすることができる。なお、ロボット2は、自身のパーツ毎に当該パーツの位置及び向きを保持しているものとする。
それから、表示部320は、ロボット2のモデル画像を表示する(ステップS2)。具体的には、表示部320は、ステップS1で取得された各パーツの位置及び向きを示す情報に基づいて、記憶部300に格納されている各パーツのモデル画像を配置することで、ロボット2の3次元モデル画像を生成する。また、表示部320は、生成したロボット2の3次元モデル画像を、設定されているユーザーの視点の位置及び向き(x、y、z、u、v、w等の値で表せる)から所定の視野角で見たときの3次元モデル画像を生成する。そして、表示部320は、生成したロボット2の3次元モデル画像を、2次元モデル画像に変換し、操作端末4に表示する。
それから、画像取得部340は、画像を取得する(ステップS3)。具体的には、画像取得部340は、ロボット2に対して撮像の指示を送り、撮像装置26により撮像された撮像画像を取得する。また、画像取得部340は、記憶部300に格納されているワークWのモデル画像を用いて、パターンマッチング等により、取得した撮像画像からワークWを認識する。このとき、画像取得部340は、認識したワークWの位置及び向き(x、y、z、u、v、w等の値で表せる)を特定する。
それから、表示部320は、ワークWのモデル画像を表示する(ステップS4)。具体的には、表示部320は、ステップS3で認識されたワークWの位置及び向きに基づいて、記憶部300に格納されている当該ワークWの3次元モデル画像を配置し、当該ワークWの3次元モデル画像を、設定されているユーザーの視点の位置及び向きから所定の視野角で見たときの3次元モデル画像を生成する。そして、表示部320は、生成したワークWの3次元モデル画像を、2次元モデル画像に変換し、ステップS2で表示したロボット2の2次元モデル画像とともに、操作端末4に表示する。なお、ステップS3でワークWが認識されていない場合には、ステップS4の処理はスキップしてよい。
このようにして、例えば図6(A)、図7(A)、図8(A)に示すように、ロボット2のモデル画像RG(アーム21のモデル画像、ハンド22のモデル画像HG等を含む)と、ワークWのモデル画像WGとが、初期画像として表示される。なお、図6〜図8では、説明を分かり易くするため、ワークW、ハンド22、及びアーム21の一部のモデル画像が表示されているが、表示部320は、ロボット2の全体のモデル画像を表示するようにしてもよい。
それから、受付部310は、ユーザーの操作を受け付ける(ステップS11)。具体的には、受付部310は、操作端末4を介して、ステップS4でロボット2のモデル画像等が表示された画面上でのユーザーの操作を表す操作信号を受け付ける。受付部310は、操作信号として、例えば、タップ、ドラッグ、回転、ピンチイン、ピンチアウト等の操作種類や、タップ位置、タッチ位置、ドラッグ操作の始点位置及び終点位置、回転操作の回転方向及び回転量、ピンチイン及びピンチアウト操作の移動量等の操作パラメーターを受け付ける。受付部310は、表示部320により現在表示されている画面の内容と操作信号とに基づいて、ユーザーの操作内容を特定する。
なお、ドラッグ操作は、例えば、指等による画面上の接触を始点位置から終点位置まで連続的に移動させる操作である。回転操作は、例えば、指等による画面上の接触位置を、円弧を描くように移動させる操作である。一方の指等を円弧の中心として画面に接触させ(第一の接触位置)、他方の指等で円弧を描くように接触位置(第二の接触位置)を移動させてもよい。円弧を描く方向が回転方向に対応し、円弧の回転角が回転量に対応する。また、ピンチイン操作は、例えば、2本の指等を画面上に接触させ(第一の接触位置及び第二の接触位置)、これらの指の接触位置を近付ける操作である。また、ピンチアウト操作は、例えば、2本の指等を画面上に接触させ(第一の接触位置及び第二の接触位置)、これらの指の接触位置を遠ざける操作である。第一の接触位置及び第二の接触位置の距離の変化が移動量に対応する。
ステップS11でユーザーの操作を受け付けると、受付部310は、受け付けた操作が、教示の終了指示(例えば、画面上の「終了」ボタンのタップ)であるか否かを判定する(ステップS12)。教示の終了指示である場合(ステップS12でY)、受付部310は、図4及び図5に示すフローを終了する。
教示の終了指示でない場合(ステップS12でN)、受付部310は、ステップS11の操作が、選択操作(例えば、画面上のタップ)であるか否かを判定する(ステップS21)。
選択操作である場合(ステップS21でY)、受付部310は、ステップS11の操作が、画面上のハンド22のモデル画像HGを選択するものであるか否かを判定する(ステップS22)。
ハンド22のモデル画像HGの選択である場合(ステップS22でY)、表示部320は、画面上のハンド22のモデル画像HGを強調表示し(ステップS23)、処理をステップS11に戻す。強調表示は、例えばハンド22のモデル画像HGの色を他のパーツやワークWのモデル画像の色と異ならせればよい。
このようにして、例えば図6(B1)、図8(B1)、図8(C1)に示すように、ロボット2のハンド22のモデル画像HGが選択され、強調表示される。なお、図6〜図8では、タップ位置、タッチ位置等を接触位置Pとして示している。
ハンド22のモデル画像HGの選択でない場合(ステップS22でN)、受付部310は、ステップS11の操作が、画面上のワークWのモデル画像WGを選択するものであるか否かを判定する(ステップS24)。ワークWのモデル画像WGの選択でない場合(ステップS24でN)、受付部310は、処理をステップS11に戻す。
ワークWのモデル画像WGの選択である場合(ステップS24でY)、表示部320は、画面上のワークWのモデル画像WGを強調表示する(ステップS25)。強調表示は、例えばワークWのモデル画像WGの色を他のパーツやワークWのモデル画像の色と異ならせればよい。
このようにして、例えば図6(B2)に示すように、ワークWのモデル画像WGが選択され、強調表示される。
それから、受付部310は、画面上のハンド22のモデル画像HGが選択済みであるか否かを判定する(ステップS26)。ハンド22のモデル画像HGが選択済みでない場合(ステップS26でN)、受付部310は、処理をステップS11に戻す。
ハンド22のモデル画像HGが選択済みである場合(ステップS26でY)、表示部320は、ハンド22の把持動作を画面上に表示する(ステップS27)。具体的には、表示部320は、ワークWのモデル画像WGが選択されたときのタップ位置を、ハンド22の指によるワークWの把持位置として、受付部310から取得する。また、表示部320は、画面上に表示されているハンド22のモデル画像HGの現在位置を取得する。また、表示部320は、現在位置から把持位置の近く(把持位置から所定距離離れた所定位置)まで移動し、ワークWを把持する動作を表すハンド22のモデル画像HGを生成し、順次画面上に表示する。
また、教示部330は、ステップS27で表示された動作に対応する教示情報を生成し(ステップS28)、処理をステップS11に戻す。具体的には、教示部330は、表示部320から、ハンド22の指によるワークWの把持位置から所定距離離れた所定位置を目標位置として取得し、ハンド22を移動させる教示(目標位置を含む)を生成する。このとき、教示部330は、画面上の2次元の目標位置を、ロボット2における3次元の目標位置に変換して、教示に含める。また、教示部330は、ハンド22を開閉させる教示(指の移動量、移動方向を含む)を生成する。このとき、教示部330は、ステップS3で認識されているワークWの形状、位置、向き等に基づいて、指の移動量、移動方向を決定し、教示に含める。教示部330は、生成した教示を教示情報として記憶部300に格納する。なお、生成する教示の内容は、上記の例に限定されない。例えば、ハンド22を把持位置から所定距離離れた所定位置まで移動させる教示、ハンド22を開く教示、ハンド22を所定位置から把持位置まで移動する教示、ハンド22を閉じる教示、などを生成してもよい。
このようにして、例えば図6(B1)及び図6(B2)に示すように、ハンド22のモデル画像HGとワークWのモデル画像WGを選択する操作を行うと、図6(B3)に示すように、ハンド22を現在位置から把持位置に移動し、ワークWを把持する動作を表したモデル画像HGが順次表示される。また、表示内容に対応した教示情報が生成される。
一方、選択操作でない場合(ステップS21でN)、受付部310は、ステップS11の操作が、ドラッグ操作であるか否かを判定する(図5のステップS31)。
ドラッグ操作である場合(ステップS31でY)、受付部310は、ステップS11のドラッグ操作の始点が、画面上のハンド22のモデル画像HG上にあるか否かを判定する(ステップS32)。
ドラッグ操作の始点がハンド22のモデル画像HG上にある場合(ステップS32でY)、受付部310は、ステップS11のドラッグ操作の終点が、画面上のワークWのモデル画像WG上にあるか否かを判定する(ステップS33)。
ドラッグ操作の終点がワークWのモデル画像WG上にある場合(ステップS33でY)、表示部320は、ハンド22の把持動作を画面上に表示する(ステップS34)。具体的には、表示部320は、ドラッグ操作されたときの終点位置を、ハンド22の指によるワークWの把持位置として、受付部310から取得する。また、表示部320は、画面上に表示されているハンド22のモデル画像HGの現在位置を取得する。また、表示部320は、現在位置から把持位置の近く(把持位置から所定距離離れた所定位置)まで移動し、ワークWを把持する動作を表すハンド22のモデル画像HGを生成し、順次画面上に表示する。なお、表示部320は、ドラッグ操作の始点位置のモデル画像HGと終点位置のモデル画像WGとを強調表示するようにしてもよい。
また、教示部330は、ステップS34で表示された動作に対応する教示情報を生成し(ステップS35)、処理をステップS11(図4)に戻す。具体的には、教示部330は、表示部320から、ハンド22の指によるワークWの把持位置から所定距離離れた所定位置を目標位置として取得し、ハンド22を移動させる教示(目標位置を含む)を生成する。このとき、教示部330は、画面上の2次元の目標位置を、ロボット2における3次元の目標位置に変換し、教示に含める。また、教示部330は、ハンド22を開閉させる教示(指の移動量、移動方向を含む)を生成する。このとき、教示部330は、ステップS3で認識されているワークWの形状、位置、向き等に基づいて、指の移動量、移動方向を決定し、教示に含める。教示部330は、生成した教示を教示情報として記憶部300に格納する。なお、生成する教示の内容は、上記の例に限定されない。例えば、ハンド22を把持位置から所定距離離れた所定位置まで移動させる指示、ハンドを開く指示、ハンドを所定位置から把持位置まで移動する指示、ハンドを閉じる指示、などを生成してもよい。
このようにして、例えば図7(B1)に示すように、ハンド22のモデル画像HGをワークWのモデル画像WGまでドラッグする操作を行うと、図7(B2)に示すように、ハンド22を現在位置から把持位置に移動し、ワークWを把持する動作を表したモデル画像HGが順次表示される。また、表示内容に対応した教示情報が生成される。
一方、ドラッグ操作の終点がワークWのモデル画像WG上にない場合(ステップS33でN)、表示部320は、ハンド22の移動動作を画面上に表示する(ステップS36)。具体的には、表示部320は、ドラッグ操作されたときの終点位置を、ハンド22の移動の目標位置として、受付部310から取得する。また、表示部320は、画面上に表示されているハンド22のモデル画像HGの現在位置を取得する。また、表示部320は、現在位置から目標位置まで移動する動作を表すハンド22のモデル画像HGを生成し、順次画面上に表示する。なお、表示部320は、ドラッグ操作の始点位置のモデル画像HGを強調表示するようにしてもよい。
また、教示部330は、ステップS36で表示された動作に対応する教示情報を生成し(ステップS37)、処理をステップS11(図4)に戻す。具体的には、教示部330は、表示部320から、ハンド22のモデル画像HGの移動の目標位置を取得し、ハンド22を移動させる教示(目標位置を含む)を生成する。このとき、教示部330は、画面上の2次元の目標位置を、ロボット2における3次元の目標位置に変換し、教示に含める。教示部330は、生成した教示を教示情報として記憶部300に格納する。
このようにして、例えば図7(C1)に示すように、ハンド22のモデル画像HGをワークWのモデル画像WG以外の領域までドラッグする操作を行うと、図7(C2)に示すように、ハンド22を現在位置から目標位置に移動する動作を表したモデル画像HGが順次表示される。また、表示内容に対応した教示情報が生成される。
一方、ドラッグ操作の始点がハンド22のモデル画像HG上にない場合(ステップS32でN)、受付部310は、ドラッグ操作の始点が、ワークWのモデル画像WG以外の領域(その他領域)上にあるか否かを判定する(ステップS38)。ドラッグ操作の始点がその他領域上にない場合(ステップS38でN)、受付部310は、処理をステップS11(図4)に戻す。
ドラッグ操作の始点がその他領域上にある場合(ステップS38でY)、表示部320は、視点変更を行い(ステップS39)、処理をステップS11(図4)に戻す。具体的には、表示部320は、ドラッグ操作されたときの始点位置及び終点位置を、受付部310から取得する。また、表示部320は、始点位置から終点位置までの方向と距離を求める。また、表示部320は、予め定められた、ドラッグ操作の方向及び距離と、ユーザーの視点の位置及び向きの変化方向及び変化量とを対応付けたテーブルあるいは数式に基づいて、ユーザーの視点の位置及び向きを変更する。また、表示部320は、現在のロボット2及びワークWの3次元モデル画像を、変更後のユーザーの視点の位置及び向きから、所定の視野角で見たときの3次元モデル画像を生成する。そして、表示部320は、生成したロボット2及びワークWの3次元モデル画像を、2次元モデル画像に変換し、操作端末4に表示する。
このようにして、例えば図7(D1)に示すように、ハンド22のモデル画像HGやワークWのモデル画像WG以外の領域でドラッグ操作を行うと、図7(D2)に示すように、視点が変更されて、モデル画像HG及びモデル画像WGが表示される。
一方、ドラッグ操作でない場合(ステップS31でN)、受付部310は、ステップS11の操作が、回転操作であるか否かを判定する(ステップS41)。
回転操作である場合(ステップS41でY)、受付部310は、画面上のハンド22のモデル画像HGが選択済みであるか否かを判定する(ステップS42)。ハンド22のモデル画像HGが選択済みでない場合(ステップS42でN)、受付部310は、処理をステップS11(図4)に戻す。
ハンド22のモデル画像HGが選択済みである場合(ステップS42でY)、表示部320は、ハンド22の回転動作を画面上に表示する(ステップS43)。具体的には、表示部320は、回転操作されたときの回転方向及び回転量を、受付部310から取得する。また、表示部320は、予め定められた、回転操作の回転方向及び回転量と、ハンド22に最も近い所定のジョイントの回転方向及び回転量とを対応付けたテーブルあるいは数式に基づいて、当該ジョイントの回転方向及び回転量を決定する。また、表示部320は、決定した回転方向及び回転量に基づいてハンド22を回転させる動作を表すハンド22のモデル画像HGを生成し、順次画面上に表示する。
また、教示部330は、ステップS43で表示された動作に対応する教示情報を生成し(ステップS44)、処理をステップS11(図4)に戻す。具体的には、教示部330は、表示部320から、所定のジョイントの回転方向及び回転量を取得し、ハンド22を回転させる教示(ジョイントの回転量及び回転方向を含む)を生成する。このとき、教示部330は、画面上のジョイントの回転量及び回転方向を、ロボット2におけるジョイントの回転量及び回転方向に変換し、教示に含める。教示部330は、生成した教示を教示情報として記憶部300に格納する。
このようにして、例えば図8(B2)に示すように、ハンド22を回転させる操作を行うと、図8(B3)に示すように、ハンド22を回転させる動作を表したモデル画像HGが順次表示される。また、表示内容に対応した教示情報が生成される。
一方、回転操作でない場合(ステップS41でN)、受付部310は、ステップS11の操作が、ピンチイン操作又はピンチアウト操作であるか否かを判定する(ステップS51)。ピンチイン操作又はピンチアウト操作でない場合(ステップS51でN)、受付部310は、処理をステップS11(図4)に戻す。
ピンチイン操作又はピンチアウト操作である場合(ステップS51でY)、受付部310は、画面上のハンド22のモデル画像HGが選択済みであるか否かを判定する(ステップS52)。ハンド22のモデル画像HGが選択済みでない場合(ステップS52でN)、受付部310は、処理をステップS11(図4)に戻す。
ハンド22のモデル画像HGが選択済みである場合(ステップS52でY)、表示部320は、ハンド22を閉じる又は開く動作を画面上に表示する(ステップS53)。具体的には、表示部320は、ピンチイン操作又はピンチアウト操作がされたときのピンチインの移動量又はピンチアウトの移動量を、受付部310から取得する。また、表示部320は、予め定められた、ピンチインの移動量又はピンチアウトの移動量と、ハンド22の指を閉じる移動量又は指を開く移動量とを対応付けたテーブルあるいは数式に基づいて、指の移動方向(閉じる又は開く)及び移動量を決定する。また、表示部320は、決定した移動方向及び移動量に基づいてハンド22を閉じる又は開く動作を表すハンド22のモデル画像HG画像を生成し、順次画面上に表示する。
また、教示部330は、ステップS53で表示された動作に対応する教示情報を生成し(ステップS54)、処理をステップS11(図4)に戻す。具体的には、教示部330は、表示部320から、指の移動方向及び移動量を取得し、ハンド22の指を移動させる教示(移動方向及び移動量を含む)を生成する。このとき、教示部330は、画面上の指の移動方向及び移動量を、ロボット2における指の移動方向及び移動量に変換し、教示に含める。教示部330は、生成した教示を教示情報として記憶部300に格納する。
このようにして、例えば図8(C2)に示すように、ハンド22のピンチアウト操作を行うと、図8(C3)に示すように、ハンド22の指を開く動作を表したモデル画像HGが順次表示される。また、表示内容に対応した教示情報が生成される。
なお、図4及び図5のフローチャートが終了した場合(ステップS12でY)、制御部350は、記憶部300に格納されている教示情報に基づいて、ロボット2を動作させる制御命令を生成し、ロボット2に出力する。もちろん、制御部350は、受付部310を介してユーザーから指示を受け付けた場合に、制御命令を生成し、ロボット2に出力するようにしてもよい。
以上、本発明の一実施形態について説明した。本実施形態によれば、タッチスクリーン等の入力手段を介して、より容易にロボットの多種多様な動作の教示を行うことができる。
例えば、本実施形態では、画像の様々な操作に応じた動作を表すロボットの画像が表示されるとともに、この動作に対応する教示が行われるため、より容易にロボットの多種多様な動作の教示を行うことができる。また、例えば、本実施形態では、画像が表示される画面上でタッチ操作等により操作を行えるため、より直感的にロボットの動作を教示することができる。
また、例えば、本実施形態では、把持動作を教示する際に、ロボットの詳細な動作を入力しなくても、ドラッグ等の移動操作で、より容易にロボットの把持動作を教示することができる。また、例えば、本実施形態では、把持動作を教示する際に、ロボットの詳細な動作を入力しなくても、タップ操作等の選択操作で、より容易にロボットの把持動作を教示することができる。
また、例えば、本実施形態では、把持動作を教示する際に、対象物の画像上の接触位置を把持位置とするため、ドラッグ等の移動操作やタップ操作等の選択操作を行いつつ、把持位置を容易に教示することができる。また、例えば、本実施形態では、撮像画像に基づいて対象物の画像を生成するため、実際の対象物に対する動作を簡単に教示できる。
もちろん、上記の本発明の実施形態は、本発明の要旨と範囲を例示することを意図し、限定するものではない。例えば、上記の実施形態に以下のような変形を加えてもよい。
例えば、上記の実施形態では、ハンド22の動作を教示できるようにしているが、アーム部材21bの動作を教示できてもよい。また、例えば、胴部20の動作、頭部25の動作、撮像装置26の動作等を教示できるようにしてもよい。また、ハンド22以外のエンドエフェクターについても同様に適用できる。
また、例えば、上記の実施形態では、ユーザーの操作を受け付ける前に、撮像画像からのワークWの認識とモデル画像WGの表示を行っているが(図4のステップS3、S4)、この処理は、ユーザーの操作により任意のタイミングで実行されるようにしてもよい。具体的には、受付部310が画像取得指示(例えば、画面上の「画像取得」ボタンのタップ)を受け付けた場合に、ステップS3及びステップS4と同様の処理が行われるようにすればよい。このようにすれば、例えば作業領域にワークWを追加したり、作業領域からワークWを排除したり、ワークW姿勢を変更したりといった作業内容の変更に柔軟に対応できる。
また、例えば、受付部310がカメラ画像を表示する指示(例えば、画面上の「カメラ画像」ボタンのタップ)を受け付けた場合に、表示部320は、画像取得部340により現在の撮像画像を取得し、当該取得した撮像画像を画面上に表示するようにしてもよい。このようにすれば、ユーザーは、作業領域の状況等を確認することができる。
また、例えば、教示情報の生成(図4のステップS28、図5のステップS35、S37、S44、S54等)が開始される前に、表示部320は、教示情報の生成を行うか否かを確認するメッセージ等を画面上に表示してもよい。この場合、受付部310が教示情報の生成を行う指示を受け付けた場合に、教示部330は、教示情報の生成を行う。なお、受付部310が教示情報の生成を行わない指示を受け付けた場合には、受付部310は、最後に行われたロボット2の動作に関するユーザーの操作をキャンセルし、表示部320は、モデル画像を当該操作が行われる前の状態に戻して、画面上に表示すればよい。
また、例えば、上記の実施形態では、入力手段として操作端末4のタッチスクリーンを用いる場合を中心に説明したが、操作端末4に接続されるマウス等の各種ポインティングデバイスを入力手段として用いてもよい。この場合、受付部310は、画面上の接触位置Pの替わりに、ポインティングデバイスにより操作される画面上のポインター等の指示画像が示す指示位置を受け付ける。なお、入力手段として、ロボット制御装置3の入力装置95を用い、表示手段として、ロボット制御装置3の表示装置96を用いるようにしてもよい。
以上、本発明について実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。本発明の提供の態様にも、様々な態様が取り得る。本発明は、例えば、ロボット制御装置の機能が含まれるロボットとして提供してもよい。また、例えば、ロボット制御装置の教示に関する機能を、教示装置に含め、教示装置と、ロボット制御装置と、ロボットとを別個に有するロボットシステムとして提供してもよい。また、例えば、教示装置と、ロボット制御装置の機能が含まれるロボットとを含むロボットシステムとして提供してもよい。また、本発明は、ロボット制御方法、プログラム、当該プログラムを記憶した記憶媒体などとしても提供することもできる。
1:ロボットシステム、2:ロボット、3:ロボット制御装置、4:操作端末、20:胴部、21:アーム、21a:ジョイント、21b:アーム部材、21c:力覚センサー、22:ハンド、24:脚部、25:頭部、26:撮像装置、90:コンピューター、91:演算装置、92:主記憶装置、93:補助記憶装置、94:通信I/F、95:入力装置、96:表示装置、97:読み書き装置、200:動作制御部、300:記憶部、310:受付部、320:表示部、330:教示部、340:画像取得部、350:制御部、HG:ハンドのモデル画像、P:接触位置、RG:ロボットのモデル画像、T:作業台、W:ワーク、WG:ワークのモデル画像
Claims (14)
- ロボットの画像を表示する表示部と、
前記表示部により表示された前記ロボットの画像に対する操作を受け付ける受付部と、
前記ロボットの動作を教示する教示部と、を備え、
前記表示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を表す画像を表示し、
前記教示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を前記ロボットに教示する、ロボット制御装置。 - 請求項1に記載のロボット制御装置であって、
前記受付部は、画面上の接触位置の動きを前記操作として受け付ける、ロボット制御装置。 - 請求項2に記載のロボット制御装置であって、
前記受付部が、前記把持部の画像上から対象物の画像上まで前記接触位置を移動する操作を受け付けた場合、
前記表示部は、前記把持部を前記対象物まで移動して把持する動作を表す画像を表示し、
前記教示部は、前記把持部を前記対象物まで移動して把持する動作を前記ロボットに教示する、ロボット制御装置。 - 請求項2に記載のロボット制御装置であって、
前記受付部は、前記把持部の画像を選択した状態で対象物の画像を選択する操作を受け付けた場合、
前記表示部は、前記把持部を前記対象物まで移動して把持する動作を表す画像を表示し、
前記教示部は、前記把持部を前記対象物まで移動して把持する動作を前記ロボットに教示する、ロボット制御装置。 - 請求項3又は4に記載のロボット制御装置であって、
前記受付部は、前記対象物の画像上の前記接触位置を、把持位置として受け付け、
前記表示部は、前記把持部を前記把持位置まで移動して把持する動作を表す画像を表示し、
前記教示部は、前記把持部を前記把持位置まで移動して把持する動作を前記ロボットに教示する、ロボット制御装置。 - 請求項3〜5いずれか一項に記載のロボット制御装置であって、
前記対象物を撮像した撮像画像を取得する画像取得部を備え、
前記表示部は、前記撮像画像に基づいて前記対象物の画像を生成し、表示する、ロボット制御装置。 - 請求項2〜6いずれか一項に記載のロボット制御装置であって、
前記受付部が、前記接触位置を、円弧を描くように移動させる操作を受け付けた場合、
前記表示部は、前記把持部を回転する動作を表す画像を表示し、
前記教示部は、前記把持部を回転させる動作を前記ロボットに教示する、ロボット制御装置。 - 請求項2〜6いずれか一項に記載のロボット制御装置であって、
前記接触位置には、第一接触位置と第二接触位置が含まれ、
前記受付部が、前記第一接触位置と前記第二接触位置とを近づける又は遠ざける操作を受け付けた場合、
前記表示部は、前記把持部を閉じる又は開く動作を表す画像を表示し、
前記教示部は、前記把持部を閉じる又は開く動作を前記ロボットに教示する、ロボット制御装置。 - 請求項2〜6いずれか一項に記載のロボット制御装置であって、
前記受付部が、前記画面上の所定の領域で、前記接触位置を移動させる操作を受け付けた場合、
前記表示部は、視点を変更して前記把持部の画像を表示する、ロボット制御装置。 - 請求項1〜9いずれか一項に記載のロボット制御装置であって、
前記受付部は、前記画面上の接触位置の動きに替えて、ポインティングデバイスにより操作される前記画面上の指示画像が示す指示位置の動きを前記操作として受け付ける、ロボット制御装置。 - ロボットであって、
前記ロボットの画像を表示する表示部と、
前記表示部により表示された前記ロボットの画像に対する操作を受け付ける受付部と、
前記ロボットの動作を教示する教示部と、を備え、
前記表示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を表す画像を表示し、
前記教示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を前記ロボットに教示する、ロボット。 - ロボットと、前記ロボットを制御するロボット制御装置とを備えるロボットシステムであって、
前記ロボットの画像を表示する表示部と、
前記表示部により表示された前記ロボットの画像に対する操作を受け付ける受付部と、
前記ロボットの動作を教示する教示部と、を備え、
前記表示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を表す画像を表示し、
前記教示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を前記ロボットに教示する、ロボットシステム。 - ロボットの動作の教示方法であって、
前記ロボットの画像を表示する表示ステップと、
前記表示ステップで表示された前記ロボットの画像に対する操作を受け付ける受付ステップと、
前記ロボットの動作を教示する教示部ステップ、を含み、
前記表示ステップは、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を表す画像を表示し、
前記教示ステップは、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を前記ロボットに教示する、教示方法。 - ロボット制御装置のプログラムであって、
ロボットの画像を表示する表示部と、
前記表示部により表示された前記ロボットの画像に対する操作を受け付ける受付部と、
前記ロボットの動作を教示する教示部として、前記ロボット制御装置を機能させ、
前記表示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を表す画像を表示し、
前記教示部は、前記操作に応じて、前記ロボットの把持部の移動、前記把持部の回転、又は前記把持部の開閉、を前記ロボットに教示する、プログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018122129A JP2018144228A (ja) | 2018-06-27 | 2018-06-27 | ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018122129A JP2018144228A (ja) | 2018-06-27 | 2018-06-27 | ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014063230A Division JP6361213B2 (ja) | 2014-03-26 | 2014-03-26 | ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018144228A true JP2018144228A (ja) | 2018-09-20 |
Family
ID=63589594
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018122129A Pending JP2018144228A (ja) | 2018-06-27 | 2018-06-27 | ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018144228A (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021177239A1 (ja) * | 2020-03-05 | 2021-09-10 | ||
| WO2021261325A1 (ja) * | 2020-06-26 | 2021-12-30 | 川崎重工業株式会社 | ロボットの教示装置およびロボットの教示プログラム |
| WO2021261326A1 (ja) * | 2020-06-26 | 2021-12-30 | 川崎重工業株式会社 | ロボットの教示装置およびロボットの教示プログラム |
| CN114654446A (zh) * | 2022-03-04 | 2022-06-24 | 华南理工大学 | 一种机器人示教方法、装置、设备和介质 |
| WO2025057701A1 (ja) * | 2023-09-14 | 2025-03-20 | 川崎重工業株式会社 | 教示支援装置、教示支援方法及び教示支援プログラム |
-
2018
- 2018-06-27 JP JP2018122129A patent/JP2018144228A/ja active Pending
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021177239A1 (ja) * | 2020-03-05 | 2021-09-10 | ||
| WO2021177239A1 (ja) * | 2020-03-05 | 2021-09-10 | ファナック株式会社 | 取り出しシステム及び方法 |
| JP7481427B2 (ja) | 2020-03-05 | 2024-05-10 | ファナック株式会社 | 取り出しシステム及び方法 |
| CN115803865A (zh) * | 2020-06-26 | 2023-03-14 | 川崎重工业株式会社 | 机器人的示教装置以及机器人的示教程序 |
| JP2022007291A (ja) * | 2020-06-26 | 2022-01-13 | 川崎重工業株式会社 | ロボットの教示装置およびロボットの教示プログラム |
| JP2022007292A (ja) * | 2020-06-26 | 2022-01-13 | 川崎重工業株式会社 | ロボットの教示装置およびロボットの教示プログラム |
| KR20230028423A (ko) * | 2020-06-26 | 2023-02-28 | 카와사키 주코교 카부시키 카이샤 | 로봇의 교시 장치 및 로봇의 교시 프로그램 |
| WO2021261326A1 (ja) * | 2020-06-26 | 2021-12-30 | 川崎重工業株式会社 | ロボットの教示装置およびロボットの教示プログラム |
| WO2021261325A1 (ja) * | 2020-06-26 | 2021-12-30 | 川崎重工業株式会社 | ロボットの教示装置およびロボットの教示プログラム |
| JP7621069B2 (ja) | 2020-06-26 | 2025-01-24 | 川崎重工業株式会社 | ロボットの教示装置、ロボットの教示プログラム及びロボットの教示方法 |
| US12208516B2 (en) | 2020-06-26 | 2025-01-28 | Kawasaki Jukogyo Kabushiki Kaisha | Teaching device for robot and teaching program for robot |
| US12280502B2 (en) | 2020-06-26 | 2025-04-22 | Kawasaki Jukogyo Kabushiki Kaisha | Robot teaching device and robot teaching program |
| JP7691813B2 (ja) | 2020-06-26 | 2025-06-12 | 川崎重工業株式会社 | ロボットの教示装置、ロボットの教示プログラム及びロボットの教示方法 |
| KR102832937B1 (ko) * | 2020-06-26 | 2025-07-10 | 카와사키 주코교 카부시키 카이샤 | 로봇의 교시 장치 및 로봇의 교시 프로그램 |
| CN114654446A (zh) * | 2022-03-04 | 2022-06-24 | 华南理工大学 | 一种机器人示教方法、装置、设备和介质 |
| WO2025057701A1 (ja) * | 2023-09-14 | 2025-03-20 | 川崎重工業株式会社 | 教示支援装置、教示支援方法及び教示支援プログラム |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6361213B2 (ja) | ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム | |
| Pan et al. | Augmented reality-based robot teleoperation system using RGB-D imaging and attitude teaching device | |
| JP2018144228A (ja) | ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム | |
| EP3342561B1 (en) | Remote control robot system | |
| JP6816364B2 (ja) | 制御装置、ロボット、及びロボットシステム | |
| JP6343353B2 (ja) | ロボットの動作プログラム生成方法及びロボットの動作プログラム生成装置 | |
| JP3841439B2 (ja) | ロボットのジョグ送り方法 | |
| JP2020075354A (ja) | 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体 | |
| JP7066357B2 (ja) | ロボットシステム及びその運転方法 | |
| CN109834709B (zh) | 设定微动坐标系的机器人控制装置 | |
| CN100484726C (zh) | 基于虚拟现实机器人灵巧手遥操作平台 | |
| JP2018015857A (ja) | 制御装置、及びロボット | |
| CN104470687A (zh) | 机器人模拟器、机器人示教装置以及机器人示教方法 | |
| JP6326765B2 (ja) | 教示装置、ロボット、ロボットシステム、方法、及びプログラム | |
| JP2018167334A (ja) | 教示装置および教示方法 | |
| CN105960623A (zh) | 用于控制机器人的便携式装置及其方法 | |
| JP2023181513A (ja) | 教示システム、教示方法及び教示プログラム | |
| JP2024048077A (ja) | 情報処理装置、情報処理方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、プログラム及び記録媒体 | |
| JPS6179589A (ja) | ロボツト運転装置 | |
| JP2019111588A (ja) | ロボットシステム、情報処理装置、及びプログラム | |
| JPS6257884A (ja) | マニピユレ−タ装置 | |
| JP2023112867A (ja) | 生成方法、コンピュータープログラム、および、生成システム | |
| KR20230134328A (ko) | 로봇 교시를 위한 장치 및 방법 | |
| Sopon et al. | Mixed reality framework for eye-in-hand collaborative robot-human interaction | |
| CN113612928B (zh) | 遥操作系统、遥操作方法及芯片 |