[go: up one dir, main page]

JP2004090099A - Object manipulating method and apparatus by robot manipulator - Google Patents

Object manipulating method and apparatus by robot manipulator Download PDF

Info

Publication number
JP2004090099A
JP2004090099A JP2002250614A JP2002250614A JP2004090099A JP 2004090099 A JP2004090099 A JP 2004090099A JP 2002250614 A JP2002250614 A JP 2002250614A JP 2002250614 A JP2002250614 A JP 2002250614A JP 2004090099 A JP2004090099 A JP 2004090099A
Authority
JP
Japan
Prior art keywords
robot manipulator
robot
tag
coordinates
position coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002250614A
Other languages
Japanese (ja)
Other versions
JP4332617B2 (en
Inventor
Rakuei Cho
丁 洛榮
Kazuo Tanie
谷江 和雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2002250614A priority Critical patent/JP4332617B2/en
Publication of JP2004090099A publication Critical patent/JP2004090099A/en
Application granted granted Critical
Publication of JP4332617B2 publication Critical patent/JP4332617B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】視覚センサシステムを使用することなく、RFIDシステムなどのタグの持つ情報と非接触で読み出すようになし、この場合に、タグの情報から物体の操作点の定量的情報を検知することによって用意に物体の操作を行うことができるようにする。
【解決手段】物体5の操作を行う操作部位の位置座標を書き込んだ識別用のタグ6を物体5上に設け、コンピュータによって操作されるロボットマニピュレータ2に取り付けた検出部によって識別用のタグ6に書き込まれた局所基準位置座表{0}を読み出して物体5の操作部位座標に対するロボットハンド座標系{H}の相対位置を算出し、該相対位置によってロボットマニピュレータ2の操作制御を行い、ロボットマニピュレータ2のハンド3を物体5の操作部位まで移動させ、物体操作を行うようにした。
【選択図】 図2
An object of the present invention is to read out information of a tag such as an RFID system in a non-contact manner without using a visual sensor system. In this case, by detecting quantitative information of an operation point of an object from the information of the tag. To be able to operate objects easily.
An identification tag (6) in which position coordinates of an operation part for operating an object (5) is written is provided on the object (5), and the identification unit is attached to the identification tag (6) by a detection unit attached to a robot manipulator (2) operated by a computer. The written local reference position table {0} is read out, the relative position of the robot hand coordinate system {H} with respect to the operation part coordinates of the object 5 is calculated, and the operation of the robot manipulator 2 is controlled based on the relative position. The second hand 3 was moved to the operation site of the object 5 to perform the object operation.
[Selection] Fig. 2

Description

【0001】
【発明の属する技術分野】
本発明は、ロボットマニピュレータによる物体操作方法および装置に関する。
【0002】
【従来の技術】
特開平5−319414号公報には、円柱状の被収納物の円周上の一部に全周に亙って設けられ上記被収納物の円周方向の向きを識別するための識別マークと、この識別マークを読み取るマーク識別機と、このマーク識別機からの情報に応じて上記被収納物を円周方向へ回動させる回動手段と、上記被収納物を搬送して収納箱内に所定の向きに向けて収納するためのロボット本体とを備えている収納用ロボット装置が記載されている。
【0003】
特開2000−179665号公報には、固体を特定するID情報とその個体の個性を示す属性情報から成るID・属性情報と、前記属性情報に対応し、外部から与えられる命令とその命令に対して具体的にとる行動の関係を表す動作テーブルと、外部から与えられるID情報及び命令を認識する認識手段と、この認識手段により認識された情報を自身の前記ID情報及び命令と照合判断する判断手段と、この判断手段により前記ID情報が合致したとき前記外部から与えられた命令を自身の前記動作テーブル内で検索する検索手段と、この検索手段により検索された結果に基づき対応する動作を実行する実行手段とを有してなる知的ロボットが記載されている。
【0004】
そして、特開2002−127057号公報には、ロボットの動作軌跡上の位置を教示点として位置姿勢情報と、前記教示点ごとにロボットの経路情報とを制御部に設定し、位置姿勢情報および経路情報に基づいて動作するロボットの動作状態を表示装置に表示可能としたロボットの教示装置であって、前記ロボットの経路情報を設定する設定手段と、前記設定手段を前記表示装置上に表示する表示部と、表示された設定手段のうち所望の経路情報を選択する選択手段と、ロボットの現在の位置が教示点上にあるか否かを判別する判別手段とを備え、前記判別手段でロボットが教示点上にあると判別すると、前記制御部が前記表示部に表示された前記設定手段の表示を変えるロボットの教示装置が記載されている。
【0005】
また、特開平7−88791号公報には、ロボットハンドによって把持されて移載されるワークを撮像する撮像手段と、前記撮像手段にて撮像されたワークの2次元的な配置を認識する画像認識手段と、前記画像認識手段にて認識されたワークの配置に基づいて最適なワーク高さ測定点を算出して距離計測プランを作成する距離計測プラン部と、前記距離計測プラン部の作成した距離計測プランに基づいて、1つのワーク毎に少なくとも1点のワーク高さ測定点の高さを計測する距離計測手段と、前記画像認識手段の認識結果と前記距離計測手段の計測結果を用いて、ワークの3次元的な配置を認識するワーク配置認識手段を、前記ワーク配置認識手段の認識結果に基づいて、ワーク移載のためのロボットの動作プランを算出するロボット動作プラン部とを備えたロボット装置が記載されている。
【0006】
【発明が解決しようとする課題】
ロボットによる物体の操作は物体の識別と把持から始まる。一般的に視覚センサシステムが用いられるのが今までの主流をなす。しかし、視覚センサシステムは照明の影響、識別時間の増加、隠れている部分の識別不可など色々な問題点が取り上げられる。また、把持力の基準となる物体の質量と材質などの物性値は判断できない。更に、物体操作のための把持部位の位置は別の上位レベルのアルゴリズムで計算せざるをえない。
【0007】
一方、RFID(Radio Frequency Identification)システムなどのタグの持つ情報をリーダ・ライタからの電子誘導により非接触で読み書きするシステムが開発されている。このシステムにより、物体に物体の様々な情報の入っているタグを貼り付けたり、その情報を利用して物体を識別や管理することが可能になる。この技術はまだロボットによる物体操作の用途には応用された例がない。
【0008】
本発明は、視覚センサシステムを使用することなく、RFIDシステムなどのタグの持つ情報を非接触で読み出すようになし、この場合に、タグの情報から物体の操作点の定量的情報を検知することによって容易に物体操作を行うことができるようにしたロボットマニピュレータによる物体操作方法および装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
本発明は、ロボットによる物体操作を容易にするために、物体に操作を行う部位の位置座標と操作方法を書き込んだタグを貼り付け、リーダからその情報を読み出し、物体操作に用いるロボットの運用および制御方式を構成する。
【0010】
本発明は、複雑な環境にある様々な物体の操作をロボットを用いて実現する技術である。物体に物体の形状情報を記憶させることと、その情報を非接触で読み出すことが可能なメモリと通信回路からなるタグを埋め込み、ロボットマニピュレータに取り付けたリーダによって、その情報を読み出すことで、その物体に必要な操作を加えることを可能にする。
【0011】
タグの表面に例えば容易に検出可能でかつタグが埋め込まれる物体の姿勢に応じて見え方が変わる微小なマークを添付し、そのマークを原点として、操作される物体の操作部位(特に把持部位)の位置座標と操作方法情報をタグに書き込む。このような情報の書き込みを可能にする具体的なタグは、いくつか市販されており、例えば各社の製品を利用することで構成できる。このタグと通信してタグの情報を読み出せる検出器をマニピュレータに設置し、これによって、タグの情報から物体との操作点の定量的情報を検知して、マニピュレータにより物体操作を行う。
尚、本発明は、視覚センサとの共用を排除するものではない。
【0012】
【発明の実施の形態】
以下、本発明の実施例を図面に基づいて説明する。
図1は、本発明の基本的構成を示す図である。図において、ロボット本体1は、ロボットマニピュレータ2を備え、ロボットマニピュレータ2はハンド3および検出器(ディテクター)4を備える。また、ロボット本体1は、後述するように、コンピュータを主体とした制御装置を含み、該制御装置からの指令によってロボットマニピュレータ2はX、Y、Z軸の任意方向に、そして回転方向に動作することができる。図1に示す例にあっては、ロボット本体1は建物、床、その他に固定する方式としている。
物体(オブジェクト)5はその表面上にロボットマニピュレータ2によって把持されるP、Pを備え、他の面にはRIFDタグなどのタグ6が貼付されている。
【0013】
タグ6の座標系をここでは物体の局所基準座標系{0}とする。物体5の把持位置座標と、局所基準座標系{0}の基準点とは既知であり、識別用のタグ6には位置座標との関係が予め書き込んである。
タグ6は、物体5の表面に貼付されてもよいし、物体5の製作時に同時に埋め込まれてもよい。
【0014】
図1に示す例にあっては、任意の物体5のある面にタグ6を貼り付けている。タグ6は、メモリを有する。タグ6のメモリには物体5の局所基準座標系{0}に対する物体5の把持部位P、Pの既知の位置座標についての情報を書き込む。例えば、物体5に必ず存在する把持部位の位置、あるいは物体5の動作を起こす作用点の位置などを記録しておく。作用されるものとしてはスイッチなども含まれる。ここではこれらを総称して操作部位と称する。
【0015】
ロボットマニピュレータ2は、制御装置からの作業命令に従って物体5を探す。そのとき、ロボットマニピュレータ2に搭載された検出器4と物体5につけたタグ6との間の無線通信による情報交換で探す物体5を識別する。
そのあと、命じられた作業として、例えば把持を行う場合、検出器4から読み出されたタグ6の情報から物体5の把持位置座標を把握する。尚、検出器4の一部をロボット本体1内に設けるようにすることは可能である。
【0016】
続いて、ロボットマニピュレータ2に取り付けたセンサ(検出器4の一部)、例えばレーザセンサなどを利用して、タグ6に設けてある識別マークを検出し、物体5の局所基準座標系{0}に対するロボットマニピュレータ2のハンド座標系{H}の相対位置と姿勢の情報を取得する。すなわち、ハンド座標系{H}と物体5の局所基準座標系{0}の座標変換行列を制御装置を使用して計算し、把持部位P、Pに対するハンド3の相対位置を求める。
【0017】
これによって、タグ6から検出器4によって読み出された局所基準座標系{0}に関する位置情報を、ロボットハンド座標系{H}に変換し、把持位置座標を求めてロボットマニピュレータ2の位置制御でハンド3を把持位置まで動かして、作業を行う。尚、{B}はロボットマニピュレータのベース座標系を示す。
【0018】
タグ6の表面に容易に検出可能で、かつタグ6が貼付される、あるいは埋め込まれる物体5の姿勢に応じて見え方が変わる微小な識別マークを添付し、その識別マークを原点として、操作される物体5の操作部位(特に把持部位P、P)の位置座標と操作方法情報をタグ6に書き込んでおく。これによって、タグ6からの情報に基づいて物体5との操作部位との定量的情報を検知して、ロボットマニピュレータ2の操作によって物体操作を行う。
【0019】
図2は、図1に示す物体操作装置100の機能をブロックで示す。図において、制御装置21は制御用パソコン(PC)からなり、処理装置(手段)22、記憶装置(手段)23、表示装置(手段)24を有し、操作キー25、および表示部(表示画面)26に接続される。
【0020】
処理装置(手段)22は、図に示すように、次の機能を有する。
(1) 物体識別および把持位置情報取得
(2) 物体の原点および座標軸の探索
(3) (1)の把持位置座標をハンド座標系に変換
(4) ハンドの位置制御によって把持操作を行う
検出器4による検出によって、信号を入力し、物体識別および把持位置などの操作部位情報を取得する。タグ6に設けた識別マークを使用して物体5の原点探索および物体5の座標軸の探索を行う。操作部位座標、例えば把持位置座標をハンド座標系{H}に変換する。物体5の操作部位を認識し、ハンド3の位置制御によって物体の操作、例えば把持動作を行う。
【0021】
各種情報の授受に際しては、制御用PCが本来有する表示機能、すなわち表示装置(手段)24によって表示部26に画面表示をすることができる。
前述のように、物体5に設けたタグ6との通信は検出器(手段)4によって行うが、その通信制御信号の発信、並びに受信信号の取り入れは制御装置21によって行われる。よって、検出器を通信装置を読み替えてもよい。
【0022】
図3は、図1に示す物体操作装置100の変形例であるが、実質的には同一であり、同一構成に同一番号を付して説明を省略する。(以下、同じ)
図3に示す例にあっては、ロボット本体1Aは移動ロボット1Aとして構成してある。従って移動ロボット1Aは移動、歩行することができ、各種の形状とすることができる。
検出器4はレーザセンサ4Aおよびリーダ4Bとからなる。レーザセンサ4Aおよびリーダ4Bは制御装置21と接続してあり、レーザの発信および受信、タグ6内蔵の情報の入力および出力制御は、上述のように、制御装置21によってなされる。
【0023】
図4も同様の例を示す。ロボット本体1Bは、回転可能なプラットフォーム状に形成してある。ロボットマニピュレータ2およびハンド3を有することも先の実施例と同じである。ロボットマニピュレータ2上には、超音波センサ4C(Ultrasonic sensor)およびアンテナ4Dが設けてある。超音波センサ4Cおよびアンテナ4Dは上述の検出器4を構成する。
本例の場合、物体5の具体例としてカップ5Aを表示した。カップ5Aは、通常把手11を有しており、この把手11が把持部位、すなわち操作部位となり、本例の場合、その中央が把持位置12(Potential manipulation point)となる。
カップ5Aの側面にはタグ6が貼付、もしくは埋め込まれる。
物体の座標系を検出することによって、ハンド座標系{H}に変換し、操作部位座標軸を認識することは前述の通りである。
【0024】
図5は、カップ5Aの置かれた状況を示す。図において、上述のように、カップ5Aの表面にはタグ6が設けられる。タグ6には電子部品、例えばICからなるメモリチップ13が埋め込まれており、この例の場合、周囲に1つの切り欠きからなる識別マーク14が形成してある。
図6に示すように、タグ6に形成する識別マークは2つ以上の切り欠き14A、もしくは中央部に突起15を形成する円マーク14Bであってもよい。
【0025】
図5(a)と図5(b)のカップ5Aの姿勢の違いは、タグ6はカップ5Aに固定されているので、タグ6の向きが分れば簡単に判別できる。このように形状に特徴を持つタグを貼り付けるかあるいはタグ6の表面に識別マーク14(14A、14B)を貼付し、そのマークを検出することによって、カップ5Aの姿勢を判断する。
タグ6のメモリ上で直接、例えば把持部位の座標などを書き込むことも可能であるが、タグ6には物体の識別のできるシリアル番号だけを書き込んで、そのシリアル番号の物体の有する様々なデータをネットワークにつながっているPCのハードディスクなどの記憶装置に保存しておきながら参照することも可能である。
【0026】
図7は、中央部に突起15を有する円マーク14Bをスキャンによって検出した状況を示す。スキャン位置(mm)と、その時の基準点からの距離(mm)によって円マーク14Bの位置を把握することができる。
タグ6には、把持位置あるいはテレビなどのスイッチ位置などの操作位置、物体の質量、材質、操作中の物体のZ軸(一定方向)等の位置情報、並びに操作方法情報が書き込まれる。質量は、その物体の容積、重さなどの情報を与え、材質は把持するときの摩擦係数情報を与える。Z軸方向は、回転不可などの情報を与える。
【0027】
以下は、実験に使われたタグ6のメモリ上に書き込まれているシリアル番号の例を示す。
【表1】

Figure 2004090099
【0028】
図8は、リーダ4Bから送信されたシリアル番号を表示部26に表示した例を示す。データは、1スタートバイト(Start byte)(3Ah)、10データバイト、2チェックサムバイト(Checksum byte)および1ストップバイト(Stop byte)(0Dh)の14バイト構成とされる。
検出されたシリアル番号はデータベースに格納された各種情報によって制御信号として認識される。
【0029】
前述のように、物体に貼り付いたタグのメモリ上に直接情報を書き込むことも可能であるが、現在市販されている多数の低価タグはそのメモリの量が充分ではない場合があると思われる。将来的にもっと豊かな情報を物体に書き込んで、そのデータを応用するためには経費のかかるタグのメモリを増やすより、ネットワークにつながっている別のデータサーバなどの記憶装置に保存しておくことも可能である。タグのメモリ上には物体の識別のできる最小限の情報、例えばID番号だけの情報を書き込む。そのID番号によって参照できるデータサーバにはあらゆる情報を入れておく。サーバにアクセスすることによって、詳細な情報を物体のタグから直接読み出さなくても何処からでも必要な情報を利用することが可能になる。例えばPCの場合、製造メーカ、製造日、OS、インストールされているプログラムの内容などが参照できる。現在の有・無線ネットワーク通信技術によって充分実現可能な技術である。
【0030】
図9は、RFIDシステムの動作原理について示し、RFIDシステムの動作原理については、「情報処理」Vol.40、No.8、pp846〜850、ISSN0447−8053、社団法人情報処理学会、August 1999に詳しく説明されている。図9は、当該雑誌に紹介されている典型的なRFIDシステムの構成図であり、当該図およびその説明は本発明の実施例に適用され得る。
【0031】
実験に用いたRFIDタグの1例を示せば次のような仕様となる。
機能     : データ記録および通信
使用周波数   :125kHz ±6
エンコーディング:マンチェスター
読み出しスピード:1,954bps
メモリ容量   :64bit、リードオンリー
シリアルナンバー:40bit
寸法      :30×6(mm)
操作温度    :−40から85℃
実験に用いたレーザセンサ4Aは、200mmから40mmの距離を測定計測可能である。勿論、この範囲を超えて計測するように構成することは可能である。
【0032】
次に、座標変換行列について説明する。
ロボットによる物体の操作では、ある座標系に基づくベクトルの記述がわかっていて、それを別の座標系に基づく記述に直す必要が生じる。それを座標変換と呼び、ある座標系から別の座標系への写像をそれぞれの座標軸の姿勢と位置を関連付ける部分から構成できる4×4の行列形式の1つの演算式によって計算できる。
【0033】
図10は、物体上の局所基準座標系{0}とハンド座標系{H}とから物体5の把持部位PあるいはPの位置座標を求める計算方法を示す。図10に示すように局所基準座標系{0}はX、Y、Z軸で構成される。同じように、ハンド座標系はX、Y、Z軸で構成される。例えば、把持部位Pの位置座標は局所基準座標系{0}からはP1O={x1010、z10}となる。同じ座標をハンド座標系{H}に基づいて、記述すると、P1h={x1h、y1h、z1h}となる。ハンド座標系{H}から局所基準座標系{0}の原点の位置を
Figure 2004090099
で表す。また、局所基準座標系{0}はハンド座標系{H}に対して回転していて
Figure 2004090099
によって記述される。すると、局所基準座標系{0}に基づくP10の位置座標をハンド座標系{H}に基づくP1hに変換する一般的な変換写像は、次式(1)によって求められる。
【数1】
Figure 2004090099
【0034】
Figure 2004090099
の各成分は、次式(2)のように、それぞれの座標軸の単位ベクトルx、y、zとx、y、zの内積として求められる。
【数2】
Figure 2004090099
【0035】
物体上の任意の把持部位の位置PあるいはPは同じ物体に固定されている局所基準座標系{0}に対して記述される。ロボットマニピュレータは一般的にハンド座標系に目標位置を与えることによって物体を把持したりする作業を行う。タグに書き込まれたPあるいはPの位置座標は局所基準座標{0}からの座標であり、その座標をハンド座標系{H}に基づく座標に変換して、ロボットマニピュレータに目標位置として与えることで、作業が可能になる。
尚、タグ6は唯一である必要はなく、複数個設けてもよい。この場合、複数個のタグ6の予め定めた配置状況によってタグ6上に識別マークを形成しなくても、計測すべき原点を配置状況を検出することによって計測することができる。
【0036】
図11は、タグ6に書き込んだ操作方法による操作条件により、カップ5Aを直立した状態でA点からB点まで搬送する状況を示す。
以上のように、本実施例によれば、次のロボットマニピュレータによる物体操作方法が構成される。
【0037】
物体5の操作を行う操作部位の位置座標を書き込んだ識別用のタグ6を物体5上に設け、コンピュータによって操作されるロボットマニピュレータ2に取り付けた検出部(検出器4の一部、もしくは全部)によって識別用のタグ6に書き込まれた局所基準位置座標{0}を読み出して物体の操作部位座標に対するロボットハンド座標系の{H}の相対位置を算出し、該相対位置によってロボットマニピュレータ2のハンド3を物体の操作部位まで移動させ、物体操作を行うロボットマニピュレータによる物体操作方法。
【0038】
物体5の操作を行う操作部位の位置座標とその物体5の操作方法と書き込んだ識別用のタグ6を物体5上に設け、コンピュータによって操作されるロボットマニピュレータ2に取り付けた検出部によって識別用のタグ6に書き込まれた局所基準位置座標{0}を読み出して物体5の操作部位座標に対するロボットハンド座標系{H}の相対位置を算出し、該相対位置、および取得した操作方法によってロボットマニピュレータ2の操作制御を行い、ロボットマニピュレータ2のハンド3を物体5の操作部位まで移動させ、物体操作を行うロボットマニピュレータによる物体操作方法。
【0039】
物体5の操作を行う操作部位の位置座標とその物体5の操作方法と書き込み、識別マーク14を備えた識別用のタグ6を物体5上に設け、コンピュータによって操作されるロボットマニピュレータ2に取り付けた検出部によって識別用のタグ6に書き込まれた局所基準位置座標{0}を読み出し、識別マーク14を検出して物体5の操作部位座標に対するロボットハンド座標系{H}の相対位置および姿勢を求め、該相対位置と姿勢と、および取得した操作方法によってロボットマニピュレータ2の操作制御を行い、ロボットマニピュレータ2のハンド3を物体5の操作部位まで移動させ、物体操作を行うロボットマニピュレータによる物体操作方法。
【0040】
また、次のロボットマニピュレータによる物体操作装置が構成される。
物体5の操作を行う操作部位の位置座標を書き込んで物体5に設けられた識別用のタグ6と、識別用のタグ6に書き込まれた局所基準位置座標{0}を読み出す検出部を取り付けたロボットマニピュレータ2と、位置座標を読み出して物体5の操作部位座標に対するロボットハンド座標系{H}の相対位置を算出し、該相対位置によってロボットマニピュレータ2のハンド3を物体5の操作部位まで移動させ、物体操作を行わせる制御装置とを備えたロボットマニピュレータによる物体操作装置。
【0041】
物体5の操作を行う操作部位の位置座標とその物体5の操作方法を書き込んで物体5に設けられた識別用のタグ6と、識別用のタグ6に書き込まれた局所基準位置座標{0}と操作方法とを読み出す検出部を取り付けたロボットマニピュレータ2と、読み出した位置座標に基づいて物体の操作部位座標に対するロボットハンド座標系{H}の相対位置を算出し、該相対位置、および取得した操作方法によってロボットマニピュレータ2のハンド3を物体5の操作部位まで移動させ、物体操作を行わせる制御装置とを備えたロボットマニピュレータによる物体操作装置。
【0042】
物体5の操作を行う操作部位の位置座標とその物体5の操作方法を書き込み、識別マーク14を備えて物体5に設けられた識別用のタグ6と、識別用のタグ6に書き込まれた局所基準位置座標{0}と操作方法とを読み出し、識別マーク14を検出する検出部を取り付けたロボットマニピュレータ2と、位置座標を読み出して物体5の操作部位座標に対するロボットハンド座標系{H}の相対位置を算出し、かつ物体5の姿勢を求め、該相対位置と姿勢と、および取得した操作方法によってロボットマニピュレータ2のハンド3を物体5の操作部位まで移動させ、物体操作を行わせる制御装置とを備えたロボットマニピュレータによる物体操作装置。
【0043】
また、本発明によれば、ロボットマニピュレータ2のハンド3によって操作を行う操作部位を有し、該操作部位の位置座標を書き込み、局所基準座標系{0}を記憶した電子部品を備えた識別用のタグ6をとりつけた移動物体、例えばカップ、箱、テレビ等を提供することができる。移動物体としては、日用品、家電品、工業用品等が考えられる。
【0044】
【発明の効果】
従来の視覚センサシステムと比べると環境の影響を受けにくくなる。特に、物体の識別や操作部位に位置などの検知にかかる時間が極めて短くなり、複雑な環境において使用の制限のあった今までの視覚センサに代わって様々な環境でのロボットの適用を可能にする。また、物体に情報を持つタグを貼り付けることは、実世界のいたるところに配置された計算機能を持つデバイスと通信することによって、人間の生活を支援するユビキータス・コンピューティングの要素にもなる。
【0045】
【図面の簡単な説明】
【図1】本発明の実施例を示し、本発明の基本的構成を示す図。
【図2】本発明の実施例の概略を示すブロック図。
【図3】本発明の実施例の一部変形を示す構成図。
【図4】本発明の実施例の一部変形を示す構成図。
【図5】タグ6を有するカップ5Aが置かれた状況を示す図。
【図6】識別マークを有するタグ6の構成を示す図。
【図7】識別マークの検出例を示す実験図。
【図8】シリアル番号の表示を示す画面図。
【図9】RFIDシステムの動作原理(公知)を示す図。
【図10】局所基準座標系{0}とハンド座標系{H}との関係を示す図
【図11】操作方法により搬送の一形態を示す図。
【符号の説明】
1…ロボット本体、2…ロボットマニピュレータ、3…ハンド、4…検出器、4A…レーザセンサ、4B…リーダ、4C…超音波センサ、4D…アンテナ、5…物体、5A…カップ、6…タグ、13…メモリチップ、14…識別マーク、100…物体操作装置。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a method and an apparatus for manipulating an object using a robot manipulator.
[0002]
[Prior art]
Japanese Patent Application Laid-Open No. Hei 5-319414 discloses an identification mark provided on a part of the circumference of a columnar storage object over the entire circumference to identify the circumferential direction of the storage object. A mark discriminator for reading the discrimination mark, rotating means for rotating the object in the circumferential direction according to information from the mark discriminator, and conveying the object to be stored in the storage box. A storage robot device including a robot main body for storing in a predetermined direction is described.
[0003]
Japanese Patent Application Laid-Open No. 2000-179665 discloses an ID / attribute information composed of ID information for specifying a solid and attribute information indicating the individuality of the individual, an externally provided command corresponding to the attribute information, An operation table representing the relationship between actions to be taken by the user, a recognition unit for recognizing ID information and a command given from the outside, and a judgment for collating and judging the information recognized by the recognition unit with the ID information and the command of itself. Means for retrieving a command given from the outside in its own operation table when the ID information matches by the judging means, and executing a corresponding operation based on a result retrieved by the retrieving means. There is described an intelligent robot having an execution unit that performs the operation.
[0004]
Japanese Unexamined Patent Application Publication No. 2002-127057 discloses that a position and orientation information is set as a teaching point using a position on a motion locus of a robot, and path information of the robot is set for each teaching point in a control unit. A robot teaching device capable of displaying an operation state of a robot operating based on information on a display device, comprising: setting means for setting path information of the robot; and a display for displaying the setting means on the display device. Unit, selecting means for selecting desired path information among the displayed setting means, and determining means for determining whether or not the current position of the robot is on the teaching point. A description is given of a robot teaching device in which the control unit changes the display of the setting unit displayed on the display unit when it is determined that the robot is located on the teaching point.
[0005]
Japanese Patent Application Laid-Open No. 7-88891 discloses an image pickup means for picking up an image of a work held and transferred by a robot hand, and image recognition for recognizing a two-dimensional arrangement of the work picked up by the image pickup means. Means, a distance measurement plan section for calculating an optimum work height measurement point based on the arrangement of the work recognized by the image recognition means to create a distance measurement plan, and a distance created by the distance measurement plan section Based on a measurement plan, using a distance measurement unit that measures the height of at least one work height measurement point for each work, using a recognition result of the image recognition unit and a measurement result of the distance measurement unit, A work arrangement recognizing means for recognizing a three-dimensional arrangement of the work is provided, based on the recognition result of the work arrangement recognizing means, for calculating a robot operation plan for transferring a work. Robot device including a plan unit is described.
[0006]
[Problems to be solved by the invention]
Manipulation of an object by a robot starts with identifying and grasping the object. Generally, a visual sensor system has been used until now. However, the visual sensor system raises various problems, such as the influence of lighting, an increase in identification time, and the inability to identify hidden parts. In addition, it is not possible to determine physical properties such as the mass and material of the object, which serve as a reference for the gripping force. Furthermore, the position of the gripping part for operating the object has to be calculated by another higher-level algorithm.
[0007]
On the other hand, there has been developed a system such as an RFID (Radio Frequency Identification) system for reading and writing information held by a tag in a non-contact manner by electronic guidance from a reader / writer. This system makes it possible to attach a tag containing various information of an object to an object, and to identify and manage the object using the information. This technology has not yet been applied to the use of robots for manipulating objects.
[0008]
The present invention is to read out information of a tag such as an RFID system in a non-contact manner without using a visual sensor system, and in this case, to detect quantitative information of an operation point of an object from the information of the tag. An object of the present invention is to provide a method and an apparatus for manipulating an object by a robot manipulator that can easily perform an object operation.
[0009]
[Means for Solving the Problems]
The present invention, in order to facilitate the operation of the object by the robot, to paste a tag that writes the position coordinates and operation method of the part to be operated on the object, read the information from the reader, operate the robot used for object operation and Configure the control method.
[0010]
The present invention is a technology for realizing the operation of various objects in a complicated environment using a robot. By storing the shape information of the object in the object, embedding a tag consisting of a memory and a communication circuit capable of reading the information in a non-contact manner, and reading the information by a reader attached to the robot manipulator, the object is read. To perform necessary operations.
[0011]
Attach a small mark on the surface of the tag that can be easily detected and changes its appearance according to the posture of the object in which the tag is embedded. Write the position coordinates and operation method information of the tag to the tag. Several specific tags that allow such information to be written are commercially available, and can be configured by using, for example, products of various companies. A detector that can read information of the tag by communicating with the tag is installed in the manipulator, whereby quantitative information of an operation point with the object is detected from the information of the tag, and the manipulator operates the object.
Note that the present invention does not exclude sharing with a visual sensor.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a basic configuration of the present invention. In the figure, a robot main body 1 includes a robot manipulator 2, and the robot manipulator 2 includes a hand 3 and a detector (detector) 4. Further, the robot main body 1 includes a control device mainly composed of a computer, as will be described later, and the robot manipulator 2 operates in any directions of the X, Y, and Z axes and in the rotation direction according to a command from the control device. be able to. In the example shown in FIG. 1, the robot main body 1 is fixed to a building, a floor, or the like.
The object (object) 5 has P 1 and P 2 gripped by the robot manipulator 2 on its surface, and a tag 6 such as a RIFD tag is attached to another surface.
[0013]
Here, the coordinate system of the tag 6 is set to the local reference coordinate system {0} of the object. The gripping position coordinates of the object 5 and the reference point of the local reference coordinate system {0} are known, and the relationship with the position coordinates is written in the identification tag 6 in advance.
The tag 6 may be attached to the surface of the object 5 or may be embedded at the same time when the object 5 is manufactured.
[0014]
In the example shown in FIG. 1, a tag 6 is attached to a certain surface of an arbitrary object 5. The tag 6 has a memory. In the memory of the tag 6, information about the known position coordinates of the gripping parts P 1 and P 2 of the object 5 with respect to the local reference coordinate system {0} of the object 5 is written. For example, the position of a gripping part that always exists in the object 5 or the position of an action point that causes the operation of the object 5 is recorded. What is acted on includes switches and the like. Here, these are collectively referred to as operation parts.
[0015]
The robot manipulator 2 searches for the object 5 according to a work command from the control device. At this time, the object 5 to be searched for by information exchange by wireless communication between the detector 4 mounted on the robot manipulator 2 and the tag 6 attached to the object 5 is identified.
After that, in the case where, for example, gripping is performed as a commanded operation, the gripping position coordinates of the object 5 are grasped from the information of the tag 6 read from the detector 4. Note that it is possible to provide a part of the detector 4 in the robot body 1.
[0016]
Subsequently, the identification mark provided on the tag 6 is detected using a sensor (a part of the detector 4) attached to the robot manipulator 2, for example, a laser sensor, and the local reference coordinate system {0} of the object 5 is detected. Of the hand coordinate system {H} of the robot manipulator 2 with respect to. That is, a coordinate transformation matrix between the hand coordinate system {H} and the local reference coordinate system {0} of the object 5 is calculated using the control device, and the relative position of the hand 3 with respect to the gripping parts P 1 and P 2 is obtained.
[0017]
As a result, the position information on the local reference coordinate system {0} read from the tag 6 by the detector 4 is converted into the robot hand coordinate system {H}, the grip position coordinates are obtained, and the position control of the robot manipulator 2 is performed. The work is performed by moving the hand 3 to the gripping position. Note that {B} indicates a base coordinate system of the robot manipulator.
[0018]
Attach a small identification mark that can be easily detected on the surface of the tag 6 and that changes its appearance according to the posture of the object 5 to which the tag 6 is attached or embedded. The position coordinates and operation method information of the operation part (particularly, grip parts P 1 and P 2 ) of the object 5 are written in the tag 6. Thereby, quantitative information on the operation part with the object 5 is detected based on the information from the tag 6, and the object is operated by operating the robot manipulator 2.
[0019]
FIG. 2 is a block diagram showing functions of the object operation device 100 shown in FIG. In the figure, a control device 21 is composed of a control personal computer (PC) and includes a processing device (means) 22, a storage device (means) 23, and a display device (means) 24, an operation key 25, and a display unit (display screen). ) 26.
[0020]
The processing device (means) 22 has the following functions, as shown in the figure.
(1) Object identification and acquisition of gripping position information (2) Search for the origin and coordinate axes of the object (3) Converting the gripping position coordinates of (1) to the hand coordinate system (4) Detector performing gripping operation by hand position control By the detection by 4, a signal is input, and operation part information such as object identification and gripping position is acquired. The search for the origin of the object 5 and the search for the coordinate axis of the object 5 are performed using the identification mark provided on the tag 6. The operation part coordinates, for example, the grip position coordinates are converted to the hand coordinate system {H}. The operation part of the object 5 is recognized, and the operation of the object, for example, a gripping operation is performed by controlling the position of the hand 3.
[0021]
When various types of information are transmitted and received, a screen function can be displayed on the display unit 26 by the display function (means) 24 that the control PC originally has.
As described above, the communication with the tag 6 provided on the object 5 is performed by the detector (means) 4, and the transmission of the communication control signal and the reception of the received signal are performed by the control device 21. Therefore, the detector may be replaced with the communication device.
[0022]
FIG. 3 is a modification of the object operation device 100 shown in FIG. 1, but is substantially the same, and the same components are denoted by the same reference numerals and description thereof will be omitted. (same as below)
In the example shown in FIG. 3, the robot main body 1A is configured as a mobile robot 1A. Therefore, the mobile robot 1A can move and walk, and can have various shapes.
The detector 4 includes a laser sensor 4A and a reader 4B. The laser sensor 4A and the reader 4B are connected to the control device 21, and the control device 21 controls the transmission and reception of the laser and the input and output control of information contained in the tag 6 as described above.
[0023]
FIG. 4 shows a similar example. The robot main body 1B is formed in a rotatable platform shape. The provision of the robot manipulator 2 and the hand 3 is the same as in the previous embodiment. On the robot manipulator 2, an ultrasonic sensor 4C (Ultrasonic sensor) and an antenna 4D are provided. The ultrasonic sensor 4C and the antenna 4D constitute the above-described detector 4.
In the case of this example, a cup 5A is displayed as a specific example of the object 5. The cup 5A usually has a handle 11, and the handle 11 is a gripping part, that is, an operation part. In this example, the center of the cup 11 is a gripping position 12 (Potential manipulation point).
The tag 6 is attached or embedded on the side surface of the cup 5A.
As described above, by converting the hand coordinate system {H} by detecting the coordinate system of the object and recognizing the operation part coordinate axis.
[0024]
FIG. 5 shows a situation where the cup 5A is placed. In the figure, as described above, the tag 6 is provided on the surface of the cup 5A. An electronic component, for example, a memory chip 13 made of an IC is embedded in the tag 6, and in this example, an identification mark 14 made of one notch is formed around the tag.
As shown in FIG. 6, the identification mark formed on the tag 6 may be two or more notches 14A or a circular mark 14B forming a protrusion 15 at the center.
[0025]
The difference between the postures of the cup 5A in FIGS. 5A and 5B can be easily determined if the orientation of the tag 6 is known since the tag 6 is fixed to the cup 5A. As described above, a tag having a characteristic shape is attached, or the identification mark 14 (14A, 14B) is attached to the surface of the tag 6, and the mark is detected to determine the posture of the cup 5A.
Although it is possible to write, for example, the coordinates of the gripping part directly on the memory of the tag 6, it is possible to write only the serial number capable of identifying the object in the tag 6, and to store various data of the object having the serial number. It is also possible to refer to the data while storing it in a storage device such as a hard disk of a PC connected to a network.
[0026]
FIG. 7 shows a situation where a circle mark 14B having a protrusion 15 at the center is detected by scanning. The position of the circle mark 14B can be grasped from the scan position (mm) and the distance (mm) from the reference point at that time.
In the tag 6, an operation position such as a gripping position or a switch position of a television or the like, a mass and a material of the object, position information such as a Z axis (constant direction) of the object being operated, and operation method information are written. The mass gives information such as the volume and weight of the object, and the material gives information on the coefficient of friction when gripping. The Z-axis direction gives information such as rotation prohibition.
[0027]
The following shows an example of the serial number written on the memory of the tag 6 used in the experiment.
[Table 1]
Figure 2004090099
[0028]
FIG. 8 shows an example in which the serial number transmitted from the reader 4B is displayed on the display unit 26. The data has a 14-byte structure including one start byte (Start byte) (3Ah), ten data bytes, two checksum bytes (Checksum byte), and one stop byte (Stop byte) (0Dh).
The detected serial number is recognized as a control signal based on various information stored in the database.
[0029]
As mentioned above, it is possible to write information directly on the memory of the tag attached to the object, but it is thought that many low-priced tags currently on the market may not have enough memory. It is. To write richer information on the object in the future and apply the data, save it to a storage device such as a separate data server connected to the network, rather than increase the cost of expensive tags. Is also possible. The minimum information for identifying the object, for example, the information of only the ID number is written in the tag memory. All information is stored in the data server that can be referred to by the ID number. By accessing the server, it is possible to use necessary information from anywhere without reading detailed information directly from the tag of the object. For example, in the case of a PC, the manufacturer, the date of manufacture, the OS, the contents of installed programs, and the like can be referred to. It is a technology that can be fully realized by the current wired / wireless network communication technology.
[0030]
FIG. 9 shows the operation principle of the RFID system. The operation principle of the RFID system is described in “Information Processing” Vol. 40, no. 8, pp 846-850, ISSN 0447-8053, Information Processing Society of Japan, August 1999. FIG. 9 is a configuration diagram of a typical RFID system introduced in the magazine, and the diagram and its description can be applied to the embodiment of the present invention.
[0031]
An example of the RFID tag used in the experiment has the following specifications.
Function: Data recording and communication frequency: 125 kHz ± 6
Encoding: Manchester Read speed: 1,954 bps
Memory capacity: 64 bits, read-only serial number: 40 bits
Dimensions: 30 x 6 (mm)
Operating temperature: -40 to 85 ° C
The laser sensor 4A used in the experiment can measure and measure a distance of 200 mm to 40 mm. Of course, it is possible to configure to measure beyond this range.
[0032]
Next, the coordinate conversion matrix will be described.
In operation of an object by a robot, a description of a vector based on a certain coordinate system is known, and it is necessary to convert the description into a description based on another coordinate system. This is called coordinate transformation, and a mapping from one coordinate system to another can be calculated by one arithmetic expression in a 4 × 4 matrix format that can be composed of a part that associates the attitude and position of each coordinate axis.
[0033]
Figure 10 illustrates a calculation method for determining the position coordinates of the grip portions P 1 or P 2 of the object 5 from the local reference coordinate system on the object and the {0} hand coordinate system {H}. Local reference coordinate system as shown in FIG. 10 {0} X 0, Y 0, constituted by Z 0 axis. Similarly, the hand coordinate system X h, Y h, constituted by Z h-axis. For example, the position coordinates of the grip portions P 2 becomes P 1O = {x 10 y 10 , z 10} from the local reference coordinate system {0}. When the same coordinates are described based on the hand coordinate system {H}, P 1h = {x 1h , y 1h , z 1h }. From the hand coordinate system {H} to the origin position of the local reference coordinate system {0}
Figure 2004090099
Expressed by Also, the local reference coordinate system {0} is rotated with respect to the hand coordinate system {H}.
Figure 2004090099
Described by Then, the general conversion mapping to convert the P 1h based position coordinates of P 10 based on local reference coordinate system {0} hand coordinate system {H} is determined by the following equation (1).
(Equation 1)
Figure 2004090099
[0034]
Figure 2004090099
Are obtained as inner products of unit vectors x 0 , y 0 , z 0 and x h , y h , z h of the respective coordinate axes as in the following equation (2).
(Equation 2)
Figure 2004090099
[0035]
Position P 1 or P 2 of any grip portions on the object is written to the local reference coordinate system {0}, which is fixed to the same object. A robot manipulator generally performs an operation of gripping an object by giving a target position to a hand coordinate system. Coordinates of P 1 or P 2 written to the tag are the coordinates of the local reference coordinates {0} is converted into coordinates based its coordinate hand coordinate system {H}, provided as a target position in the robot manipulator The work becomes possible.
The tag 6 does not need to be unique, and a plurality of tags 6 may be provided. In this case, even if an identification mark is not formed on the tag 6 based on a predetermined arrangement state of the plurality of tags 6, the origin to be measured can be measured by detecting the arrangement state.
[0036]
FIG. 11 shows a situation in which the cup 5A is transported from point A to point B with the cup 5A standing upright, according to the operating conditions according to the operating method written in the tag 6.
As described above, according to the present embodiment, the following object operation method using the robot manipulator is configured.
[0037]
A detection unit (part or all of the detector 4) attached to the robot manipulator 2 which is provided on the object 5 with an identification tag 6 on which the position coordinates of an operation part for operating the object 5 is written and which is operated by a computer The local reference position coordinates {0} written in the identification tag 6 are read out to calculate the relative position of {H} in the robot hand coordinate system with respect to the operation part coordinates of the object, and the hand of the robot manipulator 2 is calculated based on the relative position. 3 is an object operation method using a robot manipulator which moves the object 3 to an operation part of the object and operates the object.
[0038]
The position coordinates of the operation part for operating the object 5, the operation method of the object 5, and the written identification tag 6 are provided on the object 5, and the identification unit is mounted on the robot manipulator 2 operated by a computer. The local reference position coordinates {0} written in the tag 6 are read out, the relative position of the robot hand coordinate system {H} with respect to the operation part coordinates of the object 5 is calculated, and the robot manipulator 2 is calculated based on the relative position and the acquired operation method. An object operation method using a robot manipulator that controls the operation of the robot manipulator, moves the hand 3 of the robot manipulator 2 to the operation site of the object 5, and operates the object.
[0039]
The position coordinates of the operation part for operating the object 5, the operation method of the object 5, writing, and an identification tag 6 having an identification mark 14 are provided on the object 5 and attached to the robot manipulator 2 operated by a computer. The local reference position coordinates {0} written to the identification tag 6 by the detection unit are read out, the identification mark 14 is detected, and the relative position and orientation of the robot hand coordinate system {H} with respect to the operation part coordinates of the object 5 are obtained. An object operation method using a robot manipulator that controls the operation of the robot manipulator 2 based on the relative position and orientation and the acquired operation method, moves the hand 3 of the robot manipulator 2 to the operation site of the object 5, and performs the object operation.
[0040]
Further, an object operation device using the following robot manipulator is configured.
An identification tag 6 provided on the object 5 by writing the position coordinates of an operation part for operating the object 5 and a detection unit for reading the local reference position coordinates {0} written on the identification tag 6 are attached. The robot manipulator 2 reads the position coordinates and calculates the relative position of the robot hand coordinate system {H} with respect to the operation part coordinates of the object 5, and moves the hand 3 of the robot manipulator 2 to the operation part of the object 5 based on the relative position. An object operation device using a robot manipulator including a control device for performing an object operation.
[0041]
An identification tag 6 provided on the object 5 by writing the position coordinates of an operation part for operating the object 5 and an operation method of the object 5, and a local reference position coordinate {0} written on the identification tag 6 And a robot manipulator 2 equipped with a detection unit that reads out the operation method and the relative position of the robot hand coordinate system {H} with respect to the operation part coordinates of the object based on the read out position coordinates. An object operation device using a robot manipulator, comprising: a control device that moves the hand 3 of the robot manipulator 2 to an operation site of the object 5 according to an operation method and performs an object operation.
[0042]
The position coordinates of the operation site where the operation of the object 5 is performed and the operation method of the object 5 are written, and the identification tag 6 provided on the object 5 with the identification mark 14 and the local area written on the identification tag 6 The robot manipulator 2 to which a reference position coordinate {0} and an operation method are read out and a detection unit for detecting the identification mark 14 is attached, and the relative position of the robot hand coordinate system {H} with respect to the operation part coordinate of the object 5 by reading out the position coordinate A control device that calculates the position and obtains the posture of the object 5, moves the hand 3 of the robot manipulator 2 to the operation site of the object 5 by the relative position and posture, and the obtained operation method, and performs the object operation. Object operation device using a robot manipulator equipped with.
[0043]
Further, according to the present invention, an identification part having an operation part operated by the hand 3 of the robot manipulator 2, writing position coordinates of the operation part, and having an electronic component storing a local reference coordinate system {0} is provided. A moving object, for example, a cup, a box, a television, or the like, to which the tag 6 is attached can be provided. As the moving object, daily necessities, home appliances, industrial products, and the like can be considered.
[0044]
【The invention's effect】
Compared with the conventional visual sensor system, it is less affected by the environment. In particular, the time required to identify objects and detect the position of the operating part is extremely short, making it possible to apply robots in various environments in place of conventional visual sensors that have limited use in complex environments. I do. Affixing a tag with information to an object is also an element of ubiquitous computing that supports human life by communicating with devices having a calculation function arranged throughout the real world.
[0045]
[Brief description of the drawings]
FIG. 1 is a view showing an embodiment of the present invention and showing a basic configuration of the present invention.
FIG. 2 is a block diagram schematically showing an embodiment of the present invention.
FIG. 3 is a configuration diagram showing a partial modification of the embodiment of the present invention.
FIG. 4 is a configuration diagram showing a partial modification of the embodiment of the present invention.
FIG. 5 is a diagram showing a situation where a cup 5A having a tag 6 is placed.
FIG. 6 is a diagram showing a configuration of a tag 6 having an identification mark.
FIG. 7 is an experimental view showing an example of detection of an identification mark.
FIG. 8 is a screen diagram showing a display of a serial number.
FIG. 9 is a diagram showing the operation principle (known) of the RFID system.
FIG. 10 is a diagram showing a relationship between a local reference coordinate system {0} and a hand coordinate system {H}. FIG. 11 is a diagram showing one mode of conveyance by an operation method.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Robot main body, 2 ... Robot manipulator, 3 ... Hand, 4 ... Detector, 4A ... Laser sensor, 4B ... Reader, 4C ... Ultrasonic sensor, 4D ... Antenna, 5 ... Object, 5A ... Cup, 6 ... Tag, 13: memory chip, 14: identification mark, 100: object operating device.

Claims (9)

物体の操作を行う操作部位の位置座標を書き込んだ識別用のタグを当該物体上に設け、コンピュータによって操作されるロボットマニピュレータに取り付けた検出部によって前記識別用のタグに書き込まれた局所基準位置座標を読み出して物体の操作部位座標に対するロボットハンド座標系の相対位置を算出し、該相対位置によってロボットマニピュレータの操作制御を行い、ロボットマニピュレータのハンドを物体の前記操作部位まで移動させ、物体操作を行うことを特徴とするロボットマニピュレータによる物体操作方法。The local reference position coordinates written on the identification tag by a detection unit attached to a robot manipulator operated by a computer, provided with an identification tag on the object in which the position coordinates of the operation part performing the operation of the object are written. To calculate the relative position of the robot hand coordinate system with respect to the coordinates of the operation part of the object, perform operation control of the robot manipulator based on the relative position, move the hand of the robot manipulator to the operation part of the object, and perform the object operation An object operation method using a robot manipulator. 物体の操作を行う操作部位の位置座標とその物体の操作方法と書き込んだ識別用のタグを当該物体上に設け、コンピュータによって操作されるロボットマニピュレータに取り付けた検出部によって前記識別用のタグに書き込まれた局所基準位置座標を読み出して物体の操作部位座標に対するロボットハンド座標系の相対位置を算出し、該相対位置、および取得した操作方法によってロボットマニピュレータの操作制御を行い、ロボットマニピュレータのハンドを物体の前記操作部位まで移動させ、物体操作を行うことを特徴とするロボットマニピュレータによる物体操作方法。The position coordinates of the operation part for performing the operation of the object, the operation method of the object, and the identification tag written are provided on the object, and the detection unit attached to the robot manipulator operated by the computer writes the identification tag. Reads the obtained local reference position coordinates, calculates the relative position of the robot hand coordinate system with respect to the operation part coordinates of the object, controls the operation of the robot manipulator according to the relative position and the acquired operation method, and moves the robot manipulator hand to the object. An object operation method using a robot manipulator, wherein the object is operated by moving to the operation site. 物体の操作を行う操作部位の位置座標とその物体の操作方法と書き込み、識別マークを備えた識別用のタグを当該物体上に設け、コンピュータによって操作されるロボットマニピュレータに取り付けた検出部によって前記識別用のタグに書き込まれた局所基準位置座標を読み出し、前記識別マークを検出して物体の操作部位座標に対するロボットハンド座標系の相対位置および姿勢を求め、該相対位置と姿勢と、および取得した操作方法によってロボットマニピュレータの操作制御を行い、ロボットマニピュレータのハンドを物体の前記操作部位まで移動させ、物体操作を行うことを特徴とするロボットマニピュレータによる物体操作方法。The position coordinates of the operation site for operating the object, the operation method and writing of the object, and an identification tag provided with an identification mark are provided on the object, and the identification is performed by a detection unit attached to a robot manipulator operated by a computer. Read the local reference position coordinates written in the tag for use, detect the identification mark, obtain the relative position and posture of the robot hand coordinate system with respect to the operation part coordinates of the object, and obtain the relative position and posture, and the acquired operation. A method for controlling an object by a robot manipulator, comprising controlling the operation of the robot manipulator, moving a hand of the robot manipulator to the operation portion of the object, and performing the object operation. 請求項3において、前記識別マークは、複数のタグの配置位置によって形成されることを特徴とするロボットマニピュレータによる物体操作方法。4. The method according to claim 3, wherein the identification mark is formed by an arrangement position of a plurality of tags. 物体の操作を行う操作部位の位置座標を書き込んで当該物体に設けられた識別用のタグと、前記識別用のタグに書き込まれた局所基準位置座標を読み出す検出部を取り付けたロボットマニピュレータと、前記位置座標を読み出して物体の操作部位座標に対するロボットハンド座標系の相対位置を算出し、該相対位置によってロボットマニピュレータのハンドを物体の前記操作部位まで移動させ、物体操作を行わせる制御装置とを備えたことを特徴とするロボットマニピュレータによる物体操作装置。An identification tag provided on the object by writing the position coordinates of an operation part performing an operation on the object, and a robot manipulator equipped with a detection unit for reading local reference position coordinates written on the identification tag; A control device that reads out the position coordinates, calculates a relative position of the robot hand coordinate system with respect to the operation part coordinates of the object, moves the hand of the robot manipulator to the operation part of the object based on the relative position, and performs an object operation. An object operation device using a robot manipulator. 物体の操作を行う操作部位の位置座標とその物体の操作方法を書き込んで当該物体に設けられた識別用のタグと、前記識別用のタグに書き込まれた局所基準位置座標と操作方法とを読み出す検出部を取り付けたロボットマニピュレータと、読み出した前記位置座標に基づいて物体の操作部位座標に対するロボットハンド座標系の相対位置を算出し、該相対位置、および取得した操作方法によってロボットマニピュレータのハンドを物体の前記操作部位まで移動させ、物体操作を行わせる制御装置とを備えたことを特徴とするロボットマニピュレータによる物体操作装置。The position coordinates of the operation part for operating the object and the operation method of the object are written and the identification tag provided on the object, and the local reference position coordinates and the operation method written on the identification tag are read. A robot manipulator to which a detection unit is attached, and a relative position of the robot hand coordinate system with respect to the operation part coordinates of the object is calculated based on the read position coordinates, and the hand of the robot manipulator is moved by the relative position and the acquired operation method. And a control device for moving to the operation part and performing an object operation. 物体の操作を行う操作部位の位置座標とその物体の操作方法を書き込み、識別マークを備えて当該物体に設けられた識別用のタグと、前記識別用のタグに書き込まれた局所基準位置座標と操作方法とを読み出し、前記識別マークを検出する検出部を取り付けたロボットマニピュレータと、前記位置座標を読み出して物体の操作部位座標に対するロボットハンド座標系の相対位置を算出し、かつ当該物体の姿勢を求め、該相対位置と姿勢と、および取得した操作方法によってロボットマニピュレータのハンドを物体の前記操作部位まで移動させ、物体操作を行わせる制御装置とを備えたことを特徴とするロボットマニピュレータによる物体操作装置。Write the position coordinates of the operation part performing the operation of the object and the operation method of the object, the identification tag provided with the identification mark provided on the object, and the local reference position coordinates written on the identification tag. A robot manipulator equipped with a detecting unit for detecting the identification mark, reading the position coordinates, calculating the relative position of the robot hand coordinate system with respect to the operation part coordinates of the object, and setting the posture of the object. A control device for moving the hand of the robot manipulator to the operation portion of the object by the obtained and relative position and orientation, and the obtained operation method, and performing an object operation. apparatus. 請求項7において、前記識別マークは、前記タグに設けた微小な切り込み、もしくは表示された記号であることを特徴とするロボットマニピュレータによる物体操作装置。8. The object manipulating device according to claim 7, wherein the identification mark is a minute notch provided on the tag or a displayed symbol. ロボットマニピュレータのハンドによって操作を行う操作部位を有し、該操作部位の位置座標を書き込み、局所基準座標系を記憶した電子部品を備えた識別用のタグを取り付けたことを特徴とする移動物体。A moving object having an operation part operated by a hand of a robot manipulator, writing position coordinates of the operation part, and attaching an identification tag provided with an electronic component storing a local reference coordinate system.
JP2002250614A 2002-08-29 2002-08-29 Object operation method and apparatus using robot manipulator Expired - Lifetime JP4332617B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002250614A JP4332617B2 (en) 2002-08-29 2002-08-29 Object operation method and apparatus using robot manipulator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002250614A JP4332617B2 (en) 2002-08-29 2002-08-29 Object operation method and apparatus using robot manipulator

Publications (2)

Publication Number Publication Date
JP2004090099A true JP2004090099A (en) 2004-03-25
JP4332617B2 JP4332617B2 (en) 2009-09-16

Family

ID=32057397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002250614A Expired - Lifetime JP4332617B2 (en) 2002-08-29 2002-08-29 Object operation method and apparatus using robot manipulator

Country Status (1)

Country Link
JP (1) JP4332617B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005279804A (en) * 2004-03-29 2005-10-13 Advanced Telecommunication Research Institute International Object recognition device
JP2006015433A (en) * 2004-06-30 2006-01-19 Honda Motor Co Ltd Product explanation robot
JP2006015434A (en) * 2004-06-30 2006-01-19 Honda Motor Co Ltd Customer service robot
WO2006120820A1 (en) * 2005-05-13 2006-11-16 Brother Kogyo Kabushiki Kaisha Wireless tag communication system
KR100711559B1 (en) 2006-07-26 2007-04-27 김승우 Home MeCleanup Robot System and Implementation Method
JPWO2006006624A1 (en) * 2004-07-13 2008-05-01 松下電器産業株式会社 Article holding system, robot, and robot control method
WO2009004772A1 (en) * 2007-07-05 2009-01-08 Panasonic Corporation Robot arm control device and control method, robot and control program
JP2009034806A (en) * 2007-07-31 2009-02-19 Ind Technol Res Inst Structure that applies wireless identification technology to motion sequence control of electronic robots
US7619525B2 (en) 2006-10-12 2009-11-17 International Business Machines Corporation Method and system for providing security using RFID tagged items exiting or entering a retail establishment
US7728728B2 (en) 2005-09-28 2010-06-01 International Business Machines Corporation Method and systems for collecting user's choices using RFIDs
US7774100B2 (en) 2005-09-27 2010-08-10 Honda Motor Co., Ltd. Robot control information generator and robot
JP2010228064A (en) * 2009-03-27 2010-10-14 National Institute Of Advanced Industrial Science & Technology Robot arm operating method of robot device for welfare, robot arm operation program, and recording medium
DE102011110132A1 (en) 2011-08-15 2013-02-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for automatic identification of loading goods i.e. parcels, of loading unit, involves producing reference and actual contours of loading unit by using data stored in communication device, where contours are compared with one another
CN107303672A (en) * 2016-04-19 2017-10-31 上海技美科技股份有限公司 The method that common collaboration robot, robot system and common collaboration robot perform operation task
CN107303670A (en) * 2016-04-19 2017-10-31 上海技美科技股份有限公司 Common collaboration robot, robot system and common collaboration robot perform the control method of operation task
JP2023066555A (en) * 2021-10-29 2023-05-16 株式会社Ihi Three-dimensional measurement jig and three-dimensional measurement system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210125656A (en) 2020-04-08 2021-10-19 삼성전자주식회사 Method and apparatus for generating an image for rearrangement objects

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005279804A (en) * 2004-03-29 2005-10-13 Advanced Telecommunication Research Institute International Object recognition device
JP2006015433A (en) * 2004-06-30 2006-01-19 Honda Motor Co Ltd Product explanation robot
JP2006015434A (en) * 2004-06-30 2006-01-19 Honda Motor Co Ltd Customer service robot
US7706918B2 (en) 2004-07-13 2010-04-27 Panasonic Corporation Article holding system, robot, and method of controlling robot
JPWO2006006624A1 (en) * 2004-07-13 2008-05-01 松下電器産業株式会社 Article holding system, robot, and robot control method
WO2006120820A1 (en) * 2005-05-13 2006-11-16 Brother Kogyo Kabushiki Kaisha Wireless tag communication system
US8040222B2 (en) 2005-05-13 2011-10-18 Brother Kogyo Kabushiki Kaisha Radio-frequency tag communication system
US7774100B2 (en) 2005-09-27 2010-08-10 Honda Motor Co., Ltd. Robot control information generator and robot
US7728728B2 (en) 2005-09-28 2010-06-01 International Business Machines Corporation Method and systems for collecting user's choices using RFIDs
KR100711559B1 (en) 2006-07-26 2007-04-27 김승우 Home MeCleanup Robot System and Implementation Method
US7619525B2 (en) 2006-10-12 2009-11-17 International Business Machines Corporation Method and system for providing security using RFID tagged items exiting or entering a retail establishment
US7751938B2 (en) 2007-07-05 2010-07-06 Panasonic Corporation Robot arm control device and control method, robot, and control program
WO2009004772A1 (en) * 2007-07-05 2009-01-08 Panasonic Corporation Robot arm control device and control method, robot and control program
CN101687321B (en) * 2007-07-05 2012-08-08 松下电器产业株式会社 Robot arm control device and control method, robot and control program
JP2009034806A (en) * 2007-07-31 2009-02-19 Ind Technol Res Inst Structure that applies wireless identification technology to motion sequence control of electronic robots
JP2010228064A (en) * 2009-03-27 2010-10-14 National Institute Of Advanced Industrial Science & Technology Robot arm operating method of robot device for welfare, robot arm operation program, and recording medium
DE102011110132A1 (en) 2011-08-15 2013-02-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for automatic identification of loading goods i.e. parcels, of loading unit, involves producing reference and actual contours of loading unit by using data stored in communication device, where contours are compared with one another
CN107303672A (en) * 2016-04-19 2017-10-31 上海技美科技股份有限公司 The method that common collaboration robot, robot system and common collaboration robot perform operation task
CN107303670A (en) * 2016-04-19 2017-10-31 上海技美科技股份有限公司 Common collaboration robot, robot system and common collaboration robot perform the control method of operation task
JP2023066555A (en) * 2021-10-29 2023-05-16 株式会社Ihi Three-dimensional measurement jig and three-dimensional measurement system

Also Published As

Publication number Publication date
JP4332617B2 (en) 2009-09-16

Similar Documents

Publication Publication Date Title
JP4332617B2 (en) Object operation method and apparatus using robot manipulator
JP6927938B2 (en) Robot system incorporating cloud service system
CN1984756B (en) Item holding system, robot and robot control method
Yu et al. An autonomous restaurant service robot with high positioning accuracy
JP7057214B2 (en) Gripping device, tagged container, object gripping program and object gripping method
Okamura et al. Haptic exploration of objects with rolling and sliding
CN114554909A (en) Robot gripper for detecting very thin objects or features
US20130241832A1 (en) Method and device for controlling the behavior of virtual objects on a display
US10137567B2 (en) Inventory robot
JP2019084601A (en) Information processing apparatus, gripping system and information processing method
US10347026B2 (en) Information processing apparatus with location based display
JP5717315B2 (en) Position recognition display device and position recognition method
CN101559600A (en) Service robot grasp guidance system and method thereof
US20150185852A1 (en) Ring mobile device and operation method of the same
JP2008049459A (en) Manipulator control system, manipulator control method and program
KR102565444B1 (en) Method and apparatus for identifying object
KR102641951B1 (en) Apparatus and method for controlling robot arm
JP2006102881A (en) Gripping robot device
JP4278598B2 (en) Wireless tag position estimation system
CN111563047A (en) Attack testing method, device and equipment for biological feature recognition
US20070055949A1 (en) Methods and apparatus for rfid interface control
JP2004230539A (en) Method and apparatus for detecting position and orientation of object by robot
CN112437918B (en) Information processing device, information processing method, and program
JP2005088146A (en) Object processing system, object processing method, and robot
JP2005088143A (en) Object processing system, object processing method, and robot

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070813

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080115

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080118

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090323

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Ref document number: 4332617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term