[go: up one dir, main page]

JP7264763B2 - キャリブレーション装置 - Google Patents

キャリブレーション装置 Download PDF

Info

Publication number
JP7264763B2
JP7264763B2 JP2019145546A JP2019145546A JP7264763B2 JP 7264763 B2 JP7264763 B2 JP 7264763B2 JP 2019145546 A JP2019145546 A JP 2019145546A JP 2019145546 A JP2019145546 A JP 2019145546A JP 7264763 B2 JP7264763 B2 JP 7264763B2
Authority
JP
Japan
Prior art keywords
robot
sensor
parameter
calibration device
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019145546A
Other languages
English (en)
Other versions
JP2021024056A (ja
Inventor
誠也 伊藤
亮祐 三木
毅 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019145546A priority Critical patent/JP7264763B2/ja
Publication of JP2021024056A publication Critical patent/JP2021024056A/ja
Application granted granted Critical
Publication of JP7264763B2 publication Critical patent/JP7264763B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボットやセンサの位置や姿勢等の状態を示す各種パラメータを、より適切な値に更新する、キャリブレーション装置に関する。
従来のキャリブレーション装置としては、特許文献1に記載のものが知られている。この文献の要約書には、「単一のカメラ又はステレオカメラのキャリブレーションに関し、予め画像座標系でキャリブレーション範囲を設定し、任意の範囲でキャリブレーションすることを可能とする」ための解決手段として、「ロボットにターゲットマークを設置すると共に、当該ロボットを動かしてカメラの視野内の複数個所でターゲットマークを検出することで、当該ロボットのロボット座標系とカメラの画像座標系の対応付けを行うキャリブレーション装置であって、カメラの画像座標系における画像範囲を設定する画像範囲設定部と、キャリブレーション実行前に、ロボットを動かしてターゲットマークを検出することで、画像範囲に相当するロボットの動作範囲を計測するキャリブレーション範囲計測部を備える」キャリブレーション装置が開示されている。
すなわち、特許文献1のキャリブレーション装置では、ロボットのアーム先端を連続的に動かし、アーム先端に取り付けたターゲットマークを複数個所で検出することで、視覚センサ(単眼カメラ、ステレオカメラ)のキャリブレーションを行っている。
特開2018-111166号公報
しかしながら、特許文献1で用いる多関節ロボットアームでは、各関節の製造誤差や制御誤差等が累積してアーム先端のターゲットマークに現れるため、ターゲットマークの実位置は誤差のない理論上の位置からずれており、ターゲットマークの実位置に基づいて視覚センサをキャリブレーションしても、そのキャリブレーションが適切でない可能性が高かった。
そこで、本発明では、ロボットのアーム先端に取り付けたターゲットマークのような不安定な基準を用いることなく、ロボットやセンサの各種パラメータをより適切な値に更新できる、キャリブレーション装置を提供することを目的とする。
上記課題を解決するため、本発明のキャリブレーション装置は、設置位置が既知のターゲットマークを背景として、その手前のロボットを観測するカメラまたはレーザ変位計をセンサとして利用するキャリブレーション装置であって、前記センサにより前記ロボットと前記ターゲットマークを計測したセンサデータを生成するセンサデータ取得部と、前記ロボットを制御するロボット制御部と、前記センサに関するセンサパラメータと前記ロボットに関するロボットパラメータを記憶したデータ記憶部と、前記センサパラメータおよび前記ロボットパラメータに基づいて、仮想空間上の前記センサから前記ロボットと前記ターゲットマークを計測した仮想データを生成する仮想データ生成部と、前記センサデータと前記仮想データを比較し、両者の差異を判定する環境判定部と、前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索する相対位置姿勢推定部と、前記データ記憶部に記憶された前記センサパラメータまたは前記ロボットパラメータを前記相対位置姿勢推定部で探索した前記センサパラメータまたは前記ロボットパラメータに更新する更新部と、を具備し、前記データ記憶部は、前記センサと前記ロボットと前記ターゲットマークの位置に関する環境情報を更に記憶しており、前記仮想データ生成部は、前記環境情報に基づいて前記センサと前記ロボットと前記ターゲットマークを配置した仮想空間上の前記センサから前記ロボットと前記ターゲットマークを観測することで、前記仮想データを生成するものとした。
本発明のキャリブレーション装置によれば、ロボットのアーム先端に取り付けたターゲットマークのような不安定な基準を用いることなく、ロボットやセンサの各種パラメータをより適切な値に更新することができる。
実施例1のキャリブレーション装置の機能ブロック図 実施例1のロボットとセンサの座標空間表現図 実施例1の仮想データ生成部の処理フローチャート 仮想撮像データとセンサデータのマッチング処理の説明図 撮像環境判定部と相対位置姿勢推定部の処理フローチャート 姿勢情報を変更した場合のロボットの姿勢変化の一例 パラメータ更新と差分のデータ表現 実施例2のパラメータ更新の出力画面例
以下、図面を用いて、本発明のセンサ位置姿勢キャリブレーション装置の実施例を説明する。
図1から図7を用いて、本発明の実施例1に係るキャリブレーション装置1を説明する。
図1は、本実施例のキャリブレーション装置1の機能ブロックを、ロボット2、センサ3、ターゲットマーク4の概略配置と共に示した図である。以下では、ロボット2、センサ3、ターゲットマーク4を概説した後、キャリブレーション装置1の詳細を説明する。
<ロボット2、センサ3、ターゲットマーク4>
ロボット2は、アーム先端のロボットハンドで物体を把持する多関節ロボットアームであり、キャリブレーション装置1が備えるロボット制御部1aからの指令に応じて、各関節の回転角θやロボットハンドの開閉状態等が制御される。本実施例はロボットハンドに限らず、吸着ハンドなどの各種エンドエフェクタにおいても適用可能である。なお、以下では、関節数が三個であるロボット2を例に説明するが、本発明の適用対象は、関節数が三個のロボット2に限定されないことは言うまでもない。
センサ3は、設置位置が既知のターゲットマーク4を背景として、その手前のロボット2を観測するカメラ、レーザ変位計等である。なお、以下では、センサ3がカメラであるものとして説明する。
ターゲットマーク4は、平面上に複数のマークを配置したものである。センサ3とターゲットマーク4の相対位置や相対姿勢が異なる場合、センサ3で観測されるターゲットマーク4の見え方が異なることを利用して、センサ3とターゲットマーク4の相対位置や相対姿勢を検出することができる。なお、ターゲットマーク4上に配置する複数のマークは、個々が同等のものであっても良いし、個々に識別可能なユニークなものであっても良い。
ここで、図2を用いて、本実施例に関連する座標系を説明する。同図において、Wはワールド座標系であり、ロボット2、センサ3、ターゲットマーク4、または、ロボット2に把持される物体の位置等を特定する際の基準となる座標系である。Rはロボット2の不動点(例えばベース)を原点としたロボット座標系であり、ワールド座標系Wの各軸方向を維持したまま平行移動した座標系である。Sはセンサ3の不動点(例えばカメラの受光素子)を原点としたセンサ座標系であり、センサ3の視線方向をSz軸とし、このSz軸と直交するようにSx軸とSy軸を設定した座標系である。
また、CRSは、センサ座標系S上の座標とロボット座標系R上の座標を相互に座標変換する係数である。この係数CRSを利用することで、センサ3が検出したセンサ座標系S上の物体の位置と形状を、ロボット座標系R上の物体の位置と形状として認識できるので、ロボット制御部1aは、ロボット座標系R上での座標を用いて、ロボット2に所望の物体の把持などを指令することができる。
このような係数CRSを用いて座標変換を行う場合、係数CRSが適切であれば、センサ3の検出結果をロボット2に正確に伝達することができるが、係数CRSが不適切であれば、センサ3の検出結果をロボット2に正確に伝達することができず、例えば、ロボット2が所望の物体を正しく把持できないなどの不具合が生じる恐れがある。
係数CRSの精度は、後述するセンサパラメータPやロボットパラメータPに依拠するため、これらのパラメータを最適化できれば、係数CRSも自ずと最適化される。そこで、本実施例のキャリブレーション装置1では、センサパラメータPやロボットパラメータPを自動的に最適化できるようにすることで、作業者の熟練度に拘わらず係数CRSを容易に最適化できるようにした。
<キャリブレーション装置1>
ここで図1に戻り、係数CRSを最適化するために必要な、キャリブレーション装置1の詳細構造を説明する。なお、キャリブレーション装置1は、実際には、CPU等の演算装置、半導体メモリ等の主記憶装置、ハードディスク等の補助記憶装置、および、通信装置などのハードウェアを備えたパソコン等の計算機である。そして、補助記憶装置に記録されたデータベースを参照しながら、主記憶装置にロードされたプログラムを演算装置が実行することで、図1に示す各機能を実現する。ここに示す各機能の詳細は後述するが、以下では、計算機分野での周知技術は適宜省略する。
図1に示すように、本実施例のキャリブレーション装置1は、ロボット制御部1a、データ記憶部1b、仮想撮像データ生成部1c、センサデータ取得部1d、撮像環境判定部1e、相対位置姿勢推定部1f、ロボットパラメータ更新部1g、センサパラメータ更新部1hを備えている。
ロボット制御部1aは、ロボット2と双方向に通信し、ロボット2の姿勢や挙動を制御する。例えば、ロボット制御部1aは、ロボット2の各関節の回転角θ~θを指定することで、ロボット2の姿勢を制御する。以下では、ロボット制御部1aからロボット2に送信される回転角θ~θの組み合わせを姿勢情報Iと称する。
データ記憶部1bは、後述する仮想データ生成部1cで仮想撮像データDを生成するために用いる、環境情報I、センサパラメータP、ロボットパラメータPを記憶している。なお、環境情報Iは、例えば、ワールド座標系Wにおける、ロボット2、センサ3、ターゲットマーク4の設置位置等の情報である。センサパラメータPは、例えば、センサ3がカメラである場合は、その焦点距離(fx、fy)、歪係数、光軸中心(cu、cv)等の内部パラメータと、センサの世界座標系に対する並進移動(Tx、Ty、Tz)、回転(r11~r33の3x3行列)を示す外部パラメータである。ロボットパラメータPは、例えば、ロボット2の各アームの姿勢(各関節の回転角θ)やロボットハンドの開閉状態のパラメータである。
仮想撮像データ生成部1cは、データ記憶部1bから取得した環境情報I、センサパラメータP、ロボットパラメータPに基づいて、仮想撮像データDを生成する。ここでの仮想撮像データDの生成処理を、図3のフローチャートを用いて説明する。
まず、ステップS31では、仮想撮像データ生成部1cは、データ記憶部1bから環境情報Iを取得し、それに基づいて、仮想空間上にロボット2、センサ3、ターゲットマーク4を配置する。次に、ステップS32では、仮想撮像データ生成部1cは、データ記憶部1bから取得したロボットパラメータPに基づいて、仮想空間上のロボット2に各関節の回転角θやロボットハンドの開閉状態を設定する。次に、ステップS33では、仮想撮像データ生成部1cは、データ記憶部1bから取得したセンサパラメータPに基づいて、仮想空間上のセンサ3(カメラ)に内部パラメータを設定する。これにより、後述する図8の仮想空間データ表示領域5bに例示するような、ロボット2、センサ3、ターゲットマーク4が、仮想空間上に配置されることとなる。
最後に、ステップS34では、仮想撮像データ生成部1cは、仮想空間上のロボット2とターゲットマーク4を、仮想空間上のセンサ3の視点から撮像したものに相当する仮想撮像データDを生成する。
仮想空間上の任意の点(x,y,z)を仮想撮像データDに投影するには、例えば、式1を利用する。なお、式1において、u、vは仮想撮像データD上に仮想的に設定したuv座標系(仮想座標系)における座標である。fx,fyは、カメラの画素あたりの焦点距離であり、カメラの焦点距離をカメラの画素の縦、横の物理的な間隔で割った値である。cu、cvは、カメラの光軸と仮想撮像データDが交差する、仮想座標系における光軸中心の座標である。
Figure 0007264763000001
センサデータ取得部1dは、実際のロボット2とターゲットマーク4を、実際のセンサ3の視点から観測した出力に基づいて、センサデータDを取得する。本実施例では、センサ3をカメラとしているので、ここで取得されるセンサデータDは画像データである。
撮像環境判定部1eでは、仮想撮像データ生成部1cが出力する仮想撮像データDと、センサデータ取得部1dが出力するセンサデータDを比較し、撮像環境を判定する。ここでの処理の詳細を、図4と図5を用いて説明する。
図4は、仮想撮像データDとセンサデータDのマッチング処理の説明図であり、(a)は、データ記憶部1bに記憶されたパラメータに基づき仮想撮像データ生成部1cで生成された仮想撮像データD、(b)は、センサ3の実際の出力に基づいて生成されたセンサデータD、(c)は、仮想撮像データDとセンサデータDのマッチング処理である。
仮想撮像データDとセンサデータDが大きく相違していることから明らかなように、図4は、データ記憶部1bに記憶されたパラメータが実態と乖離しており、その修正が必要な状況に相当するものである。
パラメータを最適化するには、センサデータDと一致する仮想撮像データDを生成できるパラメータを選択すればよい。具体的には、(c)マッチング処理に示すように、仮想撮像データDをセンサデータDと一致させるのに必要な回転処理と移動処理を施すと同等のパラメータ調整を行えば良い。
図5は、撮像環境判定部1eで実行される撮像環境判定処理の一例を示すフローチャートである。
まず、ステップS51では、撮像環境判定部1eは、センサデータDと仮想撮像データDを取得する。次に、ステップS52では、撮像環境判定部1eは、両データに含まれるターゲットマーク4の基準マーカ位置を計測し、ステップS53では、撮像環境判定部1eは、両データ間の対応点をマッチングする。
以上のステップS51からS53の処理により、撮像環境判定部1eは、仮想撮像データDをセンサデータDと一致させるのに必要な回転量と移動量を演算できるので、ステップS54では、撮像環境判定部1eは、これらの回転量または移動量が所定の閾値以上であるかを判定する。そして、パラメータのキャリブレーションに必要な回転量と移動量が閾値未満のときは、撮像環境判定部1eは、現在記憶されているパラメータは実態に則した有効なものと判断し、データ記憶部1bのパラメータを更新せずに本フローチャートの処理を終了する。
一方、仮想撮像データDをセンサデータDと一致させるのに必要な回転量または移動量が閾値以上のときは、撮像環境判定部1eは、データ記憶部1bに現在記憶されているパラメータが実態に則しておらず修正が必要と判断し、パラメータ修正のための相対位置姿勢推定処理に移行する。
相対位置姿勢推定処理に移行すると、まず、ステップS55では、相対位置姿勢推定部1fは、仮想撮像データDとセンサデータDのターゲットマーク4の差異を最小化するセンサパラメータPを探索する。例えば、センサパラメータPが、PS1、PS2、PS3、PS4の四種類であれば、センサパラメータPS1から順に、ターゲットマーク4の差異を最小化する最適値を求めていく。次に、ステップS56では、相対位置姿勢推定部1fは、仮想撮像データDとセンサデータDのロボット2の差異を最小化するロボットパラメータPを探索する。例えば、ロボットパラメータPが、PR1、PR2、PR3、PR4の四種類であれば、ロボットパラメータPR1から順に、ロボット2の差異を最小化する最適値を求めていく。
そして、ステップS57では、ロボットパラメータ更新部1gまたはセンサパラメータ更新部1hは、データ記憶部1bに記憶された各パラメータを、ステップS55、ステップS56で求めた各パラメータの最適値に更新する。なお、図5では、センサパラメータPの最適値探索の後に、ロボットパラメータPの最適値探索を行ったが、仮想撮像データDとセンサデータDを比較した場合のロボット2側の差異がターゲットマーク4側の差異よりも大きかった場合は、ロボットパラメータPの最適値を探索した後に、センサパラメータPの最適値を探索しても良い。
次に、図6と図7を用いて、ロボット2の姿勢精度の評価方法を説明する。
ロボット2の姿勢精度を評価する場合、まず、ロボット制御部1aは、任意の姿勢情報I(θ、θ、θ)をロボット2に送信する。このとき、ロボット2は、図6(a)に示す姿勢となるので、姿勢情報Iに対応する誤差量dを測定し記録する。
次に、ロボット制御部1aは、姿勢情報Iの回転角θだけを回転角θ’に変更した、姿勢情報I’(θ’、θ、θ)をロボット2に送信する。このとき、ロボット2は、図6(b)に示す姿勢となるので、姿勢情報I’に対応する誤差量d’を測定し記録する。
そして、誤差量dと誤差量d’が相違し、かつ、誤差量d’が大きい場合は、回転角度θ1に対応する関節の姿勢精度が悪いか、その関節より先端側のリンクの精度が悪いと判定することができる。
以上のような姿勢精度の評価作業を多数の姿勢情報Iに対して実行することで、図7に例示するような、姿勢情報Iと誤差量dの対応表を作成することができる。そして、ここに示す姿勢情報Iと誤差量dの関係から、重回帰分析やロジスティック回帰分析など一般的な解析手法によって誤差量dを増加または減少させる姿勢情報Iの要素、または姿勢情報Iの要素の組み合わせを求めることができるため、それを最適なロボットパラメータPと特定することができる。
そして、図5や図7に基づいて修正されたセンサパラメータPとロボットパラメータPに基づいて係数CRSを演算し、この係数CRSを用いてセンサ座標系S・ロボット座標系Rの座標変換を実施することで、ロボット2の近傍の物体の位置や形状を正しく認識できるため、ロボット2はその物体を適切に把持できるようになる。
以上で説明したように、本実施例のキャリブレーション装置によれば、ロボットのアーム先端に取り付けたターゲットマークのような不安定な基準を用いることなく、ロボットの状態を規定するロボットパラメータPや、センサの状態を規定するセンサパラメータPをより適切な値にキャリブレーションすることをできる。そして、それらのパラメータを用いることで、ロボットの制御がより正確になり、例えば、ロボットハンドで物体をより正確に把持できるようになる。
次に、図8を用いて、本発明の実施例2に係るキャリブレーション装置1を説明する。なお、実施例1との共通点は重複説明を省略する。
実施例1では、キャリブレーション装置1がセンサパラメータPとロボットパラメータPを自動的に更新したが、本実施例では、相対位置姿勢推定部1fでの処理に作業者が関与できるようにした。
図8は、キャリブレーション装置1と接続した表示装置に表示される、キャリブレーションツールのアプリケーションソフトの表示画面5の一例である。
ここに示すように、表示画面5には、撮像データ表示領域5a、仮想空間データ表示領域5b、センサパラメータ設定領域5c、ロボットパラメータ設定領域5d、決定ボタン5e、および、ポインタ5fが表示されている。
撮像データ表示領域5aには、センサ3が実際に取得したセンサデータDと、現在のセンサパラメータP、ロボットパラメータPを利用して仮想撮像データ生成部1cで生成した仮想撮像データDが並べて表示されている。なお、両者が相違すれば、現在のセンサパラメータPまたはロボットパラメータPが不適切であり、両者が一致すれば、現在のセンサパラメータPとロボットパラメータPが適切であることは実施例1と同様である。
仮想空間データ表示領域5bには、仮想空間上における、ロボット2、センサ3、ターゲットマーク4の配置が表示されおり、センサパラメータ設定領域5c、ロボットパラメータ設定領域5dに表示されている各種パラメータを調整することで、撮像データ表示領域5aに表示される仮想撮像データDと、仮想空間データ表示領域5bに表示されるロボット2の状態が変化する。
このような表示画面5にて、作業者が、ポインタ5fを操作して、センサパラメータ設定領域5cやロボットパラメータ設定領域5dの各パラメータを適切に設定すると、センサデータDと仮想撮像データDが略一致する。このとき、作業者が決定ボタン5eを押すと、ロボットパラメータ更新部1gとセンサパラメータ更新部1hは、表示中の各パラメータ値に基づいて、データ記憶部1bに記憶された各パラメータを更新する。
以上で説明した実施例2の構成によれば、実施例1と同等の効果を得ることができるだけでなく、作業者は何れのパラメータに問題があったのかを直感的な操作により容易に把握することができる。
1…キャリブレーション装置、
1a…ロボット制御部、
1b…データ記憶部、
1c…仮想撮像データ生成部、
1d…センサデータ取得部、
1e…撮像環境判定部、
1f…相対位置姿勢推定部、
1g…ロボットパラメータ更新部、
1h…センサパラメータ更新部、
2、2…ロボット、
3、3…センサ、
4、4…ターゲットマーク、
5…表示画面、
5a…撮像データ表示領域5a、
5b…仮想空間データ表示領域
5c…センサパラメータ設定領域
5d…ロボットパラメータ設定領域
5e…決定ボタン
5f…ポインタ

Claims (5)

  1. 設置位置が既知のターゲットマークを背景として、その手前のロボットを観測するカメラまたはレーザ変位計をセンサとして利用するキャリブレーション装置であって、
    前記センサにより前記ロボットと前記ターゲットマークを計測したセンサデータを生成するセンサデータ取得部と、
    前記ロボットを制御するロボット制御部と、
    前記センサに関するセンサパラメータと前記ロボットに関するロボットパラメータを記憶したデータ記憶部と、
    前記センサパラメータおよび前記ロボットパラメータに基づいて、仮想空間上の前記センサから前記ロボットと前記ターゲットマークを計測した仮想データを生成する仮想データ生成部と、
    前記センサデータと前記仮想データを比較し、両者の差異を判定する環境判定部と、
    前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索する相対位置姿勢推定部と、
    前記データ記憶部に記憶された前記センサパラメータまたは前記ロボットパラメータを前記相対位置姿勢推定部で探索した前記センサパラメータまたは前記ロボットパラメータに更新する更新部と、
    を具備し、
    前記データ記憶部は、前記センサと前記ロボットと前記ターゲットマークの位置に関する環境情報を更に記憶しており、
    前記仮想データ生成部は、前記環境情報に基づいて前記センサと前記ロボットと前記ターゲットマークを配置した仮想空間上の前記センサから前記ロボットと前記ターゲットマークを観測することで、前記仮想データを生成することを特徴とするキャリブレーション装置。
  2. 請求項1に記載のキャリブレーション装置において、
    前記環境判定部は、前記仮想データを前記センサデータと一致させるのに必要な回転量または移動量を求め、
    前記相対位置姿勢推定部は、前記回転量または前記移動量が閾値以上の場合に、前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索し、前記回転量または前記移動量が前記閾値未満の場合には、前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索しないことを特徴とするキャリブレーション装置。
  3. 請求項1または請求項2に記載のキャリブレーション装置において、
    前記ロボットは、多関節ロボットアームであり、
    前記ロボットパラメータは、前記多関節ロボットアームの各関節の回転角、または、ロボットに装着されたエンドエフェクタの動作状態であることを特徴とするキャリブレーション装置。
  4. 請求項1または請求項2に記載のキャリブレーション装置において、
    前記センサカメラであ
    前記センサパラメータは、前記カメラの、位置姿勢、焦点距離、歪係数、または、光軸中心であることを特徴とするキャリブレーション装置。
  5. 請求項1に記載のキャリブレーション装置において、
    前記相対位置姿勢推定部での探索には、作業者が入力した前記センサパラメータまたは前記ロボットパラメータを用いることを特徴とするキャリブレーション装置。
JP2019145546A 2019-08-07 2019-08-07 キャリブレーション装置 Active JP7264763B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019145546A JP7264763B2 (ja) 2019-08-07 2019-08-07 キャリブレーション装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019145546A JP7264763B2 (ja) 2019-08-07 2019-08-07 キャリブレーション装置

Publications (2)

Publication Number Publication Date
JP2021024056A JP2021024056A (ja) 2021-02-22
JP7264763B2 true JP7264763B2 (ja) 2023-04-25

Family

ID=74664274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145546A Active JP7264763B2 (ja) 2019-08-07 2019-08-07 キャリブレーション装置

Country Status (1)

Country Link
JP (1) JP7264763B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11724407B2 (en) * 2021-01-18 2023-08-15 Xerox Corporation Target-free RGBD camera alignment to robots
DE102021104623B4 (de) * 2021-02-26 2024-08-29 Ssi Schäfer Automation Gmbh (At) Materialflusssteuerung mit virtuellen Sensoren
JP2023173018A (ja) 2022-05-25 2023-12-07 セイコーエプソン株式会社 カメラのキャリブレーション状態を可視化する方法、システム、及び、コンピュータープログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013191128A (ja) 2012-03-15 2013-09-26 Omron Corp シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム
JP2014014912A (ja) 2012-07-11 2014-01-30 Seiko Epson Corp ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP2015136770A (ja) 2014-01-23 2015-07-30 ファナック株式会社 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP2017094406A (ja) 2015-11-18 2017-06-01 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP2018144160A (ja) 2017-03-03 2018-09-20 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013191128A (ja) 2012-03-15 2013-09-26 Omron Corp シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム
JP2014014912A (ja) 2012-07-11 2014-01-30 Seiko Epson Corp ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP2015136770A (ja) 2014-01-23 2015-07-30 ファナック株式会社 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP2017094406A (ja) 2015-11-18 2017-06-01 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP2018144160A (ja) 2017-03-03 2018-09-20 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器

Also Published As

Publication number Publication date
JP2021024056A (ja) 2021-02-22

Similar Documents

Publication Publication Date Title
US10035268B2 (en) Measurement system used for calibrating mechanical parameters of robot
JP4267005B2 (ja) 計測装置及びキャリブレーション方法
JP7237483B2 (ja) ロボットシステムの制御方法、制御プログラム、記録媒体、制御装置、ロボットシステム、物品の製造方法
JP4298757B2 (ja) ロボット機構のキャリブレーション装置及び方法
US9889565B2 (en) Method for calibrating a robot and a robot system
JP6235664B2 (ja) ロボットの機構パラメータを校正するために使用される計測装置
JP6489776B2 (ja) 座標系校正方法、ロボットシステム、プログラム及び記録媒体
JP5371927B2 (ja) 座標系校正方法及びロボットシステム
JP7264763B2 (ja) キャリブレーション装置
CN110253574B (zh) 一种多任务机械臂位姿检测和误差补偿方法
CN108297100B (zh) 机械臂参数标定方法、装置和系统、机械臂
CN111278608B (zh) 用于3d视觉机器人系统的校准物品
JP2774939B2 (ja) ロボットのツールパラメータ導出方法及び較正方法
CN109983299A (zh) 工业机器人的测量系统和方法
JPH0538688A (ja) 産業用ロボツトシステムの座標系較正方法
TW202235239A (zh) 調整參數的裝置、機器人系統、方法及電腦程式
US20250214247A1 (en) Iterative Robot-Vision Calibration
WO2021210456A1 (ja) ロボットの制御座標系における視覚センサの位置を取得する装置、ロボットシステム、方法、及びコンピュータプログラム
KR102262235B1 (ko) Olp에서 생성된 실제로봇 작업프로그램의 보정방법
JP7583942B2 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
JPH06278064A (ja) 視覚センサの座標変換方法
WO2021200743A1 (ja) ロボットの教示位置を修正するための装置、教示装置、ロボットシステム、教示位置修正方法、及びコンピュータプログラム
JP6729084B2 (ja) 補正装置、補正方法および補正プログラム
Van Wyk et al. Efficiently improving and quantifying robot accuracy in situ
RU2761924C1 (ru) Способ управления манипулятором

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230413

R150 Certificate of patent or registration of utility model

Ref document number: 7264763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150