[go: up one dir, main page]

JP2018122409A - ロボットの制御装置 - Google Patents

ロボットの制御装置 Download PDF

Info

Publication number
JP2018122409A
JP2018122409A JP2017017544A JP2017017544A JP2018122409A JP 2018122409 A JP2018122409 A JP 2018122409A JP 2017017544 A JP2017017544 A JP 2017017544A JP 2017017544 A JP2017017544 A JP 2017017544A JP 2018122409 A JP2018122409 A JP 2018122409A
Authority
JP
Japan
Prior art keywords
work
workpiece
image
orientation
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017017544A
Other languages
English (en)
Other versions
JP6708142B2 (ja
Inventor
修平 宮崎
Shuhei Miyazaki
修平 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Auto Body Co Ltd
Original Assignee
Toyota Auto Body Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Auto Body Co Ltd filed Critical Toyota Auto Body Co Ltd
Priority to JP2017017544A priority Critical patent/JP6708142B2/ja
Publication of JP2018122409A publication Critical patent/JP2018122409A/ja
Application granted granted Critical
Publication of JP6708142B2 publication Critical patent/JP6708142B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】不特定な姿勢に配置されたワークの位置姿勢を簡単かつ正確に画像認識して、ワークに対して所定の作業を正常に行い得るロボットの制御装置を提供。【解決手段】ワークWを複数のカメラ11、12で撮影してカメラ画像を取得する画像取得部1と、当該画像取得部が取得したカメラ画像を用いてワークの位置姿勢を求める物体認識部2と、当該物体認識部によって求められるワークの位置姿勢の結果に基づいてロボット3、4の動作を制御する制御部5とを備えたロボットの制御装置10である。画像取得部が、第1の撮影位置でワークの立体画像を取得し、物体認識部が、立体画像に基づいてワークの概略位置姿勢を求める。画像取得部が、ワークの概略位置姿勢を基準に移動した第2の撮影位置でワークの作業域画像を取得し、物体認識部が、作業域画像に基づいてワークの作業位置姿勢を求める。制御部が、作業位置姿勢の結果に基づいてロボットの動作を制御する。【選択図】図1

Description

本発明は、ワークの位置姿勢を画像認識し、当該ワークに対して所定の作業を行うロボットの制御装置に関する。
例えば、図7に示すように、コンベア101によって搬送されてきたトレー102内にバラ積みされているワークW(認識対象物)に対して作業を行うロボット103を有する生産システム内で、ワークWを所定の方向からカメラで撮影して画像を取得する画像取得部104と、画像取得部104が取得した画像を用いてワークWの位置姿勢を求める物体認識部105と、物体認識部105によって求められるワークWの位置姿勢の結果に基づいてロボット103の動作を制御し、且つ、生産システム内に設けられる各部の動作を制御する動作制御部とを有する制御部106と、を備えることを特徴とする物体認識に基づく制御装置100が、特許文献1に開示されている。
特開2016−147330号公報
しかしながら、特許文献1の制御装置100では、バラ積みされ不特定な姿勢で配置されているワークWに対して、所定の方向から撮影する画像取得部104のカメラによって取得したカメラ画像データを用いて、物体認識部105がワークWの位置姿勢を求めるので、カメラ画像データからワークWの輪郭全てが抽出されず、ワークWの位置姿勢を誤って認識したり、隠れた作業部位が認識できないという問題があった。
これに対して、例えば、画像取得部104のカメラが、ワークWの輪郭全てを特定できるように、専用のワーク搬送治具や専用の照明等を備えることも考えられるが、周辺装置を含め設備費の大幅な増加につながることから、実際の生産ラインに導入するには課題が多かった。
また、物体認識部105によるワークWの位置姿勢を求める方法として、カメラ画像データとワークWの3次元点群データ(例えば、3次元CADデータ)とをマッチング(合成)して、カメラ画像データから抽出できない輪郭や隠れた作業部位の形状を仮想する方法も考えられるが、実際のワーク形状と異なる形状に仮想した場合には、ロボット103などの設備破損につながる恐れがあり、問題があった。
本発明は、上記問題点を解決するためになされたものであり、不特定な姿勢で配置されたワークの位置姿勢を簡単かつ正確に画像認識して、ワークに対して所定の作業を正常に行い得るロボットの制御装置を提供することを目的とする。
上記課題を解決するために、本発明に係るロボットの制御装置は、次のような構成を有している。
(1)ワークを複数のカメラで撮影してカメラ画像を取得する画像取得部と、当該画像取得部が取得した前記カメラ画像を用いて前記ワークの位置姿勢を求める物体認識部と、当該物体認識部によって求められる前記ワークの位置姿勢の結果に基づいてロボットの動作を制御する制御部とを備えたロボットの制御装置であって、
前記画像取得部が、第1の撮影位置で前記ワークの立体画像を取得し、前記物体認識部が、前記立体画像に基づいて前記ワークの概略位置姿勢を求めること、
前記画像取得部が、前記ワークの概略位置姿勢を基準に移動した第2の撮影位置で前記ワークの作業域画像を取得し、前記物体認識部が、前記作業域画像に基づいて前記ワークの作業位置姿勢を求めること、
前記制御部が、前記作業位置姿勢の結果に基づいて前記ロボットの動作を制御することを特徴とする。
本発明においては、画像取得部が、第1の撮影位置でワークの立体画像を取得し、物体認識部が、その立体画像に基づいてワークの概略位置姿勢(大凡の位置及び大凡の姿勢)を求めるので、画像取得部が取得したカメラ画像(立体画像)からワークの輪郭全てを抽出できなくても、物体認識部はワークの概略位置姿勢を求めることができる。この場合、ワークの立体画像は、物体認識部がワークの概略位置姿勢を求めることができる程度の画像であれば良く、ワーク全体の立体画像である必要はない。また、ワークは、不特定な姿勢で配置されていても良い。
また、画像取得部が、ワークの概略位置姿勢を基準に移動した第2の撮影位置でワークの作業域画像を取得し、物体認識部が、作業域画像に基づいてワークの作業位置姿勢を求めるので、ワークの概略位置姿勢に多少の誤差があっても、画像取得部のカメラは、第2の撮影位置に移動してワークの作業域を確実に撮影することができ、物体認識部は、画像取得部のカメラが第2の撮影位置で撮影した作業域画像に基づいてワークの作業位置姿勢を正確に求めることができる。そして、制御部が、正確に求めたワークの作業位置姿勢の結果に基づいてロボットの動作を制御するので、ロボットが、ワークと衝突等することなく正常に作動することができる。
したがって、画像取得部が、第1の撮影位置でワークの立体画像を取得した後、第2の撮影位置に移動してワークの作業域を撮影するという簡単な方法であるので、画像取得部のカメラがワークの輪郭全てを特定できるように、専用のワーク搬送治具や専用の照明等を備える必要がなく、設備費の大幅な増加につながる恐れがない。また、正確に求めたワークの作業位置姿勢の結果に基づいてロボットが正常に動作することができるので、ロボットなどの設備破損につながる恐れもない。
よって、本発明によれば、不特定な姿勢に配置されたワークの位置姿勢を簡単かつ正確に画像認識して、ワークに対して所定の作業を正常に行い得るロボットの制御装置を提供することができる。
(2)(1)に記載されたロボットの制御装置において、
前記立体画像は、前記第1の撮影位置で複数の前記カメラが撮影した2次元カメラ画像データとワークの3次元CADデータとを合成して形成し、前記作業域画像は、前記第2の撮影位置で前記カメラが単独で撮影した2次元カメラ画像データから形成することを特徴とする。
本発明においては、ワークの立体画像は、第1の撮影位置で複数のカメラが撮影した2次元カメラ画像データとワークの3次元CADデータとを合成して形成するので、第1の撮影位置でカメラが撮影できないワークの隠れた輪郭等を3次元CADデータによって補完することができ、物体認識部が演算するワークの概略位置姿勢の精度を高めることができる。
また、立体画像は、第1の撮影位置で複数のカメラが撮影した2次元カメラ画像データとワークの3次元CADデータとを合成して形成し、作業域画像は、第2の撮影位置でカメラが単独で撮影した2次元カメラ画像データから形成するので、画像取得部の複数のカメラは、いずれも2次元カメラ画像を撮影する単眼カメラでもよい。また、画像取得部の複数のカメラが第1の撮影位置でワークの2次元カメラ画像を撮影した後に、ワークの作業位置に対向する第2の撮影位置に移動したカメラが、単独で2次元カメラ画像からなる作業域画像を撮影すればよい。したがって、画像取得部のカメラをより一層簡単な構造とし、また、カメラの移動機構を簡単に構成することができ、設備費の更なる低減につなげることができる。
(3)(1)又は(2)に記載されたロボットの制御装置において、
前記ロボットは、アーム部の先端部にそれぞれ作業ツールを装着した双腕型ロボット又は複数の単腕型ロボットであることを特徴とする。
本発明においては、ロボットは、アーム部の先端部にそれぞれ作業ツールを装着した双腕型ロボット又は複数の単腕型ロボットであるので、ワークが複雑な形状、又は長尺な形状であっても、アーム部の先端部に装着した各作業ツールが、ワークの作業域に対する所定の作業を行うことができる。
(4)(1)乃至(3)のいずれか1つに記載されたロボットの制御装置において、
前記画像取得部の複数のカメラの内、少なくとも1つのカメラは、前記ロボットのアーム部に装着されていることを特徴とする。
本発明においては、画像取得部の複数のカメラの内、少なくとも1つのカメラは、ロボットのアーム部に装着されているので、アーム部等が移動することによって、当該アーム部に装着されたカメラを第1の撮影位置及び第2の撮影位置に移動させ、ワークの立体画像と作業域画像とを簡単に撮影することができる。そのため、画像取得部のカメラを移動させる専用の移動機構を不要又は簡略化することができ、設備の簡素化を図ることができる。なお、例えば、ロボットが1台の単腕型ロボットである場合、単腕型ロボットのアーム部にカメラを1つ装着し、別に設ける固定台等に他のカメラを装着しても良い。また、例えば、ロボットが2つのアーム部を有する双腕型ロボットである場合、各アーム部にカメラをそれぞれ装着しても良い。
本発明によれば、不特定な姿勢に配置されたワークの位置姿勢を簡単かつ正確に画像認識して、ワークに対して所定の作業を正常に行い得るロボットの制御装置を提供することができる。
本発明に係る実施形態であるロボットの制御装置の概略構成図の一例である。 図1に示すロボットの動作範囲とカメラ方位等を示す斜視図である。 図1に示すロボットのアーム部に装着したカメラが第1の撮影位置でワークの立体画像を撮影するときの概略斜視図である。 図1に示すロボットのアーム部に装着したカメラが第2の撮影位置でワークの作業域画像を撮影するときの概略斜視図である。 図1に示すロボットの制御装置の動作フロー図である。 図1に示すロボットの制御装置の変形例を示す斜視図である。 特許文献1に記載された物体認識に基づく制御装置の概略構成図である。
次に、本発明に係る実施形態であるロボットの制御装置について、図面を参照して詳細に説明する。はじめに、本実施形態に係るロボットの制御装置の構造と動作方法を説明する。次に、本ロボットの制御装置の変形例について説明する。
<ロボットの制御装置の構造と動作方法>
まず、本実施形態に係るロボットの制御装置の構造と動作方法を、図1〜図5を用いて説明する。図1に、本発明に係る実施形態であるロボットの制御装置の概略構成図の一例を示す。図2に、図1に示すロボットの動作範囲とカメラ方位等を示す斜視図を示す。図3に、図1に示すロボットのアーム部に装着したカメラが第1の撮影位置でワークの立体画像を撮影するときの概略斜視図を示す。図4に、図1に示すロボットのアーム部に装着したカメラが第2の撮影位置でワークの作業域画像を撮影するときの概略斜視図を示す。図5に、図1に示すロボットの制御装置の動作フロー図を示す。
図1〜図4に示すように、本実施形態に係るロボットの制御装置10には、ワークWを複数(例えば、2つ)のカメラ11、12で撮影してカメラ画像を取得する画像取得部1と、当該画像取得部1が取得したカメラ画像を用いてワークWの位置姿勢を求める物体認識部2と、当該物体認識部2によって求められるワークWの位置姿勢の結果に基づいてロボット3、4の動作を制御する制御部5とを備えている。物体認識部2及び制御部5は、他の生産設備と接続する制御盤7に接続されている。ここでは、カメラ11、12は2つであるが、3つ以上でも良い。
また、ロボット3、4は、例えば、2つの単腕型多関節ロボットであり、例えば、コンベア6上に載置されたワークWを両側から挟持するように把持して、所定の加工ステーション(図示しない)へ搬送できるように、互いに隣接した位置に配置されている。両ロボット3、4のアーム部31、41の先端部には、作業ツール(把持用ツール)32、42がそれぞれ装着されている。なお、ロボット3、4は、2つのアーム部31、41を有する双腕型ロボットでもよい。また、ロボット3、4は、2つであるが、3つ以上でも良い。
ここで、ワークWは、特に制限されるものではないが、例えば、所定の半径Rを有する球体の外周面にV字状切込み部Kが形成された立体物であるとする。このワークWのV字状切込み部Kが、一方(右)のロボット4の把持用ツール42が当接する作業域に相当する。また、ワークWのV字状切込み部Kと反対側の外周面Pが、他方(左)のロボット3の把持用ツール32が当接する作業域に相当する。ワークWは、コンベア6上に載置されているが、V字状切込み部Kの向きは不特定である。
また、画像取得部1のカメラ11、12は、いずれも2次元カメラ画像を撮影する単眼カメラである。また、カメラ11、12は、各ロボット3、4のアーム部31、41に、カメラ方位(撮影方向)111、121がアーム部31、41の長手方向と略平行になるように、それぞれ装着されている。各ロボット3、4のアーム部31、41等の移動に伴って、カメラ11、12の位置及びカメラ方位111,121を変更させることができる。カメラ11、12の視野角θ1、θ2は、ワークWの大きさ等に応じて調整されている。カメラ11、12の焦点位置は、撮影する際に自動的に調整される機能を備えている。
また、画像取得部1のカメラ11、12は、図3に示す第1の撮影位置でワークWの全体又は部分に対する立体画像を撮影する。すなわち、ワークWの立体画像は、異なるカメラ方位111、121から撮影する複数(2つ)のカメラ11、12の2次元カメラ画像がワーク上面WGで互いに重なるように撮影して、重なる2次元カメラ画像を立体的に合成することによって形成する。このとき、ワークWの立体画像には、ワークWの作業域となるV字状切込み部K(特異点)の一部が含まれていることが好ましい。また、ワークWの立体画像は、第1の撮影位置で複数のカメラ11、12が撮影した2次元カメラ画像データとワークWの3次元CADデータとを合成して形成しても良い。2次元カメラ画像データとワークWの3次元CADデータとを合成することによって、第1の撮影位置でカメラ11、12が撮影できないワークWの隠れた輪郭等を3次元CADデータによって補完することができる。
また、物体認識部2は、画像取得部1が取得する画像データ及びワークWの3次元CADデータ等を記憶する記憶部21と、画像データ及び3次元CADデータ等からワークWの位置や姿勢(輪郭)等を演算する画像処理部22とを備えている。そして、物体認識部2は、第1の撮影位置で画像取得部1が取得した立体画像データ、又は第1の撮影位置でカメラ11、12が撮影した2次元カメラ画像データとワークWの3次元CADデータとを合成して補正した後の立体画像データを受領し、画像処理部22がその立体画像に基づいて、ワークWの概略位置姿勢を求める。ワークWの概略位置姿勢は、ワークWの大凡の位置、及び大凡の姿勢(輪郭)でよいので、多少の誤差があっても構わない。
また、画像取得部1のカメラ11、12は、ワークWの概略位置姿勢を基準に第2の撮影位置へ移動し、第2の撮影位置でワークWの作業域画像を撮影する。第2の撮影位置は、カメラがワークWの作業域全体を撮影することができる位置として、予め設定しておくことも、カメラ画像からその都度設定することもできる。ワークの作業域画像は、それぞれのカメラ11、12が単独でワークWの作業域を2次元カメラ画像として詳細に撮影することによって形成する。また、物体認識部2は、画像取得部1から作業域画像データを受領し、画像処理部22が作業域画像に基づいてワークWの作業位置姿勢を求める。ワークWの作業位置姿勢は、ロボット等の破損を防止するため、ワークWの作業域における正確な位置、及び正確な姿勢(輪郭)を必要とし、できる限り誤差が生じないように詳細に演算する。
なお、カメラ11、12は、ロボット3、4のアーム部31、41に装着されているので、アーム部31、41等が移動することによって、当該カメラを第1の撮影位置及び第2の撮影位置に移動させる。また、カメラ11、12の位置情報及び撮影したワークWの位置情報は、カメラ11、12を装着したアーム部31、41のロボット座標データを活用して演算する。また、ワークWの3次元CADデータは、制御盤7を介して予め入力し、物体認識部2の記憶部21に記憶させておく。画像取得部1は、2次元カメラ画像データとワークWの3次元CADデータとを合成する際、記憶部21から3次元CADデータを受領する。
また、制御部5は、ロボット3、4のアーム部31、41の揺動・回転、把持用ツール32、42の動作、台座部33、43の旋回等を制御する。そして、制御部5は、物体認識部2が演算したワークWの概略位置姿勢及び作業位置姿勢の結果に基づいて、ロボット3、4の各動作を制御する。なお、ロボット3、4の各動作は、予め教示して制御部5に記憶させているので、物体認識部2が演算したワークWの概略位置姿勢及び作業位置姿勢の結果に基づいて、制御部5は、教示データを自動的に補正する。
次に、ロボットの制御装置10の動作フローの一例を、図5を用いて説明する。図5に示すように、はじめに、ロボット3、4のアーム部31、41等を移動して、画像取得部1のカメラ11、12が第1の撮影位置でワークWの2次元カメラ画像を撮影する(ステップ:S1、図3参照)。
次に、物体認識部2が第1の撮影位置で撮影した2次元カメラ画像データとワークWの3次元CADデータとを合成して、3次元画像データからなるワークWの立体画像を作成する(ステップ:S2)。第1の撮影位置で撮影した2次元カメラ画像データでは、ワークWの作業域であるV字状切込み部Kの輪郭を抽出できない場合があっても、2次元カメラ画像データとワークWの3次元CADデータとを合成することによって、V字状切込み部Kの大凡の輪郭を特定することができる。
次に、物体認識部2がワークWの立体画像に基づいてワークWの概略位置姿勢を演算し、ワークWとロボット3、4との大凡の相対位置関係を確定する(ステップ:S3)。すなわち、物体認識部2は、ワークWの立体画像と制御部5に有するロボット座標データとを基にして、V字状切込み部Kの輪郭位置を含めてワークWの外周位置、重心位置等を概略的に抽出する。
次に、ロボット3、4のアーム部31、41等を移動してカメラ11、12が第2の撮影位置でワークWの作業域画像を撮影する(ステップ:S4、図4参照)。第2の撮影位置は、カメラ11、12がワークWの作業域全体を撮影することができる位置として、予め設定しておくこともできるが、ここでは、ワークWは、コンベア6上に載置されて搬送され、V字状切込み部Kの向きは不特定であるので、カメラ画像からワークWの作業域全体が撮影できる位置であることを物体認識部2が判断して、第2の撮影位置を設定しても良い。
次に、物体認識部2が作業域画像に基づいてワークWの作業位置姿勢を演算し、ロボット3、4が作動する詳細位置を確定する(ステップ:S5)。作業域画像は、各カメラ11、12が単独で撮影する2次元カメラ画像であるが、物体認識部2は、立体画像データ及びロボット座標データを基に、V字状切込み部Kの輪郭位置を含めてワークWの外周位置、重心位置等を概略的に抽出し、ワークWとロボット3、4との大凡の相対位置関係をすでに確定している。そのため、作業域画像が2次元カメラ画像であっても、物体認識部2は、V字状切込み部Kの輪郭位置、ワークWの外周位置、重心位置等を作業域画像に基づいて補正することによって、ワークWの作業位置姿勢を正確に演算し、ロボット3、4が作動する詳細位置を精度よく確定することができる。
次に、制御部5がロボット3、4の教示位置を詳細位置に基づいて補正して、ロボット3、4のアーム部31、41等を移動させる(ステップ:S6)。次に、ロボット3、4のアーム部31、41に装着した作業ツール32、42がワークWの作業域に対して所定の作業を行う(ステップ:S7)。以上のように、ロボットの制御装置10が動作することによって、不特定な姿勢で配置されたワークWの位置姿勢を簡単かつ正確に画像認識して、ロボット3、4がワークWに対して所定の作業を正常に行うことができる。
<作用効果>
以上、詳細に説明したように、本実施形態に係るロボットの制御装置10によれば、画像取得部1が、第1の撮影位置でワークWの立体画像を取得し、物体認識部2が、その立体画像に基づいてワークWの概略位置姿勢(大凡の位置及び大凡の姿勢)を求めるので、画像取得部1が取得したカメラ画像(立体画像)からワークWの輪郭全てを抽出できなくても、物体認識部2はワークWの概略位置姿勢を求めることができる。この場合、ワークWの立体画像は、物体認識部2がワークWの概略位置姿勢を求めることができる程度の画像であれば良く、ワーク全体の立体画像である必要はない。また、ワークWは、不特定な姿勢で配置されていても良い。
また、画像取得部1が、ワークWの概略位置姿勢を基準に移動した第2の撮影位置でワークWの作業域画像を取得し、物体認識部2が、作業域画像に基づいてワークWの作業位置姿勢を求めるので、ワークWの概略位置姿勢に多少の誤差があっても、画像取得部1のカメラ11、12は、第2の撮影位置に移動してワークWの作業域を確実に撮影することができ、物体認識部2は、画像取得部1のカメラ11、12が第2の撮影位置で撮影した作業域画像に基づいてワークWの作業位置姿勢を正確に求めることができる。そして、制御部5が、正確に求めたワークWの作業位置姿勢の結果に基づいてロボット3、4の動作を制御するので、ロボット3、4が、ワークWと衝突等することなく正常に作動することができる。
したがって、画像取得部1が、第1の撮影位置でワークWの立体画像を取得した後、第2の撮影位置に移動してワークWの作業域を撮影するという簡単な方法であるので、画像取得部1のカメラ11、12がワークWの輪郭全てを特定できるように、専用のワーク搬送治具や専用の照明等を備える必要がなく、設備費の大幅な増加につながる恐れがない。また、正確に求めたワークWの作業位置姿勢の結果に基づいてロボット3、4が正常に動作することができるので、ロボット3、4などの設備破損につながる恐れもない。
よって、本実施形態によれば、不特定な姿勢に配置されたワークWの位置姿勢を簡単かつ正確に画像認識して、ワークWに対して所定の作業を正常に行い得るロボットの制御装置10を提供することができる。
また、本実施形態によれば、ワークWの立体画像は、第1の撮影位置で複数(2つ)のカメラ11、12が撮影した2次元カメラ画像データとワークWの3次元CADデータとを合成して形成するので、第1の撮影位置でカメラ11、12が撮影できないワークWの隠れた輪郭等を3次元CADデータによって補完することができ、物体認識部2が演算するワークWの概略位置姿勢の精度を高めることができる。
また、立体画像は、第1の撮影位置で複数(2つ)のカメラ11、12が撮影した2次元カメラ画像データとワークWの3次元CADデータとを合成して形成し、作業域画像は、第2の撮影位置でカメラ11、12が単独で撮影した2次元カメラ画像データから形成するので、画像取得部1の複数のカメラ11、12は、いずれも2次元カメラ画像を撮影する単眼カメラでもよい。また、画像取得部1の複数のカメラ11、12が第1の撮影位置でワークWの2次元カメラ画像を撮影した後に、ワークWの作業位置(K、P)に対向する第2の撮影位置に移動したカメラ11、12が、単独で2次元カメラ画像からなる作業域画像を撮影すればよい。したがって、画像取得部1のカメラ11、12をより一層簡単な構造とし、また、カメラ11、12の移動機構を簡単に構成することができ、設備費の更なる低減につなげることができる。
また、本実施形態によれば、ロボット3、4は、アーム部31、41の先端部にそれぞれ作業ツール32、42を装着した双腕型ロボット又は複数の単腕型ロボットであるので、ワークWが複雑な形状、又は長尺な形状であっても、アーム部31、41の先端部に装着した各作業ツール32、42が、ワークWの作業域に対する所定の作業を行うことができる。
また、本実施形態によれば、画像取得部1の複数のカメラ11、12は、ロボット3、4のアーム部31、41にそれぞれ装着されているので、アーム部31、41等が移動することによって、当該アーム部31、41に装着されたカメラ11、12を第1の撮影位置及び第2の撮影位置に移動させ、ワークWの立体画像と作業域画像とを簡単に撮影することができる。そのため、画像取得部1のカメラ11、12を移動させる専用の移動機構を不要又は簡略化することができ、設備の簡素化を図ることができる。
<変形例>
上述した実施形態は、本発明の要旨を変更しない範囲で変更することができる。例えば、上記実施形態では、画像取得部1の複数(2つ)のカメラ11、12は、ロボット3、4のアーム部31、41にそれぞれ装着されているが、必ずしもこれに限る必要はない。例えば、図6に示すように、ロボット4が1つの単腕型ロボットである場合、単腕型ロボット4のアーム部41にカメラ12を1つ装着し、別に設ける固定台8等に他のカメラ13を装着しても良い。他のカメラ13は、視野角θ3、カメラ方位131を有し、固定台8にカメラ方位131を調整可能に装着されている。また、例えば、ロボットが2つのアーム部を有する双腕型ロボットである場合、各アーム部にカメラをそれぞれ装着しても良い。
本発明は、例えば、ワークの位置姿勢を画像認識し、当該ワークに対して所定の作業を行うロボットの制御装置として利用できる。
1 画像取得部
2 物体認識部
3、4 ロボット
5 制御部
6 コンベア
7 制御盤
10 ロボットの制御装置
11、12 カメラ
31、41 アーム部
32、42 作業ツール(把持用ツール)
W ワーク

Claims (4)

  1. ワークを複数のカメラで撮影してカメラ画像を取得する画像取得部と、当該画像取得部が取得した前記カメラ画像を用いて前記ワークの位置姿勢を求める物体認識部と、当該物体認識部によって求められる前記ワークの位置姿勢の結果に基づいてロボットの動作を制御する制御部とを備えたロボットの制御装置であって、
    前記画像取得部が、第1の撮影位置で前記ワークの立体画像を取得し、前記物体認識部が、前記立体画像に基づいて前記ワークの概略位置姿勢を求めること、
    前記画像取得部が、前記ワークの概略位置姿勢を基準に移動した第2の撮影位置で前記ワークの作業域画像を取得し、前記物体認識部が、前記作業域画像に基づいて前記ワークの作業位置姿勢を求めること、
    前記制御部が、前記作業位置姿勢の結果に基づいて前記ロボットの動作を制御することを特徴とするロボットの制御装置。
  2. 請求項1に記載されたロボットの制御装置において、
    前記立体画像は、前記第1の撮影位置で複数の前記カメラが撮影した2次元カメラ画像データとワークの3次元CADデータとを合成して形成し、前記作業域画像は、前記第2の撮影位置で前記カメラが単独で撮影した2次元カメラ画像データから形成することを特徴とするロボットの制御装置。
  3. 請求項1又は請求項2に記載されたロボットの制御装置において、
    前記ロボットは、アーム部の先端部にそれぞれ作業ツールを装着した双腕型ロボット又は複数の単腕型ロボットであることを特徴とするロボットの制御装置。
  4. 請求項1乃至請求項3のいずれか1項に記載されたロボットの制御装置において、
    前記画像取得部の複数のカメラの内、少なくとも1つのカメラは、前記ロボットのアーム部に装着されていることを特徴とするロボットの制御装置。
JP2017017544A 2017-02-02 2017-02-02 ロボットの制御装置 Active JP6708142B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017017544A JP6708142B2 (ja) 2017-02-02 2017-02-02 ロボットの制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017017544A JP6708142B2 (ja) 2017-02-02 2017-02-02 ロボットの制御装置

Publications (2)

Publication Number Publication Date
JP2018122409A true JP2018122409A (ja) 2018-08-09
JP6708142B2 JP6708142B2 (ja) 2020-06-10

Family

ID=63109944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017017544A Active JP6708142B2 (ja) 2017-02-02 2017-02-02 ロボットの制御装置

Country Status (1)

Country Link
JP (1) JP6708142B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022153923A1 (ja) * 2021-01-15 2022-07-21 川崎重工業株式会社 ロボットシステム及びロボット制御方法
CN116847959A (zh) * 2020-10-29 2023-10-03 株式会社尼康 焊接装置、焊接系统以及加工装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009269110A (ja) * 2008-05-02 2009-11-19 Olympus Corp 組立装置
JP2014046433A (ja) * 2012-09-03 2014-03-17 Canon Inc 情報処理システム、方法及びプログラム
JP2015226965A (ja) * 2014-06-02 2015-12-17 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP2016159406A (ja) * 2015-03-03 2016-09-05 キヤノン株式会社 ロボット制御装置、ロボット制御方法及びロボットシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009269110A (ja) * 2008-05-02 2009-11-19 Olympus Corp 組立装置
JP2014046433A (ja) * 2012-09-03 2014-03-17 Canon Inc 情報処理システム、方法及びプログラム
JP2015226965A (ja) * 2014-06-02 2015-12-17 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP2016159406A (ja) * 2015-03-03 2016-09-05 キヤノン株式会社 ロボット制御装置、ロボット制御方法及びロボットシステム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116847959A (zh) * 2020-10-29 2023-10-03 株式会社尼康 焊接装置、焊接系统以及加工装置
WO2022153923A1 (ja) * 2021-01-15 2022-07-21 川崎重工業株式会社 ロボットシステム及びロボット制御方法
JP2022109392A (ja) * 2021-01-15 2022-07-28 川崎重工業株式会社 ロボットシステム及びロボット制御方法
JP7599960B2 (ja) 2021-01-15 2024-12-16 川崎重工業株式会社 ロボットシステム及びロボット制御方法

Also Published As

Publication number Publication date
JP6708142B2 (ja) 2020-06-10

Similar Documents

Publication Publication Date Title
CN111452040B (zh) 在引导装配环境中将机器视觉坐标空间关联的系统和方法
US12002240B2 (en) Vision system for a robotic machine
ES2774521T3 (es) Sistema y método de orientación automatizada para una máquina de movimientos coordinados
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
CN112276936B (zh) 三维数据生成装置以及机器人控制系统
TWI670153B (zh) 機器人及機器人系統
JP6222898B2 (ja) 3次元計測装置及びロボット装置
JP6180087B2 (ja) 情報処理装置及び情報処理方法
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
JP5854815B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP4004899B2 (ja) 物品の位置姿勢検出装置及び物品取出し装置
US10754307B2 (en) Teaching device and control information generation method
CN109397282A (zh) 机械手臂加工方法、系统及计算机可读取纪录媒体
JP2016099257A (ja) 情報処理装置及び情報処理方法
JP2013078825A (ja) ロボット装置、ロボットシステムおよび被加工物の製造方法
JP2011507714A (ja) 空間内において少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法およびシステム
CN114341930B (zh) 图像处理装置、拍摄装置、机器人以及机器人系统
JP2008168372A (ja) ロボット装置及び形状認識方法
JP6708142B2 (ja) ロボットの制御装置
WO2022091767A1 (ja) 画像処理方法、画像処理装置、ロボット搭載型搬送装置、及びシステム
JP6499272B2 (ja) ティーチング装置及び制御情報の生成方法
CN117794704A (zh) 机器人控制设备、机器人控制系统以及机器人控制方法
US20250312925A1 (en) Robot control system
CN117139930A (zh) 一种焊接机器人示教空间定位装置
JP2023010174A (ja) ロボットビジョンシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200504

R150 Certificate of patent or registration of utility model

Ref document number: 6708142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250