JP2016013591A - Robot system - Google Patents
Robot system Download PDFInfo
- Publication number
- JP2016013591A JP2016013591A JP2014136317A JP2014136317A JP2016013591A JP 2016013591 A JP2016013591 A JP 2016013591A JP 2014136317 A JP2014136317 A JP 2014136317A JP 2014136317 A JP2014136317 A JP 2014136317A JP 2016013591 A JP2016013591 A JP 2016013591A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- image processing
- captured image
- orientation
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】効率的にロボットを制御することができるロボットシステムを提供すること。【解決手段】ロボットシステムは、ワークを移動させるロボットと、ロボットが移動させるワークを撮像する撮像装置と、ロボットを動作させる制御装置と、撮像装置が撮像した撮像画像を用いて、ロボットが移動させるワークを検出する画像処理装置と、を含み、画像処理装置は、撮像画像を用いて、ロボットの第1位置とロボットが移動させるワークの第2位置との位置関係を算出する。【選択図】図3A robot system capable of efficiently controlling a robot is provided. A robot system moves a robot using a robot that moves a workpiece, an imaging device that images the workpiece that the robot moves, a control device that operates the robot, and a captured image captured by the imaging device. The image processing apparatus calculates a positional relationship between the first position of the robot and the second position of the work moved by the robot using the captured image. [Selection] Figure 3
Description
この発明は、ロボットシステムに関する。 The present invention relates to a robot system.
従来から、ロボットによりピックアップされた作業対象を所定の位置に整列させるロボットシステムが研究・開発されている。このようなロボットシステムでは、作業対象を所定の位置に正しく整列させるために、ピックアップされた作業対象の位置及び姿勢(以下、位置姿勢と称する)のロボット基準姿勢に対するずれ(オフセット)を算出する必要がある。 Conventionally, a robot system that aligns work objects picked up by a robot at a predetermined position has been researched and developed. In such a robot system, it is necessary to calculate a deviation (offset) of the position and posture of the picked-up work target (hereinafter referred to as a position / posture) with respect to the robot reference posture in order to correctly align the work target at a predetermined position. There is.
これに関連し、ロボットが把持した作業対象の位置及び姿勢を検出するための撮像部を設置し、当該撮像部により撮像された撮像画像から作業対象の位置姿勢を検出(算出)する画像処理装置を、ロボットを制御する制御装置とは別に備えるロボットシステムが知られている(特許文献1参照)。 In relation to this, an image processing unit is installed to detect the position and orientation of the work target gripped by the robot, and detects (calculates) the position and orientation of the work target from the captured image captured by the image capturing unit. Is known separately from a control device for controlling a robot (see Patent Document 1).
しかし、このような従来のロボットシステムでは、画像処理装置からの画像処理結果を制御装置が受け取り、前述したオフセットや、当該オフセットを考慮したマニピュレーターの位置姿勢及び把持部の位置姿勢の算出といった画像処理に関する演算を制御装置が行っていた。 However, in such a conventional robot system, the control device receives an image processing result from the image processing device, and performs image processing such as the above-described offset, and calculation of the position and orientation of the manipulator and the position and orientation of the gripper in consideration of the offset. The control device was performing the calculation regarding.
そのため、ロボット動作を規定するプログラム中に、これらの演算を行うためのプログラムを埋め込む必要があり、プログラム作成に係るユーザーの負荷が大きくなってしまっていた。また、作成するプログラムが制御装置毎に異なるため、やはりプログラム作成に係るユーザーの負荷が大きくなってしまっていた。これらの負荷により、ユーザーは、従来のロボットシステムを利用する際、作業効率を上げることが難しかった。さらに、画像処理装置ではなく、制御装置で画像処理に関する演算が行われることになってしまっていた。このように、制御装置と画像処理装置との間で画像処理に係る演算を分担し、制御装置が画像処理に係る演算を行う場合、制御装置がロボットの制御のみを行う場合と比べて、効率的なロボットの制御を行うことができない場合があった。 For this reason, it is necessary to embed a program for performing these calculations in the program that defines the robot operation, which increases the load on the user for creating the program. In addition, since the program to be created is different for each control device, the load on the user for creating the program has increased. Due to these loads, it is difficult for the user to improve the work efficiency when using the conventional robot system. In addition, calculations related to image processing are performed not by the image processing apparatus but by the control apparatus. As described above, when the calculation related to the image processing is shared between the control device and the image processing apparatus, and the control device performs the calculation related to the image processing, it is more efficient than the case where the control device only controls the robot. In some cases, the robot could not be controlled.
そこで本発明は、上記従来技術の問題に鑑みてなされたものであり、効率的にロボットを制御することができるロボットシステムを提供する。 Therefore, the present invention has been made in view of the above-described problems of the prior art, and provides a robot system capable of efficiently controlling a robot.
本発明の一態様は、ワークを移動させるロボットと、前記ロボットが移動させる前記ワークを撮像する撮像装置と、前記ロボットを動作させる制御装置と、前記撮像装置が撮像した撮像画像を用いて、前記ロボットが移動させる前記ワークを検出する画像処理装置と、を含み、前記画像処理装置は、前記撮像画像を用いて、前記ロボットの第1位置と前記ロボットが移動させる前記ワークの第2位置との位置関係を算出する、ロボットシステムである。
この構成により、ロボットシステムは、画像処理装置が、撮像画像を用いて、ロボットの第1位置とロボットが移動させるワークの第2位置との位置関係を算出する。これにより、ロボットシステムは、効率的にロボットを制御することができる。
According to one embodiment of the present invention, a robot that moves a workpiece, an imaging device that captures the workpiece that the robot moves, a control device that operates the robot, and a captured image captured by the imaging device are used. An image processing device that detects the workpiece that the robot moves, and the image processing device uses the captured image to determine a first position of the robot and a second position of the workpiece that the robot moves. This is a robot system for calculating the positional relationship.
With this configuration, in the robot system, the image processing apparatus calculates the positional relationship between the first position of the robot and the second position of the workpiece moved by the robot using the captured image. Thereby, the robot system can control the robot efficiently.
また、本発明の他の態様は、ロボットシステムにおいて、前記ロボットは、ハンドを備え、そのハンドにより把持された前記ワークを移動させ、前記画像処理装置は、前記撮像画像から前記ハンドの所定位置を前記第1位置として検出する、構成が用いられてもよい。
この構成により、ロボットシステムは、撮像画像からハンドの所定位置を第1位置として検出する。これにより、ロボットシステムは、ハンドの所定位置とワークの第2位置との位置関係を算出することができる。
According to another aspect of the present invention, in the robot system, the robot includes a hand, moves the workpiece gripped by the hand, and the image processing apparatus determines a predetermined position of the hand from the captured image. A configuration for detecting the first position may be used.
With this configuration, the robot system detects a predetermined position of the hand from the captured image as the first position. Thereby, the robot system can calculate the positional relationship between the predetermined position of the hand and the second position of the workpiece.
また、本発明の他の態様は、ロボットシステムにおいて、前記画像処理装置は、パターンマッチングによって前記撮像画像から前記ロボットの前記第1位置と前記ワークの前記第2位置との前記位置関係を検出する。
この構成により、ロボットシステムは、パターンマッチングによって撮像画像からロボットの第1位置とワークの第2位置との位置関係を検出する。これにより、ロボットシステムは、パターンマッチングによって撮像画像からロボットの第1位置とワークの第2位置との位置関係を算出することができる。
According to another aspect of the present invention, in the robot system, the image processing device detects the positional relationship between the first position of the robot and the second position of the workpiece from the captured image by pattern matching. .
With this configuration, the robot system detects the positional relationship between the first position of the robot and the second position of the workpiece from the captured image by pattern matching. Thereby, the robot system can calculate the positional relationship between the first position of the robot and the second position of the workpiece from the captured image by pattern matching.
以上により、ロボットシステムは、画像処理装置が、撮像画像を用いて、ロボットの第1位置とロボットが移動させるワークの第2位置との位置関係を算出する。これにより、ロボットシステムは、具備する装置の置換に係る汎用度が高く、その置換に伴う手間を軽減することができる。 As described above, in the robot system, the image processing apparatus calculates the positional relationship between the first position of the robot and the second position of the workpiece moved by the robot using the captured image. As a result, the robot system has a high degree of versatility related to the replacement of the device provided, and can reduce the labor involved in the replacement.
<実施形態>
以下、本発明の実施形態について、図面を参照して説明する。図1は、本実施形態に係るロボットシステム1の構成を示す図である。ロボットシステム1は、撮像部10と、把持部HND(エンドエフェクター)及びマニピュレーターMNPを備える単腕のロボット20と、制御装置30と、画像処理装置40と、情報処理端末50を具備する。本実施形態で、単腕のロボットとは、把持部HNDとマニピュレーターMNPにより構成される1本の腕を有するロボットを示す。
<Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration of a
ロボットシステム1は、撮像部10によりロボット20が把持した作業対象Oを含む範囲を撮像する。作業対象Oは、ロボット20により把持可能な物体であり、例えば、ネジやボルト、歯車、治具等の工業用の部品等であるが、これらに限られず、ロボット20により把持可能であれば他の物体であってもよい。作業対象Oは、ワークの一例である。ロボットシステム1は、作業対象Oを含む範囲が撮像された撮像画像に基づいて制御点TCPと、ロボット20により把持された作業対象Oに予め設定された代表点OPとの相対位置及び相対姿勢(以下、オフセットと称する)を算出する。
The
制御点TCPとは、制御装置30がロボット20の把持部HND(及びマニピュレーターMNP)を動かす時の把持部HNDの位置姿勢を表す点であり、この一例において、把持部HNDが設けられるマニピュレーターMNPの端部に備えられたフランジの中心点(ツール・センター・ポイント)である。制御点TCPは、第1位置の一例である。また、制御点TCPは、ハンドの所定位置の一例である。代表点OPは、制御装置30に予め設定された作業対象Oの位置姿勢を表す点であって作業対象Oの特徴的な点(この一例において、図1に示した角OP)である。代表点OPは、第2位置の一例である。ロボットシステム1は、算出されたオフセットに基づいて、代表点OPの位置姿勢(以下、作業対象位置姿勢と称する)と目標点TPの位置姿勢(以下、目標点位置姿勢と称する)とが一致するように、ロボット20のマニピュレーターMNP及び把持部HNDによって制御点TCPを動かす。これにより、ロボットシステム1は、ロボット20により作業対象Oを目標領域TAに正しい位置姿勢で配置する。以下では、説明の便宜上、制御点TCPの位置姿勢を、制御点位置姿勢と称して説明する。
The control point TCP is a point representing the position and orientation of the gripper HND when the
ここで、目標点TPとは、ロボット20により作業対象Oが配置される目標領域TAにおける点であって作業対象Oが正しい位置姿勢で目標領域TAに配置された時に代表点OPが一致する点である。目標領域TAとは、ロボット20により作業対象Oを配置させる領域であり、図1においては、テーブルTB上に設けられている。テーブルTBとは、例えば、ロボット20が作業対象Oを配置する台等である。
Here, the target point TP is a point in the target area TA where the work target O is placed by the
撮像部10は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。また、撮像部10は、単眼のカメラであるが、例えば、ステレオカメラのように2台以上のカメラによって構成されてもよい。
The
撮像部10は、ケーブルによって画像処理装置40と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。なお、撮像部10と画像処理装置40とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続される構成であってもよい。
The
撮像部10は、ロボット20がマニピュレーターMNPと把持部HNDにより作業対象Oを所定の撮像位置に移動させた時に、前述した制御点TCPと、把持部HNDにより把持された作業対象Oの代表点OPとを含む範囲(以下、撮像範囲と称する)を撮像可能な位置に設置される。また、図1において、撮像部10は、鉛直下方から鉛直上方に向けて前述の撮像範囲を撮像可能な位置に設置されている。
When the
なお、撮像部10は、鉛直下方から鉛直上方に向けて前述の撮像範囲を撮像可能な位置に設置されている構成に代えて、水平方向に撮像範囲を撮像可能な位置に設置される構成であってもよく、鉛直上方から鉛直下方に向けて撮像範囲を撮像可能な位置に設置される構成であってもよく、他の方向から撮像範囲を撮像可能に設置される構成であってもよい。また、撮像部10は、静止画像を撮像画像として撮像する構成であるとするが、これに代えて、動画像を撮像画像として撮像する構成であってもよい。撮像部10は、撮像装置の一例である。
Note that the
ロボット20は、例えば、把持部HNDと、マニピュレーターMNPと、図示しない複数のアクチュエーターを備えた単腕のロボットである。なお、ロボット20は、単腕のロボットに代えて、スカラーロボット(水平多関節ロボット)や双腕のロボット等であってもよい。スカラーロボットとは、マニピュレーターが水平方向にのみ動き、マニピュレーターの先端のスライド軸のみが上下に動くロボットである。また、双腕のロボットとは、把持部HNDとマニピュレーターMNPによりそれぞれ構成される2本の腕を有するロボットを示す。
The
ロボット20の腕は、6軸垂直多関節型となっており、支持台とマニピュレーターMNPと把持部HNDとがアクチュエーターによる連携した動作よって6軸の自由度の動作を行うことができる。なお、ロボット20の腕は、5自由度(5軸)以下で動作するものであってもよいし、7自由度(7軸)以上で動作するものであってもよい。以下では、把持部HND及びマニピュレーターMNPを備えた腕によって行われるロボット20の動作について説明する。なお、ロボット20の把持部HNDには、物体を把持可能な爪部が備えられている。把持部HNDは、ハンドの一例である。
The arm of the
ロボット20は、例えばケーブルによって制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、ロボット20と制御装置30とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。また、ロボットシステム1では、ロボット20は、図1に示したようにロボット20の外部に設置された制御装置30と接続されている構成とするが、この構成に代えて、制御装置30がロボット20に内蔵されている構成であってもよい。
The
ロボット20は、制御装置30から制御信号を取得し、取得した制御信号に基づいて、ロボット20の把持部HNDにより把持された作業対象OをマニピュレーターMNPによって現在位置から所定の撮像位置まで移動させる。また、ロボット20は、制御装置30から制御信号を取得し、取得した制御信号に基づいて、作業対象OをマニピュレーターMNPによって撮像位置から移動させ、目標領域TAに配置させる。
The
制御装置30は、制御信号をロボット20に出力することで、ロボット20を制御する。制御装置30は、ロボット20に作業対象Oを把持させた後、作業対象Oを撮像位置まで移動するようにロボット20を制御する。そして、制御装置30は、画像処理装置40に対して前述したオフセットを算出させる。制御装置30は、画像処理装置40からオフセットを示す情報を取得すると、取得されたオフセットを示す情報と、制御装置30に予め情報処理端末50を介して登録された目標点位置姿勢とに基づいて、作業対象Oに係る代表点位置姿勢が目標点位置姿勢に一致する時の制御点位置姿勢(以下、制御点目標位置姿勢と称する)を算出する。制御装置30は、制御点目標位置姿勢を算出した後、制御点位置姿勢が制御点目標位置姿勢と一致するように制御点TCPをロボット20に移動させる。
The
なお、ロボットシステム1は、制御装置30が制御点目標位置姿勢を算出する構成に代えて、画像処理装置40が制御点目標位置姿勢を算出する構成であってもよい。この場合、制御装置30は、制御装置30に予め登録された目標点位置姿勢を示す情報を画像処理装置40に出力する。そして、画像処理装置40は、制御装置30から取得した目標点位置姿勢と、自装置により算出されたオフセットとに基づいて、制御点目標位置姿勢を算出し、算出された制御点目標位置姿勢を示す情報を、制御装置30に出力する。
The
画像処理装置40は、制御装置30からの要求に応じて、撮像部10に前述の撮像範囲を撮像させる。また、画像処理装置40は、撮像部10から撮像画像を取得すると、取得された撮像画像に基づいて、前述のオフセットを算出する。画像処理装置40は、算出されたオフセットを示す情報を制御装置30に出力する。
In response to a request from the
情報処理端末50は、制御装置30に各種の情報を登録(入力)する。情報処理端末50は、ノートPC(Personal Computer)であるが、これに代えて、デスクトップPCやタブレットPC、携帯電話端末、多機能携帯電話端末(スマートフォン)、PDA(Personal Digital Assistant)等であってもよい。情報処理端末50は、画像処理装置40に前述した目標点位置姿勢を示す情報を出力して登録(記憶)させる。なお、情報処理端末50は、画像処理装置40と一体の装置である構成であってもよい。
The
次に、図2を参照して、画像処理装置40のハードウェア構成について説明する。図2は、画像処理装置40のハードウェア構成の一例を示す図である。画像処理装置40は、例えば、CPU(Central Processing Unit)41と、記憶部42と、入力受付部43と、通信部44を備え、通信部44を介して制御装置30と通信を行う。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。CPU41は、記憶部42に格納された各種プログラムを実行する。
Next, the hardware configuration of the
記憶部42は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)などを含み、画像処理装置40が処理する各種情報や画像、プログラムを格納する。なお、記憶部42は、画像処理装置40に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置でもよい。
The
入力受付部43は、例えば、キーボードやマウス、タッチパッド、その他の入力装置である。なお、入力受付部43は、表示部として機能することでタッチパネルとして構成されてもよい。また、入力受付部43は、画像処理装置40に備えられていない構成であってもよい。この場合、画像処理装置40への入力は、制御装置30と情報処理端末50のうちいずれか一方又は両方から受け付けるとする。
通信部44は、例えば、USB等のデジタル入出力ポートやイーサネットポート等を含んで構成される。
The
The
次に、図3を参照することで、画像処理装置40の機能構成について説明する。図3は、画像処理装置40の機能構成の一例を示す図である。画像処理装置40は、記憶部42と、通信部44と、画像取得部45と、制御部46を備える。制御部46が備える機能部のうち一部又は全部は、例えば、CPU41が、記憶部42に記憶された各種プログラムを実行することで実現される。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
Next, the functional configuration of the
画像取得部45は、撮像部10から撮像画像を取得する。画像取得部45は、取得された撮像画像を制御部46に出力する。
制御部46は、撮像制御部47と、オフセット算出部48と、通信制御部49を備える。
撮像制御部47は、撮像画像を撮像するように撮像部10を制御する。
オフセット算出部48は、画像取得部45により取得された撮像画像に基づいて制御点位置姿勢と作業対象位置姿勢の間のオフセットを算出する。
通信制御部49は、オフセット算出部48により算出されたオフセットを示す情報を制御装置30に出力するように通信部44を制御する。
The
The
The
The offset
The
以下、図4を参照して、画像処理装置40がオフセットを算出する処理について説明する。図4は、画像処理装置40がオフセットを算出する処理の流れの一例を示すフローチャートである。以下では、ロボット20により作業対象Oが撮像位置に移動させられた後の処理について説明する。まず、撮像制御部47は、前述の撮像範囲を撮像するように撮像部10を制御する(ステップS100)。次に、画像取得部45は、撮像部10からステップS100で撮像された撮像画像を取得し、取得された撮像画像を制御部46に出力する(ステップS110)。
Hereinafter, with reference to FIG. 4, processing in which the
次に、オフセット算出部48は、画像取得部45から取得された撮像画像に基づいて、制御点位置姿勢と作業対象位置姿勢の間のオフセットを算出する(ステップS120)。ここで、図5を参照して、撮像画像に基づく制御点位置姿勢と作業対象位置姿勢の間のオフセットの算出について説明する。図5は、撮像部10が撮像範囲を撮像する様子の一例と、撮像部10により撮像された撮像画像の一例をそれぞれ示す図である。
Next, the offset
図5(A)には、撮像部10が撮像範囲を撮像する様子の一例を示す。図5(A)において、把持部HNDにより把持された作業対象Oは、ロボット20により撮像位置に移動させられた状態であるとして説明する。作業対象Oが撮像位置に移動させられた後、撮像部10は、図5(A)に示した方向Cに向かって撮像範囲を撮像する。方向Cは、把持部HNDにより把持されている作業対象Oの面Mに直交する方向である。面Mとは、作業対象Oが把持部HNDにより把持された時に、把持部HNDが設けられたフランジFと対面しない側の面を示す。従って、撮像部10は、面Mが撮像素子の平面に対して平行な状態で撮像範囲を撮像する。
FIG. 5A shows an example of how the
面Mが撮像素子の平面に対して平行な状態とする理由は、作業対象Oが目標領域TAに正しい位置姿勢で配置された場合のオフセットであって制御点TCPと代表点OPが目標領域TAの目標領域面上に射影された時の目標領域面上(すなわち、テーブルTBの平面上)における制御点位置姿勢と代表点位置姿勢の間のオフセットを検出するためである。このようにオフセットを、目標領域面上におけるオフセットとして扱うことで、制御装置30や画像処理装置40の計算コストを抑制することができる。なお、このようなオフセットの扱いは、一例に過ぎず、他のオフセットの扱い方を用いてもよい。
The reason why the surface M is in a state parallel to the plane of the image sensor is an offset when the work object O is arranged in the correct position and orientation in the target area TA, and the control point TCP and the representative point OP are the target area TA. This is to detect an offset between the control point position and orientation on the target area surface (that is, on the plane of the table TB) when projected onto the target area surface. By treating the offset as an offset on the target area surface in this way, the calculation cost of the
図5(B)には、撮像部10により撮像された撮像画像の一例を示す。図5(B)に示したように、撮像画像には、面Mが直下から撮像されている。また、撮像画像には、作業対象Oに係る代表点OPが含まれている。画像処理装置40は、図5(B)に示したような撮像画像を撮像部10に撮像させ、撮像された撮像画像に基づいて、制御点位置姿勢と作業対象位置姿勢の間のオフセットOSを算出する。
FIG. 5B illustrates an example of a captured image captured by the
図5(B)において、オフセットOSは、撮像画像上のX軸及びY軸によって張られるXY平面上の相対位置及び相対姿勢を示す。なお、画像処理装置40は、例えば、把持部HNDの形状をパターンマッチング等によって撮像画像から検出することで、撮像画像上における制御点TCPの位置(すなわち、フランジFの中心位置)を検出する。また、画像処理装置40は、例えば、図示しないマニピュレーターMNPであって撮像画像に含まれるマニピュレーターMNPが延在する方向に基づいて撮像画像上の制御点TCPの姿勢を検出する。なお、画像処理装置40は、制御点TCPの姿勢を検出する際、他の手法により制御点TCPの姿勢を検出する構成であってもよい。
In FIG. 5B, the offset OS indicates a relative position and a relative posture on the XY plane stretched by the X axis and the Y axis on the captured image. Note that the
また、画像処理装置40は、例えば、パターンマッチングによって作業対象Oに係る代表点OPの撮像画像上の位置を検出する。また、画像処理装置40は、例えば、パターンマッチングによって面Mの辺の撮像画像上の方向を検出し、検出された方向に基づいて代表点OPの撮像画像上の姿勢を検出する。なお、画像処理装置40は、代表点OPの姿勢を検出する際、他の手法により代表点OPの姿勢を検出する構成であってもよい。画像処理装置40は、検出された撮像画像上の制御点位置姿勢と、撮像画像上の作業対象位置姿勢とに基づいて、ロボット座標系におけるオフセットOSを算出する。なお、撮像画像上の座標(ピクセル座標)系と、ロボット座標系とは、キャリブレーション等によって予め対応付けられているとする。
Further, the
次に、通信制御部49は、ステップS120でオフセット算出部48により算出された制御点位置姿勢と作業対象位置姿勢との間のオフセットを示す情報を制御装置30に出力するように通信部44を制御する(ステップS130)。
このように、ロボットシステム1は、制御点位置姿勢と作業対象位置姿勢との間のオフセットを算出するための画像処理を制御装置30とは別体の画像処理装置40に行わせる。これにより、ロボットシステム1は、制御装置30による処理に係る計算等の負荷を抑制することができる。また、ロボットシステム1は、制御装置30が行う通信の回数を抑制することができる。
Next, the
As described above, the
また、ロボットシステム1は、ロボット20を制御する制御装置30がバージョンアップ等に伴い、制御装置30とは異なる新たな制御装置Xを具備することになった場合であっても、制御装置Xで実行可能な形式のプログラムであってオフセットを算出するための画像処理に係るプログラムを新たに作成する必要がない。この場合、ロボットシステム1は、画像処理装置40との情報の入出力に係るコードを制御装置Xのロボット20を制御するプログラムに書き込むだけで、容易にオフセットを算出し、算出されたオフセットに基づいてロボット20を制御することができる。
In addition, the
以上説明したように、本実施形態に係るロボットシステム1は、画像処理装置40が、撮像部10により撮像された撮像画像を用いて、制御点位置姿勢と作業対象位置姿勢との間のオフセットOSを算出する。これにより、ロボットシステム1は、効率的にロボット20を制御することができる。
As described above, in the
また、ロボットシステム1は、撮像画像から制御点位置姿勢を検出する。これにより、ロボットシステムは、制御点位置姿勢と作業対象位置姿勢との間のオフセットOSを算出することができる。
また、ロボットシステム1は、パターンマッチングによって撮像画像から制御点位置姿勢と作業対象位置姿勢との間のオフセットOSを検出する。これにより、ロボットシステム1は、パターンマッチングによって撮像画像から制御点位置姿勢と作業対象位置姿勢との間のオフセットOSを検出することができる。
The
Further, the
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and changes, substitutions, deletions, and the like are possible without departing from the gist of the present invention. May be.
また、以上に説明した装置(例えば、ロボットシステム1の画像処理装置40)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM:Random Access Memory)のように、一定時間プログラムを保持しているものも含むものとする。
Further, a program for realizing the function of an arbitrary component in the apparatus described above (for example, the
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
1 ロボットシステム、10 撮像部、20 ロボット、30 制御装置、40 画像処理装置、41 CPU、42 記憶部、43 入力受付部、44 通信部、45 画像取得部、46 制御部、47 撮像制御部、48 オフセット算出部、49 通信制御部、50 情報処理端末
DESCRIPTION OF
Claims (3)
前記ロボットが移動させる前記ワークを撮像する撮像装置と、
前記ロボットを動作させる制御装置と、
前記撮像装置が撮像した撮像画像を用いて、前記ロボットが移動させる前記ワークを検出する画像処理装置と、
を含み、
前記画像処理装置は、
前記撮像画像を用いて、前記ロボットの第1位置と前記ロボットが移動させる前記ワークの第2位置との位置関係を算出する、
ロボットシステム。 A robot that moves the workpiece,
An imaging device for imaging the workpiece moved by the robot;
A control device for operating the robot;
An image processing device that detects the workpiece moved by the robot using a captured image captured by the imaging device;
Including
The image processing apparatus includes:
Calculating a positional relationship between a first position of the robot and a second position of the workpiece moved by the robot, using the captured image;
Robot system.
前記ロボットは、ハンドを備え、そのハンドにより把持された前記ワークを移動させ、
前記画像処理装置は、前記撮像画像から前記ハンドの所定位置を前記第1位置として検出する、
ロボットシステム。 The robot system according to claim 1,
The robot includes a hand, moves the workpiece gripped by the hand,
The image processing device detects a predetermined position of the hand as the first position from the captured image;
Robot system.
前記画像処理装置は、パターンマッチングによって前記撮像画像から前記ロボットの前記第1位置と前記ワークの前記第2位置との前記位置関係を検出する、
ロボットシステム。 The robot system according to claim 1 or 2,
The image processing device detects the positional relationship between the first position of the robot and the second position of the workpiece from the captured image by pattern matching;
Robot system.
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014136317A JP2016013591A (en) | 2014-07-01 | 2014-07-01 | Robot system |
| US14/753,401 US9981380B2 (en) | 2014-07-01 | 2015-06-29 | Teaching apparatus and robot system |
| EP15174247.5A EP2963513B1 (en) | 2014-07-01 | 2015-06-29 | Teaching apparatus and robot system |
| CN201510367312.0A CN105269578B (en) | 2014-07-01 | 2015-06-29 | Pointing devices and robotic systems |
| US15/960,884 US20180236661A1 (en) | 2014-07-01 | 2018-04-24 | Teaching Apparatus And Robot System |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014136317A JP2016013591A (en) | 2014-07-01 | 2014-07-01 | Robot system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016013591A true JP2016013591A (en) | 2016-01-28 |
Family
ID=55230222
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014136317A Pending JP2016013591A (en) | 2014-07-01 | 2014-07-01 | Robot system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2016013591A (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS63163907A (en) * | 1986-12-26 | 1988-07-07 | Toyota Motor Corp | Method for matching coordinate in intelligent robot |
| JP2011093014A (en) * | 2009-10-27 | 2011-05-12 | Ihi Corp | Control device of hand-eye bin picking robot |
| JP2011136377A (en) * | 2009-12-25 | 2011-07-14 | Ihi Corp | Robot control device and method |
| JP2012254518A (en) * | 2011-05-16 | 2012-12-27 | Seiko Epson Corp | Robot control system, robot system and program |
| JP2014104529A (en) * | 2012-11-27 | 2014-06-09 | Canon Inc | Robot system and control method of the same |
-
2014
- 2014-07-01 JP JP2014136317A patent/JP2016013591A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS63163907A (en) * | 1986-12-26 | 1988-07-07 | Toyota Motor Corp | Method for matching coordinate in intelligent robot |
| JP2011093014A (en) * | 2009-10-27 | 2011-05-12 | Ihi Corp | Control device of hand-eye bin picking robot |
| JP2011136377A (en) * | 2009-12-25 | 2011-07-14 | Ihi Corp | Robot control device and method |
| JP2012254518A (en) * | 2011-05-16 | 2012-12-27 | Seiko Epson Corp | Robot control system, robot system and program |
| JP2014104529A (en) * | 2012-11-27 | 2014-06-09 | Canon Inc | Robot system and control method of the same |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN105269578B (en) | Pointing devices and robotic systems | |
| JP6380828B2 (en) | Robot, robot system, control device, and control method | |
| US10350768B2 (en) | Control device, robot, and robot system | |
| JP2017071018A (en) | Robot system, robot, and robot controller | |
| CN105269582B (en) | Robot, robot system and control method | |
| US20150343634A1 (en) | Robot, robot system, and control method | |
| US20170203434A1 (en) | Robot and robot system | |
| US20180215044A1 (en) | Image processing device, robot control device, and robot | |
| US20160306340A1 (en) | Robot and control device | |
| JP6488571B2 (en) | Teaching apparatus and robot system | |
| JP2015182212A (en) | Robot system, robot, control device, and control method | |
| JP2017047479A (en) | Robot, control device, and robot system | |
| JP2019111588A (en) | Robot system, information processor, and program | |
| JP2016013590A (en) | Teaching device, and robot system | |
| JP2015221485A (en) | Robot, robot system, control device, and control method | |
| JP6958091B2 (en) | Robot system and robot control method | |
| JP2018017610A (en) | Three-dimensional measuring device, robot, robot controlling device, and robot system | |
| JP2015226967A (en) | Robot, robot system, control device, and control method | |
| JP2016013591A (en) | Robot system | |
| JP2016120558A (en) | Robot and robot system | |
| JP2016120530A (en) | Robot and robot calibration system | |
| JP2017100197A (en) | Robot and control method | |
| JP2015226954A (en) | ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL DEVICE | |
| JP2016120557A (en) | Robot and robot calibration system | |
| JP2015182211A (en) | Robot system, robot, control device, and control method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170310 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180109 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180228 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180626 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180814 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181026 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190129 |