[go: up one dir, main page]

JP2018034242A - ロボット制御装置、ロボット、及びロボットシステム - Google Patents

ロボット制御装置、ロボット、及びロボットシステム Download PDF

Info

Publication number
JP2018034242A
JP2018034242A JP2016168976A JP2016168976A JP2018034242A JP 2018034242 A JP2018034242 A JP 2018034242A JP 2016168976 A JP2016168976 A JP 2016168976A JP 2016168976 A JP2016168976 A JP 2016168976A JP 2018034242 A JP2018034242 A JP 2018034242A
Authority
JP
Japan
Prior art keywords
area
robot
region
robot control
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2016168976A
Other languages
English (en)
Other versions
JP2018034242A5 (ja
Inventor
政司 相磯
Masashi Aiiso
政司 相磯
信之 説田
Nobuyuki Setsuda
信之 説田
健太郎 塚本
Kentaro Tsukamoto
健太郎 塚本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016168976A priority Critical patent/JP2018034242A/ja
Priority to CN201710753842.8A priority patent/CN107791245A/zh
Priority to US15/689,439 priority patent/US10618181B2/en
Priority to EP17188748.2A priority patent/EP3290165A3/en
Publication of JP2018034242A publication Critical patent/JP2018034242A/ja
Publication of JP2018034242A5 publication Critical patent/JP2018034242A5/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/02Gripping heads and other end effectors servo-actuated
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41845Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by system universality, reconfigurability, modularity
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31264Control, autonomous self learn knowledge, rearrange task, reallocate resources
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39163Formation control, robots form a rigid formation, fixed relationship
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40004Window function, only a specific region is analyzed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45063Pick and place manipulator
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

【課題】対応付けた領域に基づいてロボットに対象物を把持させることができるロボット制御装置を提供する。【解決手段】ロボット制御装置は、取得した複数の対象物が撮像された画像に指定された領域であって、受け付けられた第1領域を示す第1領域情報と、前記第1領域とは異なる領域であって、前記第1領域に応じた第2領域を示す第2領域情報とに基づいて、他の前記対象物の前記第1領域と重ならない前記第2領域が指定された前記対象物をロボットに把持させ、他の前記対象物の前記第1領域と前記第2領域が重なる前記対象物をロボットに把持させない。【選択図】図3

Description

この発明は、ロボット制御装置、ロボット、及びロボットシステムに関する。
撮像部により撮像した撮像画像に基づいてロボットに作業を行わせる技術の研究や開発が行われている。
これに関して、搬送体によって搬送される複数の対象物を所定の撮像領域で撮像し、当該撮像結果から各対象物の位置座標及び方向を取得し、搬送体の移動距離を取得し、位置座標及び方向と移動距離に基づいて複数の対象物を把持するグリッパを移動及び回転させることにより所定の可動領域内で複数の対象物のハンドリングを制御するトラッキング方法において、グリッパの角度から各対象物をハンドリング可能な角度までの回転時間を考慮して、グリッパの位置から各対象物までの移動時間を算出し、算出されたグリッパの移動時間をハンドリング時間として設定し、当該ハンドリング時間が短い対象物から順に所定の可動領域内の対象物のハンドリング順序を決定するトラッキング方法が知られている(特許文献1参照)。
特開2002−113678号公報
しかしながら、このように記載のトラッキング方法では、把持する対象物に他の対象物が隣接する場合、グリッパが他の対象物に接触し、グリッパや他の対象物が変形してしまう場合があった。
上記課題の少なくとも一つを解決するために本発明の一態様は、取得した複数の対象物が撮像された画像に指定された領域であって、受け付けられた第1領域を示す第1領域情報と、前記第1領域とは異なる領域であって、前記第1領域に応じた第2領域を示す第2領域情報とに基づいて、他の前記対象物の前記第1領域と重ならない前記第2領域が指定された前記対象物をロボットに把持させ、他の前記対象物の前記第1領域と前記第2領域が重なる前記対象物をロボットに把持させないロボット制御装置である。
この構成により、ロボット制御装置は、取得した複数の対象物が撮像された画像に指定された領域であって、受け付けられた第1領域を示す第1領域情報と、第1領域とは異なる領域であって、第1領域に応じた第2領域を示す第2領域情報とに基づいて、他の対象物の第1領域と重ならない第2領域が指定された対象物をロボットに把持させ、他の対象物の第1領域と第2領域が重なる対象物をロボットに把持させない。これにより、ロボット制御装置は、操作者が所望する条件を満たす対象物をロボットに把持させることができる。
また、本発明の他の態様は、ロボット制御装置において、前記第1領域情報に基づいて、他の前記対象物に指定された前記第1領域と重ならない前記第1領域が指定された前記対象物を前記ロボットに把持させ、他の前記対象物に指定された前記第1領域と重なる前記第1領域が指定された前記対象物を前記ロボットに把持させない、構成が用いられてもよい。
この構成により、ロボット制御装置は、第1領域情報に基づいて、他の対象物に指定された第1領域と重ならない第1領域が指定された対象物をロボットに把持させ、他の対象物に指定された第1領域と重なる第1領域が指定された対象物をロボットに把持させない。これにより、ロボット制御装置は、対象物に対応付けられた第1領域に基づいて、操作者が所望する条件を満たす対象物をロボットに把持させることができる。
また、本発明の他の態様は、ロボット制御装置において、前記第1領域が指定されたことに応じて前記第2領域が設定される、構成が用いられてもよい。
この構成により、ロボット制御装置は、第1領域が指定されたことに応じて第2領域が設定される。これにより、ロボット制御装置は、第2領域を設定する補助を行うことができる。
また、本発明の他の態様は、ロボット制御装置において、前記第2領域は、受け付けられた操作によって指定される、構成が用いられてもよい。
この構成により、ロボット制御装置では、第2領域は、受け付けられた操作によって指定される。これにより、ロボット制御装置は、設定された第2領域に基づいて、操作者が所望する条件を満たす対象物をロボットに把持させることができる。
また、本発明の他の態様は、ロボット制御装置において、前記第1領域情報及び前記第2領域情報に基づいて、前記複数の前記対象物のうちの少なくとも一部の前記対象物の前記画像に、前記第1領域に対応する第3領域と、前記第2領域に対応する第4領域とを設定し、前記第3領域及び前記第4領域と、前記第3領域及び前記第4領域が設定された少なくとも一部の前記対象物を表示部に表示させる、構成が用いられてもよい。
この構成により、ロボット制御装置は、第1領域情報及び第2領域情報に基づいて、複数の対象物のうちの少なくとも一部の対象物の画像に、第1領域に対応する第3領域と、第2領域に対応する第4領域とを設定し、第3領域及び第4領域と、第3領域及び第4領域が設定された少なくとも一部の対象物を表示部に表示させる。これにより、ロボット制御装置は、操作者が対象物に第1領域及び第2領域を指定する補助を行うことができる。
また、本発明の他の態様は、ロボット制御装置において、前記第1領域情報が示す前記第1領域及び前記第2領域情報が示す前記第2領域と、前記対象物の前記画像とを表示部に表示させる、構成が用いられてもよい。
この構成により、ロボット制御装置は、第1領域情報が示す第1領域及び第2領域情報が示す第2領域と、対象物の画像とを表示部に表示させる。これにより、ロボット制御装置は、操作者が対象物に第1領域及び第2領域を対応付ける補助を行うことができる。
また、本発明の他の態様は、ロボット制御装置において、前記第1領域は、前記対象物の輪郭の全体を含む領域であって、前記対象物の形状に基づく領域である、構成が用いられてもよい。
この構成により、ロボット制御装置では、第1領域は、対象物の輪郭の全体を含む領域であって、対象物の形状に基づく領域である。これにより、ロボット制御装置は、対象物の全体を含む第1領域に基づいて、操作者が所望する条件を満たす対象物をロボットに把持させることができる。
また、本発明の他の態様は、ロボット制御装置において、前記第1領域の形状は、凸包である、構成が用いられてもよい。
この構成により、ロボット制御装置では、第1領域の形状は、凸包である。これにより、ロボット制御装置は、凸包形状である第1領域に対応する第1領域に基づいて、操作者が所望する条件を満たす対象物をロボットに把持させることができる。
また、本発明の他の態様は、ロボット制御装置において、前記第2領域は、前記ロボットによる前記対象物の把持に関する領域である、構成が用いられてもよい。
この構成により、ロボット制御装置では、第2領域は、ロボットによる対象物の把持に関する領域である。これにより、ロボット制御装置は、把持に関する第2領域に基づいて、操作者が所望する条件を満たす対象物をロボットに把持させることができる。
また、本発明の他の態様は、上記に記載のロボット制御装置の制御に基づいて動作する、ロボットである。
この構成により、ロボットは、第1領域及び第2領域に基づいて、対象物を把持する。これにより、ロボットは、操作者が所望する条件を満たす対象物を把持することができる。
また、本発明の他の態様は、上記に記載のロボット制御装置と、上記に記載のロボットと、を備えるロボットシステムである。
この構成により、ロボットシステムは、第1領域及び第2領域に基づいて、ロボットに対象物を把持させる。これにより、ロボットシステムは、操作者が所望する条件を満たす対象物をロボットに把持させることができる。
以上により、ロボット制御装置は、取得した複数の対象物が撮像された画像に指定された領域であって、受け付けられた第1領域を示す第1領域情報と、第1領域とは異なる領域であって、第1領域に応じた第2領域を示す第2領域情報とに基づいて、他の対象物の第1領域と重ならない第2領域が指定された対象物をロボットに把持させ、他の対象物の第1領域と第2領域が重なる対象物をロボットに把持させない。これにより、ロボット制御装置は、操作者が所望する条件を満たす対象物をロボットに把持させることができる。
また、ロボット及びロボットシステムは、取得した複数の対象物が撮像された画像に指定された領域であって、受け付けられた第1領域を示す第1領域情報と、第1領域とは異なる領域であって、第1領域に応じた第2領域を示す第2領域情報とに基づいて、他の対象物の第1領域と重ならない第2領域が指定された対象物を把持し、他の対象物の第1領域と第2領域が重なる対象物を把持しない。これにより、ロボットは、操作者が所望する条件を満たす対象物を把持することができる。
本実施形態に係るロボットシステム1の構成の一例を示す図である。 ロボット制御装置30のハードウェア構成の一例を示す図である。 ロボット制御装置30の機能構成の一例を示す図である。 ロボット制御装置30が行う処理の流れの一例を示すフローチャートである。 第1対象物に対して指定される第1領域の具体例1の第1の図である。 第1対象物に対して指定される第1領域の具体例1の第2の図である。 第1対象物に対して指定される第2領域の一例を示す図である。 画像Gに含まれる対象物P毎に対応付けられる第1領域及び第2領域の一例を示す図である。 ロボット制御装置30がロボット20に把持させる対象物Pの一例を示す表である。 第1対象物に対して指定される第1領域の具体例2の図である。 画像Gに含まれる対象物P毎に対応付けられる第1領域の具体例2の図である。 第1対象物に対して指定される第1領域の具体例3の図である。 画像Gに含まれる対象物P毎に対応付けられる第1領域の具体例3の図である。 第1対象物に対して指定される第1領域の具体例4の図である。 画像Gに含まれる対象物P毎に対応付けられる第1領域の具体例4の図である。 本実施形態に係るロボットシステム1における各装置のハードウェア構成の一例を示す図である。 変形例4に係るロボットシステム2の構成の一例を示す図である。 変形例5に係るロボットシステム3の構成の一例を示す図である。
[実施形態]
以下、本発明の実施形態について、図面を参照して説明する。
<ロボットシステムの構成>
まず、ロボットシステム1の構成について説明する。
図1は、本実施形態に係るロボットシステム1の構成の一例を示す図である。ロボットシステム1は、ロボット20と、ロボット制御装置30と、画像処理装置PUと、カメラCRと、表示装置DPと、開発用PC601と、操作キー602と、表示装置621とを備える。
図1の例では、テーブルTB以外の構成部のうち、操作キー602以外のすべてが、テーブルTBに載せられて配置されている。
ここで、操作キー602以外の構成部に関し、ロボット20などの一部の構成部が、テーブルTBの外側(例えば、床など)に配置されてもよい。
なお、必ずしもテーブルTBが用いられなくてもよく、すべての構成部が床などに配置されてもよい。
ベルトコンベアーBCは、駆動部とベルトとを備えており、駆動部が駆動することによりベルトを移動する。これにより、ベルトコンベアーBCは、ベルトに載せられる対象物Pを移動させる。図1の例では、7個の対象物Pである対象物P1〜対象物P7がベルトコンベアーBCに載せられて移動させられる。なお、ベルトコンベアーBCによって移動される対象物Pは、7個より少なくてもよく、7個以上であってもよい。
図1の例では、ベルトコンベアーBCは、当該ベルトコンベアーBCに載せられた物を定められた移動方向に移動させる。当該移動方向は、本実施形態では、当該物がカメラCRにより撮像される位置から、当該物がロボット20により作業される位置へ、向かう方向である。
ここで、図1の例では、ベルトコンベアーBCの一部が示されている。一例として、ベルトコンベアーBCは、所定の開始始点(図示せず)から所定の終了地点(図示せず)まで続いている。所定の開始始点とは、例えば、ベルトコンベアーBCに対象物Pを載置する装置が配置される位置である。また、所定の終了地点とは、例えば、ロボット20が所定の作業を行う作業領域よりも前述の移動方向に数m先の位置である。他の例として、ベルトコンベアーBCが備えるベルトは、開始始点と終了地点とが存在しない環状のベルトであってもよい。
また、ベルトコンベアーBCに載せられて移動させられる対象物P1〜対象物P7は、本実施形態に係るロボット20による作業箇所以外の箇所(図示せず)で任意の作業が行われてもよい。
なお、本実施形態では、対象物P1〜対象物P7がベルトコンベアーBCに載せられて移動させられるが、他の構成例として、対象物P1〜対象物P7がステージに載せられて静止した状態で配置されてもよい。当該ステージは、テーブルTBであってもよく、または、他のものであってもよい。
対象物P1〜対象物P7は、ロボット20により行われる作業で用いられるワークの一例である。対象物P1〜対象物P7は、例えば、製品に組み付けるプレート、ネジ、ボルト等の産業用の部品や部材である。図1では、対象物P1〜対象物P7を直方体と半円筒形とが組み合わされた形状の物体として表している。なお、対象物P1〜対象物P7は、産業用の部品や部材に代えて、日用品や生体等の他の物体であってもよい。また、対象物P1〜対象物P7の形状は、直方体と半円筒形とが組み合わされた形状に代えて、他の形状であってもよい。
図1の例では、対象物P1〜対象物P7のうち、対象物P4及び対象物P5と、対象物P6及び対象物P7とは、重なった状態で配置されているが、対象物P1〜対象物P7は、互いが重ならないように配置されていてもよく、対象物P1〜対象物P7の全てが重なった状態で配置されていてもよい。
カメラCRは、所定の範囲の画像Gを撮像する撮像装置である。図1の例では、当該所定の範囲は、ベルトコンベアーBCのベルト上においてロボット20が作業可能な範囲よりも手前の範囲であって、ベルトコンベアーBCによって移動する対象物Pのうち、少なくとも1つ以上の対象物Pの輪郭それぞれを含む範囲の全体を撮像することが可能な範囲である。なお、カメラCRが撮像する所定の範囲とは、ベルトコンベアーBCのベルトが設置される範囲を全て含む範囲であってもよい。この一例では、カメラCRは、ベルトコンベアーBCに載せられて移動させられる対象物P1〜対象物P7を撮像することが可能な配置で、支持部SPによって支持される。図1の例では、カメラCRは、ベルトコンベアーBCのベルトの上面に対してカメラCRの撮像の光軸が直交する位置(つまり、ベルトコンベアーBCのベルトの上面と撮像画像の面とが平行になる位置)に配置される。
カメラCRは、ケーブルによって画像処理装置PUと通信可能に接続されている。これにより、カメラCRは、撮像した画像Gの情報(画像データ)を、ケーブルを介して、画像処理装置PUに送信する。画像処理装置PUは、カメラCRから送信された画像Gを示す画像データを、ケーブルを介して受信する。なお、カメラCRと画像処理装置PUとのケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。また、カメラCRは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって画像処理装置PUと接続される構成であってもよい。
また、本実施形態では、カメラCRが支持部SPに固定される場合を示すが、他の構成例として、カメラCRにより撮像される範囲を変更することが可能な構成が用いられてもよい。
また、他の構成例として、対象物P1〜対象物P7の形状などの情報を測定する機器として、カメラCRの代わりに、他の機器が用いられてもよく、例えば、レーザーを用いた測定機器などが用いられてもよい。
<画像処理装置>
画像処理装置PUは、カメラCRから送信された画像の情報を、ケーブルを介して、受信する。画像処理装置PUは、受信された画像の情報を、ケーブルを介して、ロボット制御装置30に送信する。画像処理装置PUは、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、画像処理装置PUは、画像Gの情報(画像データ)を、ケーブルを介して、ロボット制御装置30に送信する。
ロボット制御装置30は、画像処理装置PUから送信された画像Gを示す画像データを、ケーブルを介して受信する。なお、画像処理装置PUとロボット制御装置30とのケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。また、カメラCRは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって画像処理装置PUと接続される構成であってもよい。なお、画像処理装置PUは、カメラCRから受信した画像の情報について所定の画像処理を行い、当該画像処理の結果の情報を、ケーブルを介して、ロボット制御装置30に送信してもよい。
画像処理装置PUは、表示対象となる情報を表示装置DPに出力(送信)する。当該表示対象となる情報としては、例えば、カメラCRにより撮像された画像Gの情報が用いられてもよく、画像処理装置PUにより行われた画像処理の結果の情報が用いられてもよく、または、ロボット制御装置30により行われた処理の結果の情報が用いられてもよい。
なお、開発時において、画像処理装置PUにより行われる画像処理および表示制御などのうちの一部または全部は、開発用PC601からの制御に基づいて行われてもよい。
ここで、図1の例では、ロボットシステム1において、画像処理装置PUを備える画像処理システムが設けられていると捉えることができる。当該画像処理システムは、例えば、カメラCRを含んでもよい。また、当該画像処理システムは、例えば、表示装置DPを含んでもよい。
なお、画像処理システムは、例えば、画像を測定する画像測定システムなどであってもよい。
<表示装置>
表示装置DPは、ケーブルによって画像処理装置PUと通信可能に接続されている。これにより、画像処理装置PUは、ロボット制御装置30から受信した画像データを、ケーブルを介して表示装置DPに送信する。なお、表示装置DPと画像処理装置PUとのケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。また、表示装置DPは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって画像処理装置PUと接続される構成であってもよい。
表示装置DPは、例えば、液晶ディスプレイパネル、あるいは、有機EL(ElectroLuminescence)ディスプレイパネルを含む表示装置である。表示装置DPは、画像処理装置PUから送信された画像Gを示す画像データを、ケーブルを介して受信し、受信された画像データが示す画像Gを表示する。
<開発用PC>
開発用PC601は、ロボット制御装置30で使用されるプログラムを開発するときなどに使用される。当該プログラムは、例えば、ロボット20の動作を制御するプログラムである。
開発用PC601は、ケーブルを介して、ロボット制御装置30との間で通信する。
なお、開発用PC601は、例えば、開発が完了した後には、ロボット制御装置30と接続されていなくてもよい。
開発用PC601は、例えば、ロボット20により行われる所定の処理の条件を設定する機能を有している。処理の条件としては、任意の条件が用いられてもよく、例えば、処理に使用されるパラメーター(「プロパティー」などと呼ばれてもよい。)の値または範囲が用いられてもよい。
本実施形態では、開発時においては、開発用PC601がロボット制御装置30を介して画像処理装置PUに対して命令(指示)を与えることで、各種の処理が行われる。また、開発時においては、例えば、開発用PC601が有する操作部がユーザーにより操作される。
表示装置621は、例えば、画面に情報を表示するディスプレイ装置である。表示装置621は、開発用PC601から受信した画像データを、ケーブルを介して受信し、受信された情報を画面に表示する。
開発用PC601は、表示対象となる情報を表示装置621に出力(送信)する。当該表示対象となる情報としては、例えば、カメラCRにより撮像された画像Gの情報が用いられてもよく、画像処理装置PUにより行われた画像処理の結果の情報が用いられてもよく、または、ロボット制御装置30により行われた処理の結果の情報が用いられてもよい。
本実施形態では、開発用PC601が画像処理装置PUに対して画像処理の実行を指示し、画像処理装置PUが画像や画像処理結果を開発用PC601に送信し、開発用PC601が受信した当該画像や当該画像処理結果を表示装置621に表示させる。
ここで、本実施形態では、開発時には、主(メイン)となる表示装置として、開発用PC601の表示装置621に、各種の情報が表示される。
なお、画像処理装置PUの表示装置DPには、開発用PC601の表示装置621と同様な情報が表示されてもよく、または、他の情報が表示されてもよい。本実施形態では、画像処理装置PUの表示装置DPは補助(サブ)の表示装置として使用される。例えば、画像処理装置PUの表示装置DPでは、自動動作中の対象物の表示、あるいは、結果表示を行ってもよい。
<スカラロボット>
ロボット20は、この一例では、スカラロボットである。なお、ロボット20は、スカラロボットに代えて、直角座標ロボットや単腕ロボット、複腕ロボット等の他のロボットであってもよい。直角座標ロボットは、例えば、ガントリロボットである。
図1に示した例において、ロボット20は、テーブルTBに設置されている。なお、ロボット20は、テーブルTBに代えて、壁面や天井面、治具、台の上面等に設置される構成であってもよい。以下では、説明の便宜上、ロボット20が設置されている面に直交する方向であって、ロボット20から当該面に向かう方向を下と称し、当該方向と反対の方向を上と称して説明する。ロボット20が設置されている面に直交する方向であって、ロボット20の重心から当該面に向かう方向は、例えば、ワールド座標系におけるZ軸の負方向、又はロボット座標系RCにおけるZ軸の負方向である。
ロボット20は、テーブルTBに設置された支持台Bと、可動部AMとを備える。また、可動部AMは、支持台Bによって図示しない第1軸AX1周りに回動可能に支持された第1アームAM1と、第1アームAM1によって図示しない第2軸AX2周りに回動可能に支持された第2アームAM2と、第2アームAM2によって図示しない第3軸AX3周りに回動可能且つ第3軸AX3の軸方向に並進可能に支持されたシャフト(作動軸)Sを備える。可動部AMは、アームの一例である。
シャフトSは、円柱形状の軸体である。シャフトSの周表面には、図示しないボールねじ溝とスプライン溝とがそれぞれ形成される。シャフトSは、第2アームAM2の端部のうちの第1アームAM1と反対側の端部を上下に貫通し、設けられている。また、シャフトSには、この一例において、シャフトSの端部のうちの上側の端部に当該円柱の半径よりも大きな半径の円盤形状のフランジが設けられている。当該円柱の中心軸は、当該フランジの中心軸と一致している。
シャフトSのフランジが設けられていない方の端部には、エンドエフェクターEが設けられている。エンドエフェクターEは、この一例において、物体を把持可能な指部を備えるエンドエフェクターである。なお、エンドエフェクターEは、当該指部を備えるエンドエフェクターに代えて、空気の吸引や磁力、治具等によって物体を持ち上げることが可能なエンドエフェクターや、他のエンドエフェクターであってもよい。
エンドエフェクターEは、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、エンドエフェクターEは、ロボット制御装置30から取得される制御信号に基づく動作を行う。
支持台Bは、テーブルTBに固定されている。支持台Bは、図示しない第1関節を備える。前述の第1軸AX1は、この第1関節の回動軸のことである。第1関節は、図示しないアクチュエーターを備え、ロボット制御装置30から取得する制御信号に基づいて第1アームAM1を第1軸AX1周りに回動させる。
第1アームAM1は、第1軸AX1周りに回動するので、水平方向に移動する。水平方向は、この一例において、上下方向と直交する方向である。水平方向は、例えば、ワールド座標系におけるXY平面に沿った方向、又はロボット座標系RCにおけるXY平面に沿った方向である。
第2アームAM2は、図示しない第2関節を備える。前述の第2軸AX2は、この第2関節の回動軸のことである。第2関節は、図示しないアクチュエーターを備え、ロボット制御装置30から取得する制御信号に基づいて第2アームAM2を第2軸AX2周りに回動させる。第2アームAM2は、第2軸AX2周りに回動するので、水平方向に移動する。
また、第2アームAM2は、図示しない上下動アクチュエーターと、図示しない回動アクチュエーターとを備えてシャフトSを支持する。上下動アクチュエーターは、シャフトSのボールねじ溝の外周部に設けられたボールねじナットをタイミングベルト等で回動させることにより、シャフトSを上下方向(すなわち、前述の第3軸AX3の軸方向)に移動(昇降)させる。回動アクチュエーターは、シャフトSのスプライン溝の外周部に設けられたボールスプラインナットをタイミングベルト等で回動させることにより、シャフトSの中心軸(すなわち、前述の第3軸AX3)周りにシャフトSを回動させる。
ロボット20が備える各アクチュエーターのそれぞれは、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該各アクチュエーターのそれぞれは、ロボット制御装置30から取得される制御信号に基づく動作を行う。
<ロボット制御装置>
ロボット制御装置30は、画像処理装置PUから画像Gを示す画像データをケーブルを介して取得する。なお、カメラCRの配置を変更することが可能な構成において、ロボット制御装置30は、カメラCRの配置を制御して変更することが可能であってもよい。この場合、ロボット制御装置30は、例えば、カメラCRを制御してもよい。また、ロボット制御装置30がカメラCRを制御する構成に代えて、画像処理装置PUがカメラCRを制御する構成であってもよい。
また、ロボット制御装置30と、開発用PC601とは、ケーブルを介して通信可能に接続される。なお、ロボット制御装置30と開発用PC601とのケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。また、開発用PC601は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
また、ロボット制御装置30と、操作キー602とは、ケーブルを介して通信可能に接続される。なお、ロボット制御装置30と操作キー602とのケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。また、操作キー602は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
<操作キー>
操作キー602は、ロボット制御装置30の外部に設けられた操作装置の一例である。操作キー602は、ユーザーにより操作される操作部(例えば、1個以上のキー)を有しており、ユーザーにより当該操作部に対して行われた操作の内容を受け付けて、ケーブルを介して、ロボット制御装置30に送信する。
操作キー602は、例えば、キーボード、マウス、タッチパッド等を備えたティーチングペンダントや、その他の入力装置である。操作キー602は、表示装置621又は表示装置DPが表示する画像Gに基づいて開発用PC601、ロボット制御装置30又は画像処理装置PUの操作者が行う操作を取得し、取得した操作を示す操作情報をケーブル介してロボット制御装置30に送信する。ロボット制御装置30は、受信した当該操作を開発用PC601に送信する。
ロボット制御装置30は、表示用の情報を、ケーブルを介して、表示装置621に送信する。また、ロボット制御装置30は、表示装置621に表示用の情報が表示されることに応じてロボット制御装置30の操作者が操作キー602に入力した操作を示す情報を取得する。
ロボット制御装置30は、ロボット20を制御する。例えば、ロボット制御装置30は、ロボット20が有するそれぞれのアクチュエーター、およびエンドエフェクターEのそれぞれを制御する。
<ロボットが行う所定の作業の概要>
図1に示す一例では、ロボット20は、ベルトコンベアーBCに載せられて移動させられる対象物P1〜対象物P7を1個ずつ把持し、把持した対象物Pを図示しない給材領域に載置する作業を所定の作業として行う。
<開発用PC及びロボット制御装置がロボットに所定の作業を行わせる処理の概要>
以下、開発用PC601及びロボット制御装置30がロボット20に所定の作業を行わせる処理の概要について説明する。
表示装置621は、ロボット制御装置30から画像Gを示す画像データを受信し、当該画像データが示す画像Gを表示する。開発用PC601の操作者は、表示装置621に表示された画像Gに含まれる複数の対象物Pのうち、操作者が所望する対象物Pである第1対象物を指定する。具体的には、開発用PC601の操作者は、第1対象物の領域である第1領域を示す第1領域情報を開発用PC601が備える入力部IP(不図示)に入力する操作を行う。入力部IPとは、キーボードやマウス等である。また、開発用PC601の操作者は、第1対象物を指定する領域であって、第1領域とは異なる領域である第2領域を示す第2領域情報を入力部IPに入力する操作を行う。開発用PC601は、入力部IPから第1領域を示す第1領域情報と、第2領域を示す第2領域情報とを取得する。開発用PC601は、取得した第1領域情報及び第2領域情報に基づいて、画像Gに含まれる複数の対象物Pのうちの少なくとも一部の対象物Pに、第1対象物に指定した第1領域に対応する第1領域と、第1対象物に指定した第2領域に対応する第2領域とを対応付ける。ロボット制御装置30は、開発用PC601によって第1領域と第2領域が対応づけられた対象物Pを、当該第1領域と当該第2領域とに基づいてロボット20に把持させる。そして、ロボット制御装置30、ロボット20を動作させ、対象物Pを図示しない供給領域に載置する。
また、開発用PC601は、取得した第1領域情報及び第2領域情報に基づいて、複数の対象物Pのうちの少なくとも一部の対象物Pの画像Gに、第1領域に対応する第3領域と、第2領域に対応する第4領域とを設定し、第3領域及び第4領域と、第3領域及び第4領域が設定された少なくとも一部の対象物を表示装置621に表示させる。
<ロボット制御装置のハードウェア構成>
以下、図2を参照し、ロボット制御装置30のハードウェア構成について説明する。図2は、ロボット制御装置30のハードウェア構成の一例を示す図である。ロボット制御装置30は、例えば、CPU(Central Processing Unit)31と、記憶部32と、入力部33と、通信部34と、出力部35とを備える。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。また、ロボット制御装置30は、通信部34を介してロボット20、開発用PC601、操作キー602及び画像処理装置PUと通信を行う。通信部34は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)ポート等を含んで構成される。
入力部33は、外部の装置から出力される情報を入力する。図1の例では、入力部33は、例えば、画像処理装置PU、開発用PC601、あるいは、操作キー602から出力(送信)される情報を入力(受信)する。
出力部35は、外部に情報を出力する。一例として、出力部35は、表示画面に情報を出力(送信)する。他の例として、出力部35は、音(音声を含む。)を発するスピーカーに音の情報を出力(送信)してもよい。また、出力部35は、例えば、ロボット20(例えば、マニピュレーターM1、エンドエフェクターE1)、開発用PC601、画像処理装置PU、あるいは、操作キー602に情報を出力する。
なお、本実施形態では、ロボット制御装置30と表示装置621とは接続されていないが、他の構成例として、表示装置621がロボット制御装置30の出力部35に一体または別体として接続されてもよい。
また、入力部33が有する操作部は、例えば、表示画面(または、他の画面)を用いたタッチパネルであってもよい。
CPU31は、記憶部32に格納された各種プログラムを実行する。
記憶部32は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)等を含む。なお、記憶部32は、ロボット制御装置30に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置であってもよい。記憶部32は、ロボット制御装置30が処理する各種情報や画像、プログラム等を格納する。
<ロボット制御装置の機能構成>
以下、図3を参照し、ロボット制御装置30の機能構成について説明する。図3は、ロボット制御装置30の機能構成の一例を示す図である。ロボット制御装置30は、記憶部32と、制御部36とを備える。
制御部36は、ロボット制御装置30の全体を制御する。制御部36は、取得部361と、対応付部362と、表示制御部363と、ロボット制御部364とを備える。制御部36が備えるこれらの機能部は、例えば、CPU31が、記憶部32に記憶された各種プログラムを実行することにより実現される。また、当該機能部のうちの一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
取得部361は、入力部IPが受付けた操作を示す情報を開発用PC601から取得する。入力部IPが受付けた操作には、表示装置621が表示する画像Gに含まれる対象物Pのうち、操作者が所望する対象物Pである第1対象物に対して第1領域を操作者が指定する操作と、第1領域とは異なる第2領域を第1対象物に対して操作者が指定する操作とが含まれる。ここで、画像Gに含まれる対象物Pは、カメラCRに撮像され、画像Gに写っている対象物Pである。取得部361は、入力部IPが受付けた第1領域を示す第1領域情報と、第2領域を示す第2領域情報とを取得する。なお、入力部IPが受付ける操作は、操作者が所望する対象物Pである第1対象物に対して第1領域を操作者が指定する操作と、第1領域とは異なる第2領域を第1対象物に対して操作者が指定する操作とのうち、少なくとも1つであってもよい。この場合、操作者が指定する操作が行われない第1領域又は第2領域は、予め第1対象物に対して対応付けられる。
対応付部362は、取得部361が取得した第1領域情報及び第2領域情報に基づいて、画像Gに含まれる複数の対象物Pのうち、少なくとも一部の対象物P毎に第1対象物に対応付けられた第1領域に対応する第1領域と、第1対象物に対応付けられた第2領域に対応する第2領域とを対応付ける。本実施形態では、対応付部362は、画像Gに含まれる全ての対象物P毎に第1対象物に対応付けられた第1領域に対応する第1領域と、第1対象物に対応付けられた第2領域に対応する第2領域とを対応付ける。
なお、操作者が所望する対象物Pである第1対象物に対して第1領域を操作者が指定する操作のみが行われる場合、操作者が指定する操作が行われない第2領域は、第1対象物に対応付けられた第1領域の位置に応じた位置に対応付けられてもよい。
表示制御部363は、対応付部362が対象物Pに対応付けた第1領域に対応する第3領域及び第2領域に対応する第4領域と、当該対象物Pとを示す画像である表示画像DGを生成する。また、表示制御部363は、生成した表示画像DGを表示装置621に表示させる。
ロボット制御部364は、対応付部362が対象物P毎に対応付けた第1領域及び第2領域に基づいて、ロボット20に対象物Pを把持させる。
<ロボット制御装置の対応付処理>
以下、図4を参照し、ロボット制御装置30の対応付処理について説明する。図4は、ロボット制御装置30が行う処理の流れの一例を示すフローチャートである。
取得部361は、入力部IPが操作者から受け付けた第1領域情報と、第2領域情報とを開発用PC601から取得する(ステップS110)。以下、図5〜図7を参照して、第1対象物に指定される第1領域及び第2領域について説明する。
図5は、第1対象物に対して指定される第1領域の具体例1の第1の図である。
図6は、第1対象物に対して指定される第1領域の具体例1の第2の図である。
図7は、第1対象物に対して指定される第2領域の一例を示す図である。
具体的には、図5は、対応付処理において表示される画面2001の例を示す図である。図6は、対応付処理において表示される画面2002の例を示す図である。図7は、対応付処理において表示される画面2003の例を示す図である。
ここで、これらの画面2001〜2003の概略的な構成は同じであり、これらの画面2001〜2007は、画像表示部2021と、プロパティー設定表示部2022と、検出結果表示部2023と、アイコン表示部2024と、オブジェクト実行ボタン3011を含む。画像表示部2021と、プロパティー設定表示部2022と、検出結果表示部2023のそれぞれの内部に表示される情報は、処理の状況などに応じて変化し得る。
画像表示部2021は、画像を表示する部分である。
プロパティー設定表示部2022は、プロパティーを設定する欄を表示する部分である。
検出結果表示部2023は、検出結果を表示する部分である。
アイコン表示部2024は、複数のアイコンを表示する部分である。
オブジェクト実行ボタン3011は、処理を実行させるボタンである。
本例では、開発用PC601が制御することで、画像処理装置PUによる画像処理および表示処理が行われる。
まず、図5に示す通り、表示装置621には、画面2001が表示される。
図5の例では、入力された画像G1が画像表示部2021に表示されている。
操作者により行われる操作に応じて、カーソル2051の位置が所定のアイコン2041の位置に合わされて指定(例えば、クリックなど)されると、当該アイコン2041に対応付けられた処理が行われる。
ここで、当該所定のアイコン2041は、第1対象物に指定される第1領域を指定する処理に対応付けられている。
画像G1には、カメラCRが撮像したある状態の対象物P1〜対象物P7であって、同一の形状を有する対象物P1〜対象物P7が含まれる。ロボット制御装置30は、画像処理装置PUから画像G1の画像データを受信し、開発用PC601に送信する。表示装置621は、開発用PC601から画像G1の画像データを受信し、画像G1を表示する。開発用PC601の操作者は、表示装置621に表示される画像G1に基づいて、画像G1に含まれる対象物Pのうち、操作者が所望する対象物Pである第1対象物に第1領域を指定する。具体的には、操作者は、入力部IPによって、第1対象物に指定した第1領域として領域A11の位置及び大きさを指定する。
次に、図6に示す画面2002が表示される。
図6の例では、操作者により行われる操作に応じて、カーソル2051によって画面2002(例えば、画像表示部2021の領域)が指定(例えば、クリックなど)されると、画像表示部2021においてウインドウ2111が表示される。
ここで、ウインドウ2111は、画像表示部2021に表示される画像において第1対象物に指定される第1領域を指定する領域(領域A11)を表す枠である。ウインドウ2111は、例えば、周囲とは異なる色の枠であってもよく、赤色などであってもよい。
また、ウインドウ2111のプロパティーの値(例えば、大きさ、形状などの値)は、初期では、デフォルト値に設定される。当該デフォルト値は、あらかじめ定められた値であり、操作者により行われる操作に応じて変更され得る。
図6の例では、プロパティー設定表示部2022に、ウインドウ2111のプロパティーの値が表示される。このプロパティーの値は、操作者により行われる操作に応じて変更され得る。
図6の例では、ウインドウ2111のプロパティーの値(設定値)として、角度(Angle)、重心位置(または、図心位置)のX座標値(CenterX)、重心位置(または、図心位置)のY座標値(CenterY)、高さ方向の長さ(Height)、左側の位置(Left)、高さ方向の上側の位置(Top)、形状のタイプ(Type)がある。
ここで、画像表示部2021の領域はXY直交座標系の平面で表され、X座標が横方向に対応しており、Y座標が高さ方向(縦方向)に対応している。
また、図6の例では、形状のタイプ(Type)として、矩形(Rectangle)が用いられているが、他の形状が用いられてもよく、例えば、円あるいは楕円などの形状が用いられてもよい。
また、図6の例では、第1領域である領域A11として、重心位置(または、図心位置)のX座標値(CenterX)が222、重心位置(または、図心位置)のY座標値(CenterY)が285、高さ方向の長さ(Height)が234、左側の位置(Left)39、高さ方向の上側の位置(Top)が168、形状のタイプ(Type)が矩形(Rectangle)のウインドウ2111が設定されている。
図6に示す通り、この一例では、第1対象物とは、対象物P1である。また、図6に示す通り、本実施形態では、第1対象物には、長方形状の第1領域が対応付けられる。また、この一例は、第1領域は、第1領域の中心と第1対象物の重心とが一致する位置に上述の構成によって指定される。ここで、第1対象物に指定した第1領域は、第1対象物である対象物P1の輪郭の全体を含む領域であって、第1対象物の形状に基づく領域である。なお、操作者により行われる当該指定の操作は、例えば開発用PC601が有する操作部を用いて行われてもよい。他の構成例として、当該操作は、他の操作部(例えば、画像処理装置PU、ロボット制御装置30あるいは操作キー602が有する操作部)を用いて行われてもよい。
次に、図7に示す画面2003が表示される。
図7の例では、操作者により行われる操作に応じて、カーソル2051によって画面2003(例えば、画像表示部2021の領域)が指定(例えば、クリックなど)されると、画像表示部2021においてウインドウ2112(この一例では、ウインドウ2112−1、2111−2)が表示される。
ここで、ウインドウ2112(ウインドウ2112−1、2111−2)は、画像表示部2021に表示される画像において第1対象物に指定される第2領域を指定する領域(領域A21−1、21−2)を表す枠である。ウインドウ2112は、例えば、周囲とは異なる色の枠であってもよく、赤色などであってもよい。
また、ウインドウ2112のプロパティーの値(例えば、大きさ、形状などの値)は、初期では、デフォルト値に設定される。当該デフォルト値は、あらかじめ定められた値であり、操作者により行われる操作に応じて変更され得る。
図7の例では、プロパティー設定表示部2022に、ウインドウ2112のプロパティーの値が表示される。このプロパティーの値は、操作者により行われる操作に応じて変更され得る。
図7の例では、ウインドウ2112のプロパティーの値(設定値)として、角度(Angle)、重心位置(または、図心位置)のX座標値(CenterX)、重心位置(または、図心位置)のY座標値(CenterY)、高さ方向の長さ(Height)、左側の位置(Left)、高さ方向の上側の位置(Top)、形状のタイプ(Type)がある。
ここで、画像表示部2021の領域はXY直交座標系の平面で表され、X座標が横方向に対応しており、Y座標が高さ方向(縦方向)に対応している。
また、図7の例では、形状のタイプ(Type)として、矩形(Rectangle)が用いられているが、他の形状が用いられてもよく、例えば、円あるいは楕円などの形状が用いられてもよい。
開発用PC601の操作者は、表示装置621に表示される画像G1に基づいて、第1領域が対応付けられた第1対象物に対して、第1領域とは異なる領域である第2領域を指定する。具体的には、操作者は、入力部IPによって、第1対象物の第2領域として領域A21−1及び領域A21−2の位置及び大きさを上述の構成によって指定する。ここで、第1対象物に指定した第2領域は、ロボット20による対象物Pの把持に関する領域である。対象物Pの把持に関する領域は、例えば、ロボット20が備えるエンドエフェクターEの形状に基づく領域である。また、第2領域の位置は、エンドエフェクターEが対象物Pを把持する際のエンドエフェクターEの位置に基づく位置である。
ステップS110の処理が行われた後、対応付部362は、取得部361が取得する第1領域情報及び第2領域情報に基づいて、画像Gに含まれる対象物P毎に第1対象物に対応付けられた第1領域に対応する第1領域と、第1対象物に対応付けられた第2領域に対応する第2領域とを対応付ける(ステップS120)。以下、図9を参照して、画像Gに含まれる対象物P毎に対応付けられる第1領域及び第2領域について説明する。
図8は、画像Gに含まれる対象物P毎に対応付けられる第1領域及び第2領域の一例を示す図である。
対応付部362は、取得部361から取得した第1領域情報が示す第1領域に基づいて、画像G1に含まれる対象物P(この一例では、対象物P1〜対象物P7)に対して、第1対象物に対応付けられた第1領域に対応する第1領域を対応付ける。具体的には、対応付部362は、既知の画像認識によって、画像G1のうち、第1領域に含まれる第1対象物のエッジを検出する。対応付部362は、画像G1のうち、第1対象物と同じ輪郭及び大きさのもの(この一例では、対象物P1〜対象物P7)を検出する。なお、対応付部362が第1領域に含まれる第1対象物のエッジを検出する方法は、既知の画像認識による方法であってもよく、これから開発される方法であってもよい。対応付部362は、画像G1のうち、第1対象物と同じ輪郭及び大きさのものに対して、第1対象物に対する第1領域の位置と相対的に同じ位置に、第1対象物に対応付けられる第1領域と同じ輪郭及び同じ大きさの第1領域を対応付ける。図8に示す通り、この一例では、画像G1に含まれる対象物P1〜対象物P7には、第1領域として領域A31〜領域A37が対応付けられる。領域A31〜領域A37は、第1対象物の輪郭の全体を含む領域であって、第1対象物の形状に基づく領域である。上述したように、この一例では、画像G1に含まれる対象物P1〜対象物P7は、同一の形状を有する。したがって、領域A31〜領域A37は、対象物P1〜対象物P7の輪郭の全体を含む領域であって、対象物P1~対象物P7の形状に基づく領域である。なお、対応付部362は、画像Gに含まれる対象物Pのうち、第1対象物との類似の程度(類似度)が高い対象物Pから順番に対象物Pに番号を付してもよい。この場合、表示装置621は、既知の方法によって、当該番号を表示してもよい。
対応付部362は、取得部361から取得した第2領域情報が示す第2領域に基づいて、画像G1に含まれる対象物P(この一例では、対象物P1〜対象物P7)に対して、第1対象物に対応付けられた第2領域に対応する第2領域を対応付ける。具体的には、対応付部362は、第1領域情報に基づいて画像G1に含まれる対象物Pに対して第1領域に対応する第1領域を対応付けた方法と同様の方法によって、画像G1に含まれる対象物Pに対して第2領域に対応する第2領域を対応付ける。図8に示す通り、この一例では、画像G1に含まれる対象物P1〜対象物P7には、第2領域として、領域A41〜領域A47が対応付けられる。具体的には、対象物P1には、領域A41−1及び領域A41−2が対応付けられ、対象物P2には、領域A42−1及び領域A42−2が対応付けられ、対象物P3には、領域A43−1及び領域A43−2が対応付けられ、対象物P4には、領域A44−1及び領域A44−2が対応付けられ、対象物P5には、領域A45−1及び領域A45−2が対応付けられ、対象物P6には、領域A46−1及び領域A46−2が対応付けられ、対象物P7には、領域A47−1及び領域A47−2が対応付けられる。領域A41〜領域A47は、ロボット20による対象物Pの把持に関する領域である。
上述の複数の対象物Pに第1領域及び第2領域を対応付する処理は、操作者により行われる所定の操作に応じて行われる。当該所定の操作は、カーソル2051をオブジェクト実行ボタン3011の位置に合わせて指定(例えば、クリックなど)する操作である。
すると、図8に示される画面2004が表示される。画像表示部2021には、プロパティー設定表示部2022に表示されたプロパティーの設定内容に基づいて実行された第1領域と、第2領域の対応付処理の結果が表示される。
本例では、対応付け処理された複数の対象物Pが、第1対象物との類似の程度(類似度)が高い対象物Pから順番に並べられている。
また、図8の例では、検出結果表示部2023に、対応付処理が行われた対象物Pそれぞれの処理結果が表示される。処理結果として、角度(Angle)、面積(Area)、カメラX(CameraX)、カメラY(CameraY)、コンパクトネス(Compactness)、発見されたか否か(Found)、ファウンドオンエッジ(FoundOnEdge)、ホール(Holes)、外形(MajorDiameter)、最大のフェレ径(MaxFeretDiameter)、最大のX座標値(MaxX)、最大のY座標値(MaxY)がある。
なお、複数の対象物Pに第1領域と、第2領域との対応付処理が操作者により行われる所定の操作に応じて一括して行われる構成に代えて、複数の対象物Pに第1領域を対応付ける対応付処理と、複数の対象物Pに第2領域を対応付ける対応付処理とは、個別に行われる構成であってもよい。
ステップS120の処理が行われた後、表示制御部363は、対応付部362が対象物P1〜対象物P7に対応付けた第1領域に対応する第3領域及び第2領域に対応する第4領域と、当該対象物P1〜対象物P7とを示す画像である表示画像DGを生成する。また、表示制御部363は、生成した表示画像DGを表示装置621に表示させる(ステップS130)。
なお、表示制御部363は、第3領域及び第4領域と、当該対象物P1〜対象物P7とを示す画像である表示画像DGを生成する構成に代えて、第1領域、第2領域、第1領域及び第2領域と、対象物P1〜対象物P7とを示す表示画像DGを生成する構成であってもよい。
ロボット制御部364は、対象物P1〜対象物P7のそれぞれに対応付けられた第1領域及び第2領域に基づいて、対象物Pをロボット20に把持させる(ステップS140)。
ロボット制御部364は、画像Gに含まれる複数の対象物Pのうち、他の対象物Pに対応付けられた第1領域と重なりのない第1領域に対応付けられた対象物Pであって、他の対象物Pに対応付けられた第2領域が第1領域と重なりのない第1領域に対応付けられた対象物Pをロボット20に把持させる。図8に示す通り、この一例では、対象物P1に対応付けられた第1領域を示す領域A31は、他の対象物Pである対象物P2〜対象物P7に対応付けられた第1領域(すなわち、領域A32〜領域A37)と重ならない。また、図8に示す通り、この一例では、対象物P2〜対象物P7に対応付けられた第1領域を示す領域A32〜領域A37は、他の対象物Pの第1領域と重なる。したがって、図9に示す通り、画像G1に含まれる複数の対象物Pのうち、他の対象物Pに対応付けられた第1領域と重なりのない第1領域に対応付けられた対象物Pは、対象物P1である。図9は、ロボット制御装置30がロボット20に把持させる対象物Pの一例を示す表である。また、図8に示す通り、この一例では、対象物P1に対応付けられた第2領域を示す領域A41−1及び領域A41−2は、他の対象物Pである対象物P2〜対象物P7に対応付けられた第1領域(すなわち、領域A32〜領域A37)と重ならない。また、図8に示す通り、この一例では、対象物P2〜対象物P7に対応付けられた第2領域を示す領域A42−1、領域A42−2、…、領域A47−2は、他の対象物Pの第1領域に重なる。したがって、図9に示す通り、画像G1に含まれる複数の対象物Pのうち、他の対象物Pに対応付けられた第2領域が第1領域と重なりのない第1領域に対応付けられた対象物Pは、対象物P1である。
これにより、ロボット制御部364は、対象物P1〜対象物P7のうち、対象物P1をロボット20に把持させる。なお、ロボット制御部364は、他の対象物Pに対応付けられた第1領域と重なりのない第1領域に対応付けられた対象物Pと、他の対象物Pに対応付けられた第2領域が第1領域と重なりのない第1領域に対応付けられた対象物Pとのうち、少なくとも一方を満たす対象物Pをロボット20に把持させる構成であってもよい。
上述したように、この一例では、第1領域は、対象物Pの輪郭の全体を含む領域であって、対象物Pの形状に基づく領域である。ここで、第1領域が重なる対象物Pは、対象物Pが他の対象物Pと重なる対象物Pである。ロボット20は、互いに重なり合う対象物Pを把持しようとする場合、エンドエフェクターEや当該対象物Pが変形する場合がある。ロボット制御装置30は、上述の構成によって、互いに重ならない対象物Pをロボット20に把持させることにより、エンドエフェクターEや対象物Pが変形することを抑制することができる。
また、上述したように、この一例では、第2領域は、対象物Pの把持に関する領域である。ここで、第2領域が他の対象物Pの第1領域に重なる対象物Pは、ロボット20のエンドエフェクターEが対象物Pを把持する位置に他の対象物Pが存在する対象物Pである。ロボット20は、エンドエフェクターEが対象物Pを把持する位置に他の対象物Pが存在する場合、エンドエフェクターEや他の対象物Pが変形する場合がある。ロボット制御装置30は、上述の構成によって、エンドエフェクターEが対象物Pを把持する位置に他の対象物Pが存在しない対象物Pをロボット20に把持させることにより、エンドエフェクターEや対象物Pが変形することを抑制することができる。
<変形例1:第1領域の角度の指定>
以下、図を参照して本実施形態に係る変形例1について説明する。
図10は、第1対象物に対して指定される第1領域の具体例2の図である。
上述したように開発用PC601の操作者は、表示装置621に表示される画像G1に基づいて、画像G1に含まれる対象物Pのうち、第1対象物(この一例では、対象物P1)に対して第1領域を指定する。図10に示す通り、この一例では、第1領域は、長方形である。ここで、開発用PC601の操作者は、第1領域の位置及び大きさの他、第1領域の角度を指定してもよい。具体的には、操作者は、表示装置621に表示される画面2005に基づいて、第1対象物に指定した第1領域として上述した構成と同様に領域A11を指定し、プロパティー設定表示部2022に当該領域A11の角度(Angle)を指定する。この一例では、第1領域の角度の指定は、第1領域の中心と第1対象物の重心とが一致する位置であって、第1領域の長方形の長手方向と、第1対象物の直方体部分の長手方向とが平行である位置を基準位置とし、当該基準位置からの角度を指定する。なお、基準位置は、第1領域の中心と、第1対象物の重心とが一致する位置であって、画像Gの縦方向が第1領域の縦方向と平行、かつ画像Gの横方向が第1領域の横方向と平行である位置であってもよい。図10に示す通り、第1領域の角度の指定は、操作者が第1領域を所望の方向に回転させる操作を行うことによって指定してもよい。
図11は、画像Gに含まれる対象物P毎に対応付けられる第1領域の具体例2の図である。
図11に示す通り、画面2006には、上述した構成によって、画像G1に含まれる対象物P(この一例では、対象物P1〜対象物P2)には、図10に示す第1領域に対応する第1領域である領域A31〜領域A37が対応付けられる。
<変形例2:第1領域の形状の一例>
以下、図を参照して本実施形態に係る変形例2について説明する。
図12は、第1対象物に対して指定される第1領域の具体例3の図である。
上述したように開発用PC601の操作者は、表示装置621に表示される画像G1に基づいて、画像G1に含まれる対象物Pのうち、第1対象物(この一例では、対象物P1)に対して第1領域を指定する。図12に示す通り、この一例では、第1領域は、円形である。ここで、開発用PC601の操作者は、第1領域の位置及び大きさの他、第1領域の形状を指定してもよい。具体的には、操作者は、表示装置621に表示される画面2007に基づいて、第1対象物に指定した第1領域として領域A11を指定し、プロパティー設定表示部2022に当該領域A11の形状のタイプ(Type)をCircleとして指定する。第1領域の形状の指定は、指定する形状を示す情報を操作者が入力部IPに入力することによって指定する。
図13は、画像Gに含まれる対象物P毎に対応付けられる第1領域の具体例3の図である。
図13に示す通り、画面2008には、上述した構成によって、画像G1に含まれる対象物P(この一例では、対象物P1〜対象物P2)には、図12に示す第1領域に対応する第1領域である領域A31〜領域A37が対応付けられる。
<変形例3:第1領域の形状の一例>
以下、図を参照して本実施形態に係る変形例3について説明する。
図14は、第1対象物に対して指定される第1領域の具体例4の図である。
上述したように開発用PC601の操作者は、表示装置621に表示される画像G1に基づいて、画像G1に含まれる対象物Pのうち、第1対象物(この一例では、対象物P1)に対して第1領域を指定する。図14に示す通り、この一例では、第1領域は、第1対象物が内接する凸包である。具体的には、操作者は、表示装置621に表示される画面2009に基づいて、第1対象物に指定した第1領域として領域A11を指定し、プロパティー設定表示部2022に当該領域A11の形状のタイプ(Type)をConvexとして指定する。第1領域の形状の指定は、指定する形状を示す情報を操作者が入力部IPに入力することによって指定する。なお、操作者が第1対象物を含む適当な領域を指定すると、当該第1領域の形状が第1対象物に内接する凸包の形状に自動的に変換される構成であってもよい。
図15は、画像Gに含まれる対象物P毎に対応付けられる第1領域の具体例4の図である。
図15に示す通り、画面2010には、上述した構成によって、画像G1に含まれる対象物P(この一例では、対象物P1〜対象物P2)には、図14に示す第1領域に対応する第1領域である領域A31〜領域A37が対応付けられる。
<ロボットシステムのハードウェア構成の例>
図16は、本実施形態に係るロボットシステム1における各装置のハードウェア構成の一例を示す図である。なお、図16の例では、図1に示される表示装置DP、621とそのケーブルについては図示を省略してある。
図16には、カメラCRと、画像処理装置PUと、ロボット制御装置30と、ロボット20と、操作キー602と、開発用PC601と、カメラCRと画像処理装置PUとを通信可能に接続するケーブルと、画像処理装置PUとロボット制御装置30とを通信可能に接続するケーブルと、ロボット20とロボット制御装置30とを通信可能に接続するケーブルと、開発用PC601とロボット制御装置30とを通信可能に接続するケーブルと、操作キー602とロボット制御装置30とを通信可能に接続するケーブルを示してある。
ここで、それぞれのケーブルは、例えば、イーサネット(登録商標)のケーブルであってもよく、また、例えば、接続の手法として、USB(Universal Serial Bus)が用いられてもよい。なお、他のケーブルについても同様である。
ロボット制御装置30は、ハードウェア構成の概略として、CPU(Central Processing Unit)711と、ROM(Read Only Memory)712と、RAM(Random Access Memory)713と、4個のインターフェイス(I/F)714〜717を備える。
4個のインターフェイス714、715、716、717は、それぞれ、ケーブルと接続される。
ロボット20は、インターフェイス(I/F)751を備える。インターフェイス751は、ケーブルと接続される。当該ケーブルを介して、ロボット制御装置30からロボット20へ駆動信号が送信され、また、ロボット20からロボット制御装置30へセンサーの検出情報等が送信される。
操作キー602は、ロボット制御装置30とは別体であり、ユーザーにより行われる操作を受け付ける。操作キー602は、例えば、処理の実行を指示するスイッチのキーなどを有してもよい。操作キー602は、I/O(Input/Output)の機器の一例である。
画像処理装置PUは、ハードウェア構成の概略として、CPU731と、ROM732と、RAM733と、2個のインターフェイス(I/F)734〜735を備える。
2個のインターフェイス(I/F)734、735は、それぞれ、ケーブル、ケーブルと接続される。
開発用PC601は、ハードウェア構成の概略として、CPU811と、ROM812と、RAM813と、インターフェイス(I/F)814を備える。インターフェイス(I/F)814は、ケーブルと接続される。
図16に示されるロボットシステム1において行われる動作の例を(動作手順例1)〜(動作手順例6)として示す。なお、この動作の例は一例であり、他の任意の動作が用いられてもよい。
本実施形態では、ロボット20を動作させるためのプログラムを作成するときには、開発用PC601がロボット制御装置30と接続された状態とされる。但し、量産の段階などでは、開発用PC601がロボット制御装置30から外される場合がある。
(動作手順例1)
開発用PC601は、画像処理装置PUに対して、画像Gを取得するように命令を出力し、これにより、画像Gを取得する。この命令は、開発用PC601と画像処理装置PUとの間で、ロボット制御装置30により中継される。また、当該画像Gは、カメラCRにより撮像される画像Gである。
(動作手順例2)
開発用PC601は、取得された画像Gに基づいて、第1領域及び第2領域を設定する。この設定は、例えば、ユーザーにより行われてもよく、または、装置(例えば、開発用PC601)により自動的に行われてもよい。一例として、図5〜図8に示される画面2001〜2004を用いて、プロパティーの設定が行われてもよい。
(動作手順例3)
開発用PC601は、第1領域及び第2領域の設定内容に基づいて、設定された条件が反映されたプログラムを作成して、当該プログラムをロボット制御装置30の記憶部113(例えば、ROM712)に記憶(保存)する。
(動作手順例4)
ロボット制御装置30は、画像処理装置PUに対して、対応付処理の命令を出力する。これにより、画像処理装置PUにおいて、対応付処理が行われる。
(動作手順例5)
画像処理装置PUは、対応付処理の結果の情報をロボット制御装置30に送信する。これにより、ロボット制御装置30は、画像処理装置PUから、対応付処理の結果の情報を取得する。
(動作手順例6)
ロボット制御装置30は、取得された対応付処理の結果の情報に基づいて、ロボット20の動作を制御する。この際、ロボット制御装置30は、ロボット20に対して直接的な駆動信号を出力し、また、ロボット20からセンサーの検出結果の情報を取得して必要に応じてフィードバック制御などを行う。
[開発用PCと画像処理装置とロボット制御装置]
本実施形態では、画像処理装置PUが所定の画像処理(本実施形態では、撮像画像に第1領域及び第2領域を指定する処理)を実行し、当該画像処理の結果の情報に基づいて開発用PC601が所定の処理の条件を設定し、ロボット制御装置30がロボット20による当該処理の実行を制御する。
ここで、画像処理装置PUにより行われる所定の画像処理の内容としては、本実施形態における画像処理の内容に限られず、例えば、本実施形態における画像処理の内容と比べて、少なくてもよく、多くてもよく、または、異なる内容であってもよい。この場合に、例えば、画像処理装置PUにより行われる処理については開発用PC601あるいはロボット制御装置30では行われなくてもよく、また、開発用PC601あるいはロボット制御装置30により行われる処理については画像処理装置PUでは行われなくてもよい。
また、本実施形態では、開発用PC601が開発時における処理の制御を行う構成としたが、他の構成例として、開発用PC601が有する機能のすべてまたは一部がロボット制御装置30あるいは画像処理装置PUに備えられてもよい。
つまり、開発用PC601により行われる処理と画像処理装置PUにより行われる処理とロボット制御装置30により行われる処理とを合わせた全体の処理において必要な処理が実行されれば、それぞれの装置(開発用PC601、画像処理装置PU、ロボット制御装置30)により行われる処理の分担は様々であってもよい。
一例として、ロボット制御装置30に画像処理装置PUの機能を一体化してもよく、つまり、ロボット制御装置30が画像処理装置PUの機能を含んでもよい。
ここで、本実施形態では、プログラムの開発段階では、対応付処理及び対応付処理の結果の表示などは、すべて、開発用PC601の表示装置621(モニター)に表示される。具体例として、図5−8、図10−15に示される画像(画面)のすべては、開発用PC601の表示装置621に表示される。
なお、これらの画像(画面)が、補助的に、画像処理装置PUにより表示装置24の画面に表示されてもよい。
<変形例4:単腕ロボット>
以下、図を参照して本実施形態に係る変形例4について説明する。
図17は、変形例4に係るロボットシステム2の構成の一例を示す図である。
変形例4では、ロボットシステム2が備えるロボット21は、単腕のロボットである。
ロボット21は、基端(支持台)B1と、マニピュレーターM1と、エンドエフェクターE1を備える。
なお、変形例4では、ロボット制御装置30は、ロボット21とは別体で設けられている。他の構成例として、ロボット制御装置30は、ロボット21と一体で設けられてもよく、例えば、ロボット21の基端B1の内部に設けられてもよい。
ロボット21の基端B1は、テーブルTBに設置されている。
ロボット21のマニピュレーターM1の一端は、基端B1と接続されている。ロボット21のマニピュレーターM1の他端と、エンドエフェクターE1とが接続されている。
ロボット21のマニピュレーターM1は、6軸垂直多関節型の構造を有しており、6個の関節を備える。それぞれの関節は、アクチュエーター(図示せず)を備える。そして、ロボット21では、6個の関節のそれぞれのアクチュエーターの動作によって、6軸の自由度の動作を行う。他の構成例として、ロボットシステム2には、5軸以下の自由度で動作を行うロボット、または、7軸以上の自由度で動作を行うロボットが用いられてもよい。
ロボット21のエンドエフェクターE1は、例えば、ハンドであり、物体を把持することが可能な指部を備える。他の構成例として、ロボット21のエンドエフェクターE1は、任意のものであってもよく、例えば、空気の吸引を利用して物体を吸着するもの、磁力を利用して物体を寄せ付けるものなどであってもよい。
ロボット制御装置30は、あらかじめ設定された動作制御プログラムにしたがって、ロボット21を制御する。例えば、ロボット制御装置30は、ロボット21の動作を実現するために必要な各種の情報を、ロボット21(本体)に対して教示する。具体的には、ロボット制御装置30は、マニピュレーターM1が有するそれぞれのアクチュエーター及びエンドエフェクターE1のそれぞれを制御する。
ロボット制御装置30は、ロボット20に対象物Pを把持させる制御と同様の制御をロボット21に行い、ロボット21に所定の作業を行わせる。
<変形例5:双腕ロボット>
以下、図を参照して本実施形態に係る変形例5について説明する。
図18は、変形例5に係るロボットシステム3の構成の一例を示す図である。
変形例5では、ロボットシステム3が備えるロボット22は、双腕のロボットである。
ロボット22は、上部にある頭部と、中央部にある胴体部と、下部にある台部(台の部分)と、胴体部に設けられた腕部を備える。
ロボット22は、腕部として2本の腕を有する双腕のロボットである。
ロボット22は、一方の腕側の構成として、第1マニピュレーターM11と、第1エンドエフェクターE11を備える。
ロボット22は、他方の腕側の構成として、第2マニピュレーターM12と、第2エンドエフェクターE12を備える。
変形例5では、一方の腕側の構成(第1エンドエフェクターE11が取り付けられた第1マニピュレーターM11)により7軸の自由度の動作を行うことが可能であり、他方の腕側の構成(第2エンドエフェクターE12が取り付けられた第2マニピュレーターM12)により7軸の自由度の動作を行うことが可能であるが、他の構成例として、6軸以下または8軸以上の自由度の動作を行う構成が用いられてもよい。
ここで、第1マニピュレーターM11、第2マニピュレーターM12は、7軸の自由度で動作する場合、6軸以下の自由度で動作する場合と比較して取り得る姿勢が増えることによって、例えば、動作が滑らかになり、当該第1マニピュレーターM11、第2マニピュレーターM12の周辺に存在する物体との干渉を容易に回避することができる。また、第1マニピュレーターM11、第2マニピュレーターM12が7軸の自由度で動作する場合、当該第1マニピュレーターM11、第2マニピュレーターM12の制御は、第1マニピュレーターM11、第2マニピュレーターM12が8軸以上の自由度で動作する場合と比較して計算量が少なく容易である。このような理由から、変形例5では、好ましい一例として、7軸の自由度で動作する第1マニピュレーターM11、第2マニピュレーターM12が用いられている。
また、変形例5では、胴体部は、腰の部分で、1軸の自由度で回転することが可能な構成である。
また、ロボット22は、頭部の左右のそれぞれに設けられた2個のカメラ(第1カメラ1031−1、第2カメラ1031−2)と、第1マニピュレーターM11の所定部位に設けられたカメラ(第3カメラ1051−1)と、第2マニピュレーターM12の所定部位に設けられたカメラ(第4カメラ1051−2)を備える。
それぞれのカメラ(第1カメラ1031−1、第2カメラ1031−2、第3カメラ1051−1、第4カメラ1051−2)は、例えば、CCD(Charge Coupled Device)あるいはCMOS(Complementary Metal Oxide Semiconductor)等を用いたカメラである。
第1カメラ1031−1及び第2カメラ1031−2は、それぞれ、頭部の動きに応じて動かされる。
第3カメラ1051−1及び第4カメラ1051−2は、それぞれ、第1マニピュレーターM11及び第2マニピュレーターM12のそれぞれの動きに応じて動かされる。
また、ロボット22は、ロボット制御装置30を備える。変形例5では、ロボット22は、台部の内部にロボット制御装置30を備える。
ロボット制御装置30は、ロボット22の動作を制御する。ロボット制御装置30は、例えば、第1マニピュレーターM11及び第2マニピュレーターM12の動作を制御する。さらに、ロボット22の腰などの部分の動作が可能な構成では、ロボット制御装置30は当該腰などの部分の動作を制御する。
変形例5では、第1カメラ1031−1、第2カメラ1031−2、第3カメラ1051−1及び第4カメラ1051−2のそれぞれは、画像を撮像して、撮像された画像の情報をロボット制御装置30に送信(出力)する。
変形例5では、第1マニピュレーターM11の位置及び姿勢、第2マニピュレーターM12の位置及び姿勢、及び各カメラ(第1カメラ1031−1、第2カメラ1031−2、第3カメラ1051−1、第4カメラ1051−2)により撮像される画像について、座標系のキャリブレーションが行われている。
変形例5では、ロボット制御装置30は、あらかじめ設定された動作制御プログラムにしたがって、ロボット22の動作を制御する。ロボット制御装置30は、ロボット22の動作を実現するために必要な各種の情報を、ロボット22(本体)に対して教示する。
具体例として、ロボット制御装置30は、各マニピュレーター(第1マニピュレーターM11及び第2マニピュレーターM12)の動作を制御することで、各エンドエフェクター(第1エンドエフェクターE11及び第2エンドエフェクターE12)により物体を把持することが可能である。また、ロボット制御装置30は、各エンドエフェクターにより把持された物体を移動させること、各エンドエフェクターにより把持された物体を所定位置に載置して離す(把持を解除する)こと、各エンドエフェクターにより把持された物体を加工(例えば、穴開けなど)すること、なども可能である。
変形例5では、それぞれのエンドエフェクターE11、E12は、掌1091−1、1091−2及び爪(指)1092−1、1092−2を備える。
変形例5では、ロボット制御装置30は、2個のマニピュレーターM11、M12のうちの任意の一方を制御することが可能であり、また、2個のマニピュレーターM11、M12の両方を協調的に制御することが可能である。
なお、変形例5では、例えば、カメラCRの代わりに、複数のカメラ1031−1〜1031−2、1051−1〜1051−2のうちの1個以上が用いられてもよい。
ロボット制御装置30は、ロボット20に対象物Pを把持させる制御と同様の制御をロボット22に行い、第1エンドエフェクターE11と、第2エンドエフェクターE12のうち、いずれか一方又は両方に対象物Pを把持させる。
なお、上述では、ロボット制御装置30は、カメラCRが撮像した画像Gに基づいて、対象物Pを把持させる制御を行う場合について説明したが、これに限られない。ロボット制御装置30は、対象物Pを三次元計測し、計測した結果に基づいて、第1対象物に対して第1領域及び第2領域を指定してもよい。
以上のように、ロボット制御装置30は、取得した複数の対象物Pが撮像された画像Gに指定された領域であって、受け付けられた第1領域を示す第1領域情報と、第1領域とは異なる領域であって、第1領域に応じた第2領域を示す第2領域情報とに基づいて、他の対象物Pの第1領域と重ならない第2領域が指定された対象物Pをロボットに把持させ、他の対象物Pの第1領域と第2領域が重なる対象物Pをロボットに把持させない。これにより、ロボット制御装置30は、これにより、ロボット制御装置30は、操作者が所望する条件を満たす対象物Pをロボットに把持させることができる。
また、ロボット制御装置30は、第1領域情報に基づいて、他の対象物Pに指定された第1領域と重ならない第1領域が指定された対象物Pをロボットに把持させ、他の対象物Pに指定された第1領域と重なる第1領域が指定された対象物Pをロボットに把持させない。これにより、ロボット制御装置30は、対象物Pに対応付けられた第1領域に基づいて、操作者が所望する条件を満たす対象物Pをロボットに把持させることができる。
また、ロボット制御装置30は、第1領域が指定されたことに応じて第2領域が設定される。これにより、ロボット制御装置30は、第2領域を設定する補助を行うことができる。
また、ロボット制御装置30では、第2領域は、受け付けられた操作によって指定される。これにより、ロボット制御装置30は、操作者が所望する第2領域を対象物Pに指定することができる。
また、ロボット制御装置30は、第1領域情報及び第2領域情報に基づいて、複数の対象物Pのうちの少なくとも一部の対象物Pの画像Gに、第1領域に対応する第3領域と、第2領域に対応する第4領域とを設定し、第3領域及び第4領域と、第3領域及び第4領域が設定された少なくとも一部の対象物Pを表示部(この一例では、表示装置621又は表示装置DP)に表示させる。これにより、ロボット制御装置30は、操作者が対象物Pに第1領域及び第2領域を指定する補助を行うことができる。
また、ロボット制御装置30は、第1領域情報が示す第1領域及び第2領域情報が示す第2領域と、対象物Pの画像Gとを表示部に表示させる。これにより、ロボット制御装置30は、操作者が対象物Pに第1領域及び第2領域を対応付ける補助を行うことができる。
また、ロボット制御装置30では、第1領域は、対象物Pの輪郭の全体を含む領域であって、対象物Pの形状に基づく領域である。これにより、ロボット制御装置30は、対象物Pの全体を含む第1領域に基づいて、操作者が所望する条件を満たす対象物Pをロボットに把持させることができる。
また、ロボット制御装置30では、第1領域の形状は、凸包である。これにより、ロボット制御装置30は、凸包形状である第1領域に対応する第1領域に基づいて、操作者が所望する条件を満たす対象物Pをロボットに把持させることができる。
また、ロボット制御装置30では、第2領域は、ロボットによる対象物Pの把持に関する領域である。これにより、ロボット制御装置30は、把持に関する第2領域に基づいて、操作者が所望する条件を満たす対象物Pをロボットに把持させることができる。
また、ロボット20は、第1領域及び第2領域に基づいて、対象物Pを把持する。これにより、ロボット20は、操作者が所望する条件を満たす対象物Pを把持することができる。
また、ロボットシステム1は、第1領域及び第2領域に基づいて、ロボット20に対象物Pを把持させる。これにより、ロボットシステム1は、操作者が所望する条件を満たす対象物Pをロボット20に把持させることができる。
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。
また、以上に説明した装置(例えば、ロボット制御装置30)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1、2、3…ロボットシステム、20、21、22…ロボット、30…ロボット制御装置、31…CPU、32…記憶部、33…入力部、34…通信部、35…出力部、36…制御部、361…取得部、362…対応付部、363…表示制御部、364…ロボット制御部、PU…画像処理装置、601…開発用PC、602…操作キー、621…表示装置、DP…表示装置、A11、A21−1、A21−2、A31、A32、A37、A41、A41−1、A41−2、A42−1、A42−2、A43−1、A43−2、A44−1、A44−2、A45−1、A45−2、A46−1、A46−2、A47、A47−1、A47−2…領域、BC…ベルトコンベアー、CR…カメラ、DG…表示画像、G、G1…画像、P、P1、P2、P3、P4、P5、P6、P7…対象物、TB…テーブル

Claims (11)

  1. 取得した複数の対象物が撮像された画像に指定された領域であって、受け付けられた第1領域を示す第1領域情報と、前記第1領域とは異なる領域であって、前記第1領域に応じた第2領域を示す第2領域情報とに基づいて、他の前記対象物の前記第1領域と重ならない前記第2領域が指定された前記対象物をロボットに把持させ、他の前記対象物の前記第1領域と前記第2領域が重なる前記対象物をロボットに把持させない
    ロボット制御装置。
  2. 前記第1領域情報に基づいて、他の前記対象物に指定された前記第1領域と重ならない前記第1領域が指定された前記対象物を前記ロボットに把持させ、他の前記対象物に指定された前記第1領域と重なる前記第1領域が指定された前記対象物を前記ロボットに把持させない
    請求項1に記載のロボット制御装置。
  3. 前記第1領域が指定されたことに応じて前記第2領域が設定される
    請求項1又は請求項2に記載のロボット制御装置。
  4. 前記第2領域は、
    受け付けられた操作によって指定される
    請求項1又は請求項2に記載のロボット制御装置。
  5. 前記第1領域情報及び前記第2領域情報に基づいて、前記複数の前記対象物のうちの少なくとも一部の前記対象物の前記画像に、前記第1領域に対応する第3領域と、前記第2領域に対応する第4領域とを設定し、
    前記第1領域及び前記第3領域と、前記第1領域及び前記第4領域が設定された少なくとも一部の前記対象物を表示部に表示させる、
    請求項1から請求項4のいずれか一項に記載のロボット制御装置。
  6. 前記第1領域情報が示す前記第1領域及び前記第2領域情報が示す前記第2領域と、前記対象物の前記画像とを表示部に表示させる、
    請求項1から請求項5のいずれか一項に記載のロボット制御装置。
  7. 前記第1領域は、
    前記対象物の輪郭の全体を含む領域であって、前記対象物の形状に基づく領域である、
    請求項1から請求項6のいずれか一項に記載のロボット制御装置。
  8. 前記第1領域の形状は、凸包である、
    請求項1から請求項7のいずれか一項に記載のロボット制御装置。
  9. 前記第2領域は、
    前記ロボットによる前記対象物の把持に関する領域である、
    請求項1から請求項8のいずれか一項に記載のロボット制御装置。
  10. 請求項1から請求項9のうちいずれか一項に記載のロボット制御装置の制御に基づいて動作する、
    ロボット。
  11. 請求項1から請求項9のうちいずれか一項に記載のロボット制御装置と、
    請求項10に記載のロボットと、
    を備えるロボットシステム。
JP2016168976A 2016-08-31 2016-08-31 ロボット制御装置、ロボット、及びロボットシステム Withdrawn JP2018034242A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016168976A JP2018034242A (ja) 2016-08-31 2016-08-31 ロボット制御装置、ロボット、及びロボットシステム
CN201710753842.8A CN107791245A (zh) 2016-08-31 2017-08-28 机器人控制装置、机器人以及机器人系统
US15/689,439 US10618181B2 (en) 2016-08-31 2017-08-29 Robot control device, robot, and robot system
EP17188748.2A EP3290165A3 (en) 2016-08-31 2017-08-31 Robot control device, robot, and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016168976A JP2018034242A (ja) 2016-08-31 2016-08-31 ロボット制御装置、ロボット、及びロボットシステム

Publications (2)

Publication Number Publication Date
JP2018034242A true JP2018034242A (ja) 2018-03-08
JP2018034242A5 JP2018034242A5 (ja) 2019-07-18

Family

ID=59761783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016168976A Withdrawn JP2018034242A (ja) 2016-08-31 2016-08-31 ロボット制御装置、ロボット、及びロボットシステム

Country Status (4)

Country Link
US (1) US10618181B2 (ja)
EP (1) EP3290165A3 (ja)
JP (1) JP2018034242A (ja)
CN (1) CN107791245A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019209459A (ja) * 2018-06-08 2019-12-12 ファナック株式会社 ロボットシステムおよびロボットシステムの制御方法
US10596707B2 (en) 2017-08-03 2020-03-24 Fanuc Corporation Article transfer device
JP2020199625A (ja) * 2019-06-13 2020-12-17 ファナック株式会社 シミュレーション装置
JP2021024027A (ja) * 2019-08-05 2021-02-22 ファナック株式会社 ワーク選定及びロボット作業を同時に行うロボット制御システム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6889574B2 (ja) * 2017-03-03 2021-06-18 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
US10471591B1 (en) * 2018-06-01 2019-11-12 X Development Llc Object hand-over between robot and actor
JP7143410B2 (ja) 2018-06-14 2022-09-28 ヤマハ発動機株式会社 ロボットシステム
CN110893999A (zh) * 2018-09-12 2020-03-20 泰科电子(上海)有限公司 图像采集系统和图像采集方法
JP7097799B2 (ja) 2018-11-21 2022-07-08 Thk株式会社 画像情報処理装置、把持システム、および画像情報処理方法
EP3919240A4 (en) * 2019-01-30 2022-01-19 Fuji Corporation DEVICE FOR GENERATING WORKING COORDINATES
CN114025889B (zh) * 2019-05-24 2024-03-08 代尔夫特科技大学 从表面上拾取物体的装置和方法
NL2023190B1 (nl) * 2019-05-24 2020-12-02 Univ Delft Tech Werkwijze en inrichting voor het vanaf een vlak uitnemen van objecten
JP7328017B2 (ja) * 2019-06-11 2023-08-16 ファナック株式会社 ロボットシステム及び制御装置
US11795012B1 (en) * 2020-11-06 2023-10-24 Aaron Thomas Bacon Multi-gripper system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6134675A (ja) * 1984-07-27 1986-02-18 Hitachi Ltd 画像認識方法および装置
JPS6154556B2 (ja) * 1981-10-28 1986-11-22 Fujitsu Ltd
US5040056A (en) * 1990-01-29 1991-08-13 Technistar Corporation Automated system for locating and transferring objects on a conveyor belt
JP2013097514A (ja) * 2011-10-31 2013-05-20 Omron Corp 画像処理装置および画像処理プログラム
JP2013184257A (ja) * 2012-03-08 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3451749B2 (ja) 1994-10-14 2003-09-29 ダイキン工業株式会社 リング状ワーク供給方法およびその装置
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP4303411B2 (ja) 2000-10-06 2009-07-29 セイコーインスツル株式会社 トラッキング方法、及びトラッキングシステム
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
JP3876260B2 (ja) * 2004-09-16 2007-01-31 ファナック株式会社 物品供給装置
JP4835616B2 (ja) * 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
SI2190604T1 (sl) * 2008-03-12 2011-05-31 Schuler Automation Gmbh & Co Naprava in postopek za položajno usmerjanje ploščastih delov
US8559699B2 (en) * 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
JP4938115B2 (ja) * 2010-07-27 2012-05-23 ファナック株式会社 ワーク取出し装置およびワーク取出し方法
JP5685027B2 (ja) * 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
FI20106090A0 (fi) * 2010-10-21 2010-10-21 Zenrobotics Oy Menetelmä kohdeobjektin kuvien suodattamiseksi robottijärjestelmässä
JP5558585B2 (ja) 2010-11-17 2014-07-23 三菱電機株式会社 ワーク取り出し装置
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
FI20106387L (fi) * 2010-12-30 2012-07-01 Zenrobotics Oy Menetelmä, tietokoneohjelma ja laite tartuntakohdan määrittämiseksi
JP5266377B2 (ja) * 2011-12-19 2013-08-21 ファナック株式会社 物品の姿勢を修正する機能を備えた取出し装置
US9014857B2 (en) * 2012-01-13 2015-04-21 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and computer-program products for generating grasp patterns for use by a robot
JP5975685B2 (ja) * 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法
JP5977544B2 (ja) * 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP2013184273A (ja) * 2012-03-09 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
JP6323993B2 (ja) * 2012-08-28 2018-05-16 キヤノン株式会社 情報処理装置、情報処理方法、及びコンピュータプログラム
JP5642759B2 (ja) * 2012-10-31 2014-12-17 ファナック株式会社 物品取出装置及び物品取出方法
US9227323B1 (en) * 2013-03-15 2016-01-05 Google Inc. Methods and systems for recognizing machine-readable information on three-dimensional objects
JP6415026B2 (ja) * 2013-06-28 2018-10-31 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2015089590A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP5788460B2 (ja) * 2013-11-05 2015-09-30 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP5788461B2 (ja) * 2013-11-05 2015-09-30 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP2015147256A (ja) * 2014-02-04 2015-08-20 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
US9259844B2 (en) * 2014-02-12 2016-02-16 General Electric Company Vision-guided electromagnetic robotic system
JP5824173B1 (ja) * 2014-02-28 2015-11-25 ファナック株式会社 ロボットを用いて物品を整列させる物品整列装置及び物品整列方法、並びに物品整列装置を備えた物品移送システム
US9272417B2 (en) * 2014-07-16 2016-03-01 Google Inc. Real-time determination of object metrics for trajectory planning
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
JP6140204B2 (ja) * 2015-02-06 2017-05-31 ファナック株式会社 3次元センサを備えた搬送ロボットシステム
JP6576050B2 (ja) * 2015-02-27 2019-09-18 キヤノン株式会社 物体移動方法及びシステム
JP6548422B2 (ja) * 2015-03-27 2019-07-24 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US9120622B1 (en) * 2015-04-16 2015-09-01 inVia Robotics, LLC Autonomous order fulfillment and inventory control robots
US10335951B2 (en) * 2015-07-29 2019-07-02 Canon Kabushiki Kaisha Information processing apparatus, information processing method, robot control apparatus, and robot system
JP6639181B2 (ja) * 2015-10-13 2020-02-05 キヤノン株式会社 撮像装置、生産システム、撮像方法、プログラム及び記録媒体
US10245724B2 (en) * 2016-06-09 2019-04-02 Shmuel Ur Innovation Ltd. System, method and product for utilizing prediction models of an environment
US10933533B2 (en) * 2017-06-23 2021-03-02 Kindred Systems Inc. Systems, devices, articles, and methods for stow verification

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6154556B2 (ja) * 1981-10-28 1986-11-22 Fujitsu Ltd
JPS6134675A (ja) * 1984-07-27 1986-02-18 Hitachi Ltd 画像認識方法および装置
US5040056A (en) * 1990-01-29 1991-08-13 Technistar Corporation Automated system for locating and transferring objects on a conveyor belt
JP2013097514A (ja) * 2011-10-31 2013-05-20 Omron Corp 画像処理装置および画像処理プログラム
JP2013184257A (ja) * 2012-03-08 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10596707B2 (en) 2017-08-03 2020-03-24 Fanuc Corporation Article transfer device
JP2019209459A (ja) * 2018-06-08 2019-12-12 ファナック株式会社 ロボットシステムおよびロボットシステムの制御方法
JP2020199625A (ja) * 2019-06-13 2020-12-17 ファナック株式会社 シミュレーション装置
JP2021024027A (ja) * 2019-08-05 2021-02-22 ファナック株式会社 ワーク選定及びロボット作業を同時に行うロボット制御システム
US11660757B2 (en) 2019-08-05 2023-05-30 Fanuc Corporation Robot control system simultaneously performing workpiece selection and robot task
JP7343329B2 (ja) 2019-08-05 2023-09-12 ファナック株式会社 ワーク選定及びロボット作業を同時に行うロボット制御システム
DE102020119944B4 (de) 2019-08-05 2025-04-17 Fanuc Corporation Robotersteuersystem, das die werkstückwahl und die robotertätigkeitgleichzeitig vornimmt

Also Published As

Publication number Publication date
US20180056523A1 (en) 2018-03-01
CN107791245A (zh) 2018-03-13
EP3290165A3 (en) 2018-04-04
EP3290165A2 (en) 2018-03-07
US10618181B2 (en) 2020-04-14

Similar Documents

Publication Publication Date Title
JP2018034242A (ja) ロボット制御装置、ロボット、及びロボットシステム
CN113056351B (zh) 外部输入设备、机器人系统、其控制方法及记录介质
CN107414842B (zh) 控制装置、机器人以及机器人系统
US10589424B2 (en) Robot control device, robot, and robot system
CN105269578B (zh) 指示装置以及机器人系统
JP6450960B2 (ja) ロボット、ロボットシステム及び教示方法
US11197730B2 (en) Manipulator system
US20210187727A1 (en) Robot hand, robot and robot system
US20180194009A1 (en) Robot control device and robotic system
JP2017071018A (ja) ロボットシステム、ロボット、及びロボット制御装置
CN111515943A (zh) 三维形状测量系统以及三维形状测量方法
JP2017170571A (ja) ロボット、ロボット制御装置、及びロボットシステム
JP2019025578A (ja) 制御装置、ロボットシステムおよび制御方法
US20180085920A1 (en) Robot control device, robot, and robot system
US20180056517A1 (en) Robot, robot control device, and robot system
JP2017205819A (ja) ロボット、制御装置、及びロボットシステム
JP6706777B2 (ja) 制御装置、ロボット、及びロボットシステム
JP2019111588A (ja) ロボットシステム、情報処理装置、及びプログラム
JP2020163499A (ja) 物体検出方法、物体検出装置およびロボットシステム
JP6958091B2 (ja) ロボットシステム、及びロボット制御方法
JP2016013590A (ja) 教示装置、及びロボットシステム
JP2017100197A (ja) ロボット、及び制御方法
CN111113373B (zh) 控制装置、机器人系统及控制方法
JP2019115950A (ja) ロボット制御装置、ロボットおよびロボットシステム
JP2018051689A (ja) ロボット、ロボット制御装置、ロボットシステム

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180910

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200507

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20200706