JP2018034242A - ロボット制御装置、ロボット、及びロボットシステム - Google Patents
ロボット制御装置、ロボット、及びロボットシステム Download PDFInfo
- Publication number
- JP2018034242A JP2018034242A JP2016168976A JP2016168976A JP2018034242A JP 2018034242 A JP2018034242 A JP 2018034242A JP 2016168976 A JP2016168976 A JP 2016168976A JP 2016168976 A JP2016168976 A JP 2016168976A JP 2018034242 A JP2018034242 A JP 2018034242A
- Authority
- JP
- Japan
- Prior art keywords
- area
- robot
- region
- robot control
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/02—Gripping heads and other end effectors servo-actuated
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/41845—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by system universality, reconfigurability, modularity
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/31—From computer integrated manufacturing till monitoring
- G05B2219/31264—Control, autonomous self learn knowledge, rearrange task, reallocate resources
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39163—Formation control, robots form a rigid formation, fixed relationship
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40004—Window function, only a specific region is analyzed
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45063—Pick and place manipulator
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- General Engineering & Computer Science (AREA)
- Manufacturing & Machinery (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
Description
この構成により、ロボット制御装置は、取得した複数の対象物が撮像された画像に指定された領域であって、受け付けられた第1領域を示す第1領域情報と、第1領域とは異なる領域であって、第1領域に応じた第2領域を示す第2領域情報とに基づいて、他の対象物の第1領域と重ならない第2領域が指定された対象物をロボットに把持させ、他の対象物の第1領域と第2領域が重なる対象物をロボットに把持させない。これにより、ロボット制御装置は、操作者が所望する条件を満たす対象物をロボットに把持させることができる。
この構成により、ロボット制御装置は、第1領域情報に基づいて、他の対象物に指定された第1領域と重ならない第1領域が指定された対象物をロボットに把持させ、他の対象物に指定された第1領域と重なる第1領域が指定された対象物をロボットに把持させない。これにより、ロボット制御装置は、対象物に対応付けられた第1領域に基づいて、操作者が所望する条件を満たす対象物をロボットに把持させることができる。
この構成により、ロボット制御装置は、第1領域が指定されたことに応じて第2領域が設定される。これにより、ロボット制御装置は、第2領域を設定する補助を行うことができる。
この構成により、ロボット制御装置では、第2領域は、受け付けられた操作によって指定される。これにより、ロボット制御装置は、設定された第2領域に基づいて、操作者が所望する条件を満たす対象物をロボットに把持させることができる。
この構成により、ロボット制御装置は、第1領域情報及び第2領域情報に基づいて、複数の対象物のうちの少なくとも一部の対象物の画像に、第1領域に対応する第3領域と、第2領域に対応する第4領域とを設定し、第3領域及び第4領域と、第3領域及び第4領域が設定された少なくとも一部の対象物を表示部に表示させる。これにより、ロボット制御装置は、操作者が対象物に第1領域及び第2領域を指定する補助を行うことができる。
この構成により、ロボット制御装置は、第1領域情報が示す第1領域及び第2領域情報が示す第2領域と、対象物の画像とを表示部に表示させる。これにより、ロボット制御装置は、操作者が対象物に第1領域及び第2領域を対応付ける補助を行うことができる。
この構成により、ロボット制御装置では、第1領域は、対象物の輪郭の全体を含む領域であって、対象物の形状に基づく領域である。これにより、ロボット制御装置は、対象物の全体を含む第1領域に基づいて、操作者が所望する条件を満たす対象物をロボットに把持させることができる。
この構成により、ロボット制御装置では、第1領域の形状は、凸包である。これにより、ロボット制御装置は、凸包形状である第1領域に対応する第1領域に基づいて、操作者が所望する条件を満たす対象物をロボットに把持させることができる。
この構成により、ロボット制御装置では、第2領域は、ロボットによる対象物の把持に関する領域である。これにより、ロボット制御装置は、把持に関する第2領域に基づいて、操作者が所望する条件を満たす対象物をロボットに把持させることができる。
この構成により、ロボットは、第1領域及び第2領域に基づいて、対象物を把持する。これにより、ロボットは、操作者が所望する条件を満たす対象物を把持することができる。
この構成により、ロボットシステムは、第1領域及び第2領域に基づいて、ロボットに対象物を把持させる。これにより、ロボットシステムは、操作者が所望する条件を満たす対象物をロボットに把持させることができる。
また、ロボット及びロボットシステムは、取得した複数の対象物が撮像された画像に指定された領域であって、受け付けられた第1領域を示す第1領域情報と、第1領域とは異なる領域であって、第1領域に応じた第2領域を示す第2領域情報とに基づいて、他の対象物の第1領域と重ならない第2領域が指定された対象物を把持し、他の対象物の第1領域と第2領域が重なる対象物を把持しない。これにより、ロボットは、操作者が所望する条件を満たす対象物を把持することができる。
以下、本発明の実施形態について、図面を参照して説明する。
まず、ロボットシステム1の構成について説明する。
図1は、本実施形態に係るロボットシステム1の構成の一例を示す図である。ロボットシステム1は、ロボット20と、ロボット制御装置30と、画像処理装置PUと、カメラCRと、表示装置DPと、開発用PC601と、操作キー602と、表示装置621とを備える。
ここで、操作キー602以外の構成部に関し、ロボット20などの一部の構成部が、テーブルTBの外側(例えば、床など)に配置されてもよい。
なお、必ずしもテーブルTBが用いられなくてもよく、すべての構成部が床などに配置されてもよい。
図1の例では、ベルトコンベアーBCは、当該ベルトコンベアーBCに載せられた物を定められた移動方向に移動させる。当該移動方向は、本実施形態では、当該物がカメラCRにより撮像される位置から、当該物がロボット20により作業される位置へ、向かう方向である。
ここで、図1の例では、ベルトコンベアーBCの一部が示されている。一例として、ベルトコンベアーBCは、所定の開始始点(図示せず)から所定の終了地点(図示せず)まで続いている。所定の開始始点とは、例えば、ベルトコンベアーBCに対象物Pを載置する装置が配置される位置である。また、所定の終了地点とは、例えば、ロボット20が所定の作業を行う作業領域よりも前述の移動方向に数m先の位置である。他の例として、ベルトコンベアーBCが備えるベルトは、開始始点と終了地点とが存在しない環状のベルトであってもよい。
また、ベルトコンベアーBCに載せられて移動させられる対象物P1〜対象物P7は、本実施形態に係るロボット20による作業箇所以外の箇所(図示せず)で任意の作業が行われてもよい。
なお、本実施形態では、対象物P1〜対象物P7がベルトコンベアーBCに載せられて移動させられるが、他の構成例として、対象物P1〜対象物P7がステージに載せられて静止した状態で配置されてもよい。当該ステージは、テーブルTBであってもよく、または、他のものであってもよい。
対象物P1〜対象物P7は、ロボット20により行われる作業で用いられるワークの一例である。対象物P1〜対象物P7は、例えば、製品に組み付けるプレート、ネジ、ボルト等の産業用の部品や部材である。図1では、対象物P1〜対象物P7を直方体と半円筒形とが組み合わされた形状の物体として表している。なお、対象物P1〜対象物P7は、産業用の部品や部材に代えて、日用品や生体等の他の物体であってもよい。また、対象物P1〜対象物P7の形状は、直方体と半円筒形とが組み合わされた形状に代えて、他の形状であってもよい。
図1の例では、対象物P1〜対象物P7のうち、対象物P4及び対象物P5と、対象物P6及び対象物P7とは、重なった状態で配置されているが、対象物P1〜対象物P7は、互いが重ならないように配置されていてもよく、対象物P1〜対象物P7の全てが重なった状態で配置されていてもよい。
カメラCRは、ケーブルによって画像処理装置PUと通信可能に接続されている。これにより、カメラCRは、撮像した画像Gの情報(画像データ)を、ケーブルを介して、画像処理装置PUに送信する。画像処理装置PUは、カメラCRから送信された画像Gを示す画像データを、ケーブルを介して受信する。なお、カメラCRと画像処理装置PUとのケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。また、カメラCRは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって画像処理装置PUと接続される構成であってもよい。
また、本実施形態では、カメラCRが支持部SPに固定される場合を示すが、他の構成例として、カメラCRにより撮像される範囲を変更することが可能な構成が用いられてもよい。
また、他の構成例として、対象物P1〜対象物P7の形状などの情報を測定する機器として、カメラCRの代わりに、他の機器が用いられてもよく、例えば、レーザーを用いた測定機器などが用いられてもよい。
画像処理装置PUは、カメラCRから送信された画像の情報を、ケーブルを介して、受信する。画像処理装置PUは、受信された画像の情報を、ケーブルを介して、ロボット制御装置30に送信する。画像処理装置PUは、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、画像処理装置PUは、画像Gの情報(画像データ)を、ケーブルを介して、ロボット制御装置30に送信する。
ロボット制御装置30は、画像処理装置PUから送信された画像Gを示す画像データを、ケーブルを介して受信する。なお、画像処理装置PUとロボット制御装置30とのケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。また、カメラCRは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって画像処理装置PUと接続される構成であってもよい。なお、画像処理装置PUは、カメラCRから受信した画像の情報について所定の画像処理を行い、当該画像処理の結果の情報を、ケーブルを介して、ロボット制御装置30に送信してもよい。
なお、開発時において、画像処理装置PUにより行われる画像処理および表示制御などのうちの一部または全部は、開発用PC601からの制御に基づいて行われてもよい。
なお、画像処理システムは、例えば、画像を測定する画像測定システムなどであってもよい。
表示装置DPは、ケーブルによって画像処理装置PUと通信可能に接続されている。これにより、画像処理装置PUは、ロボット制御装置30から受信した画像データを、ケーブルを介して表示装置DPに送信する。なお、表示装置DPと画像処理装置PUとのケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。また、表示装置DPは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって画像処理装置PUと接続される構成であってもよい。
表示装置DPは、例えば、液晶ディスプレイパネル、あるいは、有機EL(ElectroLuminescence)ディスプレイパネルを含む表示装置である。表示装置DPは、画像処理装置PUから送信された画像Gを示す画像データを、ケーブルを介して受信し、受信された画像データが示す画像Gを表示する。
開発用PC601は、ロボット制御装置30で使用されるプログラムを開発するときなどに使用される。当該プログラムは、例えば、ロボット20の動作を制御するプログラムである。
開発用PC601は、ケーブルを介して、ロボット制御装置30との間で通信する。
なお、開発用PC601は、例えば、開発が完了した後には、ロボット制御装置30と接続されていなくてもよい。
開発用PC601は、例えば、ロボット20により行われる所定の処理の条件を設定する機能を有している。処理の条件としては、任意の条件が用いられてもよく、例えば、処理に使用されるパラメーター(「プロパティー」などと呼ばれてもよい。)の値または範囲が用いられてもよい。
本実施形態では、開発時においては、開発用PC601がロボット制御装置30を介して画像処理装置PUに対して命令(指示)を与えることで、各種の処理が行われる。また、開発時においては、例えば、開発用PC601が有する操作部がユーザーにより操作される。
開発用PC601は、表示対象となる情報を表示装置621に出力(送信)する。当該表示対象となる情報としては、例えば、カメラCRにより撮像された画像Gの情報が用いられてもよく、画像処理装置PUにより行われた画像処理の結果の情報が用いられてもよく、または、ロボット制御装置30により行われた処理の結果の情報が用いられてもよい。
本実施形態では、開発用PC601が画像処理装置PUに対して画像処理の実行を指示し、画像処理装置PUが画像や画像処理結果を開発用PC601に送信し、開発用PC601が受信した当該画像や当該画像処理結果を表示装置621に表示させる。
なお、画像処理装置PUの表示装置DPには、開発用PC601の表示装置621と同様な情報が表示されてもよく、または、他の情報が表示されてもよい。本実施形態では、画像処理装置PUの表示装置DPは補助(サブ)の表示装置として使用される。例えば、画像処理装置PUの表示装置DPでは、自動動作中の対象物の表示、あるいは、結果表示を行ってもよい。
ロボット20は、この一例では、スカラロボットである。なお、ロボット20は、スカラロボットに代えて、直角座標ロボットや単腕ロボット、複腕ロボット等の他のロボットであってもよい。直角座標ロボットは、例えば、ガントリロボットである。
ロボット制御装置30は、画像処理装置PUから画像Gを示す画像データをケーブルを介して取得する。なお、カメラCRの配置を変更することが可能な構成において、ロボット制御装置30は、カメラCRの配置を制御して変更することが可能であってもよい。この場合、ロボット制御装置30は、例えば、カメラCRを制御してもよい。また、ロボット制御装置30がカメラCRを制御する構成に代えて、画像処理装置PUがカメラCRを制御する構成であってもよい。
また、ロボット制御装置30と、開発用PC601とは、ケーブルを介して通信可能に接続される。なお、ロボット制御装置30と開発用PC601とのケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。また、開発用PC601は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
また、ロボット制御装置30と、操作キー602とは、ケーブルを介して通信可能に接続される。なお、ロボット制御装置30と操作キー602とのケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。また、操作キー602は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
操作キー602は、ロボット制御装置30の外部に設けられた操作装置の一例である。操作キー602は、ユーザーにより操作される操作部(例えば、1個以上のキー)を有しており、ユーザーにより当該操作部に対して行われた操作の内容を受け付けて、ケーブルを介して、ロボット制御装置30に送信する。
操作キー602は、例えば、キーボード、マウス、タッチパッド等を備えたティーチングペンダントや、その他の入力装置である。操作キー602は、表示装置621又は表示装置DPが表示する画像Gに基づいて開発用PC601、ロボット制御装置30又は画像処理装置PUの操作者が行う操作を取得し、取得した操作を示す操作情報をケーブル介してロボット制御装置30に送信する。ロボット制御装置30は、受信した当該操作を開発用PC601に送信する。
ロボット制御装置30は、ロボット20を制御する。例えば、ロボット制御装置30は、ロボット20が有するそれぞれのアクチュエーター、およびエンドエフェクターEのそれぞれを制御する。
図1に示す一例では、ロボット20は、ベルトコンベアーBCに載せられて移動させられる対象物P1〜対象物P7を1個ずつ把持し、把持した対象物Pを図示しない給材領域に載置する作業を所定の作業として行う。
以下、開発用PC601及びロボット制御装置30がロボット20に所定の作業を行わせる処理の概要について説明する。
また、開発用PC601は、取得した第1領域情報及び第2領域情報に基づいて、複数の対象物Pのうちの少なくとも一部の対象物Pの画像Gに、第1領域に対応する第3領域と、第2領域に対応する第4領域とを設定し、第3領域及び第4領域と、第3領域及び第4領域が設定された少なくとも一部の対象物を表示装置621に表示させる。
以下、図2を参照し、ロボット制御装置30のハードウェア構成について説明する。図2は、ロボット制御装置30のハードウェア構成の一例を示す図である。ロボット制御装置30は、例えば、CPU(Central Processing Unit)31と、記憶部32と、入力部33と、通信部34と、出力部35とを備える。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。また、ロボット制御装置30は、通信部34を介してロボット20、開発用PC601、操作キー602及び画像処理装置PUと通信を行う。通信部34は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)ポート等を含んで構成される。
また、入力部33が有する操作部は、例えば、表示画面(または、他の画面)を用いたタッチパネルであってもよい。
記憶部32は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)等を含む。なお、記憶部32は、ロボット制御装置30に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置であってもよい。記憶部32は、ロボット制御装置30が処理する各種情報や画像、プログラム等を格納する。
以下、図3を参照し、ロボット制御装置30の機能構成について説明する。図3は、ロボット制御装置30の機能構成の一例を示す図である。ロボット制御装置30は、記憶部32と、制御部36とを備える。
なお、操作者が所望する対象物Pである第1対象物に対して第1領域を操作者が指定する操作のみが行われる場合、操作者が指定する操作が行われない第2領域は、第1対象物に対応付けられた第1領域の位置に応じた位置に対応付けられてもよい。
以下、図4を参照し、ロボット制御装置30の対応付処理について説明する。図4は、ロボット制御装置30が行う処理の流れの一例を示すフローチャートである。
図6は、第1対象物に対して指定される第1領域の具体例1の第2の図である。
図7は、第1対象物に対して指定される第2領域の一例を示す図である。
具体的には、図5は、対応付処理において表示される画面2001の例を示す図である。図6は、対応付処理において表示される画面2002の例を示す図である。図7は、対応付処理において表示される画面2003の例を示す図である。
ここで、これらの画面2001〜2003の概略的な構成は同じであり、これらの画面2001〜2007は、画像表示部2021と、プロパティー設定表示部2022と、検出結果表示部2023と、アイコン表示部2024と、オブジェクト実行ボタン3011を含む。画像表示部2021と、プロパティー設定表示部2022と、検出結果表示部2023のそれぞれの内部に表示される情報は、処理の状況などに応じて変化し得る。
プロパティー設定表示部2022は、プロパティーを設定する欄を表示する部分である。
検出結果表示部2023は、検出結果を表示する部分である。
アイコン表示部2024は、複数のアイコンを表示する部分である。
オブジェクト実行ボタン3011は、処理を実行させるボタンである。
本例では、開発用PC601が制御することで、画像処理装置PUによる画像処理および表示処理が行われる。
図5の例では、入力された画像G1が画像表示部2021に表示されている。
操作者により行われる操作に応じて、カーソル2051の位置が所定のアイコン2041の位置に合わされて指定(例えば、クリックなど)されると、当該アイコン2041に対応付けられた処理が行われる。
ここで、当該所定のアイコン2041は、第1対象物に指定される第1領域を指定する処理に対応付けられている。
図6の例では、操作者により行われる操作に応じて、カーソル2051によって画面2002(例えば、画像表示部2021の領域)が指定(例えば、クリックなど)されると、画像表示部2021においてウインドウ2111が表示される。
また、ウインドウ2111のプロパティーの値(例えば、大きさ、形状などの値)は、初期では、デフォルト値に設定される。当該デフォルト値は、あらかじめ定められた値であり、操作者により行われる操作に応じて変更され得る。
図6の例では、プロパティー設定表示部2022に、ウインドウ2111のプロパティーの値が表示される。このプロパティーの値は、操作者により行われる操作に応じて変更され得る。
ここで、画像表示部2021の領域はXY直交座標系の平面で表され、X座標が横方向に対応しており、Y座標が高さ方向(縦方向)に対応している。
また、図6の例では、形状のタイプ(Type)として、矩形(Rectangle)が用いられているが、他の形状が用いられてもよく、例えば、円あるいは楕円などの形状が用いられてもよい。
また、図6の例では、第1領域である領域A11として、重心位置(または、図心位置)のX座標値(CenterX)が222、重心位置(または、図心位置)のY座標値(CenterY)が285、高さ方向の長さ(Height)が234、左側の位置(Left)39、高さ方向の上側の位置(Top)が168、形状のタイプ(Type)が矩形(Rectangle)のウインドウ2111が設定されている。
図7の例では、操作者により行われる操作に応じて、カーソル2051によって画面2003(例えば、画像表示部2021の領域)が指定(例えば、クリックなど)されると、画像表示部2021においてウインドウ2112(この一例では、ウインドウ2112−1、2111−2)が表示される。
また、ウインドウ2112のプロパティーの値(例えば、大きさ、形状などの値)は、初期では、デフォルト値に設定される。当該デフォルト値は、あらかじめ定められた値であり、操作者により行われる操作に応じて変更され得る。
図7の例では、プロパティー設定表示部2022に、ウインドウ2112のプロパティーの値が表示される。このプロパティーの値は、操作者により行われる操作に応じて変更され得る。
ここで、画像表示部2021の領域はXY直交座標系の平面で表され、X座標が横方向に対応しており、Y座標が高さ方向(縦方向)に対応している。
また、図7の例では、形状のタイプ(Type)として、矩形(Rectangle)が用いられているが、他の形状が用いられてもよく、例えば、円あるいは楕円などの形状が用いられてもよい。
対応付部362は、取得部361から取得した第1領域情報が示す第1領域に基づいて、画像G1に含まれる対象物P(この一例では、対象物P1〜対象物P7)に対して、第1対象物に対応付けられた第1領域に対応する第1領域を対応付ける。具体的には、対応付部362は、既知の画像認識によって、画像G1のうち、第1領域に含まれる第1対象物のエッジを検出する。対応付部362は、画像G1のうち、第1対象物と同じ輪郭及び大きさのもの(この一例では、対象物P1〜対象物P7)を検出する。なお、対応付部362が第1領域に含まれる第1対象物のエッジを検出する方法は、既知の画像認識による方法であってもよく、これから開発される方法であってもよい。対応付部362は、画像G1のうち、第1対象物と同じ輪郭及び大きさのものに対して、第1対象物に対する第1領域の位置と相対的に同じ位置に、第1対象物に対応付けられる第1領域と同じ輪郭及び同じ大きさの第1領域を対応付ける。図8に示す通り、この一例では、画像G1に含まれる対象物P1〜対象物P7には、第1領域として領域A31〜領域A37が対応付けられる。領域A31〜領域A37は、第1対象物の輪郭の全体を含む領域であって、第1対象物の形状に基づく領域である。上述したように、この一例では、画像G1に含まれる対象物P1〜対象物P7は、同一の形状を有する。したがって、領域A31〜領域A37は、対象物P1〜対象物P7の輪郭の全体を含む領域であって、対象物P1~対象物P7の形状に基づく領域である。なお、対応付部362は、画像Gに含まれる対象物Pのうち、第1対象物との類似の程度(類似度)が高い対象物Pから順番に対象物Pに番号を付してもよい。この場合、表示装置621は、既知の方法によって、当該番号を表示してもよい。
すると、図8に示される画面2004が表示される。画像表示部2021には、プロパティー設定表示部2022に表示されたプロパティーの設定内容に基づいて実行された第1領域と、第2領域の対応付処理の結果が表示される。
また、図8の例では、検出結果表示部2023に、対応付処理が行われた対象物Pそれぞれの処理結果が表示される。処理結果として、角度(Angle)、面積(Area)、カメラX(CameraX)、カメラY(CameraY)、コンパクトネス(Compactness)、発見されたか否か(Found)、ファウンドオンエッジ(FoundOnEdge)、ホール(Holes)、外形(MajorDiameter)、最大のフェレ径(MaxFeretDiameter)、最大のX座標値(MaxX)、最大のY座標値(MaxY)がある。
なお、複数の対象物Pに第1領域と、第2領域との対応付処理が操作者により行われる所定の操作に応じて一括して行われる構成に代えて、複数の対象物Pに第1領域を対応付ける対応付処理と、複数の対象物Pに第2領域を対応付ける対応付処理とは、個別に行われる構成であってもよい。
なお、表示制御部363は、第3領域及び第4領域と、当該対象物P1〜対象物P7とを示す画像である表示画像DGを生成する構成に代えて、第1領域、第2領域、第1領域及び第2領域と、対象物P1〜対象物P7とを示す表示画像DGを生成する構成であってもよい。
ロボット制御部364は、画像Gに含まれる複数の対象物Pのうち、他の対象物Pに対応付けられた第1領域と重なりのない第1領域に対応付けられた対象物Pであって、他の対象物Pに対応付けられた第2領域が第1領域と重なりのない第1領域に対応付けられた対象物Pをロボット20に把持させる。図8に示す通り、この一例では、対象物P1に対応付けられた第1領域を示す領域A31は、他の対象物Pである対象物P2〜対象物P7に対応付けられた第1領域(すなわち、領域A32〜領域A37)と重ならない。また、図8に示す通り、この一例では、対象物P2〜対象物P7に対応付けられた第1領域を示す領域A32〜領域A37は、他の対象物Pの第1領域と重なる。したがって、図9に示す通り、画像G1に含まれる複数の対象物Pのうち、他の対象物Pに対応付けられた第1領域と重なりのない第1領域に対応付けられた対象物Pは、対象物P1である。図9は、ロボット制御装置30がロボット20に把持させる対象物Pの一例を示す表である。また、図8に示す通り、この一例では、対象物P1に対応付けられた第2領域を示す領域A41−1及び領域A41−2は、他の対象物Pである対象物P2〜対象物P7に対応付けられた第1領域(すなわち、領域A32〜領域A37)と重ならない。また、図8に示す通り、この一例では、対象物P2〜対象物P7に対応付けられた第2領域を示す領域A42−1、領域A42−2、…、領域A47−2は、他の対象物Pの第1領域に重なる。したがって、図9に示す通り、画像G1に含まれる複数の対象物Pのうち、他の対象物Pに対応付けられた第2領域が第1領域と重なりのない第1領域に対応付けられた対象物Pは、対象物P1である。
これにより、ロボット制御部364は、対象物P1〜対象物P7のうち、対象物P1をロボット20に把持させる。なお、ロボット制御部364は、他の対象物Pに対応付けられた第1領域と重なりのない第1領域に対応付けられた対象物Pと、他の対象物Pに対応付けられた第2領域が第1領域と重なりのない第1領域に対応付けられた対象物Pとのうち、少なくとも一方を満たす対象物Pをロボット20に把持させる構成であってもよい。
また、上述したように、この一例では、第2領域は、対象物Pの把持に関する領域である。ここで、第2領域が他の対象物Pの第1領域に重なる対象物Pは、ロボット20のエンドエフェクターEが対象物Pを把持する位置に他の対象物Pが存在する対象物Pである。ロボット20は、エンドエフェクターEが対象物Pを把持する位置に他の対象物Pが存在する場合、エンドエフェクターEや他の対象物Pが変形する場合がある。ロボット制御装置30は、上述の構成によって、エンドエフェクターEが対象物Pを把持する位置に他の対象物Pが存在しない対象物Pをロボット20に把持させることにより、エンドエフェクターEや対象物Pが変形することを抑制することができる。
以下、図を参照して本実施形態に係る変形例1について説明する。
図10は、第1対象物に対して指定される第1領域の具体例2の図である。
上述したように開発用PC601の操作者は、表示装置621に表示される画像G1に基づいて、画像G1に含まれる対象物Pのうち、第1対象物(この一例では、対象物P1)に対して第1領域を指定する。図10に示す通り、この一例では、第1領域は、長方形である。ここで、開発用PC601の操作者は、第1領域の位置及び大きさの他、第1領域の角度を指定してもよい。具体的には、操作者は、表示装置621に表示される画面2005に基づいて、第1対象物に指定した第1領域として上述した構成と同様に領域A11を指定し、プロパティー設定表示部2022に当該領域A11の角度(Angle)を指定する。この一例では、第1領域の角度の指定は、第1領域の中心と第1対象物の重心とが一致する位置であって、第1領域の長方形の長手方向と、第1対象物の直方体部分の長手方向とが平行である位置を基準位置とし、当該基準位置からの角度を指定する。なお、基準位置は、第1領域の中心と、第1対象物の重心とが一致する位置であって、画像Gの縦方向が第1領域の縦方向と平行、かつ画像Gの横方向が第1領域の横方向と平行である位置であってもよい。図10に示す通り、第1領域の角度の指定は、操作者が第1領域を所望の方向に回転させる操作を行うことによって指定してもよい。
図11に示す通り、画面2006には、上述した構成によって、画像G1に含まれる対象物P(この一例では、対象物P1〜対象物P2)には、図10に示す第1領域に対応する第1領域である領域A31〜領域A37が対応付けられる。
以下、図を参照して本実施形態に係る変形例2について説明する。
図12は、第1対象物に対して指定される第1領域の具体例3の図である。
上述したように開発用PC601の操作者は、表示装置621に表示される画像G1に基づいて、画像G1に含まれる対象物Pのうち、第1対象物(この一例では、対象物P1)に対して第1領域を指定する。図12に示す通り、この一例では、第1領域は、円形である。ここで、開発用PC601の操作者は、第1領域の位置及び大きさの他、第1領域の形状を指定してもよい。具体的には、操作者は、表示装置621に表示される画面2007に基づいて、第1対象物に指定した第1領域として領域A11を指定し、プロパティー設定表示部2022に当該領域A11の形状のタイプ(Type)をCircleとして指定する。第1領域の形状の指定は、指定する形状を示す情報を操作者が入力部IPに入力することによって指定する。
図13に示す通り、画面2008には、上述した構成によって、画像G1に含まれる対象物P(この一例では、対象物P1〜対象物P2)には、図12に示す第1領域に対応する第1領域である領域A31〜領域A37が対応付けられる。
以下、図を参照して本実施形態に係る変形例3について説明する。
図14は、第1対象物に対して指定される第1領域の具体例4の図である。
上述したように開発用PC601の操作者は、表示装置621に表示される画像G1に基づいて、画像G1に含まれる対象物Pのうち、第1対象物(この一例では、対象物P1)に対して第1領域を指定する。図14に示す通り、この一例では、第1領域は、第1対象物が内接する凸包である。具体的には、操作者は、表示装置621に表示される画面2009に基づいて、第1対象物に指定した第1領域として領域A11を指定し、プロパティー設定表示部2022に当該領域A11の形状のタイプ(Type)をConvexとして指定する。第1領域の形状の指定は、指定する形状を示す情報を操作者が入力部IPに入力することによって指定する。なお、操作者が第1対象物を含む適当な領域を指定すると、当該第1領域の形状が第1対象物に内接する凸包の形状に自動的に変換される構成であってもよい。
図15に示す通り、画面2010には、上述した構成によって、画像G1に含まれる対象物P(この一例では、対象物P1〜対象物P2)には、図14に示す第1領域に対応する第1領域である領域A31〜領域A37が対応付けられる。
図16は、本実施形態に係るロボットシステム1における各装置のハードウェア構成の一例を示す図である。なお、図16の例では、図1に示される表示装置DP、621とそのケーブルについては図示を省略してある。
図16には、カメラCRと、画像処理装置PUと、ロボット制御装置30と、ロボット20と、操作キー602と、開発用PC601と、カメラCRと画像処理装置PUとを通信可能に接続するケーブルと、画像処理装置PUとロボット制御装置30とを通信可能に接続するケーブルと、ロボット20とロボット制御装置30とを通信可能に接続するケーブルと、開発用PC601とロボット制御装置30とを通信可能に接続するケーブルと、操作キー602とロボット制御装置30とを通信可能に接続するケーブルを示してある。
4個のインターフェイス714、715、716、717は、それぞれ、ケーブルと接続される。
操作キー602は、ロボット制御装置30とは別体であり、ユーザーにより行われる操作を受け付ける。操作キー602は、例えば、処理の実行を指示するスイッチのキーなどを有してもよい。操作キー602は、I/O(Input/Output)の機器の一例である。
2個のインターフェイス(I/F)734、735は、それぞれ、ケーブル、ケーブルと接続される。
本実施形態では、ロボット20を動作させるためのプログラムを作成するときには、開発用PC601がロボット制御装置30と接続された状態とされる。但し、量産の段階などでは、開発用PC601がロボット制御装置30から外される場合がある。
開発用PC601は、画像処理装置PUに対して、画像Gを取得するように命令を出力し、これにより、画像Gを取得する。この命令は、開発用PC601と画像処理装置PUとの間で、ロボット制御装置30により中継される。また、当該画像Gは、カメラCRにより撮像される画像Gである。
開発用PC601は、取得された画像Gに基づいて、第1領域及び第2領域を設定する。この設定は、例えば、ユーザーにより行われてもよく、または、装置(例えば、開発用PC601)により自動的に行われてもよい。一例として、図5〜図8に示される画面2001〜2004を用いて、プロパティーの設定が行われてもよい。
開発用PC601は、第1領域及び第2領域の設定内容に基づいて、設定された条件が反映されたプログラムを作成して、当該プログラムをロボット制御装置30の記憶部113(例えば、ROM712)に記憶(保存)する。
ロボット制御装置30は、画像処理装置PUに対して、対応付処理の命令を出力する。これにより、画像処理装置PUにおいて、対応付処理が行われる。
画像処理装置PUは、対応付処理の結果の情報をロボット制御装置30に送信する。これにより、ロボット制御装置30は、画像処理装置PUから、対応付処理の結果の情報を取得する。
ロボット制御装置30は、取得された対応付処理の結果の情報に基づいて、ロボット20の動作を制御する。この際、ロボット制御装置30は、ロボット20に対して直接的な駆動信号を出力し、また、ロボット20からセンサーの検出結果の情報を取得して必要に応じてフィードバック制御などを行う。
本実施形態では、画像処理装置PUが所定の画像処理(本実施形態では、撮像画像に第1領域及び第2領域を指定する処理)を実行し、当該画像処理の結果の情報に基づいて開発用PC601が所定の処理の条件を設定し、ロボット制御装置30がロボット20による当該処理の実行を制御する。
ここで、画像処理装置PUにより行われる所定の画像処理の内容としては、本実施形態における画像処理の内容に限られず、例えば、本実施形態における画像処理の内容と比べて、少なくてもよく、多くてもよく、または、異なる内容であってもよい。この場合に、例えば、画像処理装置PUにより行われる処理については開発用PC601あるいはロボット制御装置30では行われなくてもよく、また、開発用PC601あるいはロボット制御装置30により行われる処理については画像処理装置PUでは行われなくてもよい。
また、本実施形態では、開発用PC601が開発時における処理の制御を行う構成としたが、他の構成例として、開発用PC601が有する機能のすべてまたは一部がロボット制御装置30あるいは画像処理装置PUに備えられてもよい。
つまり、開発用PC601により行われる処理と画像処理装置PUにより行われる処理とロボット制御装置30により行われる処理とを合わせた全体の処理において必要な処理が実行されれば、それぞれの装置(開発用PC601、画像処理装置PU、ロボット制御装置30)により行われる処理の分担は様々であってもよい。
一例として、ロボット制御装置30に画像処理装置PUの機能を一体化してもよく、つまり、ロボット制御装置30が画像処理装置PUの機能を含んでもよい。
なお、これらの画像(画面)が、補助的に、画像処理装置PUにより表示装置24の画面に表示されてもよい。
以下、図を参照して本実施形態に係る変形例4について説明する。
図17は、変形例4に係るロボットシステム2の構成の一例を示す図である。
変形例4では、ロボットシステム2が備えるロボット21は、単腕のロボットである。
ロボット21は、基端(支持台)B1と、マニピュレーターM1と、エンドエフェクターE1を備える。
なお、変形例4では、ロボット制御装置30は、ロボット21とは別体で設けられている。他の構成例として、ロボット制御装置30は、ロボット21と一体で設けられてもよく、例えば、ロボット21の基端B1の内部に設けられてもよい。
ロボット21のマニピュレーターM1の一端は、基端B1と接続されている。ロボット21のマニピュレーターM1の他端と、エンドエフェクターE1とが接続されている。
ロボット21のマニピュレーターM1は、6軸垂直多関節型の構造を有しており、6個の関節を備える。それぞれの関節は、アクチュエーター(図示せず)を備える。そして、ロボット21では、6個の関節のそれぞれのアクチュエーターの動作によって、6軸の自由度の動作を行う。他の構成例として、ロボットシステム2には、5軸以下の自由度で動作を行うロボット、または、7軸以上の自由度で動作を行うロボットが用いられてもよい。
ロボット21のエンドエフェクターE1は、例えば、ハンドであり、物体を把持することが可能な指部を備える。他の構成例として、ロボット21のエンドエフェクターE1は、任意のものであってもよく、例えば、空気の吸引を利用して物体を吸着するもの、磁力を利用して物体を寄せ付けるものなどであってもよい。
ロボット制御装置30は、ロボット20に対象物Pを把持させる制御と同様の制御をロボット21に行い、ロボット21に所定の作業を行わせる。
以下、図を参照して本実施形態に係る変形例5について説明する。
図18は、変形例5に係るロボットシステム3の構成の一例を示す図である。
変形例5では、ロボットシステム3が備えるロボット22は、双腕のロボットである。
ロボット22は、上部にある頭部と、中央部にある胴体部と、下部にある台部(台の部分)と、胴体部に設けられた腕部を備える。
ロボット22は、腕部として2本の腕を有する双腕のロボットである。
ロボット22は、他方の腕側の構成として、第2マニピュレーターM12と、第2エンドエフェクターE12を備える。
ここで、第1マニピュレーターM11、第2マニピュレーターM12は、7軸の自由度で動作する場合、6軸以下の自由度で動作する場合と比較して取り得る姿勢が増えることによって、例えば、動作が滑らかになり、当該第1マニピュレーターM11、第2マニピュレーターM12の周辺に存在する物体との干渉を容易に回避することができる。また、第1マニピュレーターM11、第2マニピュレーターM12が7軸の自由度で動作する場合、当該第1マニピュレーターM11、第2マニピュレーターM12の制御は、第1マニピュレーターM11、第2マニピュレーターM12が8軸以上の自由度で動作する場合と比較して計算量が少なく容易である。このような理由から、変形例5では、好ましい一例として、7軸の自由度で動作する第1マニピュレーターM11、第2マニピュレーターM12が用いられている。
また、変形例5では、胴体部は、腰の部分で、1軸の自由度で回転することが可能な構成である。
それぞれのカメラ(第1カメラ1031−1、第2カメラ1031−2、第3カメラ1051−1、第4カメラ1051−2)は、例えば、CCD(Charge Coupled Device)あるいはCMOS(Complementary Metal Oxide Semiconductor)等を用いたカメラである。
第1カメラ1031−1及び第2カメラ1031−2は、それぞれ、頭部の動きに応じて動かされる。
第3カメラ1051−1及び第4カメラ1051−2は、それぞれ、第1マニピュレーターM11及び第2マニピュレーターM12のそれぞれの動きに応じて動かされる。
ロボット制御装置30は、ロボット22の動作を制御する。ロボット制御装置30は、例えば、第1マニピュレーターM11及び第2マニピュレーターM12の動作を制御する。さらに、ロボット22の腰などの部分の動作が可能な構成では、ロボット制御装置30は当該腰などの部分の動作を制御する。
変形例5では、第1カメラ1031−1、第2カメラ1031−2、第3カメラ1051−1及び第4カメラ1051−2のそれぞれは、画像を撮像して、撮像された画像の情報をロボット制御装置30に送信(出力)する。
具体例として、ロボット制御装置30は、各マニピュレーター(第1マニピュレーターM11及び第2マニピュレーターM12)の動作を制御することで、各エンドエフェクター(第1エンドエフェクターE11及び第2エンドエフェクターE12)により物体を把持することが可能である。また、ロボット制御装置30は、各エンドエフェクターにより把持された物体を移動させること、各エンドエフェクターにより把持された物体を所定位置に載置して離す(把持を解除する)こと、各エンドエフェクターにより把持された物体を加工(例えば、穴開けなど)すること、なども可能である。
変形例5では、それぞれのエンドエフェクターE11、E12は、掌1091−1、1091−2及び爪(指)1092−1、1092−2を備える。
なお、変形例5では、例えば、カメラCRの代わりに、複数のカメラ1031−1〜1031−2、1051−1〜1051−2のうちの1個以上が用いられてもよい。
ロボット制御装置30は、ロボット20に対象物Pを把持させる制御と同様の制御をロボット22に行い、第1エンドエフェクターE11と、第2エンドエフェクターE12のうち、いずれか一方又は両方に対象物Pを把持させる。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
Claims (11)
- 取得した複数の対象物が撮像された画像に指定された領域であって、受け付けられた第1領域を示す第1領域情報と、前記第1領域とは異なる領域であって、前記第1領域に応じた第2領域を示す第2領域情報とに基づいて、他の前記対象物の前記第1領域と重ならない前記第2領域が指定された前記対象物をロボットに把持させ、他の前記対象物の前記第1領域と前記第2領域が重なる前記対象物をロボットに把持させない
ロボット制御装置。 - 前記第1領域情報に基づいて、他の前記対象物に指定された前記第1領域と重ならない前記第1領域が指定された前記対象物を前記ロボットに把持させ、他の前記対象物に指定された前記第1領域と重なる前記第1領域が指定された前記対象物を前記ロボットに把持させない
請求項1に記載のロボット制御装置。 - 前記第1領域が指定されたことに応じて前記第2領域が設定される
請求項1又は請求項2に記載のロボット制御装置。 - 前記第2領域は、
受け付けられた操作によって指定される
請求項1又は請求項2に記載のロボット制御装置。 - 前記第1領域情報及び前記第2領域情報に基づいて、前記複数の前記対象物のうちの少なくとも一部の前記対象物の前記画像に、前記第1領域に対応する第3領域と、前記第2領域に対応する第4領域とを設定し、
前記第1領域及び前記第3領域と、前記第1領域及び前記第4領域が設定された少なくとも一部の前記対象物を表示部に表示させる、
請求項1から請求項4のいずれか一項に記載のロボット制御装置。 - 前記第1領域情報が示す前記第1領域及び前記第2領域情報が示す前記第2領域と、前記対象物の前記画像とを表示部に表示させる、
請求項1から請求項5のいずれか一項に記載のロボット制御装置。 - 前記第1領域は、
前記対象物の輪郭の全体を含む領域であって、前記対象物の形状に基づく領域である、
請求項1から請求項6のいずれか一項に記載のロボット制御装置。 - 前記第1領域の形状は、凸包である、
請求項1から請求項7のいずれか一項に記載のロボット制御装置。 - 前記第2領域は、
前記ロボットによる前記対象物の把持に関する領域である、
請求項1から請求項8のいずれか一項に記載のロボット制御装置。 - 請求項1から請求項9のうちいずれか一項に記載のロボット制御装置の制御に基づいて動作する、
ロボット。 - 請求項1から請求項9のうちいずれか一項に記載のロボット制御装置と、
請求項10に記載のロボットと、
を備えるロボットシステム。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016168976A JP2018034242A (ja) | 2016-08-31 | 2016-08-31 | ロボット制御装置、ロボット、及びロボットシステム |
| CN201710753842.8A CN107791245A (zh) | 2016-08-31 | 2017-08-28 | 机器人控制装置、机器人以及机器人系统 |
| US15/689,439 US10618181B2 (en) | 2016-08-31 | 2017-08-29 | Robot control device, robot, and robot system |
| EP17188748.2A EP3290165A3 (en) | 2016-08-31 | 2017-08-31 | Robot control device, robot, and robot system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016168976A JP2018034242A (ja) | 2016-08-31 | 2016-08-31 | ロボット制御装置、ロボット、及びロボットシステム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018034242A true JP2018034242A (ja) | 2018-03-08 |
| JP2018034242A5 JP2018034242A5 (ja) | 2019-07-18 |
Family
ID=59761783
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016168976A Withdrawn JP2018034242A (ja) | 2016-08-31 | 2016-08-31 | ロボット制御装置、ロボット、及びロボットシステム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US10618181B2 (ja) |
| EP (1) | EP3290165A3 (ja) |
| JP (1) | JP2018034242A (ja) |
| CN (1) | CN107791245A (ja) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019209459A (ja) * | 2018-06-08 | 2019-12-12 | ファナック株式会社 | ロボットシステムおよびロボットシステムの制御方法 |
| US10596707B2 (en) | 2017-08-03 | 2020-03-24 | Fanuc Corporation | Article transfer device |
| JP2020199625A (ja) * | 2019-06-13 | 2020-12-17 | ファナック株式会社 | シミュレーション装置 |
| JP2021024027A (ja) * | 2019-08-05 | 2021-02-22 | ファナック株式会社 | ワーク選定及びロボット作業を同時に行うロボット制御システム |
Families Citing this family (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6889574B2 (ja) * | 2017-03-03 | 2021-06-18 | 株式会社キーエンス | ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
| US10471591B1 (en) * | 2018-06-01 | 2019-11-12 | X Development Llc | Object hand-over between robot and actor |
| JP7143410B2 (ja) | 2018-06-14 | 2022-09-28 | ヤマハ発動機株式会社 | ロボットシステム |
| CN110893999A (zh) * | 2018-09-12 | 2020-03-20 | 泰科电子(上海)有限公司 | 图像采集系统和图像采集方法 |
| JP7097799B2 (ja) | 2018-11-21 | 2022-07-08 | Thk株式会社 | 画像情報処理装置、把持システム、および画像情報処理方法 |
| EP3919240A4 (en) * | 2019-01-30 | 2022-01-19 | Fuji Corporation | DEVICE FOR GENERATING WORKING COORDINATES |
| CN114025889B (zh) * | 2019-05-24 | 2024-03-08 | 代尔夫特科技大学 | 从表面上拾取物体的装置和方法 |
| NL2023190B1 (nl) * | 2019-05-24 | 2020-12-02 | Univ Delft Tech | Werkwijze en inrichting voor het vanaf een vlak uitnemen van objecten |
| JP7328017B2 (ja) * | 2019-06-11 | 2023-08-16 | ファナック株式会社 | ロボットシステム及び制御装置 |
| US11795012B1 (en) * | 2020-11-06 | 2023-10-24 | Aaron Thomas Bacon | Multi-gripper system |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6134675A (ja) * | 1984-07-27 | 1986-02-18 | Hitachi Ltd | 画像認識方法および装置 |
| JPS6154556B2 (ja) * | 1981-10-28 | 1986-11-22 | Fujitsu Ltd | |
| US5040056A (en) * | 1990-01-29 | 1991-08-13 | Technistar Corporation | Automated system for locating and transferring objects on a conveyor belt |
| JP2013097514A (ja) * | 2011-10-31 | 2013-05-20 | Omron Corp | 画像処理装置および画像処理プログラム |
| JP2013184257A (ja) * | 2012-03-08 | 2013-09-19 | Sony Corp | ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム |
Family Cites Families (39)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3451749B2 (ja) | 1994-10-14 | 2003-09-29 | ダイキン工業株式会社 | リング状ワーク供給方法およびその装置 |
| JP3300682B2 (ja) * | 1999-04-08 | 2002-07-08 | ファナック株式会社 | 画像処理機能を持つロボット装置 |
| JP4303411B2 (ja) | 2000-10-06 | 2009-07-29 | セイコーインスツル株式会社 | トラッキング方法、及びトラッキングシステム |
| JP3930490B2 (ja) * | 2004-04-23 | 2007-06-13 | ファナック株式会社 | 物品取出し装置 |
| JP3876260B2 (ja) * | 2004-09-16 | 2007-01-31 | ファナック株式会社 | 物品供給装置 |
| JP4835616B2 (ja) * | 2008-03-10 | 2011-12-14 | トヨタ自動車株式会社 | 動作教示システム及び動作教示方法 |
| SI2190604T1 (sl) * | 2008-03-12 | 2011-05-31 | Schuler Automation Gmbh & Co | Naprava in postopek za položajno usmerjanje ploščastih delov |
| US8559699B2 (en) * | 2008-10-10 | 2013-10-15 | Roboticvisiontech Llc | Methods and apparatus to facilitate operations in image based systems |
| JP4938115B2 (ja) * | 2010-07-27 | 2012-05-23 | ファナック株式会社 | ワーク取出し装置およびワーク取出し方法 |
| JP5685027B2 (ja) * | 2010-09-07 | 2015-03-18 | キヤノン株式会社 | 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム |
| FI20106090A0 (fi) * | 2010-10-21 | 2010-10-21 | Zenrobotics Oy | Menetelmä kohdeobjektin kuvien suodattamiseksi robottijärjestelmässä |
| JP5558585B2 (ja) | 2010-11-17 | 2014-07-23 | 三菱電機株式会社 | ワーク取り出し装置 |
| JP5767464B2 (ja) * | 2010-12-15 | 2015-08-19 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
| FI20106387L (fi) * | 2010-12-30 | 2012-07-01 | Zenrobotics Oy | Menetelmä, tietokoneohjelma ja laite tartuntakohdan määrittämiseksi |
| JP5266377B2 (ja) * | 2011-12-19 | 2013-08-21 | ファナック株式会社 | 物品の姿勢を修正する機能を備えた取出し装置 |
| US9014857B2 (en) * | 2012-01-13 | 2015-04-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Methods and computer-program products for generating grasp patterns for use by a robot |
| JP5975685B2 (ja) * | 2012-03-09 | 2016-08-23 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
| JP5977544B2 (ja) * | 2012-03-09 | 2016-08-24 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
| JP2013184273A (ja) * | 2012-03-09 | 2013-09-19 | Sony Corp | ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム |
| JP6323993B2 (ja) * | 2012-08-28 | 2018-05-16 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びコンピュータプログラム |
| JP5642759B2 (ja) * | 2012-10-31 | 2014-12-17 | ファナック株式会社 | 物品取出装置及び物品取出方法 |
| US9227323B1 (en) * | 2013-03-15 | 2016-01-05 | Google Inc. | Methods and systems for recognizing machine-readable information on three-dimensional objects |
| JP6415026B2 (ja) * | 2013-06-28 | 2018-10-31 | キヤノン株式会社 | 干渉判定装置、干渉判定方法、コンピュータプログラム |
| JP2015089590A (ja) * | 2013-11-05 | 2015-05-11 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置及び方法 |
| JP5788460B2 (ja) * | 2013-11-05 | 2015-09-30 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置及び方法 |
| JP5788461B2 (ja) * | 2013-11-05 | 2015-09-30 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置及び方法 |
| JP2015147256A (ja) * | 2014-02-04 | 2015-08-20 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置、及び制御方法 |
| US9259844B2 (en) * | 2014-02-12 | 2016-02-16 | General Electric Company | Vision-guided electromagnetic robotic system |
| JP5824173B1 (ja) * | 2014-02-28 | 2015-11-25 | ファナック株式会社 | ロボットを用いて物品を整列させる物品整列装置及び物品整列方法、並びに物品整列装置を備えた物品移送システム |
| US9272417B2 (en) * | 2014-07-16 | 2016-03-01 | Google Inc. | Real-time determination of object metrics for trajectory planning |
| JP6415190B2 (ja) * | 2014-09-03 | 2018-10-31 | キヤノン株式会社 | ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法 |
| JP6140204B2 (ja) * | 2015-02-06 | 2017-05-31 | ファナック株式会社 | 3次元センサを備えた搬送ロボットシステム |
| JP6576050B2 (ja) * | 2015-02-27 | 2019-09-18 | キヤノン株式会社 | 物体移動方法及びシステム |
| JP6548422B2 (ja) * | 2015-03-27 | 2019-07-24 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
| US9120622B1 (en) * | 2015-04-16 | 2015-09-01 | inVia Robotics, LLC | Autonomous order fulfillment and inventory control robots |
| US10335951B2 (en) * | 2015-07-29 | 2019-07-02 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, robot control apparatus, and robot system |
| JP6639181B2 (ja) * | 2015-10-13 | 2020-02-05 | キヤノン株式会社 | 撮像装置、生産システム、撮像方法、プログラム及び記録媒体 |
| US10245724B2 (en) * | 2016-06-09 | 2019-04-02 | Shmuel Ur Innovation Ltd. | System, method and product for utilizing prediction models of an environment |
| US10933533B2 (en) * | 2017-06-23 | 2021-03-02 | Kindred Systems Inc. | Systems, devices, articles, and methods for stow verification |
-
2016
- 2016-08-31 JP JP2016168976A patent/JP2018034242A/ja not_active Withdrawn
-
2017
- 2017-08-28 CN CN201710753842.8A patent/CN107791245A/zh active Pending
- 2017-08-29 US US15/689,439 patent/US10618181B2/en active Active
- 2017-08-31 EP EP17188748.2A patent/EP3290165A3/en not_active Withdrawn
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6154556B2 (ja) * | 1981-10-28 | 1986-11-22 | Fujitsu Ltd | |
| JPS6134675A (ja) * | 1984-07-27 | 1986-02-18 | Hitachi Ltd | 画像認識方法および装置 |
| US5040056A (en) * | 1990-01-29 | 1991-08-13 | Technistar Corporation | Automated system for locating and transferring objects on a conveyor belt |
| JP2013097514A (ja) * | 2011-10-31 | 2013-05-20 | Omron Corp | 画像処理装置および画像処理プログラム |
| JP2013184257A (ja) * | 2012-03-08 | 2013-09-19 | Sony Corp | ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10596707B2 (en) | 2017-08-03 | 2020-03-24 | Fanuc Corporation | Article transfer device |
| JP2019209459A (ja) * | 2018-06-08 | 2019-12-12 | ファナック株式会社 | ロボットシステムおよびロボットシステムの制御方法 |
| JP2020199625A (ja) * | 2019-06-13 | 2020-12-17 | ファナック株式会社 | シミュレーション装置 |
| JP2021024027A (ja) * | 2019-08-05 | 2021-02-22 | ファナック株式会社 | ワーク選定及びロボット作業を同時に行うロボット制御システム |
| US11660757B2 (en) | 2019-08-05 | 2023-05-30 | Fanuc Corporation | Robot control system simultaneously performing workpiece selection and robot task |
| JP7343329B2 (ja) | 2019-08-05 | 2023-09-12 | ファナック株式会社 | ワーク選定及びロボット作業を同時に行うロボット制御システム |
| DE102020119944B4 (de) | 2019-08-05 | 2025-04-17 | Fanuc Corporation | Robotersteuersystem, das die werkstückwahl und die robotertätigkeitgleichzeitig vornimmt |
Also Published As
| Publication number | Publication date |
|---|---|
| US20180056523A1 (en) | 2018-03-01 |
| CN107791245A (zh) | 2018-03-13 |
| EP3290165A3 (en) | 2018-04-04 |
| EP3290165A2 (en) | 2018-03-07 |
| US10618181B2 (en) | 2020-04-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2018034242A (ja) | ロボット制御装置、ロボット、及びロボットシステム | |
| CN113056351B (zh) | 外部输入设备、机器人系统、其控制方法及记录介质 | |
| CN107414842B (zh) | 控制装置、机器人以及机器人系统 | |
| US10589424B2 (en) | Robot control device, robot, and robot system | |
| CN105269578B (zh) | 指示装置以及机器人系统 | |
| JP6450960B2 (ja) | ロボット、ロボットシステム及び教示方法 | |
| US11197730B2 (en) | Manipulator system | |
| US20210187727A1 (en) | Robot hand, robot and robot system | |
| US20180194009A1 (en) | Robot control device and robotic system | |
| JP2017071018A (ja) | ロボットシステム、ロボット、及びロボット制御装置 | |
| CN111515943A (zh) | 三维形状测量系统以及三维形状测量方法 | |
| JP2017170571A (ja) | ロボット、ロボット制御装置、及びロボットシステム | |
| JP2019025578A (ja) | 制御装置、ロボットシステムおよび制御方法 | |
| US20180085920A1 (en) | Robot control device, robot, and robot system | |
| US20180056517A1 (en) | Robot, robot control device, and robot system | |
| JP2017205819A (ja) | ロボット、制御装置、及びロボットシステム | |
| JP6706777B2 (ja) | 制御装置、ロボット、及びロボットシステム | |
| JP2019111588A (ja) | ロボットシステム、情報処理装置、及びプログラム | |
| JP2020163499A (ja) | 物体検出方法、物体検出装置およびロボットシステム | |
| JP6958091B2 (ja) | ロボットシステム、及びロボット制御方法 | |
| JP2016013590A (ja) | 教示装置、及びロボットシステム | |
| JP2017100197A (ja) | ロボット、及び制御方法 | |
| CN111113373B (zh) | 控制装置、机器人系统及控制方法 | |
| JP2019115950A (ja) | ロボット制御装置、ロボットおよびロボットシステム | |
| JP2018051689A (ja) | ロボット、ロボット制御装置、ロボットシステム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20180910 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190402 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190613 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190613 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200421 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200507 |
|
| A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20200706 |