JP2018179859A - Image processing apparatus, image processing method, and computer program - Google Patents
Image processing apparatus, image processing method, and computer program Download PDFInfo
- Publication number
- JP2018179859A JP2018179859A JP2017082365A JP2017082365A JP2018179859A JP 2018179859 A JP2018179859 A JP 2018179859A JP 2017082365 A JP2017082365 A JP 2017082365A JP 2017082365 A JP2017082365 A JP 2017082365A JP 2018179859 A JP2018179859 A JP 2018179859A
- Authority
- JP
- Japan
- Prior art keywords
- data
- gripping
- workpiece
- work
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】バラ積み状態のワークであっても、事前に登録された位置での把持の成否に関する統計データに基づいて、3Dピッキングにおけるマニピュレータによるピッキング動作を制御する画像処理装置、画像処理方法及びコンピュータプログラムを提供する。【解決手段】バラ積みされたワークが搭載されている作業空間を三次元計測し、事前に記憶されている複数のワークモデルを登録する。把持される位置及び姿勢で構成される把持データを設定し、把持データごとに把持の成否に関する統計データを記憶する。取得した三次元計測データに対し、登録された複数のワークモデルを用いてワークの位置及び姿勢を特定する三次元サーチ処理を実行し、検出スコアが大きいワークについて、他のワークと干渉するか否かを判定する。他のワークと干渉しないと判定された把持データの中から、統計データにおける把持の成功率に基づいて把持データを選択してピキング動作を制御する。【選択図】図4PROBLEM TO BE SOLVED: To control an image processing apparatus, an image processing method and a computer for controlling a picking operation by a manipulator in 3D picking based on statistical data regarding success or failure of gripping at a position registered in advance even if the workpieces are stacked in bulk. Provide a program. SOLUTION: A work space in which bulk-loaded workpieces are mounted is three-dimensionally measured, and a plurality of work models stored in advance are registered. The gripping data composed of the gripped position and the posture is set, and the statistical data regarding the success or failure of the gripping is stored for each gripping data. For the acquired 3D measurement data, a 3D search process is executed to specify the position and orientation of the work using a plurality of registered work models, and whether or not the work with a large detection score interferes with other works. Is determined. The picking operation is controlled by selecting the gripping data based on the gripping success rate in the statistical data from the gripping data determined not to interfere with other workpieces. [Selection diagram] Fig. 4
Description
本発明は、バラ積み状態のワークであっても、事前に登録された位置での把持の成否に関する統計データに基づいて、3Dピッキングにおけるマニピュレータによるピッキング動作を制御する画像処理装置、画像処理方法、及びコンピュータプログラムに関する。 The present invention is an image processing apparatus and an image processing method for controlling picking operation by a manipulator in 3D picking based on statistical data on success or failure of gripping at a position registered in advance even in a work in a bulk state. And a computer program.
工場において、マニピュレータによるピッキング動作を自動的に行うことができるように、3Dピッキングの技術が向上している。3Dピッキングでは、まずピッキング対象のワークがばら積みされた作業空間を三次元計測センサにより三次元計測して三次元計測データを取得する。次に画像処理装置を用いて三次元計測データの中からあらかじめ登録されているワークモデルを用いた三次元サーチ処理を実行し、ワークの位置及び姿勢を検出する。位置及び姿勢が検出されたワークに対し、あらかじめ登録された把持データを用いてマニピュレータにより把持すべきワーク上の位置と把持すべきワーク上の位置を把持する場合のマニピュレータの把持姿勢を決定し、ロボットコントローラが実際にマニピュレータを動作させる、あるいは画像処理装置のシミュレータの3D−CAD上でマニピュレータの把持部を移動させる。このようにマニピュレータの把持部をワークを把持することが可能な位置へと誘導し、ワークとマニピュレータの把持部との位置関係を検出して登録しておく。これにより、マニピュレータの把持部をワークを把持することが可能な位置へと確実に移動制御することができる。 In the factory, 3D picking technology has been improved so that picking operations can be performed automatically by manipulators. In 3D picking, first, a work space in which workpieces to be picked are bulk-laminated is three-dimensionally measured by a three-dimensional measurement sensor to acquire three-dimensional measurement data. Next, using an image processing apparatus, a three-dimensional search process using a workpiece model registered in advance from among three-dimensional measurement data is executed to detect the position and orientation of the workpiece. With respect to the workpiece whose position and orientation have been detected, the gripping position of the manipulator for gripping the position on the workpiece to be gripped by the manipulator and the position on the workpiece to be gripped is determined using the previously registered gripping data, The robot controller actually operates the manipulator or moves the gripper of the manipulator on 3D-CAD of the simulator of the image processing apparatus. As described above, the gripping portion of the manipulator is guided to a position where the workpiece can be gripped, and the positional relationship between the workpiece and the gripping portion of the manipulator is detected and registered. As a result, movement control of the gripping portion of the manipulator can be reliably performed to a position at which the workpiece can be gripped.
しかし、100%確実にワークを把持できるものではなく、状況によっては把持することができない場合も生じうる。したがって、少しでもワークを把持することができる確率を高めるために、マニピュレータ及び把持部の動作制御に過去の把持の成否に関する統計データを用いることが考えられている。 However, the workpiece can not be gripped 100% reliably, and in some circumstances it may not be possible to grip the workpiece. Therefore, it is considered to use statistical data on success or failure of past gripping for controlling the operation of the manipulator and the gripping unit in order to increase the probability that the workpiece can be gripped even a little.
例えば特許文献1では、過去のワーク取り出しの成否をデータベース化し、計測特徴と取り出しの成否に関する情報に基づいて掴みやすさを推定し、掴みやすい計測特徴を優先して掴むよう制御するワーク取り出し装置が開示されている。特許文献1では、ハンドの開閉量、把持力、動作速度のうち、少なくとも1つを自動調整し、掴みにくそうなワークを取り出すこともできる。 For example, in Patent Document 1, a work taking-out apparatus is put in the form of a database of the success or failure of the past work taking out, and the ease of grasping is estimated based on the measurement feature and information regarding the success or failure of taking out. It is disclosed. According to Patent Document 1, at least one of an open / close amount of a hand, a gripping force, and an operation speed can be automatically adjusted to take out a work that may be difficult to grasp.
しかし、特許文献1に開示されている方法では、ワーク単位にデータベース化された情報に基づいて掴みやすいワークを取り出すよう動作を制御しているので、同一のワークで複数の把持可能部位がある場合に、どの位置を把持するかを変更することができないという問題点があった。また、把持可能な部位の把持優先順位を統計的な情報に基づいて変更することもできない。 However, in the method disclosed in Patent Document 1, since the operation is controlled so as to take out a workpiece that is easy to grasp based on the information made into a database in work units, when there are a plurality of grippable parts in the same workpiece However, there is a problem that it is impossible to change which position to hold. In addition, it is not possible to change the gripping priority of the grippable part based on statistical information.
本発明は斯かる事情に鑑みてなされたものであり、バラ積み状態のワークであっても、事前に登録された位置での把持の成否に関する統計データに基づいて、3Dピッキングにおけるマニピュレータによるピッキング動作を制御するためのロボットコントローラに接続される画像処理装置、画像処理方法、及びコンピュータプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and the picking operation by the manipulator in 3D picking is based on statistical data on success or failure of gripping at a position registered in advance even if the work is in a bulk state. It is an object of the present invention to provide an image processing apparatus connected to a robot controller for controlling the image processing apparatus, an image processing method, and a computer program.
上記目的を達成するために第1発明に係る画像処理装置は、バラ積みされたワークをマニピュレータの把持部で把持し、把持されたワークを所定位置まで移動させるピッキング動作を制御するためのロボットコントローラに接続される画像処理装置において、バラ積みされたワークが搭載されている作業空間を三次元計測して、三次元計測データを取得するセンシング部と、事前に記憶されている複数のワークモデルを登録するワークモデル登録部と、前記ワークモデルのモデル座標系に対して、相対的な位置データとして、把持される位置及び該位置において把持する前記マニピュレータの前記把持部の姿勢で構成される把持データを設定する把持データ設定部と、前記把持データごとにワークの把持の成否に関する統計データを記憶する統計データ記憶部と、三次元計測により取得した三次元計測データに対して、登録された複数のワークモデルを用いてワークの位置及び姿勢を特定する三次元サーチ処理を実行するサーチ処理実行部と、三次元サーチ処理の結果として出力される検出スコアが所定の閾値より大きいワークについて、他のワークと干渉するか否かを判定する干渉判定部と、他のワークと干渉しないと判定された把持データの中から、前記統計データにおける把持の成功率に基づいて把持データを選択する把持データ選択部とを備えることを特徴とする。 In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention is a robot controller for controlling picking operations for gripping workpieces stacked in bulk with a gripper of a manipulator and moving the gripping workpieces to a predetermined position In the image processing apparatus connected to the three-dimensional measurement of the work space in which the workpieces loaded in bulk are mounted to obtain a three-dimensional measurement data, and a plurality of work models stored in advance Grasping data composed of a workpiece model registration unit to be registered and a position to be gripped and a posture of the gripping unit of the manipulator to be gripped at the position as relative position data with respect to a model coordinate system of the workpiece model And storing statistical data on success or failure of gripping of the workpiece for each of the gripping data. A measurement data storage unit, and a search process execution unit that executes a three-dimensional search process that specifies the position and orientation of a workpiece using a plurality of registered workpiece models on three-dimensional measurement data acquired by three-dimensional measurement; An interference determination unit that determines whether or not a workpiece whose detection score output as a result of the three-dimensional search processing is larger than a predetermined threshold interferes with another workpiece, and a grip determined not to interfere with the other workpiece The data processing apparatus is characterized by further comprising a gripping data selection unit that selects gripping data based on a success rate of gripping in the statistical data among the data.
また、第2発明に係る画像処理装置は、第1発明において、前記センシング部は、前記作業空間内のワークを撮像して画像データを取得するワーク撮像部と、撮像して取得された画像データに基づいて、前記三次元サーチ処理の対象となる前記作業空間内におけるワークの三次元データを三次元計測データとして抽出する三次元データ抽出部とを備えることが好ましい。 Further, in the image processing apparatus according to the second invention, in the first invention, the sensing unit captures a workpiece in the work space to obtain image data, and the image data captured and acquired It is preferable to provide a three-dimensional data extraction unit that extracts three-dimensional data of a work in the work space to be subjected to the three-dimensional search processing as three-dimensional measurement data based on the above.
また、第3発明に係る画像処理装置は、第1又は第2発明において、前記統計データ記憶部は、ワークが検出された部分領域ごとのワークの把持の成否に関する統計データを記憶し、前記把持データ選択部は、前記干渉判定部で干渉しないと判定された把持データのうち、前記統計データにおいて把持の成功率の最も高い部分領域に存在するワークに対応する把持データを選択することが好ましい。 Further, in the image processing apparatus according to the third invention, in the first or second invention, the statistical data storage unit stores statistical data regarding success or failure of gripping of the workpiece for each partial area where the workpiece is detected, and the gripping Preferably, the data selection unit selects, from among the grip data determined to not cause interference in the interference determination unit, grip data corresponding to a workpiece present in a partial region with the highest success rate of gripping in the statistical data.
また、第4発明に係る画像処理装置は、第1乃至第3発明のいずれか1つにおいて、前記統計データ記憶部は、前記統計データに把持データの選択回数も含めて記憶し、前記干渉判定部は、前記統計データにおいて選択回数の多い把持データから順に干渉判定を行うことが好ましい。 In the image processing apparatus according to the fourth invention, in any one of the first to third inventions, the statistical data storage unit stores the statistical data including the number of times of selection of gripping data, and the interference determination It is preferable that the unit performs the interference determination in order from the grip data having a large number of selections in the statistical data.
次に、上記目的を達成するために第5発明に係る画像処理方法は、バラ積みされたワークをマニピュレータの把持部で把持し、把持されたワークを所定位置まで移動させるピッキング動作を制御するためのロボットコントローラに接続される画像処理装置で実行することが可能な画像処理方法において、前記画像処理装置は、バラ積みされたワークが搭載されている作業空間を三次元計測して、三次元計測データを取得する第一の工程と、事前に記憶されている複数のワークモデルを登録する第二の工程と、前記ワークモデルのモデル座標系に対して、相対的な位置データとして、把持される位置及び該位置において把持する前記マニピュレータの前記把持部の姿勢で構成される把持データを設定する第三の工程と、前記把持データごとにワークの把持の成否に関する統計データを記憶する第四の工程と、三次元計測により取得した三次元計測データに対して、登録された複数のワークモデルを用いてワークの位置及び姿勢を特定する三次元サーチ処理を実行する第五の工程と、三次元サーチ処理の結果として出力される検出スコアが所定の閾値より大きいワークについて、他のワークと干渉するか否かを判定する第六の工程と、他のワークと干渉しないと判定された把持データの中から、前記統計データにおける把持の成功率に基づいて把持データを選択する第七の工程とを含むことを特徴とする。 Next, in order to achieve the above object, in the image processing method according to the fifth aspect of the present invention, a picking operation is performed in which workpieces stacked in bulk are gripped by the gripping portion of the manipulator and the griped workpieces are moved to a predetermined position. In the image processing method that can be executed by an image processing apparatus connected to the robot controller, the image processing apparatus three-dimensionally measures a work space in which work pieces stacked in bulk are mounted to perform three-dimensional measurement. The first step of acquiring data, the second step of registering a plurality of workpiece models stored in advance, and gripping as relative position data with respect to the model coordinate system of the workpiece model A third step of setting gripping data composed of the position and the posture of the gripping portion of the manipulator gripping at the position; The fourth step of storing statistical data on the success or failure of grasping of the workpiece, and the third order of specifying the position and posture of the workpiece using a plurality of registered workpiece models for the three-dimensional measurement data acquired by three-dimensional measurement A fifth step of executing an original search process, and a sixth step of determining whether or not a workpiece whose detection score output as a result of the three-dimensional search process is larger than a predetermined threshold interferes with another workpiece And a seventh step of selecting gripping data based on a gripping success rate in the statistical data from among gripping data determined not to interfere with another workpiece.
また、第6発明に係る画像処理方法は、第5発明において、前記第一の工程は、前記作業空間内のワークを撮像して画像データを取得する第八の工程と、撮像して取得された画像データに基づいて、前記三次元サーチ処理の対象となる前記作業空間内におけるワークの三次元データを三次元計測データとして抽出する第九の工程とを含むことが好ましい。 The image processing method according to the sixth aspect of the present invention is the image processing method according to the fifth aspect, wherein the first step is an eighth step of capturing an image of a workpiece in the work space to obtain image data. It is preferable to include a ninth step of extracting, as three-dimensional measurement data, three-dimensional data of a work in the work space to be subjected to the three-dimensional search processing based on the image data.
また、第7発明に係る画像処理方法は、第5又は第6発明において、前記第四の工程は、ワークが検出された部分領域ごとのワークの把持の成否に関する統計データを記憶し、前記第七の工程は、前記第六の工程で干渉しないと判定された把持データのうち、前記統計データにおいて把持の成功率の最も高い部分領域に存在するワークに対応する把持データを選択することが好ましい。 In the image processing method according to the seventh invention, in the fifth or sixth invention, the fourth step stores statistical data regarding success or failure of gripping of the workpiece for each partial area where the workpiece is detected; In the seventh process, it is preferable to select the gripping data corresponding to the workpiece present in the partial region having the highest gripping success rate in the statistical data among the gripping data determined not to interfere in the sixth step. .
また、第8発明に係る画像処理方法は、第5乃至第7発明のいずれか1つにおいて、前記第四の工程は、前記統計データに把持データの選択回数も含めて記憶し、前記第六の工程は、前記統計データにおいて選択回数の多い把持データから順に干渉判定を行うことが好ましい。 In the image processing method according to the eighth invention, in any one of the fifth to seventh inventions, the fourth step stores the statistical data including the number of times of selection of gripping data, and the sixth step It is preferable that in the process of 3, the interference determination is performed in order from the grip data having a large number of selections in the statistical data.
次に、上記目的を達成するために第9発明に係るコンピュータプログラムは、バラ積みされたワークをマニピュレータの把持部で把持し、把持されたワークを所定位置まで移動させるピッキング動作を制御するためのロボットコントローラに接続される画像処理装置で実行することが可能なコンピュータプログラムにおいて、前記画像処理装置を、バラ積みされたワークが搭載されている作業空間を三次元計測して、三次元計測データを取得するセンシング手段、事前に記憶されている複数のワークモデルを登録するワークモデル登録手段、前記ワークモデルのモデル座標系に対して、相対的な位置データとして、把持される位置及び該位置において把持する前記マニピュレータの前記把持部の姿勢で構成される把持データを設定する把持データ設定手段、前記把持データごとにワークの把持の成否に関する統計データを記憶する統計データ記憶手段、三次元計測により取得した三次元計測データに対して、登録された複数のワークモデルを用いてワークの位置及び姿勢を特定する三次元サーチ処理を実行するサーチ処理実行手段、三次元サーチ処理の結果として出力される検出スコアが所定の閾値より大きいワークについて、他のワークと干渉するか否かを判定する干渉判定手段、及び他のワークと干渉しないと判定された把持データの中から、前記統計データにおける把持の成功率に基づいて把持データを選択する把持データ選択手段として機能させることを特徴とする。 Next, in order to achieve the above object, a computer program according to a ninth aspect of the present invention is for controlling a picking operation of gripping workpieces stacked in bulk by a gripping portion of a manipulator and moving the gripping workpieces to a predetermined position. In a computer program that can be executed by an image processing apparatus connected to a robot controller, the image processing apparatus performs three-dimensional measurement on a work space in which workpieces stacked in bulk are mounted to obtain three-dimensional measurement data. The sensing means to be acquired, the work model registration means for registering a plurality of work models stored in advance, the position to be held and the position held as relative position data with respect to the model coordinate system of the work model For setting the grip data composed of the posture of the grip portion of the manipulator Setting means, statistical data storage means for storing statistical data on success or failure of gripping of the workpiece for each gripping data, and using a plurality of workpiece models registered for three-dimensional measurement data acquired by three-dimensional measurement Search process execution means for executing a three-dimensional search process that specifies the position and orientation of the subject, whether or not a workpiece whose detection score output as a result of the three-dimensional search process is larger than a predetermined threshold interferes with other workpieces It is characterized in that it functions as a grip data selection means for selecting grip data based on a success rate of gripping in the statistical data among interference determination means to be determined and grip data determined to not interfere with other work. Do.
また、第10発明に係るコンピュータプログラムは、第9発明において、前記センシング手段を、前記作業空間内のワークを撮像して画像データを取得するワーク撮像手段、及び撮像して取得された画像データに基づいて、前記三次元サーチ処理の対象となる前記作業空間内におけるワークの三次元データを三次元計測データとして抽出する三次元データ抽出手段として機能させることが好ましい。 A computer program according to the tenth invention is the computer program according to the ninth invention, wherein the sensing means is a work imaging means for imaging a workpiece in the work space to acquire image data, and image data acquired by imaging. It is preferable to function as three-dimensional data extraction means for extracting three-dimensional data of a work in the work space to be subjected to the three-dimensional search process as three-dimensional measurement data.
また、第11発明に係るコンピュータプログラムは、第9又は第10発明において、前記統計データ記憶手段を、ワークが検出された部分領域ごとのワークの把持の成否に関する統計データを記憶する手段として機能させ、前記把持データ選択手段を、前記干渉判定手段で干渉しないと判定された把持データのうち、前記統計データにおいて把持の成功率の最も高い部分領域に存在するワークに対応する把持データを選択する手段として機能させることが好ましい。 A computer program according to an eleventh aspect of the present invention is the computer program according to the ninth or tenth aspect, wherein the statistical data storage means functions as a means for storing statistical data regarding success or failure of gripping of a workpiece for each partial area where the workpiece is detected. Means for selecting the gripping data corresponding to the work existing in the partial region having the highest success rate of gripping in the statistical data among the gripping data determined by the interference determining means not to cause interference by the gripping data selecting means It is preferable to function as
また、第12発明に係るコンピュータプログラムは、第9乃至第11発明のいずれか1つにおいて、前記統計データ記憶手段を、前記統計データに把持データの選択回数も含めて記憶する手段として機能させ、前記干渉判断手段を、前記統計データにおいて選択回数の多い把持データから順に干渉判定を行う手段として機能させることが好ましい。 A computer program according to a twelfth aspect of the present invention is the computer program according to any one of the ninth to eleventh aspects, wherein the statistical data storage means functions as means for storing the statistical data including the number of times of selection of grip data. It is preferable to cause the interference determination unit to function as a unit that performs the interference determination in order from the grip data having a large number of selections in the statistical data.
第1発明、第5発明及び第9発明では、画像処理装置は、バラ積みされたワークが搭載されている作業空間を三次元計測して、三次元計測データを取得する。事前に記憶されている複数のワークモデルを登録しておき、ワークモデルのモデル座標系に対して、相対的な位置データとして、把持される位置及び該位置において把持するマニピュレータの把持部の姿勢で構成される把持データを設定する。把持データごとにワークの把持の成否に関する統計データを記憶し、三次元計測により取得した三次元計測データに対して、登録された複数のワークモデルを用いてワークの位置及び姿勢を特定する三次元サーチ処理を実行する。三次元サーチ処理の結果として出力される検出スコアが所定の閾値より大きいワークについて、他のワークと干渉するか否かを判定し、他のワークと干渉しないと判定された把持データの中から、統計データにおける把持の成功率に基づいて把持データを選択する。これにより、マニピュレータの把持部がワークを把持する成功率を高めることができ、ピッキング装置の稼働率を高めるとともに、作業のタクトタイムを向上させることが可能となる。 In the first invention, the fifth invention, and the ninth invention, the image processing apparatus three-dimensionally measures the work space in which the bulk-stacked workpieces are mounted, and acquires three-dimensional measurement data. A plurality of workpiece models stored in advance are registered, and position data to be held relative to the model coordinate system of the workpiece model are the position to be held and the posture of the holding portion of the manipulator held at the position Set the configured grip data. Statistical data on success or failure of gripping of a workpiece is stored for each gripping data, and the three-dimensional measurement data acquired by three-dimensional measurement is used to identify the position and orientation of the workpiece using a plurality of registered workpiece models. Execute search processing. It is determined whether or not a workpiece whose detection score output as a result of the three-dimensional search processing is larger than a predetermined threshold interferes with another workpiece, and among gripping data determined not to interfere with the other workpiece, Grasping data is selected based on the success rate of gripping in statistical data. As a result, the success rate of gripping the workpiece by the gripper of the manipulator can be increased, and the operation rate of the picking device can be increased, and the tact time of the operation can be improved.
第2発明、第6発明及び第10発明では、作業空間内のワークを撮像して画像データを取得し、取得された画像データに基づいて、三次元サーチ処理の対象となる作業空間内におけるワークの三次元データを三次元計測データとして抽出するので、高価な三次元形状センサを用いることなく、作業空間内におけるワークのバラ積み状態を三次元計測データとして取得することが可能となる。 In the second invention, the sixth invention and the tenth invention, the work in the work space is acquired to obtain image data, and the work in the work space to be subjected to the three-dimensional search processing based on the obtained image data. Since three-dimensional data of the above are extracted as three-dimensional measurement data, it is possible to acquire the bulk stacking state of the work in the work space as three-dimensional measurement data without using an expensive three-dimensional shape sensor.
第3発明、第7発明及び第11発明では、ワークが検出された部分領域ごとのワークの把持の成否に関する統計データを記憶しておき、干渉しないと判定された把持データのうち、統計データにおいて把持の成功率の最も高い部分領域に存在するワークに対応する把持データを選択するので、把持の成功率が高い部分領域及び該部分領域で把持対象として検出されたワークのワークモデルに設定された把持データを用いることでマニピュレータの把持部がワークを把持する成功率を高めることができ、ピッキング装置の稼働率を高めるとともに、作業のタクトタイムを向上させることが可能となる。 In the third invention, the seventh invention, and the eleventh invention, statistical data relating to the success or failure of gripping of the workpiece for each partial area in which the workpiece is detected is stored, and statistical data among gripping data determined not to interfere Since the gripping data corresponding to the workpiece existing in the partial region where the success rate of gripping is highest is selected, the partial region where the success rate of gripping is high and the workpiece model of the workpiece detected as a gripping object in the partial region are set By using the gripping data, the success rate of gripping the workpiece by the gripping unit of the manipulator can be increased, and the operation rate of the picking device can be enhanced, and the tact time of the work can be improved.
第4発明、第8発明及び第12発明では、統計データに把持データの選択回数も含めて記憶しておき、統計データにおいて選択回数の多い把持データから順に干渉判定を行うので、把持の成功率が高いと過去に判断されて選択された回数の多い把持データを用いることでマニピュレータの把持部がワークを把持する成功率を高めることができ、ピッキング装置の稼働率を高めるとともに、作業のタクトタイムを向上させることが可能となる。 In the fourth, eighth, and twelfth inventions, the statistical data is stored including the number of times of selection of gripping data, and interference determination is sequentially performed from the gripping data having the largest number of selection in the statistical data. The success rate of gripping the workpiece by the manipulator gripping part can be increased by using gripping data that has been determined and selected many times in the past as being high, and the operation rate of the picking device can be increased and the tact time of the work It is possible to improve the
本発明によれば、検出スコアが所定の閾値より大きいワークについて、他のワークと干渉するか否かを判定し、他のワークと干渉しないと判定された把持データの中から、統計データにおける把持の成功率に基づいて把持データを選択する。これにより、マニピュレータの把持部がワークを把持する成功率を高めることができ、ピッキング装置の稼働率を高めるとともに、作業のタクトタイムを向上させることが可能となる。 According to the present invention, it is determined whether or not a workpiece whose detection score is greater than a predetermined threshold interferes with another workpiece, and among gripping data determined not to interfere with the other workpiece, gripping in statistical data Select gripping data based on the success rate of As a result, the success rate of gripping the workpiece by the gripper of the manipulator can be increased, and the operation rate of the picking device can be increased, and the tact time of the operation can be improved.
以下、本発明の実施の形態に係る画像処理装置について、図面に基づいて具体的に説明する。本実施の形態では、マニピュレータのピッキング動作において、マニピュレータの把持部を少しでも把持に成功する確率の高い位置及び姿勢へと誘導することに用いている。 Hereinafter, an image processing apparatus according to an embodiment of the present invention will be specifically described based on the drawings. In the present embodiment, in the picking operation of the manipulator, it is used to guide the gripping portion of the manipulator to a position and posture with high probability of success in gripping.
図1は、本発明の実施の形態に係る画像処理装置を用いた、ピッキングシステムの構成例を示すブロック図である。画像処理装置1には、バラ積みされたワーク等を撮像する撮像部2がセンシング部として接続されており、キーボード111及びマウス112等の入力装置で画像処理の設定を行い、表示装置113で設定や動作状態の確認を行うことができる。 FIG. 1 is a block diagram showing a configuration example of a picking system using an image processing apparatus according to an embodiment of the present invention. In the image processing apparatus 1, an imaging unit 2 for imaging workpieces stacked in bulk is connected as a sensing unit, setting of image processing is performed by an input device such as a keyboard 111 and a mouse 112, and setting is performed by a display device 113. And check the operating status.
図2は、本発明の実施の形態に係る画像処理装置1の構成を示すブロック図である。図2に示すように、本実施の形態に係る画像処理装置1は、少なくともCPU11、メモリ12、ハードディスク等の記憶装置13、I/Oインタフェース14、ビデオインタフェース15、通信インタフェース16、可搬型ディスクドライブ17及び上述したハードウェアを接続する内部バス18で構成されている。 FIG. 2 is a block diagram showing the configuration of the image processing apparatus 1 according to the embodiment of the present invention. As shown in FIG. 2, the image processing apparatus 1 according to the present embodiment includes at least a CPU 11, a memory 12, a storage device 13 such as a hard disk, an I / O interface 14, a video interface 15, a communication interface 16, and a portable disk drive. 17 and an internal bus 18 connecting the above-described hardware.
CPU11は、内部バス18を介して画像処理装置1の上述したようなハードウェア各部と接続されており、上述したハードウェア各部の動作を制御するとともに、記憶装置13に記憶しているコンピュータプログラム100に従って、種々のソフトウェア的機能を実行する。メモリ12は、SRAM、SDRAM等の揮発性メモリで構成され、コンピュータプログラム100の実行時にロードモジュールが展開され、コンピュータプログラム100の実行時に発生する一時的なデータ等を記憶する。 The CPU 11 is connected to the above-described hardware units of the image processing apparatus 1 via the internal bus 18 and controls the operation of the above-described hardware units, and the computer program 100 stored in the storage device 13 Perform various software-like functions according to The memory 12 is composed of volatile memory such as SRAM, SDRAM, etc. The load module is expanded when the computer program 100 is executed, and stores temporary data and the like generated when the computer program 100 is executed.
記憶装置13は、内蔵される固定型記憶装置(ハードディスク)、ROM等で構成されている。記憶装置13に記憶しているコンピュータプログラム100は、プログラム及びデータ等の情報を記録したDVD、CD−ROM等の可搬型記録媒体90から、可搬型ディスクドライブ17によりダウンロードされ、実行時には記憶装置13からメモリ12へ展開して実行される。もちろん、通信インタフェース16を介してネットワークに接続されている外部のコンピュータからダウンロードされたコンピュータプログラムであっても良い。 The storage device 13 is configured by a built-in fixed storage device (hard disk), a ROM, and the like. The computer program 100 stored in the storage device 13 is downloaded by the portable disk drive 17 from a portable recording medium 90 such as a DVD, CD-ROM or the like in which information such as a program and data is recorded. To memory 12 and executed. Of course, it may be a computer program downloaded from an external computer connected to the network via the communication interface 16.
I/Oインタフェース14は、キーボード111、マウス112等の入力装置と接続され、データの入力を受け付ける。また、ビデオインタフェース15は、CRTモニタ、LCD等の表示装置113と接続され、画像処理装置1の設定データ、マニピュレータの動作状態等を表示する。 The I / O interface 14 is connected to input devices such as a keyboard 111 and a mouse 112 and receives data input. Further, the video interface 15 is connected to a display device 113 such as a CRT monitor or an LCD, and displays setting data of the image processing apparatus 1, an operation state of a manipulator, and the like.
通信インタフェース16は内部バス18に接続されており、インターネット、LAN、WAN等の外部のネットワークに接続されることにより、ロボットコントローラ4、撮像部2、外部のコンピュータ等とデータ送受信することが可能となっている。 The communication interface 16 is connected to the internal bus 18, and by being connected to an external network such as the Internet, LAN, or WAN, data can be exchanged with the robot controller 4, the imaging unit 2, the external computer, etc. It has become.
図1に戻って、撮像部2は、作業空間内にバラ積みされたワークを三次元的に撮像する。図3は、本発明の実施の形態に係る画像処理装置1の撮像部2の構成を示す例示図である。 Returning to FIG. 1, the imaging unit 2 three-dimensionally images the workpieces stacked in bulk in the work space. FIG. 3 is an exemplary view showing a configuration of the imaging unit 2 of the image processing apparatus 1 according to the embodiment of the present invention.
図3に示すように、本実施の形態に係る撮像部2は、1個のプロジェクタ21を中心として、ワークの移動方向に対して前後左右方向に1基ずつ、合計4基のカメラ22(22a〜22d)を備えている。これにより、バラ積みされたワークの状態によらず、死角を作ることなく作業空間内におけるワークそれぞれの位置及び姿勢を把握するための三次元計測データを取得することができる。もちろん、カメラ22の数は少なくとも1基以上備えていれば足り、プロジェクタ21を除いたカメラ22だけの構成でも三次元モデルを生成することができれば良い。 As shown in FIG. 3, the imaging unit 2 according to the present embodiment has a total of four cameras 22 (22a), one for each of the front and rear and left and right directions with respect to the moving direction of the work, with one projector 21 as the center. To 22d). This makes it possible to acquire three-dimensional measurement data for grasping the position and posture of each workpiece in the work space without creating a blind spot regardless of the state of workpieces stacked in bulk. Of course, it is sufficient if at least one or more cameras 22 are provided, as long as the configuration of only the cameras 22 excluding the projector 21 can generate a three-dimensional model.
プロジェクタ21の光源は、例えば白色光を出射するハロゲンランプ、白色光を出射する白色LED(発光ダイオード)等であれば良い。出射口の近傍に、図示しないパターン生成部を備え、縞パターンを生成する。パターン生成部としては、例えばDMD(デジタルマイクロミラーデバイス)、LCOS(登録商標)(Liquid Crystal on Silicon:反射型液晶素子)、マスク等であれば良い。 The light source of the projector 21 may be, for example, a halogen lamp that emits white light, or a white LED (light emitting diode) that emits white light. A pattern generation unit (not shown) is provided in the vicinity of the emission port to generate a fringe pattern. The pattern generation unit may be, for example, a DMD (digital micro mirror device), LCOS (registered trademark) (Liquid Crystal on Silicon: reflective liquid crystal element), a mask or the like.
カメラ22a〜22dは、バラ積みされたワークの移動方向に対して前後左右方向の4か所に配置されている。カメラ22a〜22dは、例えばモノクロCCD(電荷結合素子)、CMOS(相補性金属酸化膜半導体)イメージセンサ等の撮像素子を備えている。撮像素子の画素ごとに受光量に対応する受光信号が出力される。そして、受光信号に基づいて画像が生成される。 The cameras 22a to 22d are disposed at four positions in the front-rear and left-right directions with respect to the movement direction of the workpieces stacked in bulk. The cameras 22a to 22d each include an imaging device such as a monochrome CCD (charge coupled device) or a CMOS (complementary metal oxide semiconductor) image sensor. A light reception signal corresponding to the light reception amount is output for each pixel of the imaging device. Then, an image is generated based on the light reception signal.
図1に戻って、画像処理装置1はマニピュレータ5の動作を制御するロボットコントローラ4とデータ通信することが可能に接続されている。画像処理装置1で作業空間上のワークWの位置及び姿勢が特定されるので、画像処理装置1は、ロボットコントローラ4がマニピュレータ5及び把持部50の動作を制御してワークWを把持するために必要な情報をロボットコントローラ4に出力する。ロボットコントローラ4は、マニピュレータ5の動作信号を生成して、マニピュレータ5及び把持部50の動作を制御する。 Referring back to FIG. 1, the image processing apparatus 1 is connected in data communication with a robot controller 4 that controls the operation of the manipulator 5. Since the position and orientation of the work W on the work space are specified by the image processing apparatus 1, in the image processing apparatus 1, the robot controller 4 controls the operation of the manipulator 5 and the holding unit 50 to hold the work W. Necessary information is output to the robot controller 4. The robot controller 4 generates an operation signal of the manipulator 5 to control the operation of the manipulator 5 and the gripping unit 50.
なお、ロボットコントローラ4にはペンダント6がデータ通信することが可能に接続されており、マニピュレータ5及び把持部50の動作に関する設定データの入力を受け付ける。 A pendant 6 is connected to the robot controller 4 so as to be capable of performing data communication, and receives input of setting data related to operations of the manipulator 5 and the gripping unit 50.
(実施の形態1)
以上の構成における画像処理装置1の動作について説明する。図4は、本発明の実施の形態1に係る画像処理装置1の機能ブロック図である。図4において、センシング部1001は、バラ積みされたワークWが搭載されている作業空間を、例えば撮像部2を介して、三次元計測して三次元計測データを取得する。本実施の形態では、センシング部1001は、ワーク撮像部1002及び三次元データ抽出部1003を備えている。
Embodiment 1
The operation of the image processing apparatus 1 having the above configuration will be described. FIG. 4 is a functional block diagram of the image processing apparatus 1 according to the first embodiment of the present invention. In FIG. 4, the sensing unit 1001 three-dimensionally measures the work space in which the work W stacked in bulk is mounted, for example, via the imaging unit 2, and acquires three-dimensional measurement data. In the present embodiment, the sensing unit 1001 includes a work imaging unit 1002 and a three-dimensional data extraction unit 1003.
ワーク撮像部1002は、作業空間内のワークWを撮像部2で撮像して画像データを取得する。そして、取得した画像データに基づいて三次元データを生成しておく。三次元データ抽出部1003は、取得された画像データに基づいて、三次元サーチ処理の対象となる作業空間内におけるワークWの三次元データを抽出して三次元計測データとする。ここで、「三次元データ」とは、バラ積みされていないワークW単体の三次元データとし、「三次元計測データ」とは、バラ積みされている状態でのワークW全体の三次元データを意味するものとする。すなわち、三次元計測データをサーチ対象として、三次元データをキー情報として三次元サーチ処理を実行することになる。 The work imaging unit 1002 captures an image of the work W in the work space with the imaging unit 2 and acquires image data. Then, three-dimensional data is generated on the basis of the acquired image data. The three-dimensional data extraction unit 1003 extracts three-dimensional data of the workpiece W in the work space to be subjected to the three-dimensional search processing based on the acquired image data, and sets it as three-dimensional measurement data. Here, "three-dimensional data" refers to three-dimensional data of a single workpiece W not stacked in bulk, and "three-dimensional measurement data" refers to three-dimensional data of the entire workpiece W stacked in bulk. Shall be meant. That is, the three-dimensional search process is executed with the three-dimensional data as key information and the three-dimensional measurement data as a search target.
ワークモデル登録部1004は、生成された三次元データの中から三次元サーチ処理に用いる一又は複数の三次元データ(以下、ワークモデル)を登録する。登録されたワークモデルが、三次元サーチ処理のキー情報となる。なお、三次元データ(ワークモデル)は、ワークWのCADデータから取得しても良い。 The work model registration unit 1004 registers one or a plurality of three-dimensional data (hereinafter referred to as a work model) to be used in the three-dimensional search process out of the generated three-dimensional data. The registered work model is the key information of the three-dimensional search process. The three-dimensional data (work model) may be acquired from CAD data of the work W.
把持データ設定部1005は、ワークモデルのモデル座標系に対して、相対的な位置データとして、把持される位置及び該位置において把持するマニピュレータ5の把持部50の姿勢で構成される把持データを設定する。具体的には、ワークWの姿勢を順次変更しつつ三次元計測により取得した三次元計測データに対して、登録されている一又は複数のワークモデルそれぞれについて、モデル座標系の設定及び把持データの設定を繰り返し、複数の把持データをワークモデルごとに対応付けて記憶装置13に記憶しておく。 The gripping data setting unit 1005 sets, as relative position data, gripping data composed of the position to be gripped and the posture of the gripping unit 50 of the manipulator 5 to be gripped at the position with respect to the model coordinate system of the workpiece model Do. Specifically, with respect to three-dimensional measurement data acquired by three-dimensional measurement while sequentially changing the posture of the workpiece W, setting of a model coordinate system and holding data of one or a plurality of registered work models are performed. The setting is repeated, and a plurality of grip data are stored in the storage device 13 in association with each work model.
図5は、本発明の実施の形態1に係る画像処理装置1の把持データとして記憶される把持部50の位置及び姿勢の例示図である。図5(a)は、把持対象となるワークWのワークモデルを例示した斜視図であり、図5(b)〜図5(g)は、把持データとして記憶される把持部50の位置及び姿勢を例示した斜視図である。 FIG. 5 is a view showing an example of the position and the attitude of the grip unit 50 stored as grip data of the image processing apparatus 1 according to the first embodiment of the present invention. FIG. 5A is a perspective view illustrating a workpiece model of the workpiece W to be gripped, and FIGS. 5B to 5G are positions and orientations of the gripping unit 50 stored as gripping data. It is the perspective view which illustrated.
図5(a)に示すように、把持する位置が複数存在するワークWが把持対象である場合、把持する位置に応じて把持部50の位置及び姿勢が相違する。図5(b)、図5(c)は、ワークWの長軸方向のフランジ部W1が把持対象である場合の把持部50の位置及び姿勢を示している。同様に、図5(d)、図5(e)は、ワークWの環状部W2が把持対象である場合の把持部50の位置及び姿勢を、図5(f)、図5(g)は、ワークWの短軸方向のフランジ部W3が把持対象である場合の把持部50の位置及び姿勢を、それぞれ示している。 As shown in FIG. 5A, when the workpiece W in which a plurality of gripping positions exist is a gripping target, the position and the posture of the gripping unit 50 differ according to the gripping position. FIG. 5B and FIG. 5C show the position and posture of the gripping portion 50 when the flange W1 in the long axis direction of the workpiece W is a gripping target. Similarly, FIGS. 5 (d) and 5 (e) show the position and orientation of the gripping portion 50 when the annular portion W2 of the workpiece W is a gripping object, and FIGS. 5 (f) and 5 (g) show them. The position and the posture of the gripping portion 50 when the flange portion W3 in the short axis direction of the workpiece W is a gripping target are shown.
このように、ワークWのどの部分をどの方向から把持するかに応じて、把持データを事前に設定しておくことにより、バラ積みされたワークがどのような位置及び姿勢で検出されたとしても、把持対象となる部位を検出することができる。 As described above, even if workpieces stacked in bulk are detected at any position and posture by setting gripping data in advance according to which part of the workpiece W is gripped from which direction. , It is possible to detect a portion to be gripped.
図4に戻って、統計データ記憶部1006は、把持データごとにワークWの把持の成否に関する統計データを記憶する。すなわち、毎回選択した把持データに基づいてワークWをピッキングし、把持に成功したか否かの実績データを統計データとして記憶装置13に記憶する。また、統計データ記憶部1006は、把持データごとに後述する干渉判定部1008による干渉するか否かの実績データも統計データとして記憶装置13に記憶する。 Returning to FIG. 4, the statistical data storage unit 1006 stores statistical data on success or failure of gripping of the workpiece W for each gripping data. That is, the workpiece W is picked based on the grip data selected each time, and the result data of whether or not the grip is successful is stored in the storage device 13 as statistical data. Further, the statistical data storage unit 1006 also stores, in the storage device 13, statistical data as to whether or not interference will be made by the interference determination unit 1008 described later for each grip data.
把持の成否判断の方法は、特に限定されるものではない。図6は、本発明の実施の形態1に係る画像処理装置1と接続されているロボットコントローラ4における把持の成否判断の一例を示す模式図である。図6(a)は、マニピュレータ5の把持部50の構成を示す模式図である。2つの把持部材501を移動させて、把持部材501、501間の距離B1を検出する。 The method for determining the success or failure of gripping is not particularly limited. FIG. 6 is a schematic view showing an example of gripping success / failure determination in the robot controller 4 connected to the image processing apparatus 1 according to the first embodiment of the present invention. FIG. 6A is a schematic view showing the configuration of the gripping portion 50 of the manipulator 5. The two gripping members 501 are moved to detect the distance B1 between the gripping members 501 and 501.
把持対象であるワークWの把持する部位の幅をB2とすると、B1>B2ならば把持する過程であることがわかる(図6(a)の状態)。そして、B1=B2である場合には、ワークWを把持することに成功していることがわかる(図6(b)の状態)。しかし、B1<B2である場合には、把持に失敗していると判断することができる(図6(c)の状態)。 Assuming that the width of the portion to be gripped of the workpiece W to be gripped is B2, it can be understood that it is a gripping process if B1> B2 (state of FIG. 6A). And when it is B1 = B2, it turns out that it has succeeded in grasping work W (state of Drawing 6 (b)). However, if B1 <B2, it can be determined that gripping has failed (the state of FIG. 6C).
もちろん、把持の成否判断の方法は、これに限定されるものではない。例えば、把持部に重量センサ、あるいは圧力センサを取り付けておき、センサの出力値に応じてワークWの把持に成功しているか否かを判断しても良い。 Of course, the method of judging the success or failure of gripping is not limited to this. For example, a weight sensor or a pressure sensor may be attached to the gripping portion, and it may be determined whether the gripping of the workpiece W has succeeded according to the output value of the sensor.
また、単純に把持部50の把持部材501の先端に電極を設けておき、通電した場合には警告信号を出力するようにしておくだけでも良い。図6(c)の状態になった場合にのみ電極が接触して警告信号が出力される。 Alternatively, an electrode may be simply provided at the tip of the holding member 501 of the holding unit 50, and a warning signal may be output when electricity is supplied. The electrodes are in contact only when the state of FIG. 6C is reached, and a warning signal is output.
また、把持したワークWを目的地で解放し、その位置を他のカメラで撮像するようにしても良い。所定の位置にワークWが存在しない、あるいは位置が異なっていると、撮像により取得した画像データの解析から判断された場合には、把持に失敗したと判断することができる。 Alternatively, the held workpiece W may be released at the destination, and the position may be imaged by another camera. If the workpiece W does not exist at the predetermined position or the positions are different, it can be determined that the gripping has failed if it is determined from analysis of the image data acquired by imaging.
同様に、把持したワークWを目的地まで移動する途中で他のカメラで撮像するようにしても良い。移動中にワークWが存在していないと、撮像により取得した画像データの解析から判断された場合には、把持に失敗したと判断することができる。 Similarly, another camera may capture an image of the held work W while moving to the destination. If it is determined from the analysis of the image data acquired by imaging that the workpiece W does not exist during movement, it can be determined that gripping has failed.
さらに、把持部50が、空気の吸入による吸着を用いる方式である場合、エア流量の相違により把持の成否判断をすることもできる。もちろん、センサ等によるデータ取得のみをロボットコントローラ4の指示で実行し、把持の成否判断を画像処理装置1で実行しても良い。 Furthermore, in the case where the gripping portion 50 is a method using suction by suction of air, it is possible to judge success or failure of gripping based on the difference in air flow rate. Of course, only the data acquisition by the sensor or the like may be executed by the instruction of the robot controller 4, and the image processing apparatus 1 may execute the gripping success / failure judgment.
図4に戻って、サーチ処理実行部1007は、三次元計測により取得した三次元計測データに対して、登録された一又は複数のワークモデルを用いてワークWの位置及び姿勢を特定する三次元サーチ処理を実行する。サーチ処理実行部1007では、ワークWごとに検出スコアを算出して三次元サーチ処理の結果として出力する。 Returning to FIG. 4, the search processing execution unit 1007 specifies the position and orientation of the workpiece W using the registered one or more workpiece models for the three-dimensional measurement data acquired by three-dimensional measurement. Execute search processing. The search process execution unit 1007 calculates a detection score for each work W and outputs it as a result of the three-dimensional search process.
図7は、本発明の実施の形態に係る画像処理装置1のワークモデルの例示図である。図7に示すように、ワークモデルの表面において特徴点を抽出している。特徴点とは、三次元サーチ処理において必要な特徴を示す点を意味しており、例えば形状の輪郭を表す輪郭上の特徴点、表面形状を表す表面上の特徴点の2種類の特徴点又はいずれかの特徴点で構成されていれば良い。 FIG. 7 is a view showing an example of a work model of the image processing apparatus 1 according to the embodiment of the present invention. As shown in FIG. 7, feature points are extracted on the surface of the workpiece model. The feature point means a point indicating a feature required in the three-dimensional search process, for example, two feature points of feature points on the contour representing the contour of the shape, and feature points on the surface representing the surface shape or What is necessary is just to be comprised by one of the feature points.
図8は、本発明の実施の形態に係る画像処理装置1の三次元サーチ処理の説明図である。図8(a)に示すように、作業空間にワークWがバラ積みされている。この状態で、図7に示すワークモデルを用いて、三次元サーチ処理を実行することにより、ワーク81、82が検出されている。 FIG. 8 is an explanatory diagram of a three-dimensional search process of the image processing apparatus 1 according to the embodiment of the present invention. As shown to Fig.8 (a), the workpiece | work W is piled up in the work space. In this state, the workpieces 81 and 82 are detected by executing a three-dimensional search process using the workpiece model shown in FIG.
三次元サーチ処理では、ワークモデルと対応する特徴点がどの程度存在するかを示す割合に基づいて検出スコアを算出する。例えば、高さ画像に対して、一定の距離以下の誤差を有する特徴点の点数の割合等を用いる。無効画素が多く含まれている場合には対応する特徴点が存在しないので検出スコアが低くなる。したがって、検出スコアが高いほど、三次元サーチ処理の結果として信頼性が高いことになる。また、一定の閾値以下の検出スコアである場合には、誤検出している可能性が高いことから、把持対象から除外することもできる。 In the three-dimensional search process, a detection score is calculated based on a ratio indicating how much the feature point corresponding to the work model exists. For example, for the height image, the ratio of the score of feature points having an error equal to or less than a predetermined distance is used. When many invalid pixels are included, the detection score is low because there is no corresponding feature point. Thus, the higher the detection score, the more reliable as a result of the three-dimensional search process. Moreover, when it is a detection score below a fixed threshold value, since it is highly possible that it is misdetecting, it can also be remove | excluded from holding | grip object.
図4に戻って、干渉判定部1008は、三次元サーチ処理の結果として出力される検出スコアが所定の閾値より大きいワークWについて、他のワークWと干渉するか否かを判定する。信頼性が高く、把持対象として検出されているワークWについてのみ、他のワークWとの干渉チェックを行う。これにより、干渉するワークWを把持対象から除外することができる。 Returning to FIG. 4, the interference determination unit 1008 determines whether or not a workpiece W having a detection score output as a result of the three-dimensional search processing larger than a predetermined threshold interferes with another workpiece W. The interference check with another work W is performed only for the work W which is highly reliable and is detected as a gripping target. Thereby, the workpiece | work W which interferes can be excluded from holding object.
把持データ選択部1009は、他のワークWと干渉しないと判定された把持データのうち、統計データにおいて把持の成功率の最も高い把持データを選択する。また、把持データ選択部1009は、統計データに基づいて、他のワークWと干渉しないと判定された把持データのうち、把持成功率が低い把持データを選択対象の把持データ候補から除外する。この場合、把持データ選択部1009は、除外された把持データを除いた把持データの中から、三次元サーチ処理により得られた検出スコアが最も高くなる把持データを選択する。 The gripping data selection unit 1009 selects, from among the gripping data determined to not interfere with another work W, the gripping data having the highest gripping success rate in the statistical data. Further, the gripping data selection unit 1009 excludes gripping data having a low gripping success rate from gripping data candidates to be selected among gripping data determined to not interfere with another workpiece W based on statistical data. In this case, the gripping data selection unit 1009 selects, from among the gripping data excluding the excluded gripping data, the gripping data having the highest detection score obtained by the three-dimensional search processing.
すなわち、把持データ選択部1009は、三次元サーチ処理により所定の閾値よりも高い検出スコアが得られた把持データについて干渉判定を実行し、干渉しないと判定された把持データについて、統計データ記憶部1006が記憶装置13に記憶されている統計データを参照することにより、実際に把持に成功する確率が高い把持データを選択する。図1に示すロボットコントローラ4は、把持対象として検出されているワークWのワークモデルに設定された把持データに基づいて、マニピュレータ5及び把持部50の動作を制御する。 That is, the grip data selection unit 1009 performs the interference determination on the grip data for which the detection score higher than the predetermined threshold is obtained by the three-dimensional search process, and the statistical data storage unit 1006 for the grip data determined not to interfere. By referring to the statistical data stored in the storage device 13, the user selects grip data having a high probability of actually successfully gripping. The robot controller 4 shown in FIG. 1 controls the operation of the manipulator 5 and the gripping unit 50 based on the gripping data set in the workpiece model of the workpiece W detected as a gripping target.
図9は、本発明の実施の形態1に係る画像処理装置1のCPU11の三次元サーチ処理以降の処理手順を示すフローチャートである。図9に示すように、画像処理装置1のCPU11は、上述したような三次元サーチ処理を実行し(ステップS901)、一又は複数のワークモデルを用いてワークWの位置及び姿勢を特定し、ワークWを検出したか否かを判断する(ステップS902)。 FIG. 9 is a flowchart showing the processing procedure after the three-dimensional search processing of the CPU 11 of the image processing apparatus 1 according to Embodiment 1 of the present invention. As shown in FIG. 9, the CPU 11 of the image processing apparatus 1 executes the three-dimensional search processing as described above (step S901), and specifies the position and orientation of the workpiece W using one or more workpiece models, It is determined whether a workpiece W has been detected (step S902).
CPU11が、ワークWを検出したと判断した場合(ステップS902:YES)、CPU11は、検出された一又は複数のワークWの中から優先度が最も高いワークWを選択し(ステップS903)、優先度が最も高い把持データを用いた場合の他のワークWとの干渉判定を実行する(ステップS904)。CPU11は、他のワークWとの干渉があるか否かを判断する(ステップS905)。 When the CPU 11 determines that the work W has been detected (step S 902: YES), the CPU 11 selects the work W having the highest priority from the detected one or more works W (step S 903). An interference determination with another work W in the case of using the grip data with the highest degree is executed (step S904). The CPU 11 determines whether there is interference with another work W (step S905).
CPU11が、他のワークWとの干渉がないと判断した場合(ステップS905:NO)、CPU11は、選択されたワークWを選択された把持データで把持するようロボットコントローラ4へ指示を送信する(ステップS911)。CPU11が、他のワークWとの干渉があると判断した場合(ステップS905:YES)、CPU11は、他の把持データが存在するか否かを判断する(ステップS906)。 When the CPU 11 determines that there is no interference with another work W (step S 905: NO), the CPU 11 transmits an instruction to the robot controller 4 to grip the selected work W with the selected gripping data ( Step S911). When the CPU 11 determines that there is an interference with another work W (step S 905: YES), the CPU 11 determines whether there is other grip data (step S 906).
CPU11が、他の把持データが存在すると判断した場合(ステップS906:YES)、CPU11は、優先度が次に高い把持データを用いた場合の他のワークWとの干渉判定を実行し(ステップS907)、処理をステップS905に戻して上述した処理を繰り返す。CPU11が、他の把持データが存在しないと判断した場合(ステップS906:NO)、CPU11は、他のワークWが存在するか否かを判断する(ステップS908)。 If the CPU 11 determines that there is another grip data (step S 906: YES), the CPU 11 performs an interference determination with another work W when using the grip data with the second highest priority (step S 907). ), The process returns to step S905 and the above-described process is repeated. If the CPU 11 determines that there is no other grip data (step S 906: NO), the CPU 11 determines whether there is another work W (step S 908).
CPU11が、他のワークWが存在すると判断した場合(ステップS908:YES)、CPU11は、優先度が次に高いワークWを選択し(ステップS909)、処理をステップS904へ戻して上述した処理を繰り返す。CPU11が、他のワークWが存在しないと判断した場合(ステップS908:NO)、及びワークWを検出していないと判断した場合(ステップS902:NO)、CPU11は、把持不可であると判断して(ステップS910)、処理を終了する。 If the CPU 11 determines that there is another work W (step S 908: YES), the CPU 11 selects the work W having the next highest priority (step S 909), returns the process to step S 904, and performs the process described above repeat. If the CPU 11 determines that there is no other work W (step S 908: NO), and if it determines that the work W is not detected (step S 902: NO), the CPU 11 determines that gripping is not possible. Then (step S910), the process ends.
なお、上述した処理は、把持データの存否を優先した処理としているが、他のワークWの存否を優先しても良い。この場合、ステップS906及びステップS907と、ステップS908及びステップS909とが入れ替わる。 In the above-described process, priority is given to the presence or absence of grip data, but the presence or absence of another work W may be prioritized. In this case, steps S906 and S907 and steps S908 and S909 are interchanged.
また、把持データの優先度は、様々な方法で決定することができる。例えば、統計データ記憶部1006において、統計データに把持データの選択回数も含めて記憶しておき、干渉判定部1008において、統計データにおける選択回数の多い把持データの優先度を高くして干渉判定を行う方法であっても良い。図10は、本発明の実施の形態1に係る画像処理装置1のCPU11の把持データの優先度決定処理の手順を示すフローチャートである。 Also, the priority of the grip data can be determined in various ways. For example, the statistical data storage unit 1006 stores statistical data including the number of times of selection of gripping data, and the interference determination unit 1008 makes interference determination by increasing the priority of gripping data having a large number of times of selection in statistical data. It may be a method to do. FIG. 10 is a flowchart showing a procedure of priority determination processing of grip data of the CPU 11 of the image processing apparatus 1 according to the first embodiment of the present invention.
図10に示すように、画像処理装置1のCPU11は、把持データごとのカウンタを‘0’に初期化設定し(ステップS1001)、把持データの優先度の仮設定を行う(ステップS1002)。CPU11は、図9に示す処理を実行し(ステップS1003)、選択された把持データのカウンタを加算する(ステップS1004)。 As shown in FIG. 10, the CPU 11 of the image processing apparatus 1 initializes the counter for each grip data to '0' (step S1001), and temporarily sets the priority of the grip data (step S1002). The CPU 11 executes the process shown in FIG. 9 (step S1003), and adds the counter of the selected grip data (step S1004).
CPU11は、カウンタの値に従って把持データの優先度を入れ替え(ステップS1005)、初期化するか否かを判断する(ステップS1006)。CPU11が、初期化しないと判断した場合(ステップS1006:NO)、CPU11は、処理をステップS1003へ戻し、上述した処理を繰り返す。CPU11が、初期化すると判断した場合(ステップS1006:YES)、CPU11は、処理を終了する。 The CPU 11 changes the priority of the grip data according to the value of the counter (step S1005), and determines whether or not to initialize (step S1006). When the CPU 11 determines that initialization is not to be performed (step S1006: NO), the CPU 11 returns the process to step S1003 and repeats the above-described process. If the CPU 11 determines to initialize (step S1006: YES), the CPU 11 ends the process.
また、把持データの把持の成否に関する統計データも同様に成否カウンタを用いることで作成することができる。図11は、本発明の実施の形態1に係る画像処理装置1のCPU11の把持成功率の高い把持データの優先度決定処理の手順を示すフローチャートである。 Also, statistical data on success or failure of gripping of gripping data can be created similarly by using a success / failure counter. FIG. 11 is a flowchart showing a procedure of priority determination processing of gripping data with a high gripping success rate of the CPU 11 of the image processing apparatus 1 according to the first embodiment of the present invention.
図11に示すように、画像処理装置1のCPU11は、把持データごとの成否カウンタを初期化し(ステップS1101)、把持データの優先度の仮設定を行う(ステップS1102)。CPU11は、図9に示す処理を実行し(ステップS1103)、選択された把持データをロボットコントローラ4へ出力する(ステップS1104)。 As shown in FIG. 11, the CPU 11 of the image processing apparatus 1 initializes a success / failure counter for each grip data (step S1101), and temporarily sets the priority of the grip data (step S1102). The CPU 11 executes the process shown in FIG. 9 (step S1103), and outputs the selected grip data to the robot controller 4 (step S1104).
CPU11は、ロボットコントローラ4から、選択された把持データでの把持の成否に関する把持成否データを取得し(ステップS1105)、把持に成功したか否かを判断する(ステップS1106)。CPU11が、把持に成功したと判断した場合(ステップS1106:YES)、CPU11は、選択された把持データの成否カウンタを更新する(ステップS1107)。 The CPU 11 acquires grip success / failure data regarding success or failure of gripping with the selected grip data from the robot controller 4 (step S1105), and determines whether gripping has succeeded (step S1106). If the CPU 11 determines that gripping has succeeded (step S1106: YES), the CPU 11 updates the success / failure counter of the selected gripping data (step S1107).
CPU11が、把持に失敗したと判断した場合(ステップS1106:NO)、CPU11は、選択された把持データの成否カウンタを更新し(ステップS1108)、処理を終了するか否かを判断する(ステップS1109)。CPU11が、処理を終了しないと判断した場合(ステップS1109:NO)、CPU11は、処理をステップS1103へ戻し、上述した処理を繰り返す。CPU11が、処理を終了すると判断した場合(ステップS1109:YES)、CPU11は、処理を終了する。 If the CPU 11 determines that gripping has failed (step S1106: NO), the CPU 11 updates the success / failure counter of the selected gripping data (step S1108), and determines whether to end the process (step S1109) ). When the CPU 11 determines that the process is not ended (step S1109: NO), the CPU 11 returns the process to step S1103 and repeats the above-described process. If the CPU 11 determines that the process is to be ended (step S1109: YES), the CPU 11 ends the process.
以上のように本実施の形態1によれば、検出スコアが所定の閾値より大きいワークWについて、他のワークWと干渉するか否かを判定し、他のワークWと干渉しないと判定された把持データのうち、統計データにおいて把持の成功率の最も高い把持データを選択する。選択された把持データに基づいてマニピュレータ5及び把持部50の動作を制御することにより、マニピュレータ5の把持部50がワークWを把持する成功率を高めることができ、ピッキング装置の稼働率を高めるとともに、作業のタクトタイムを向上させることが可能となる。 As described above, according to the first embodiment, it is determined whether or not a workpiece W having a detection score larger than a predetermined threshold interferes with another workpiece W, and it is determined that the workpiece W does not interfere with the other workpiece W. Among gripping data, the gripping data with the highest gripping success rate in statistical data is selected. By controlling the operation of the manipulator 5 and the gripping unit 50 based on the selected gripping data, the success rate of the gripping unit 50 of the manipulator 5 gripping the workpiece W can be increased, and the operation rate of the picking device can be increased. And the tact time of the work can be improved.
(実施の形態2)
本発明の実施の形態2に係る画像処理装置1の構成及び機能ブロック図は、実施の形態1と同様であることから、同一の符号を付することにより詳細な説明は省略する。本実施の形態2は、把持データに基づいて統計データを生成するのではなく、部分領域に干渉しない把持データが存在するか否かに基づいて統計データを生成する点で実施の形態1とは相違する。
Second Embodiment
The configuration and functional block diagram of the image processing apparatus 1 according to the second embodiment of the present invention are the same as in the first embodiment, and thus the detailed description will be omitted by attaching the same reference numerals. The second embodiment is different from the first embodiment in that statistical data is generated based on whether or not there is gripping data that does not interfere with the partial region, instead of generating statistical data based on the gripping data. It is different.
本実施の形態2では、図9に示す三次元サーチ処理以降の処理手順において、他のワークWの存否を優先する場合と同様となる。したがって、図9において、ステップS906及びステップS907と、ステップS908及びステップS909とが入れ替わった状態を前提に説明する。 In the second embodiment, the processing procedure after the three-dimensional search processing shown in FIG. 9 is similar to the case where the presence or absence of another work W is prioritized. Therefore, in FIG. 9, description will be made on the assumption that steps S906 and S907 and steps S908 and S909 have been interchanged.
上述の図4における把持データ選択部1009は、部分領域に干渉しない把持データが存在すると判定された把持データのうち、把持対象として検出されたワークWのワークモデルに設定された把持データを選択する。図1に示すロボットコントローラ4は、把持対象として検出されたワークWのワークモデルに設定された把持データに基づいてマニピュレータ5及び把持部50の動作を制御する制御信号を受信して、把持部50の動作を制御する。 The gripping data selection unit 1009 in FIG. 4 selects the gripping data set in the workpiece model of the workpiece W detected as a gripping object among the gripping data determined that the gripping data that does not interfere with the partial area is present . The robot controller 4 shown in FIG. 1 receives a control signal for controlling the operation of the manipulator 5 and the gripping unit 50 based on the gripping data set in the workpiece model of the workpiece W detected as the gripping object, and the gripping unit 50 Control the operation of
把持対象となるワークWを示す部分領域の優先度は、以下の手順で決定することができる。図12は、本発明の実施の形態2に係る画像処理装置1のCPU11のワークWを示す部分領域の優先度決定処理の手順を示すフローチャートである。 The priority of the partial area indicating the workpiece W to be gripped can be determined by the following procedure. FIG. 12 is a flowchart showing the procedure of the process of determining the priority of the partial area indicating the work W of the CPU 11 of the image processing apparatus 1 according to the second embodiment of the present invention.
図12に示すように、画像処理装置1のCPU11は、部分領域ごとのカウンタを‘0’に初期化設定し(ステップS1201)、部分領域の優先度の仮設定を行う(ステップS1202)。CPU11は、図9に示す処理を実行し(ステップS1203)、選択された把持データが部分領域内に存在するか否かを判断する(ステップS1204)。CPU11が、部分領域内に存在すると判断した場合(ステップS1204:YES)、CPU11は、把持データが存在する部分領域のカウンタを加算する(ステップS1205)。CPU11が、部分領域内に存在しないと判断した場合(ステップS1204:NO)、CPU11は、ステップS1205をスキップする。 As shown in FIG. 12, the CPU 11 of the image processing apparatus 1 initializes the counter for each partial area to '0' (step S1201), and temporarily sets the priority of the partial area (step S1202). The CPU 11 executes the process shown in FIG. 9 (step S1203), and determines whether or not the selected grip data exists in the partial area (step S1204). If it is determined that the CPU 11 exists in the partial area (step S1204: YES), the CPU 11 adds a counter of the partial area in which the grip data exists (step S1205). If the CPU 11 determines that the partial area does not exist (step S1204: NO), the CPU 11 skips step S1205.
CPU11は、部分領域ごとのカウンタの値に従って部分領域の優先度を入れ替え(ステップS1206)、処理を終了するか否かを判断する(ステップS1207)。CPU11が、処理を終了しないと判断した場合(ステップS1207:NO)、CPU11は、処理をステップS1203へ戻し、上述した処理を繰り返す。CPU11が、処理を終了すると判断した場合(ステップS1207:YES)、CPU11は、処理を終了する。 The CPU 11 replaces the priorities of the partial areas according to the value of the counter for each partial area (step S1206), and determines whether to end the process (step S1207). If the CPU 11 determines that the process is not completed (step S1207: NO), the CPU 11 returns the process to step S1203 and repeats the above-described process. If the CPU 11 determines that the process ends (step S1207: YES), the CPU 11 ends the process.
また、部分領域ごとの把持の成否に関する統計データも同様に成否カウンタを用いることで作成することができる。図13は、本発明の実施の形態2に係る画像処理装置1のCPU11の把持成功率の高い部分領域の優先度決定処理の手順を示すフローチャートである。 Also, statistical data on the success or failure of gripping for each partial area can be created similarly by using a success / failure counter. FIG. 13 is a flowchart showing a procedure of priority determination processing of a partial region with a high gripping success rate of the CPU 11 of the image processing apparatus 1 according to the second embodiment of the present invention.
図13に示すように、画像処理装置1のCPU11は、部分領域ごとの成否カウンタを初期化し(ステップS1301)、部分領域の優先度の仮設定を行う(ステップS1302)。CPU11は、図9に示す処理を実行し(ステップS1303)、選択された部分領域及び部分領域で把持対象として検出されたワークWのワークモデルに設定された把持データをロボットコントローラ4へ出力する(ステップS1304)。 As shown in FIG. 13, the CPU 11 of the image processing apparatus 1 initializes a success / failure counter for each partial area (step S1301), and performs temporary setting of the priority of partial areas (step S1302). The CPU 11 executes the processing shown in FIG. 9 (step S1303), and outputs gripping data set in the workpiece model of the workpiece W detected as a gripping target in the selected partial region and partial region to the robot controller 4 ( Step S1304).
CPU11は、ロボットコントローラ4から、選択された部分領域及び部分領域で把持対象として検出されたワークWのワークモデルに設定された把持データでの把持の成否に関する把持成否データを取得し(ステップS1305)、把持に成功したか否かを判断する(ステップS1306)。CPU11が、把持に成功したと判断した場合(ステップS1306:YES)、CPU11は、選択された部分領域の成否カウンタを更新する(ステップS1307)。 The CPU 11 acquires, from the robot controller 4, gripping success / failure data regarding success or failure of gripping with gripping data set in the workpiece model of the workpiece W detected as a gripping target in the selected partial region and partial region (step S1305) It is determined whether or not the gripping has succeeded (step S1306). If the CPU 11 determines that the gripping is successful (step S1306: YES), the CPU 11 updates the success / failure counter of the selected partial area (step S1307).
CPU11が、把持に失敗したと判断した場合(ステップS1306:NO)、CPU11は、処理を終了するか否かを判断する(ステップS1308)。CPU11が、処理を終了しないと判断した場合(ステップS1308:NO)、CPU11は、処理をステップS1303へ戻し、上述した処理を繰り返す。CPU11が、処理を終了すると判断した場合(ステップS1308:YES)、CPU11は、処理を終了する。 If the CPU 11 determines that gripping has failed (step S1306: NO), the CPU 11 determines whether to end the process (step S1308). If the CPU 11 determines that the process is not completed (step S1308: NO), the CPU 11 returns the process to step S1303 and repeats the above-described process. If the CPU 11 determines that the process is to be ended (step S1308: YES), the CPU 11 ends the process.
以上のように本実施の形態2によれば、把持の成功率が高い部分領域及び該部分領域で把持対象として検出されたワークWのワークモデルに設定された把持データを用いることでマニピュレータ5の把持部50がワークを把持する成功率を高めることができ、ピッキング装置の稼働率を高めるとともに、作業のタクトタイムを向上させることが可能となる。 As described above, according to the second embodiment, it is possible to use the gripping data set in the partial region where the success rate of gripping is high and the workpiece model of the workpiece W detected as the gripping target in the partial region. The success rate in which the gripping unit 50 grips the work can be increased, and the operation rate of the picking device can be increased, and the tact time of the work can be improved.
なお、本発明は上記実施例に限定されるものではなく、本発明の趣旨の範囲内であれば多種の変更、改良等が可能である。例えば統計データのみを別の外部コンピュータ、あるいはクラウド環境に記憶しておいても良い。 The present invention is not limited to the above-described embodiment, and various changes, improvements, and the like can be made within the scope of the present invention. For example, only statistical data may be stored in another external computer or in a cloud environment.
図14は、本発明の実施の形態に係る画像処理装置1を用いた、ピッキングシステムの処理の手順を示すフローチャートである。図14では、統計データが統計データ外部記憶装置7に記憶されている点で上述した実施の形態とは相違している。 FIG. 14 is a flowchart showing the procedure of processing of the picking system using the image processing apparatus 1 according to the embodiment of the present invention. FIG. 14 is different from the above-described embodiment in that statistical data is stored in the statistical data external storage device 7.
図14において、画像処理装置1は、上述した処理により把持データを選択して(ステップS1411)、把持データをロボットコントローラ4へ出力する(ステップS1412)。 In FIG. 14, the image processing apparatus 1 selects grip data by the above-described processing (step S1411), and outputs the grip data to the robot controller 4 (step S1412).
ロボットコントローラ4は、画像処理装置1から把持データの入力を受け付け(ステップS1441)、マニピュレータ5及び把持部50の動作を制御する(ステップS1442)。そして、上述の処理を実行して把持の成否を判断して(ステップS1443)、選択された把持データ及び把持の成否に関する把持成否データを統計データ外部記憶装置7へ出力する(ステップS1444)。 The robot controller 4 receives an input of grip data from the image processing apparatus 1 (step S1441), and controls the operation of the manipulator 5 and the grip unit 50 (step S1442). Then, the processing described above is executed to judge the success or failure of gripping (step S1443), and the selected gripping data and the gripping success or failure data regarding the success or failure of gripping are output to the statistical data external storage device 7 (step S1444).
統計データ外部記憶装置7は、ロボットコントローラ4からの把持データ及び把持成否データの入力を受け付け(ステップS1471)、把持データ又は部分領域に対応付けられている成否カウンタを更新する(ステップS1472)。更新された成否カウンタに基づいて、把持データ又は部分領域の優先度を更新して(ステップS1473)、更新された優先度を画像処理装置1へ出力する(ステップS1474)。 The statistical data external storage device 7 receives the input of the gripping data and the gripping success / failure data from the robot controller 4 (step S1471), and updates the success / failure counter associated with the gripping data or the partial area (step S1472). Based on the updated success / failure counter, the priority of the grip data or the partial area is updated (step S1473), and the updated priority is output to the image processing apparatus 1 (step S1474).
画像処理装置1は統計データ外部記憶装置7からの優先度の入力を受け付けて(ステップS1413)、次のピッキング動作に適用する。これにより、統計データを記憶する位置的制約から解放され、ビッグデータとしての取り扱いも容易となる。 The image processing device 1 receives the input of the priority from the statistical data external storage device 7 (step S1413), and applies it to the next picking operation. This relieves the positional constraints of storing statistical data, and facilitates the handling as big data.
なお、上述した実施例では、画像処理装置1を1基設ける場合について説明しているが、特に1基に限定せず、複数の画像処理装置1を設けても良い。この場合、複数の画像処理装置1で同じ処理を行うので、統計データとしては共通の統計データを用いれば良い。 In the embodiment described above, the case where one image processing apparatus 1 is provided is described, but the invention is not particularly limited to one, and a plurality of image processing apparatuses 1 may be provided. In this case, since the same processing is performed by a plurality of image processing apparatuses 1, common statistical data may be used as the statistical data.
例えば、複数の画像処理装置1で得られた把持データ及び把持成否結果等を、複数の画像処理装置1に共有される統計データとして一又は複数の画像処理装置1の記憶装置13に統計データとして記憶する。記憶されている統計データに基づいて優先順位を特定し、複数の画像処理装置1で利用する。もちろん、外部に統計データのみを集約して記憶する統計データ共有記憶装置を設けても良いことは言うまでもない。 For example, as the statistical data shared by the plurality of image processing apparatuses 1, the storage data 13 of one or more of the image processing apparatuses 1 is used as statistical data as holding data and holding success / failure results obtained by the plurality of image processing apparatuses 1. Remember. The priority order is specified based on the stored statistical data, and is used in a plurality of image processing apparatuses 1. Of course, it is needless to say that a statistical data shared storage device for collecting and storing only statistical data may be provided outside.
また、それぞれの画像処理装置1で得られた把持データ及び把持成否結果等を、それぞれ別個独立してそれぞれの記憶装置13に記憶し、それぞれの統計データに基づいて得られた優先順位のみを複数の画像処理装置1でそれぞれ利用しても良い。 In addition, gripping data and gripping success / failure results obtained by each image processing apparatus 1 are stored separately and independently in each storage device 13, and only a plurality of priorities obtained based on each statistical data are stored. The image processing apparatus 1 may be used respectively.
1 画像処理装置
2 撮像部
4 ロボットコントローラ
5 マニピュレータ
11 CPU
50 把持部
W ワーク
1 Image Processing Device 2 Imaging Unit 4 Robot Controller 5 Manipulator 11 CPU
50 gripping parts W work
Claims (12)
バラ積みされたワークが搭載されている作業空間を三次元計測して、三次元計測データを取得するセンシング部と、
事前に記憶されている複数のワークモデルを登録するワークモデル登録部と、
前記ワークモデルのモデル座標系に対して、相対的な位置データとして、把持される位置及び該位置において把持する前記マニピュレータの前記把持部の姿勢で構成される把持データを設定する把持データ設定部と、
前記把持データごとにワークの把持の成否に関する統計データを記憶する統計データ記憶部と、
三次元計測により取得した三次元計測データに対して、登録された複数のワークモデルを用いてワークの位置及び姿勢を特定する三次元サーチ処理を実行するサーチ処理実行部と、
三次元サーチ処理の結果として出力される検出スコアが所定の閾値より大きいワークについて、他のワークと干渉するか否かを判定する干渉判定部と、
他のワークと干渉しないと判定された把持データの中から、前記統計データにおける把持の成功率に基づいて把持データを選択する把持データ選択部と
を備えることを特徴とする画像処理装置。 In an image processing apparatus connected to a robot controller for controlling a picking operation for gripping a bulk-stacked workpiece with a gripper of a manipulator and moving the griped workpiece to a predetermined position,
A sensing unit for three-dimensionally measuring a work space in which workpieces stacked in bulk are mounted and acquiring three-dimensional measurement data;
A work model registration unit for registering a plurality of work models stored in advance;
A grasping data setting unit for setting grasping data including a grasped position and an attitude of the grasping unit of the manipulator grasped at the position as relative position data with respect to a model coordinate system of the work model; ,
A statistical data storage unit for storing statistical data on success or failure of gripping of a work for each of the gripping data;
A search processing execution unit that executes a three-dimensional search process that specifies the position and orientation of a work using a plurality of registered work models on three-dimensional measurement data acquired by three-dimensional measurement;
An interference determination unit that determines whether a workpiece whose detection score output as a result of the three-dimensional search processing is larger than a predetermined threshold interferes with another workpiece;
An image processing apparatus comprising: a grip data selection unit configured to select grip data based on a gripping success rate in the statistical data among grip data determined not to interfere with another work.
前記作業空間内のワークを撮像して画像データを取得するワーク撮像部と、
撮像して取得された画像データに基づいて、前記三次元サーチ処理の対象となる前記作業空間内におけるワークの三次元データを三次元計測データとして抽出する三次元データ抽出部と
を備えることを特徴とする請求項1に記載の画像処理装置。 The sensing unit is
A work imaging unit for imaging a work in the work space to obtain image data;
And a three-dimensional data extraction unit for extracting, as three-dimensional measurement data, three-dimensional data of a work in the work space to be subjected to the three-dimensional search processing based on image data acquired by imaging. The image processing apparatus according to claim 1, wherein
前記把持データ選択部は、前記干渉判定部で干渉しないと判定された把持データのうち、前記統計データにおいて把持の成功率の最も高い部分領域に存在するワークに対応する把持データを選択することを特徴とする請求項1又は2に記載の画像処理装置。 The statistical data storage unit stores statistical data regarding success or failure of gripping of the workpiece for each partial area in which the workpiece is detected,
The gripping data selection unit is configured to select gripping data corresponding to a work existing in a partial region having the highest success rate of gripping among the statistical data, among the gripping data determined to not cause interference in the interference determining unit. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized in that:
前記干渉判定部は、前記統計データにおいて選択回数の多い把持データから順に干渉判定を行うことを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。 The statistical data storage unit stores the statistical data including the number of times of selection of grip data,
The image processing apparatus according to any one of claims 1 to 3, wherein the interference determination unit performs the interference determination sequentially from grip data having a large number of selections in the statistical data.
前記画像処理装置は、
バラ積みされたワークが搭載されている作業空間を三次元計測して、三次元計測データを取得する第一の工程と、
事前に記憶されている複数のワークモデルを登録する第二の工程と、
前記ワークモデルのモデル座標系に対して、相対的な位置データとして、把持される位置及び該位置において把持する前記マニピュレータの前記把持部の姿勢で構成される把持データを設定する第三の工程と、
前記把持データごとにワークの把持の成否に関する統計データを記憶する第四の工程と、
三次元計測により取得した三次元計測データに対して、登録された複数のワークモデルを用いてワークの位置及び姿勢を特定する三次元サーチ処理を実行する第五の工程と、
三次元サーチ処理の結果として出力される検出スコアが所定の閾値より大きいワークについて、他のワークと干渉するか否かを判定する第六の工程と、
他のワークと干渉しないと判定された把持データの中から、前記統計データにおける把持の成功率に基づいて把持データを選択する第七の工程と
を含むことを特徴とする画像処理方法。 An image processing method that can be executed by an image processing apparatus connected to a robot controller for controlling a picking operation for gripping a bulk-stacked workpiece with a gripper of a manipulator and moving the griped workpiece to a predetermined position In
The image processing apparatus is
The first step of obtaining three-dimensional measurement data by three-dimensionally measuring the work space in which workpieces stacked in bulk are mounted.
A second step of registering a plurality of work models stored in advance;
A third step of setting, as relative position data, gripping data composed of a gripping position and an attitude of the gripping portion of the manipulator gripping at the position with respect to a model coordinate system of the workpiece model; ,
A fourth step of storing statistical data on success or failure of gripping of the workpiece for each of the gripping data;
A fifth step of executing three-dimensional search processing for specifying the position and orientation of a work using a plurality of registered work models on three-dimensional measurement data acquired by three-dimensional measurement;
A sixth step of determining whether or not a workpiece whose detection score output as a result of the three-dimensional search processing is larger than a predetermined threshold interferes with another workpiece;
And a seventh step of selecting gripping data based on a gripping success rate in the statistical data from among gripping data determined not to interfere with another workpiece.
前記作業空間内のワークを撮像して画像データを取得する第八の工程と、
撮像して取得された画像データに基づいて、前記三次元サーチ処理の対象となる前記作業空間内におけるワークの三次元データを三次元計測データとして抽出する第九の工程と
を含むことを特徴とする請求項5に記載の画像処理方法。 The first step is
An eighth step of imaging the work in the work space to acquire image data;
And a ninth step of extracting, as three-dimensional measurement data, three-dimensional data of a work in the work space to be subjected to the three-dimensional search processing based on image data acquired by imaging. The image processing method according to claim 5.
前記第七の工程は、前記第六の工程で干渉しないと判定された把持データのうち、前記統計データにおいて把持の成功率の最も高い部分領域に存在するワークに対応する把持データを選択することを特徴とする請求項5又は6に記載の画像処理方法。 The fourth step stores statistical data on success or failure of gripping of the workpiece for each partial area where the workpiece is detected,
In the seventh step, among the grip data determined not to interfere in the sixth step, the grip data corresponding to the workpiece present in the partial region having the highest success rate of gripping in the statistical data is selected. The image processing method according to claim 5 or 6, characterized in that
前記第六の工程は、前記統計データにおいて選択回数の多い把持データから順に干渉判定を行うことを特徴とする請求項5乃至7のいずれか一項に記載の画像処理方法。 The fourth step stores the statistical data including the number of times of selection of grip data,
The image processing method according to any one of claims 5 to 7, wherein, in the sixth step, the interference determination is performed sequentially from grip data having a large number of selections in the statistical data.
前記画像処理装置を、
バラ積みされたワークが搭載されている作業空間を三次元計測して、三次元計測データを取得するセンシング手段、
事前に記憶されている複数のワークモデルを登録するワークモデル登録手段、
前記ワークモデルのモデル座標系に対して、相対的な位置データとして、把持される位置及び該位置において把持する前記マニピュレータの前記把持部の姿勢で構成される把持データを設定する把持データ設定手段、
前記把持データごとにワークの把持の成否に関する統計データを記憶する統計データ記憶手段、
三次元計測により取得した三次元計測データに対して、登録された複数のワークモデルを用いてワークの位置及び姿勢を特定する三次元サーチ処理を実行するサーチ処理実行手段、
三次元サーチ処理の結果として出力される検出スコアが所定の閾値より大きいワークについて、他のワークと干渉するか否かを判定する干渉判定手段、及び
他のワークと干渉しないと判定された把持データの中から、前記統計データにおける把持の成功率に基づいて把持データを選択する把持データ選択手段として機能させることを特徴とするコンピュータプログラム。 A computer program that can be executed by an image processing apparatus connected to a robot controller for controlling a picking operation for gripping a bulk-stacked workpiece with a gripper of a manipulator and moving the griped workpiece to a predetermined position ,
The image processing apparatus
Sensing means for acquiring three-dimensional measurement data by three-dimensionally measuring the work space in which workpieces loaded in bulk are mounted
Work model registration means for registering a plurality of work models stored in advance,
Grasping data setting means for setting grasping data composed of a position to be grasped and an attitude of the grasping portion of the manipulator grasped at the position as relative position data with respect to a model coordinate system of the workpiece model;
Statistical data storage means for storing statistical data on success or failure of gripping of a work for each of the gripping data,
Search processing execution means for executing three-dimensional search processing for specifying the position and posture of a work using a plurality of registered work models on three-dimensional measurement data acquired by three-dimensional measurement;
Interference determination means for determining whether or not a workpiece whose detection score output as a result of the three-dimensional search processing is larger than a predetermined threshold interferes with another workpiece, and grip data determined not to interfere with the other workpiece And a computer program that causes a computer to function as a gripping data selection unit that selects gripping data based on a success rate of gripping in the statistical data.
前記作業空間内のワークを撮像して画像データを取得するワーク撮像手段、及び
撮像して取得された画像データに基づいて、前記三次元サーチ処理の対象となる前記作業空間内におけるワークの三次元データを三次元計測データとして抽出する三次元データ抽出手段
として機能させることを特徴とする請求項9に記載のコンピュータプログラム。 The sensing means is
Work imaging means for imaging a workpiece in the work space to acquire image data, and three-dimensional work in the work space to be subjected to the three-dimensional search processing based on the image data acquired by imaging The computer program according to claim 9, characterized in that it functions as three-dimensional data extraction means for extracting data as three-dimensional measurement data.
前記把持データ選択手段を、前記干渉判定手段で干渉しないと判定された把持データのうち、前記統計データにおいて把持の成功率の最も高い部分領域に存在するワークに対応する把持データを選択する手段として機能させることを特徴とする請求項9又は10に記載のコンピュータプログラム。 The statistical data storage means functions as a means for storing statistical data regarding success or failure of gripping of the workpiece for each partial area where the workpiece is detected,
The gripping data selecting means is a means for selecting the gripping data corresponding to the work existing in the partial region having the highest gripping success rate in the statistical data among the gripping data determined to not cause interference by the interference determining means. The computer program according to claim 9 or 10, characterized in that it functions.
前記干渉判断手段を、前記統計データにおいて選択回数の多い把持データから順に干渉判定を行う手段として機能させることを特徴とする請求項9乃至11のいずれか一項に記載のコンピュータプログラム。 The statistical data storage means functions as means for storing the statistical data including the number of times of selection of gripping data,
The computer program according to any one of claims 9 to 11, wherein the interference determination means is caused to function as means for performing an interference determination in order from the grip data having a large number of selections in the statistical data.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017082365A JP2018179859A (en) | 2017-04-18 | 2017-04-18 | Image processing apparatus, image processing method, and computer program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017082365A JP2018179859A (en) | 2017-04-18 | 2017-04-18 | Image processing apparatus, image processing method, and computer program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018179859A true JP2018179859A (en) | 2018-11-15 |
Family
ID=64276137
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017082365A Pending JP2018179859A (en) | 2017-04-18 | 2017-04-18 | Image processing apparatus, image processing method, and computer program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018179859A (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020163502A (en) * | 2019-03-28 | 2020-10-08 | セイコーエプソン株式会社 | Object detection method, object detection device and robot system |
| CN114928691A (en) * | 2021-02-12 | 2022-08-19 | 佳能株式会社 | Image processing apparatus and method, production system, product manufacturing method, and medium |
| CN114964019A (en) * | 2022-05-31 | 2022-08-30 | 三一筑工科技股份有限公司 | Construction surface pit detection method and chisel equipment |
| JP2022552628A (en) * | 2019-10-25 | 2022-12-19 | デクステリティ・インコーポレーテッド | Coordinating multiple robots to meet workflows and avoid collisions |
| WO2023084884A1 (en) * | 2021-11-15 | 2023-05-19 | パナソニックIpマネジメント株式会社 | Gripping device, garment processing device, and garment processing method |
| US12129132B2 (en) | 2021-03-15 | 2024-10-29 | Dexterity, Inc. | Singulation of arbitrary mixed items |
| US12319517B2 (en) | 2021-03-15 | 2025-06-03 | Dexterity, Inc. | Adaptive robotic singulation system |
-
2017
- 2017-04-18 JP JP2017082365A patent/JP2018179859A/en active Pending
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7275759B2 (en) | 2019-03-28 | 2023-05-18 | セイコーエプソン株式会社 | OBJECT DETECTION METHOD, OBJECT DETECTION DEVICE, AND ROBOT SYSTEM |
| JP2020163502A (en) * | 2019-03-28 | 2020-10-08 | セイコーエプソン株式会社 | Object detection method, object detection device and robot system |
| JP7522829B2 (en) | 2019-10-25 | 2024-07-25 | デクステリティ・インコーポレーテッド | Systems, methods and computer program products |
| JP2024133213A (en) * | 2019-10-25 | 2024-10-01 | デクステリティ・インコーポレーテッド | Systems, methods and computer program products |
| JP7728409B2 (en) | 2019-10-25 | 2025-08-22 | デクステリティ・インコーポレーテッド | Systems, methods and computer program products |
| US12214512B2 (en) | 2019-10-25 | 2025-02-04 | Dexterity, Inc. | Coordinating multiple robots to meet workflow and avoid conflict |
| US11752636B2 (en) | 2019-10-25 | 2023-09-12 | Dexterity, Inc. | Singulation of arbitrary mixed items |
| US11780096B2 (en) | 2019-10-25 | 2023-10-10 | Dexterity, Inc. | Coordinating multiple robots to meet workflow and avoid conflict |
| US12134200B2 (en) | 2019-10-25 | 2024-11-05 | Dexterity, Inc. | Singulation of arbitrary mixed items |
| JP2022552628A (en) * | 2019-10-25 | 2022-12-19 | デクステリティ・インコーポレーテッド | Coordinating multiple robots to meet workflows and avoid collisions |
| CN114928691A (en) * | 2021-02-12 | 2022-08-19 | 佳能株式会社 | Image processing apparatus and method, production system, product manufacturing method, and medium |
| US12229848B2 (en) | 2021-02-12 | 2025-02-18 | Canon Kabushiki Kaisha | Image processing device, image processing method, production system, product manufacturing method, and storage medium |
| US12129132B2 (en) | 2021-03-15 | 2024-10-29 | Dexterity, Inc. | Singulation of arbitrary mixed items |
| US12319517B2 (en) | 2021-03-15 | 2025-06-03 | Dexterity, Inc. | Adaptive robotic singulation system |
| WO2023084884A1 (en) * | 2021-11-15 | 2023-05-19 | パナソニックIpマネジメント株式会社 | Gripping device, garment processing device, and garment processing method |
| CN114964019A (en) * | 2022-05-31 | 2022-08-30 | 三一筑工科技股份有限公司 | Construction surface pit detection method and chisel equipment |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2018179859A (en) | Image processing apparatus, image processing method, and computer program | |
| US11338435B2 (en) | Gripping system with machine learning | |
| JP6415026B2 (en) | Interference determination apparatus, interference determination method, and computer program | |
| JP6892286B2 (en) | Image processing equipment, image processing methods, and computer programs | |
| JP6642968B2 (en) | Information processing apparatus, information processing method, and program | |
| JP5281414B2 (en) | Method and system for automatic workpiece gripping | |
| JP5743499B2 (en) | Image generating apparatus, image generating method, and program | |
| CN106256512B (en) | Robotic device including machine vision | |
| CN111745640A (en) | Object detection method, object detection device, and robot system | |
| JP2019508273A (en) | Deep-layer machine learning method and apparatus for grasping a robot | |
| JP2014205209A (en) | Robot system and control method of the same | |
| JP2019084601A (en) | Information processing apparatus, gripping system and information processing method | |
| JP2019018272A (en) | Motion generation method, motion generation apparatus, system, and computer program | |
| CN114080590B (en) | Robotic bin picking system and method using advanced scanning technology | |
| JP2016196077A (en) | Information processor, information processing method, and program | |
| JP2018144159A (en) | ROBOT SETTING DEVICE, ROBOT SYSTEM, ROBOT SETTING METHOD, ROBOT SETTING PROGRAM, COMPUTER READABLE RECORDING MEDIUM, AND RECORDED DEVICE | |
| WO2021039775A1 (en) | Image processing device, image capturing device, robot, and robot system | |
| JP2018126862A (en) | Interference determination apparatus, interference determination method, and computer program | |
| JP7376318B2 (en) | annotation device | |
| WO2019093299A1 (en) | Position information acquisition device and robot control device provided with same | |
| KR20230175122A (en) | Method for controlling a robot for manipulating, in particular picking up, an object | |
| JP7533265B2 (en) | Support system, image processing device, support method and program | |
| JP5083715B2 (en) | 3D position and orientation measurement method and apparatus | |
| JP7066671B2 (en) | Interference determination device, interference determination method, program and system | |
| JP2018146347A (en) | Image processing device, image processing method, and computer program |