[go: up one dir, main page]

JP2009297881A - Handling device, control device, and control method - Google Patents

Handling device, control device, and control method Download PDF

Info

Publication number
JP2009297881A
JP2009297881A JP2008158038A JP2008158038A JP2009297881A JP 2009297881 A JP2009297881 A JP 2009297881A JP 2008158038 A JP2008158038 A JP 2008158038A JP 2008158038 A JP2008158038 A JP 2008158038A JP 2009297881 A JP2009297881 A JP 2009297881A
Authority
JP
Japan
Prior art keywords
work
data
robot
workpiece
visual sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008158038A
Other languages
Japanese (ja)
Other versions
JP5198161B2 (en
Inventor
Yasunobu Nishihara
泰宣 西原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shibaura Machine Co Ltd
Original Assignee
Toshiba Machine Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Machine Co Ltd filed Critical Toshiba Machine Co Ltd
Priority to JP2008158038A priority Critical patent/JP5198161B2/en
Priority to DE112009001414T priority patent/DE112009001414T5/en
Priority to GB1213595.0A priority patent/GB2492257B/en
Priority to PCT/JP2009/060172 priority patent/WO2009148089A1/en
Priority to US12/995,960 priority patent/US8805585B2/en
Priority to GB1019223.5A priority patent/GB2471819B/en
Publication of JP2009297881A publication Critical patent/JP2009297881A/en
Application granted granted Critical
Publication of JP5198161B2 publication Critical patent/JP5198161B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Specific Conveyance Elements (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a handling device, a control device, and a control method capable of treating workpieces being conveyed by a conveyor in the efficient order. <P>SOLUTION: This handling device comprises a vision sensor 3 for generating the workpiece data which indicates the position of the workpieces by photographing the workpieces 10 being conveyed by the belt conveyor 2; a robot 4 for performing a predetermined working for the workpieces 10 being conveyed; and a controller 5 for preparing a database by accumulating the work data transmitted from the vision sensor 3 and controlling the robot 4 in such a manner as to perform a predetermined operation for the workpieces 10 conveyed to the position of the robot 4 using the database. The controller 5 performs a predetermined calculation for each workpiece data stored in the database, and re-arranges the order in which the robot 4 performs operations for the workpieces 10. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

ベルトコンベアにより搬送される物品を効率よく処理するハンドリング装置、制御装置及び制御方法に関する。   The present invention relates to a handling device, a control device, and a control method for efficiently processing articles conveyed by a belt conveyor.

視覚センサをベルトコンベアの上流に配置して、当該ベルトコンベアによって搬送されている物品(以下、ワークと記載する)を検出し、当該視覚センサの出力データを用いて、ロボットがワークに行う動作を制御するハンドリング装置が知られている。例えば、特許文献1に示されたハンドリング装置は、視覚センサがベルトコンベアによって搬送されている各ワークを撮像し、各々のワークに対応させたデータを作成してロボットコントローラへ送信する。ロボットコントローラは、受信データのデータベースを作成し、ベルトコンベアの搬送によってロボットの作業位置へ到達したワークに対し、前述のデータベースから読み出したデータに基づく処理を行っている。   A visual sensor is arranged upstream of the belt conveyor, an article (hereinafter referred to as a workpiece) conveyed by the belt conveyor is detected, and the robot performs an operation on the workpiece using the output data of the visual sensor. Controlling handling devices are known. For example, in the handling apparatus shown in Patent Document 1, the visual sensor images each work being conveyed by the belt conveyor, creates data corresponding to each work, and transmits the data to the robot controller. The robot controller creates a database of received data, and performs a process based on the data read from the above-described database for a work that has reached the work position of the robot by transporting the belt conveyor.

特開2007−15055号公報JP 2007-15055 A

特許文献1に記載された装置は、視覚センサから送信されたデータを順次記憶してデータベースを構築し、データベースに格納されている内容に順応してロボットの動作制御を行っている。そのため、ベルトコンベアによって搬送されている複数のワークを搬送下流側から順に処理するとは限られず、ロボットの動作が煩雑になって搬送下流に載置されているワークを処理することができなくなる場合が生じる可能性がある。   The apparatus described in Patent Literature 1 stores data transmitted from a visual sensor in sequence to construct a database, and controls the operation of the robot in accordance with the contents stored in the database. Therefore, it is not always possible to process a plurality of workpieces conveyed by the belt conveyor in order from the conveyance downstream side, and the operation of the robot becomes complicated, and it may become impossible to process the workpieces placed on the conveyance downstream. It can happen.

本発明の目的は、ベルトコンベアによって搬送されている各ワークを効率のよい順番で処理することができるハンドリング装置、制御装置及び制御方法を得ることにある。   An object of the present invention is to obtain a handling device, a control device, and a control method capable of processing the workpieces conveyed by the belt conveyor in an efficient order.

本発明のハンドリング装置は、ワークを搬送する搬送手段と、ワークに対して所定の作業を行うロボットと、搬送手段によって搬送されているワークを撮像して該ワークの位置を示すワークデータを生成する視覚センサと、視覚センサから送信されたワークデータを蓄積してデータベースを作成し、ロボットの位置に搬送されたワークに所定の作業を行うようにデータベースを用いてロボットを制御する制御手段とを有し、制御手段は、データベースに格納されているワークデータを読み出して所定の演算を行い、複数のワークに対してロボットが作業を行う順番を並べ替える。   The handling apparatus according to the present invention generates a work data indicating a position of a work by picking up an image of the work transported by the transport means for transporting the work, a robot for performing a predetermined operation on the work, and the work transported by the transport means A visual sensor and a control means for creating a database by accumulating work data transmitted from the visual sensor and controlling the robot using the database so as to perform a predetermined operation on the work conveyed to the position of the robot. Then, the control means reads the work data stored in the database, performs a predetermined calculation, and rearranges the order in which the robot performs the work on the plurality of works.

好適には、制御手段が、搬送手段の搬送下流側のワークから作業を開始するように制御する。   Preferably, the control means performs control so as to start work from a work on the conveyance downstream side of the conveyance means.

好適には、制御手段が、視覚センサから送信されたワークデータを視覚センサが撮像した画像毎にまとめたトラッキングデータをデータベースとして記憶する記憶部と、トラッキングデータに含まれている各ワークデータから各ワークの写像ベクトルのスカラ量を求め、各ワークの写像ベクトルのスカラ量に基づいてロボットが作業を行う順番を並べ替える演算部と、演算部によって並べ替えられた順番に応じて各ワークに作業を行うようにロボットを制御する駆動制御部とを有する。   Preferably, the control means stores, as a database, tracking data in which work data transmitted from the visual sensor is collected for each image captured by the visual sensor, and each work data included in the tracking data Calculate the scalar quantity of the mapping vector of the workpiece, and sort the order in which the robot performs the work based on the scalar quantity of the mapping vector of each workpiece, and work on each workpiece according to the order sorted by the computing section And a drive control unit for controlling the robot to perform.

本発明の制御装置は、搬送手段によって搬送されている複数のワークを撮像する視覚センサから送信された複数のワークデータを、視覚センサが撮像した画像毎にまとめたトラッキングデータとして記憶する記憶手段と、記憶手段に記憶されているトラッキングデータの各ワークデータに所定の演算を行って、搬送手段によって搬送されている各ワークに作業を行う順番を並べ替える演算手段と、演算手段によって並べ替えられた順番に応じて各ワークに作業を行うようにロボットを制御する駆動制御手段とを有する。   The control device according to the present invention includes a storage unit that stores a plurality of work data transmitted from a visual sensor that captures a plurality of workpieces conveyed by the conveyance unit as tracking data that is collected for each image captured by the visual sensor. A calculation unit that performs a predetermined calculation on each piece of work data of the tracking data stored in the storage unit, and rearranges the order in which the work is transported by the transport unit; Drive control means for controlling the robot to perform work on each workpiece according to the order.

本発明の制御方法は、搬送手段によって搬送されている複数のワークを撮像する視覚センサから送信された複数のワークデータを視覚センサが撮像した画像毎にまとめたトラッキングデータとして記憶手段へ記憶させる工程と、記憶手段に記憶されているトラッキングデータの各ワークデータに、演算手段が所定の演算を行って、搬送手段によって搬送されている各ワークに作業を行う順番を並べ替える工程と、演算手段によって並べ替えられた順番に応じて各ワークに作業を行うように駆動制御手段がロボットを制御する工程とを有する。   The control method of the present invention is a step of storing a plurality of work data transmitted from a visual sensor that images a plurality of workpieces conveyed by the conveying unit in a storage unit as tracking data collected for each image captured by the visual sensor. A step in which the calculation means performs a predetermined calculation on each work data of the tracking data stored in the storage means and rearranges the order in which the work is carried by the conveyance means, and the calculation means And a step in which the drive control means controls the robot so as to perform work on each workpiece according to the rearranged order.

本発明によれば、搬送されるワークに効率よく作業を行うことができる。   According to the present invention, work can be efficiently performed on a workpiece to be conveyed.

以下、この発明の実施の一形態を説明する。
第1の実施形態
図1は、本発明の第1の実施形態によるハンドリング装置の概略構成を示す説明図である。図示したハンドリング装置1は、ベルトコンベア2、視覚センサ3、ロボット4、ロボットコントローラ5、および、コンベアエンコーダ6によって構成されている。
An embodiment of the present invention will be described below.
First Embodiment FIG. 1 is an explanatory diagram showing a schematic configuration of a handling device according to a first embodiment of the present invention. The illustrated handling apparatus 1 includes a belt conveyor 2, a visual sensor 3, a robot 4, a robot controller 5, and a conveyor encoder 6.

ベルトコンベア2は、例えば仕掛り物品などのワーク10を図中矢印で示したコンベアベクトルAの方向に搬送する搬送手段である。
視覚センサ3は、ベルトコンベア2の搬送上流側の位置において、当該ベルトコンベア2のベルト搬送面2aに搭載された複数のワーク10を撮像するように配設されている。また、視覚センサ3は、出力データであるワークデータ、および、撮像タイミングを示すトリガ信号を、後述するロボットコントローラ5へ出力するように、例えばイーサネット(登録商標)などのLANを介して接続されている。
The belt conveyor 2 is a conveying means that conveys a workpiece 10 such as an in-process article in the direction of a conveyor vector A indicated by an arrow in the drawing.
The visual sensor 3 is arranged so as to image a plurality of workpieces 10 mounted on the belt conveyance surface 2a of the belt conveyor 2 at a position on the conveyance upstream side of the belt conveyor 2. The visual sensor 3 is connected via a LAN such as Ethernet (registered trademark) so as to output work data as output data and a trigger signal indicating imaging timing to the robot controller 5 described later. Yes.

ロボット4は、ベルトコンベア2によって搬送されているワーク10を、例えば1個ずつ掴む保持部4a、および、保持部4aを所定の範囲内で移動可能に支持するアーム部4bを備えている。   The robot 4 includes, for example, a holding unit 4a that grips the workpieces 10 conveyed by the belt conveyor 2 one by one, and an arm unit 4b that supports the holding unit 4a so as to be movable within a predetermined range.

ロボットコントローラ5は、ロボット4の動作を制御するように接続された制御手段である。また、ロボットコントローラ5は、後述するコンベアエンコーダ6の出力信号、および、視覚センサ3から送信されたワークデータならびにトリガ信号を前述の通信線等を介して入力するように接続されている。   The robot controller 5 is control means connected to control the operation of the robot 4. Further, the robot controller 5 is connected so as to input an output signal of a conveyor encoder 6 to be described later and work data and a trigger signal transmitted from the visual sensor 3 via the communication line described above.

コンベアエンコーダ6は、ベルトコンベア2の搬送距離を検出する、即ちベルト搬送面2aに載置されているワーク10の移動量を検出する移動量検出手段である。   The conveyor encoder 6 is a movement amount detection means for detecting the conveyance distance of the belt conveyor 2, that is, detecting the movement amount of the workpiece 10 placed on the belt conveyance surface 2a.

なお、図1にはロボット4を1台、および、当該ロボット4を制御するロボットコントローラ5を1台備えた構成を例示しているが、複数のロボット4およびロボットコントローラ5を有するように構成してもよい。詳しくは、視覚センサ3から通信線へ送信されたワークデータ及びトリガ信号を受信する、例えばルータを備える。このルータに複数のロボットコントローラ5を接続する。このように構成して、各ロボットコントローラ5が、自らの処理動作に用いるワークデータならびにトリガ信号を、上記のルータから入力して各々ロボット4を制御することも可能である。   Although FIG. 1 illustrates a configuration including one robot 4 and one robot controller 5 that controls the robot 4, the configuration includes a plurality of robots 4 and robot controllers 5. May be. Specifically, for example, a router is provided which receives work data and a trigger signal transmitted from the visual sensor 3 to the communication line. A plurality of robot controllers 5 are connected to this router. With this configuration, each robot controller 5 can control the robot 4 by inputting work data and trigger signals used for its own processing operation from the router.

図2は、図1のハンドリング装置1を成す視覚センサ、ロボット、および、ロボットコントローラの構成を示すブロック図である。
視覚センサ3は、カメラ11および画像処理部12を備えている。カメラ11は、例えばCCDカメラ等からなる。
カメラ11は、ワーク10が載置されているベルト搬送面2aを撮像するように配設され、例えば図1に示したトラッキング範囲Sが1回の撮像範囲となるように設けられている。
画像処理部12は、カメラ11から出力された画像データを処理してワークデータを生成するように構成されている。
また、視覚センサ3は、カメラ11の撮像タイミングを示すトリガ信号、および前述のワークデータを通信線へ送信する、図示を省略した通信部等を備えている。
FIG. 2 is a block diagram showing a configuration of a visual sensor, a robot, and a robot controller constituting the handling apparatus 1 of FIG.
The visual sensor 3 includes a camera 11 and an image processing unit 12. The camera 11 is composed of a CCD camera, for example.
The camera 11 is disposed so as to capture an image of the belt conveyance surface 2a on which the workpiece 10 is placed. For example, the tracking range S illustrated in FIG. 1 is provided so as to be a single imaging range.
The image processing unit 12 is configured to process the image data output from the camera 11 and generate work data.
The visual sensor 3 includes a communication unit (not shown) that transmits a trigger signal indicating the imaging timing of the camera 11 and the above-described work data to a communication line.

ロボットコントローラ5は、入力部13、表示部14、演算部15、記憶部16、および、駆動制御部17を備えている。
入力部13は、ユーザに設定操作等を行わせるように構成され、当該設定内容を演算部15へ入力するように接続されている。
表示部14は、前述の操作/設定内容、またロボット4の動作状況等を表示するように、演算部15へ接続されている。
The robot controller 5 includes an input unit 13, a display unit 14, a calculation unit 15, a storage unit 16, and a drive control unit 17.
The input unit 13 is configured to allow a user to perform a setting operation or the like, and is connected to input the setting content to the calculation unit 15.
The display unit 14 is connected to the calculation unit 15 so as to display the above-described operation / setting contents and the operation status of the robot 4.

演算部15は、データ管理部15a、トラッキングマネージャ15b、および、ワークマネージャ15cを備えている。
データ管理部15aは、記憶部16に各データを記憶させる動作処理や、記憶部16からデータを読み出す動作を行うように構成されている。
トラッキングマネージャ15bは、各トラッキングデータD1が示す位置、換言するとトラッキング範囲Sを監視するように構成されている。
ワークマネージャ15cは、トラッキング範囲Sに存在する複数のワーク10の中からロボット4に作業を行わせるワーク10を選択するように構成されている。
The calculation unit 15 includes a data management unit 15a, a tracking manager 15b, and a work manager 15c.
The data management unit 15 a is configured to perform an operation process of storing each data in the storage unit 16 and an operation of reading data from the storage unit 16.
The tracking manager 15b is configured to monitor the position indicated by each tracking data D1, in other words, the tracking range S.
The work manager 15c is configured to select a work 10 that causes the robot 4 to perform work from a plurality of works 10 existing in the tracking range S.

記憶部16は、演算部15の制御によってトラッキングデータD1を記憶し、複数のトラッキングデータD1を記憶することによってデータベースが構築されている。
トラッキングデータD1は、視覚センサ3が1回の撮像で得た画像データから抽出したワーク10の個数、コンベアエンコーダ6の出力信号が示す移動量、及び、上記の1回の撮像で得た画像データから抽出した各ワーク10のワークデータによって構成されている。
駆動制御部17は、後述するロボット4の各部を駆動させる制御信号を生成し、当該ロボット4を稼働させるように接続構成されている。
ロボット4は、保持部4aを駆動する保持用モータ18、保持部4aを支えているアーム部4bを駆動するアーム用モータ19を備えている。
The storage unit 16 stores tracking data D1 under the control of the calculation unit 15, and a database is constructed by storing a plurality of tracking data D1.
The tracking data D1 includes the number of the workpieces 10 extracted from the image data obtained by the visual sensor 3 by one imaging, the movement amount indicated by the output signal of the conveyor encoder 6, and the image data obtained by the above one imaging. It is comprised by the workpiece | work data of each workpiece | work 10 extracted from.
The drive control unit 17 is configured to generate a control signal for driving each unit of the robot 4 to be described later and operate the robot 4.
The robot 4 includes a holding motor 18 that drives the holding unit 4a and an arm motor 19 that drives the arm unit 4b that supports the holding unit 4a.

図3は、図1のハンドリング装置1の動作を示すフローチャートである。
ステップS1では、視覚センサ3のカメラ11が、前述のようにベルトコンベア2の搬送上流側において、ベルト搬送面2aに載置されているワーク10を撮像する。
FIG. 3 is a flowchart showing the operation of the handling apparatus 1 of FIG.
In step S1, the camera 11 of the visual sensor 3 images the workpiece 10 placed on the belt conveyance surface 2a on the upstream side of conveyance of the belt conveyor 2 as described above.

ステップS2では、視覚センサ3の画像処理部12がカメラ11によって撮像された画像から各ワーク10の部分を抽出して、当該各ワーク10のワークデータを生成する。
ステップS3では、前述の図示を省略した視覚センサ3の通信部が、カメラ11の撮像タイミングを示すトリガ信号に対応させて上記のワークデータを送信する。
In step S <b> 2, the image processing unit 12 of the visual sensor 3 extracts a part of each work 10 from the image captured by the camera 11, and generates work data for each work 10.
In step S <b> 3, the communication unit of the visual sensor 3 (not shown) transmits the work data corresponding to the trigger signal indicating the imaging timing of the camera 11.

ステップS4では、ロボットコントローラ5が、詳しくは図示を省略したロボットコントローラ5の受信部が、ステップS3の工程において送信されたワークデータを受信し、データ管理部15aが上記のワークデータを記憶部16に記憶させる。
このとき、一つのトリガ信号に対応させて送られてきた各ワークデータを、一つのトラッキングデータD1としてまとめて記憶し、データベースが構築されるように格納する。
In step S4, the robot controller 5 receives the work data transmitted in the step S3, and the data management unit 15a stores the work data in the storage unit 16 in the receiving unit of the robot controller 5 (not shown in detail). Remember me.
At this time, each piece of work data sent corresponding to one trigger signal is stored together as one tracking data D1, and stored so that a database is constructed.

ステップS5では、ロボットコントローラ5のトラッキングマネージャ15cが、コンベアエンコーダ6の出力信号を監視する。
また、データ管理部15aは、トラッキングマネージャ15bの監視結果に応じて、図1に示したワーク検出エリアを移動しているワーク10を含んでいるトラッキングデータD1を記憶部16から読み出す。
ワークマネージャ15cは、データ管理部15aが記憶部16から読み出した前述のトラッキングデータD1を成す各ワークデータを用いて演算を行い、この演算結果に応じてロボット4がハンドリング作業を行う順番を並べ替える。
In step S5, the tracking manager 15c of the robot controller 5 monitors the output signal of the conveyor encoder 6.
Further, the data management unit 15a reads the tracking data D1 including the workpiece 10 moving in the workpiece detection area shown in FIG. 1 from the storage unit 16 according to the monitoring result of the tracking manager 15b.
The work manager 15c performs an operation using each work data constituting the tracking data D1 read from the storage unit 16 by the data management unit 15a, and rearranges the order in which the robot 4 performs the handling work according to the operation result. .

ステップS6では、ロボットコントローラ5の駆動制御部17が、ステップS5において並べ替えた順番に応じて各ワーク10を保持するように、ロボット4の動作を制御する。
ハンドリング装置1は、概ねこのように動作する。
In step S6, the drive controller 17 of the robot controller 5 controls the operation of the robot 4 so as to hold the workpieces 10 according to the order rearranged in step S5.
The handling device 1 generally operates in this way.

次に各部の詳細動作を説明する。
視覚センサ3は、ベルトコンベア2の搬送上流側において、ベルト搬送面2aの上流端、もしくはその近傍の撮像原点20aから一定の撮像範囲の画像、例えばトラッキング範囲Sの画像を撮像する。
詳しくは、図2のカメラ11が、自らの撮像タイミングでベルト搬送面2aのトラッキング範囲Sを撮像する(ステップS1)。
Next, the detailed operation of each part will be described.
The visual sensor 3 captures an image in a certain imaging range, for example, an image in the tracking range S, from the imaging origin 20a at the upstream end of the belt conveying surface 2a or in the vicinity thereof on the upstream side of the conveyor belt 2.
Specifically, the camera 11 in FIG. 2 images the tracking range S of the belt conveyance surface 2a at its own imaging timing (step S1).

画像処理部12は、トラッキング範囲Sの画像に含まれているワーク10の形状を抽出し、この形状を画像処理部12が自ら記憶している品種毎の形状データ等と比較して、当該ワーク10の品種を特定する。
また、画像処理部12は、トラッキング範囲Sの画像の中からワーク10の任意の部分の座標値を検出し、当該ワーク10のワークデータを生成する(ステップS2)。
この座標値は、カメラ11もしくは視覚センサ3が自ら行う各処理において使用される座標系において表現された値である。
なお、視覚センサ3は、ワークデータにワークの姿勢を示す座標値を含めて生成してもよい。
視覚センサ3は、前述のように、生成したワークデータを順次ロボットコントローラ5へ送信する(ステップS3)。
The image processing unit 12 extracts the shape of the workpiece 10 included in the image in the tracking range S, and compares the shape with the shape data for each type stored in the image processing unit 12 itself. Identify 10 varieties.
Further, the image processing unit 12 detects the coordinate value of an arbitrary part of the workpiece 10 from the image in the tracking range S, and generates workpiece data of the workpiece 10 (step S2).
This coordinate value is a value expressed in a coordinate system used in each process performed by the camera 11 or the visual sensor 3 itself.
The visual sensor 3 may generate the work data including a coordinate value indicating the posture of the work.
As described above, the visual sensor 3 sequentially transmits the generated work data to the robot controller 5 (step S3).

図4は、図1のハンドリング装置1の動作を示す説明図である。この図は、前述のステップS4の工程において、ロボットコントローラ5のデータ管理部15aが、視覚センサ3から送られた各ワークデータ10を記憶部16に格納する動作を表している。   FIG. 4 is an explanatory diagram showing the operation of the handling apparatus 1 of FIG. This figure shows an operation in which the data management unit 15a of the robot controller 5 stores each work data 10 sent from the visual sensor 3 in the storage unit 16 in the step S4 described above.

データ管理部15aは、前述の通信部等が視覚センサ3からトリガ信号毎に送信された複数のワークデータ10を受信すると、これらのワークデータ10を一つにまとめてトラッキングデータD1を生成する。
また、データ管理部15aは、コンベアエンコーダ6から入力したベルトコンベア2の移動量を示すデータを加味して、上記のトラッキングデータD1を生成し、これを記憶部16へ格納してデータベースを構築する。
When the communication unit or the like receives a plurality of work data 10 transmitted from the visual sensor 3 for each trigger signal, the data management unit 15a generates the tracking data D1 by combining the work data 10 into one.
Further, the data management unit 15a generates the tracking data D1 taking into account the data indicating the amount of movement of the belt conveyor 2 input from the conveyor encoder 6, and stores the tracking data D1 in the storage unit 16 to construct the database. .

図4には、視覚センサ3が[i−1]番目に撮像した画像から生成されたトラッキングデータD1をトラッキングデータTrk[i−1]、[i]番目に撮像した画像から生成されたトラッキングデータD1をトラッキングデータTrk[i]、[i+1]番目に撮像した画像から生成されたトラッキングデータD1をトラッキングデータTrk[i+1]として示している。   In FIG. 4, the tracking data D1 generated from the [i-1] th image captured by the visual sensor 3 is the tracking data Trk [i-1], and the tracking data generated from the [i] th imaged. D1 is shown as tracking data Trk [i], and tracking data D1 generated from the [i + 1] -th captured image is shown as tracking data Trk [i + 1].

図4に示したトラッキングデータTrk[i]は、視覚センサ3が[i]番目に撮像したトラッキング範囲Sから、例えば10個のワーク10を検出したときのものを表しており、ワークデータWrk[0]〜Wrk[9]によって構成されている。   The tracking data Trk [i] shown in FIG. 4 represents data when, for example, ten workpieces 10 are detected from the tracking range S imaged by the visual sensor 3 at the [i] th, and the workpiece data Wrk [ 0] to Wrk [9].

データ管理部15aは、例えば、上記のトラッキングデータTrk[i]を生成するとき、視覚センサ3から[i]番目に送られたトリガ信号が受信されると、このトリガ信号に対応させたトラッキングデータTrk[i]を格納する領域を記憶部16に確保する。
また、データ管理部15aは、ここでコンベアエンコーダ6から入力した信号、即ちベルトコンベア2の移動量を示すデータを、前述のトラッキングデータTrk[i]の構成要素として記憶部16に格納する。
またさらに、データ管理部15aは、順次視覚センサ3から送られてくるワークデータWrk[0]〜[9]を、前述の記憶部16に確保したトラッキングデータTrk[i]の領域に記憶/格納する。
For example, when generating the tracking data Trk [i], the data management unit 15a receives the [i] -th trigger signal from the visual sensor 3, and the tracking data corresponding to the trigger signal is received. An area for storing Trk [i] is secured in the storage unit 16.
Further, the data management unit 15a stores the signal input from the conveyor encoder 6 here, that is, data indicating the movement amount of the belt conveyor 2 in the storage unit 16 as a component of the tracking data Trk [i].
Furthermore, the data management unit 15a stores / stores the work data Wrk [0] to [9] sequentially sent from the visual sensor 3 in the area of the tracking data Trk [i] secured in the storage unit 16 described above. To do.

なお、図4では分かり易くするため、[i]番目のトラッキング範囲Sに二つのワーク10を図示し、当該[i]番目のトラッキング範囲に載置されている全てのワーク10の図示を省略している。
また、視覚センサ3が撮像した順番を示す上記の[i−1]、[i]、[i+1]等は、トラッキング番号として各トラッキングデータD1に付記されるものである。
For the sake of clarity, FIG. 4 shows two workpieces 10 in the [i] -th tracking range S, and omits all the workpieces 10 placed in the [i] -th tracking range. ing.
Further, the above [i−1], [i], [i + 1] and the like indicating the order of imaging by the visual sensor 3 are appended to each tracking data D1 as tracking numbers.

視覚センサ3が順次ロボットコントローラ5へ送信しているワークデータは、例えば図4に示したワークデータWrk[0]〜[9]のように構成されている。
ワークデータWrk[0]〜[9]は、視覚センサ3が自らの動作処理において使用している座標系のX座標データ、Y座標データ、及びX−Y平面上における回転を表すC座標データを有する。
また、ワークデータWrk[0]〜[9]は、複数の付加データ、例えば付加データ(1)〜(3)を加えて構成されている。付加データ(1)〜(3)は、様々な動作処理に関連する条件等を表し、例えば、前述のように視覚センサ3が判別した品種などを示すデータである。この付加データ(1)〜(3)は、ユーザの所望により視覚センサ3に設定される。
The work data that the visual sensor 3 sequentially transmits to the robot controller 5 is configured as work data Wrk [0] to [9] shown in FIG. 4, for example.
The work data Wrk [0] to [9] are X coordinate data, Y coordinate data of the coordinate system used by the visual sensor 3 in its own motion processing, and C coordinate data representing rotation on the XY plane. Have.
The work data Wrk [0] to [9] is configured by adding a plurality of additional data, for example, additional data (1) to (3). The additional data (1) to (3) represent conditions and the like related to various operation processes, and are data indicating, for example, the types determined by the visual sensor 3 as described above. These additional data (1) to (3) are set in the visual sensor 3 as desired by the user.

ベルトコンベア2の搬送上流側において視覚センサ3に撮像された各ワーク10は、所定の時間を要してロボット4の配設されている位置へ搬送される。
ロボットコントローラ5は、記憶部16に蓄積されているデータベースを用いてロボット4の動作を制御し、当該ロボット4の位置に搬送されたワーク10にハンドリング作業を行う。
ロボット4のハンドリング作業は、図1に示したワーク検出エリア開始点20bとワーク検出エリア終了点20cとの間に設けられたワーク検出エリアにおいて行われる。
Each workpiece 10 imaged by the visual sensor 3 on the upstream side of the conveyance of the belt conveyor 2 is conveyed to a position where the robot 4 is disposed in a predetermined time.
The robot controller 5 controls the operation of the robot 4 using a database stored in the storage unit 16, and performs a handling operation on the workpiece 10 conveyed to the position of the robot 4.
The handling operation of the robot 4 is performed in a workpiece detection area provided between the workpiece detection area start point 20b and the workpiece detection area end point 20c shown in FIG.

ロボットコントローラ5のトラッキングマネージャ15bは、各トラッキングデータD1に含まれている移動量を示すデータを監視し、搬送中の各ワーク10の位置を検知する。
具体的には、トラッキングマネージャ15bは、データベースに格納されている各トラッキングデータD1の移動量を示すデータを抽出する。
またさらにトラッキングマネージャ15bは、上記の抽出した移動量を示すデータを用いて、ワーク検出エリア内を移動中のトラッキング範囲Sが、どのトラッキングデータD1に対応しているかを認識する。
トラッキングマネージャ15bは、上記の認識したトラッキングデータD1を、データ管理部15aを用いて記憶部16から読み出す。
The tracking manager 15b of the robot controller 5 monitors data indicating the amount of movement included in each tracking data D1, and detects the position of each workpiece 10 being conveyed.
Specifically, the tracking manager 15b extracts data indicating the movement amount of each tracking data D1 stored in the database.
Furthermore, the tracking manager 15b recognizes which tracking data D1 corresponds to the tracking range S that is moving in the work detection area, using the data indicating the extracted movement amount.
The tracking manager 15b reads the recognized tracking data D1 from the storage unit 16 using the data management unit 15a.

ワークマネージャ15cは、前述の記憶部16から読み出したトラッキングデータD1、即ち、トラッキングマネージャ15bが認識したトラッキングデータD1を入力する。
ワークマネージャ15cは、入力したトラッキングデータD1に含まれている複数のワークデータの中から処理を行うものを選択する。
換言すると、ワーク検出エリアに到達している複数のワーク10の中からロボット4に保持させるものを選択する。
The work manager 15c inputs the tracking data D1 read from the storage unit 16, that is, the tracking data D1 recognized by the tracking manager 15b.
The work manager 15c selects what is to be processed from a plurality of work data included in the input tracking data D1.
In other words, one to be held by the robot 4 is selected from a plurality of workpieces 10 that have reached the workpiece detection area.

図5は、図1のハンドリング装置1の動作を示す説明図である。
この図は、データベースに格納されている各ワークデータの順番とベルト搬送面2aに載置されている各ワーク10を対応させた状態B、および、ロボット4に保持させる順番とベルト搬送面2aに載置されている各ワーク10とを対応させた状態Cを表している。
なお、上記の状態Bは、視覚センサ3から送信されたワークデータを順次データベースに格納した順番の一例であり、図示した順番に限定されない。
FIG. 5 is an explanatory diagram showing the operation of the handling apparatus 1 of FIG.
This figure shows a state B in which the order of the workpiece data stored in the database is associated with each workpiece 10 placed on the belt conveyance surface 2a, and the order in which the robot 4 holds the belt and the belt conveyance surface 2a. A state C is shown in which each workpiece 10 placed thereon is associated.
In addition, said state B is an example of the order which stored the work data transmitted from the visual sensor 3 in a database sequentially, and is not limited to the order shown in figure.

ワークマネージャ15cは、図3のステップS5の工程において、ロボット4に各ワーク10を保持させる順番を状態Cのように並べ替える。
具体的には、1つのトラッキング範囲Sにおいて、搬送下流側のワーク10から順番にロボット4が保持するように、各ワーク10に対応するワークデータの並べ替えを行う。
The work manager 15c rearranges the order in which the robot 4 holds each work 10 in the process of step S5 in FIG.
Specifically, in one tracking range S, work data corresponding to each work 10 is rearranged so that the robot 4 sequentially holds the work 10 on the downstream side of the conveyance.

図6は、図1のハンドリング装置1のロボットコントローラが行う演算処理を示す説明図である。
図示したOは、任意の基準点である。また、ベクトルCνは、例えばユーザ等によって定められた単位ベクトルであり、ベルトコンベア2の搬送動作を表すコンベアベクトルAと同一方向を示す。
基準点Oは、例えばワーク検出エリアの中を移動しているトラッキング範囲Sよりも搬送上流側に設定される。図6に例示した基準点Oは、ベルト搬送面2aの幅方向の中央部分に設けられている。
FIG. 6 is an explanatory diagram showing a calculation process performed by the robot controller of the handling apparatus 1 of FIG.
O shown in the figure is an arbitrary reference point. Further, the vector Cν is a unit vector determined by, for example, a user, and indicates the same direction as the conveyor vector A representing the conveying operation of the belt conveyor 2.
The reference point O is set upstream of the tracking range S that is moving in the workpiece detection area, for example. The reference point O illustrated in FIG. 6 is provided at the center portion in the width direction of the belt conveyance surface 2a.

例えば、ベルト搬送面2aの面上において、ワーク10の位置Pの座標を(Px,Py)、基準点Oの座標を(Ox,Oy)としたとき、基準点Oからワーク10までのベクトルPnは(Px−Ox,Py−Oy)となる。
ベクトルPnとベクトルCνの成す角度をθとしたとき、ワーク10の写像ベクトルPnは次の(1)式のように表される。
For example, when the coordinate of the position P of the workpiece 10 is (Px, Py) and the coordinate of the reference point O is (Ox, Oy) on the surface of the belt conveyance surface 2a, the vector Pn from the reference point O to the workpiece 10 Becomes (Px-Ox, Py-Oy).
When the angle formed by the vector Pn and the vector Cν is θ, the mapping vector Pn C of the workpiece 10 is expressed by the following equation (1).

Figure 2009297881
Figure 2009297881

ここで、ベクトルPnとベクトルCνの内積は(2)式のように表される。   Here, the inner product of the vector Pn and the vector Cν is expressed as shown in Equation (2).

Figure 2009297881
Figure 2009297881

ベクトルCνは、前述のように単位ベクトルなのでスカラ量は“1”である。そのため、前述の内積は、次の(3)式のようになる。   Since the vector Cν is a unit vector as described above, the scalar quantity is “1”. Therefore, the inner product described above is expressed by the following equation (3).

Figure 2009297881
Figure 2009297881

前述の(1)式と(3)式から、写像ベクトルPnのスカラ量は、次の(4)式のように表される。 From the above equations (1) and (3), the scalar quantity of the mapping vector Pn C is expressed as the following equation (4).

Figure 2009297881
Figure 2009297881

このように、ワーク10の写像ベクトルPnのスカラ量を、ベクトルPとベクトルCνとの内積によって求めることができる。
演算部15の例えばワークマネージャ15cは、このようにして一つのトラッキングデータD1に含まれている全てのワークデータに対して写像ベクトルPnのスカラ量を求める。
Thus, the scalar quantity of the mapping vector Pn C of the workpiece 10 can be obtained by the inner product of the vector P and the vector Cν.
For example, the work manager 15c of the calculation unit 15 obtains the scalar quantity of the mapping vector Pn C for all the work data included in one tracking data D1 in this way.

各ワーク10の位置を、写像ベクトルPnのスカラ量によって表すことにより、視覚センサ3から送られたワークデータの座標系がベルトコンベア2の搬送方向に整合していない場合でも、ロボット4の動作制御に用いることができる。
また、視覚センサ3が撮像した画像の座標原点がどのように配置されていても、ロボット4の動作制御に用いることが可能になる。
By representing the position of each workpiece 10 by the scalar quantity of the mapping vector Pn C , the operation of the robot 4 is performed even when the coordinate system of the workpiece data sent from the visual sensor 3 is not aligned with the transport direction of the belt conveyor 2. Can be used for control.
Further, no matter how the coordinate origin of the image captured by the visual sensor 3 is arranged, it can be used for operation control of the robot 4.

例えば、一つのトラッキングデータD1に含まれているワークデータの数量を10個としたとき、前述のようにして求めた各ワークデータの写像ベクトルPnのスカラ量を、次のデータ列(5)のように並べる。 For example, when the number of work data included in one tracking data D1 is 10, the scalar quantity of the mapping vector Pn C of each work data obtained as described above is represented by the following data string (5). Line up like

Figure 2009297881
Figure 2009297881

前述のように原点Oを搬送上流側に設定したときには、写像ベクトルPnのスカラ量は、搬送下流側に位置するワーク10が大きな値になる。
演算部15は、例えば選択ソート法を用いて各スカラ量の並べ替えを行う。演算部15の例えばワークマネージャ15cは、データ列(5)の中の各スカラ量を比較し、値の大きな順に並べ替える。
ワークマネージャ15cは、データ列(5)の中に並べられている各スカラ量に対応させて、順にワークデータを選択する。
ワークマネージャ15cは、このように、大きな写像ベクトルPnのスカラ量を有するワークデータから順に、ロボット4の動作制御に用いるワークデータとして選択する。
When the origin O as described above was set in conveying upstream, scalar quantity of the mapping vector Pn C a work 10 which is located in the transport downstream side becomes a large value.
The computing unit 15 rearranges each scalar quantity using, for example, a selective sorting method. For example, the work manager 15c of the calculation unit 15 compares the scalar quantities in the data string (5) and rearranges them in descending order.
The work manager 15c selects work data in order corresponding to each scalar quantity arranged in the data string (5).
Work Manager 15c is thus the work data sequentially with a scalar quantity of large mapping vector Pn C, it is selected as a work data used for the operation control of the robot 4.

図3のステップS6の工程において、駆動制御部17は、ワークマネージャ15cが順次選択したワークデータを用いてロボット4の動作を制御し、例えば図5の状態Cに示したように搬送下流に位置するワーク10から順番にハンドリング作業を行わせる。   In the process of step S6 in FIG. 3, the drive control unit 17 controls the operation of the robot 4 using the work data sequentially selected by the work manager 15c, for example, as shown in the state C in FIG. The handling work is sequentially performed from the workpiece 10 to be performed.

ワークマネージャ15cが、写像ベクトルPnのスカラ量に応じてデータ列(5)の中を並べ替え、並べ替えたデータ列(5)に対応させて各ワークデータを処理する順番を変更することにより、ロボット4が各ワーク10を保持する順番を変更することができる。 By Work Manager 15c may sort through the data sequence (5) in response to the scalar quantity of the mapping vector Pn C, to correspond to the sorted data string (5) to change the order of processing each workpiece data The order in which the robot 4 holds the workpieces 10 can be changed.

以上の第1の実施形態のハンドリング装置1によれば、演算部15が、ロボット4の動作制御に用いるワークデータの順番を並べ替えるようにしたので、ベルトコンベア2に搬送され、ワーク検出エリアを移動中のワーク10に効率よく作業を行うことができる。
また、作業を行う順番を並べ替えて搬送下流側に位置するワーク10から作業を行うようにしたので、搬送中のワーク10に作業をし損ねることを抑制することができる。
また、ロボット4の無駄な動作を抑えることができる。
According to the handling device 1 of the first embodiment described above, since the calculation unit 15 rearranges the order of the work data used for the operation control of the robot 4, it is conveyed to the belt conveyor 2 and the work detection area is set. Work can be efficiently performed on the moving workpiece 10.
In addition, since the work order is rearranged and the work is performed from the work 10 located on the downstream side of the conveyance, it is possible to prevent the work 10 being conveyed from being missed.
Further, useless operations of the robot 4 can be suppressed.

第2の実施形態
本発明の第2の実施形態によるハンドリング装置は、前述の第1の実施形態で説明したハンドリング装置と同様に構成されている。第1の実施形態で説明した装置と同様な構成について重複説明を省略する。
また、第2の実施形態によるハンドリング装置は、第1の実施形態で説明した装置と概ね同様に動作する。ここでは、第1の実施形態で説明した装置と同様な動作について重複説明を省略し、第2の実施形態によるハンドリング装置の特徴となる動作を説明する。
Second Embodiment A handling apparatus according to a second embodiment of the present invention is configured in the same manner as the handling apparatus described in the first embodiment. A duplicate description of the same configuration as that of the apparatus described in the first embodiment is omitted.
The handling device according to the second embodiment operates in substantially the same manner as the device described in the first embodiment. Here, redundant description of operations similar to those of the apparatus described in the first embodiment will be omitted, and operations that characterize the handling apparatus according to the second embodiment will be described.

図7は、本発明の第2の実施形態によるハンドリング装置の動作を示す説明図である。
この図は、データベースに格納されている各ワークデータの順番とベルト搬送面2aに載置されている各ワーク10を対応させた状態B、および、ロボット4に保持させる順番とベルト搬送面2aに載置されている各ワーク10とを対応させた状態Dを表している。
なお、上記の状態Bは、図5に示した状態Bと同様に、視覚センサ3から送信されたワークデータを順次データベースに格納した順番の一例であり、図示した順番に限定されない。
FIG. 7 is an explanatory diagram showing the operation of the handling device according to the second embodiment of the present invention.
This figure shows a state B in which the order of the workpiece data stored in the database is associated with each workpiece 10 placed on the belt conveyance surface 2a, and the order in which the robot 4 holds the belt and the belt conveyance surface 2a. A state D in which each workpiece 10 placed thereon is associated is shown.
In addition, said state B is an example of the order which stored the work data transmitted from the visual sensor 3 in a database sequentially like the state B shown in FIG. 5, and is not limited to the order shown in figure.

第2の実施形態によるハンドリング装置1のワークマネージャ15cは、第1の実施形態で説明した図3のステップS5の工程において、ロボット4に各ワーク10を保持させる順番を状態Dのように並べ替える。
具体的には、1つのトラッキング範囲Sにおいて、搬送下流側のワーク10から順番にロボット4が保持するように、各ワーク10に対応するワークデータの並べ替えを行う。
例えば、最も搬送下流側に載置されているワーク10を、前述の第1の実施形態で説明した演算によって求める。
次に、このワーク10から最も近い位置に載置されているワーク10を、例えば各ワークデータの座標値を比較して検知する。このようにして、近傍に載置されているワーク10を順に検知し、検知した順番に応じてワークデータを並べ替える。
The work manager 15c of the handling apparatus 1 according to the second embodiment rearranges the order in which the robot 4 holds the workpieces 10 as in the state D in the step S5 of FIG. 3 described in the first embodiment. .
Specifically, in one tracking range S, work data corresponding to each work 10 is rearranged so that the robot 4 sequentially holds the work 10 on the downstream side of the conveyance.
For example, the work 10 placed on the most downstream side of the conveyance is obtained by the calculation described in the first embodiment.
Next, the workpiece 10 placed at the position closest to the workpiece 10 is detected by comparing the coordinate values of the workpiece data, for example. In this way, the workpieces 10 placed in the vicinity are sequentially detected, and the workpiece data are rearranged according to the detected order.

上記のように、ワークマネージャ15cがワークデータを並べ替えて、順に駆動制御部17へ出力することにより、ロボット4は、図7の状態Dに示した順番で、各ワーク10に作業を行う。   As described above, the work manager 15c rearranges the work data and sequentially outputs the work data to the drive control unit 17, whereby the robot 4 performs the work on each work 10 in the order shown in the state D of FIG.

以上の第2の実施形態のハンドリング装置1によれば、ロボットコントローラ5の演算部15が、ロボット4の動作制御に用いるワークデータの順番を並べ替えるようにしたので、ベルトコンベア2によって搬送されてワーク検出エリアを移動中のワーク10に効率よく作業を行うことができる。
また、作業を行う順番を並べ替えて搬送下流側に位置するワーク10から作業を開始し、順次近傍のワーク10に作業を行うようにしたので、搬送中のワーク10に作業をし損ねることを抑制することができる。
また、ロボット4の無駄な動作を抑えることができる。
According to the handling device 1 of the second embodiment described above, since the calculation unit 15 of the robot controller 5 rearranges the order of the work data used for the operation control of the robot 4, it is conveyed by the belt conveyor 2. Work can be efficiently performed on the workpiece 10 moving in the workpiece detection area.
In addition, the work order is rearranged, the work is started from the work 10 located on the downstream side of the conveyance, and the work is sequentially performed on the work 10 in the vicinity. Can be suppressed.
Further, useless operations of the robot 4 can be suppressed.

本発明の第1の実施形態によるハンドリング装置の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the handling apparatus by the 1st Embodiment of this invention. 図1のハンドリング装置1を成す視覚センサ、ロボット、および、ロボットコントローラの構成を示すブロック図である。It is a block diagram which shows the structure of the visual sensor, robot, and robot controller which comprise the handling apparatus 1 of FIG. 図1のハンドリング装置1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the handling apparatus 1 of FIG. 図1のハンドリング装置1の動作を示す説明図である。It is explanatory drawing which shows operation | movement of the handling apparatus 1 of FIG. 図1のハンドリング装置1の動作を示す説明図である。It is explanatory drawing which shows operation | movement of the handling apparatus 1 of FIG. 図1のハンドリング装置1のロボットコントローラが行う演算処理を示す説明図である。It is explanatory drawing which shows the arithmetic processing which the robot controller of the handling apparatus 1 of FIG. 1 performs. 本発明の第2の実施形態によるハンドリング装置の動作を示す説明図である。It is explanatory drawing which shows operation | movement of the handling apparatus by the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1 ハンドリング装置、2 ベルトコンベア、3 視覚センサ、4 ロボット、4a 保持部、4b アーム部、5 ロボットコントローラ、10 ワーク、11 カメラ、12 画像処理部、13 入力部、14 表示部、15 演算部、15a データ管理部、15b トラッキングマネージャ、15c ワークマネージャ、16 記憶部、17 駆動制御部、18 保持用モータ、19 アーム用モータ。   DESCRIPTION OF SYMBOLS 1 Handling apparatus, 2 Belt conveyor, 3 Vision sensor, 4 Robot, 4a Holding part, 4b Arm part, 5 Robot controller, 10 Work, 11 Camera, 12 Image processing part, 13 Input part, 14 Display part, 15 Calculation part, 15a data management unit, 15b tracking manager, 15c work manager, 16 storage unit, 17 drive control unit, 18 holding motor, 19 arm motor.

Claims (5)

ワークを搬送する搬送手段と、
前記ワークに対して所定の作業を行うロボットと、
前記搬送手段によって搬送されているワークを撮像して該ワークの位置を示すワークデータを生成する視覚センサと、
前記視覚センサから送信された前記ワークデータを蓄積してデータベースを作成し、前記ロボットの位置に搬送されたワークに所定の作業を行うように前記データベースを用いて前記ロボットを制御する制御手段と、
を有し、
前記制御手段は、前記データベースに格納されている前記ワークデータを読み出して所定の演算を行い、複数のワークに対して前記ロボットが作業を行う順番を並べ替える、
ハンドリング装置。
Conveying means for conveying the workpiece;
A robot that performs a predetermined operation on the workpiece;
A visual sensor that images the work being transported by the transport means and generates work data indicating the position of the work;
A control means for creating a database by accumulating the work data transmitted from the visual sensor, and controlling the robot using the database so as to perform a predetermined operation on the work conveyed to the position of the robot;
Have
The control means reads out the work data stored in the database, performs a predetermined calculation, and rearranges the order in which the robot performs work for a plurality of works.
Handling device.
前記制御手段は、
前記搬送手段の搬送下流側のワークから作業を開始するように制御する、
請求項1記載のハンドリング装置。
The control means includes
Control to start work from the work downstream of the transport means;
The handling device according to claim 1.
前記制御手段は、
前記視覚センサから送信されたワークデータを前記視覚センサが撮像した画像毎にまとめたトラッキングデータをデータベースとして記憶する記憶部と、
前記トラッキングデータに含まれている各ワークデータから各ワークの写像ベクトルのスカラ量を求め、前記各ワークの写像ベクトルのスカラ量に基づいて前記ロボットが作業を行う順番を並べ替える演算部と、
前記演算部によって並べ替えられた順番に応じて前記各ワークに作業を行うように前記ロボットを制御する駆動制御部と、
を有する、
請求項1または請求項2記載のハンドリング装置。
The control means includes
A storage unit that stores, as a database, tracking data in which work data transmitted from the visual sensor is collected for each image captured by the visual sensor;
An arithmetic unit that obtains the scalar quantity of the mapping vector of each workpiece from each workpiece data included in the tracking data, and rearranges the order in which the robot performs the work based on the scalar quantity of the mapping vector of each workpiece;
A drive control unit that controls the robot so as to perform work on each workpiece according to the order rearranged by the arithmetic unit;
Having
The handling device according to claim 1 or 2.
搬送手段によって搬送されている複数のワークを撮像する視覚センサから送信された複数のワークデータを前記視覚センサが撮像した画像毎にまとめたトラッキングデータとして記憶する記憶手段と、
前記記憶手段に記憶されている前記トラッキングデータの各ワークデータに所定の演算を行って、前記搬送手段によって搬送されている各ワークに作業を行う順番を並べ替える演算手段と、
前記演算手段によって並べ替えられた順番に応じて前記各ワークに作業を行うようにロボットを制御する駆動制御手段と、
を有する、制御装置。
Storage means for storing a plurality of workpiece data transmitted from a visual sensor that images a plurality of workpieces conveyed by the conveying means as tracking data collected for each image captured by the visual sensor;
A calculation unit that performs a predetermined calculation on each piece of work data of the tracking data stored in the storage unit, and rearranges the order in which work is performed on each workpiece transferred by the transfer unit;
Drive control means for controlling the robot so as to perform work on each workpiece according to the order rearranged by the computing means;
A control device.
搬送手段によって搬送されている複数のワークを撮像する視覚センサから送信された複数のワークデータを前記視覚センサが撮像した画像毎にまとめたトラッキングデータとして記憶手段へ記憶させる工程と、
前記記憶手段に記憶されている前記トラッキングデータの各ワークデータに、演算手段が所定の演算を行って、前記搬送手段によって搬送されている各ワークに作業を行う順番を並べ替える工程と、
前記演算手段によって並べ替えられた順番に応じて前記各ワークに作業を行うように駆動制御手段がロボットを制御する工程と、
を有する、制御方法。
Storing a plurality of workpiece data transmitted from a visual sensor that images a plurality of workpieces conveyed by a conveyance unit in a storage unit as tracking data collected for each image captured by the visual sensor;
A step of performing a predetermined calculation on each work data of the tracking data stored in the storage means, and rearranging the order of performing work on each work conveyed by the conveying means;
A step in which the drive control means controls the robot so as to perform work on each workpiece according to the order rearranged by the calculation means;
A control method.
JP2008158038A 2008-06-05 2008-06-17 Handling apparatus and work handling method Active JP5198161B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2008158038A JP5198161B2 (en) 2008-06-17 2008-06-17 Handling apparatus and work handling method
DE112009001414T DE112009001414T5 (en) 2008-06-05 2009-06-03 Processing system, control device, control method and program
GB1213595.0A GB2492257B (en) 2008-06-05 2009-06-03 Handling system, control device, control method, and program
PCT/JP2009/060172 WO2009148089A1 (en) 2008-06-05 2009-06-03 Handling apparatus, control device, control method, and program
US12/995,960 US8805585B2 (en) 2008-06-05 2009-06-03 Handling apparatus, control device, control method, and program
GB1019223.5A GB2471819B (en) 2008-06-05 2009-06-03 Handling system,control device,control method,and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008158038A JP5198161B2 (en) 2008-06-17 2008-06-17 Handling apparatus and work handling method

Publications (2)

Publication Number Publication Date
JP2009297881A true JP2009297881A (en) 2009-12-24
JP5198161B2 JP5198161B2 (en) 2013-05-15

Family

ID=41545307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008158038A Active JP5198161B2 (en) 2008-06-05 2008-06-17 Handling apparatus and work handling method

Country Status (1)

Country Link
JP (1) JP5198161B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011140085A (en) * 2010-01-06 2011-07-21 Seiko Epson Corp Controller, robot, robot system, and method for following control of robot
WO2012111173A1 (en) * 2011-02-15 2012-08-23 オムロン株式会社 Image processing apparatus and image processing system
JP2016060004A (en) * 2014-09-18 2016-04-25 株式会社安川電機 Robot system, robot device, and workpiece picking method
US20180281181A1 (en) * 2017-03-31 2018-10-04 Fanuc Corporation Robot controller, machine learning device and machine learning method
US11084173B2 (en) 2018-06-08 2021-08-10 Fanuc Corporation Robot system and control method for robot system
US11679944B2 (en) 2018-08-31 2023-06-20 Fanuc Corporation Article picking system
JP7710270B1 (en) * 2025-02-18 2025-07-18 コネクテッドロボティクス株式会社 Movement control device and robot system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0748018A (en) * 1993-08-03 1995-02-21 Omori Mach Co Ltd Article detector for article transfer device
JPH0957670A (en) * 1995-08-23 1997-03-04 Fujitsu Ltd Robot trajectory control device and durability test device
JPH10277969A (en) * 1997-01-31 1998-10-20 Honda Motor Co Ltd Control device for legged mobile robot
JP2005111607A (en) * 2003-10-07 2005-04-28 Fanuc Ltd Material flow tracking device using robot
JP2007015055A (en) * 2005-07-07 2007-01-25 Toshiba Mach Co Ltd Handling device, working device, and program
JP2009028818A (en) * 2007-07-25 2009-02-12 Panasonic Electric Works Co Ltd Robot system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0748018A (en) * 1993-08-03 1995-02-21 Omori Mach Co Ltd Article detector for article transfer device
JPH0957670A (en) * 1995-08-23 1997-03-04 Fujitsu Ltd Robot trajectory control device and durability test device
JPH10277969A (en) * 1997-01-31 1998-10-20 Honda Motor Co Ltd Control device for legged mobile robot
JP2005111607A (en) * 2003-10-07 2005-04-28 Fanuc Ltd Material flow tracking device using robot
JP2007015055A (en) * 2005-07-07 2007-01-25 Toshiba Mach Co Ltd Handling device, working device, and program
JP2009028818A (en) * 2007-07-25 2009-02-12 Panasonic Electric Works Co Ltd Robot system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011140085A (en) * 2010-01-06 2011-07-21 Seiko Epson Corp Controller, robot, robot system, and method for following control of robot
WO2012111173A1 (en) * 2011-02-15 2012-08-23 オムロン株式会社 Image processing apparatus and image processing system
JP2012166308A (en) * 2011-02-15 2012-09-06 Omron Corp Image processing apparatus and image processing system
US9741108B2 (en) 2011-02-15 2017-08-22 Omron Corporation Image processing apparatus and image processing system for conveyor tracking
JP2016060004A (en) * 2014-09-18 2016-04-25 株式会社安川電機 Robot system, robot device, and workpiece picking method
US20180281181A1 (en) * 2017-03-31 2018-10-04 Fanuc Corporation Robot controller, machine learning device and machine learning method
CN108687766A (en) * 2017-03-31 2018-10-23 发那科株式会社 Control device, machine learning device and the machine learning method of robot
JP2018171684A (en) * 2017-03-31 2018-11-08 ファナック株式会社 Robot control device, machine learning device and machine learning method
US10549422B2 (en) 2017-03-31 2020-02-04 Fanuc Corporation Robot controller, machine learning device and machine learning method
US11084173B2 (en) 2018-06-08 2021-08-10 Fanuc Corporation Robot system and control method for robot system
US11679944B2 (en) 2018-08-31 2023-06-20 Fanuc Corporation Article picking system
JP7710270B1 (en) * 2025-02-18 2025-07-18 コネクテッドロボティクス株式会社 Movement control device and robot system

Also Published As

Publication number Publication date
JP5198161B2 (en) 2013-05-15

Similar Documents

Publication Publication Date Title
WO2009148089A1 (en) Handling apparatus, control device, control method, and program
JP5198155B2 (en) HANDLING DEVICE, WORK HANDLING METHOD, AND SIGNAL PROCESSING DEVICE
JP6496333B2 (en) Article conveying apparatus using at least one sensor
JP6042860B2 (en) Article transferring apparatus and article transferring method for transferring article using robot
JP5198161B2 (en) Handling apparatus and work handling method
JP4864363B2 (en) Handling device, working device, and program
US8014899B2 (en) Article conveying robot system
JP5887383B2 (en) Article alignment apparatus for aligning articles on a conveyor
US20070179671A1 (en) Tracking and handling device
JP6478234B2 (en) Robot system
JP6549655B2 (en) Article transport device
JP2016026899A (en) Article transfer system
JP2006035397A (en) Conveyance robot system
JP2004249391A (en) Workpiece carrier
CN105437248A (en) Robot system, robot apparatus, and method for picking workpiece
CN107756396A (en) Robot system
JP2013132726A (en) Method for controlling robot, and robot
JP2016147330A (en) Control apparatus based on object recognition
CN110494257A (en) Control device, picking system, logistics system, program, control method and production method
CN115385039A (en) Control device, information processing device, control method, and information processing method
JP2005262369A (en) Robot system
JP2000219317A (en) Cargo sorting equipment
CN110621451A (en) Information processing apparatus, pickup system, logistics system, program, and information processing method
JP2015182212A (en) Robot system, robot, control device, and control method
WO2021065880A1 (en) Robot control system, robot control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5198161

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350