[go: up one dir, main page]

JP2019018339A - Robot system - Google Patents

Robot system Download PDF

Info

Publication number
JP2019018339A
JP2019018339A JP2018114237A JP2018114237A JP2019018339A JP 2019018339 A JP2019018339 A JP 2019018339A JP 2018114237 A JP2018114237 A JP 2018114237A JP 2018114237 A JP2018114237 A JP 2018114237A JP 2019018339 A JP2019018339 A JP 2019018339A
Authority
JP
Japan
Prior art keywords
article
cycle
robot
processing unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018114237A
Other languages
Japanese (ja)
Other versions
JP6697510B2 (en
Inventor
雅文 大場
Masafumi Oba
雅文 大場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to US16/028,973 priority Critical patent/US10521871B2/en
Priority to DE102018116413.0A priority patent/DE102018116413B4/en
Priority to CN201810744084.8A priority patent/CN109249390B/en
Publication of JP2019018339A publication Critical patent/JP2019018339A/en
Application granted granted Critical
Publication of JP6697510B2 publication Critical patent/JP6697510B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a robot system that detects at least one of a conveyance speed and a position of an object being conveyed by a conveyance device and also detects a position and an attitude of the object with high precision, and can perform a proper operation on the object.SOLUTION: A robot system 1 comprises: a conveyance device 2 which conveys an object O; a robot 3 which performs processing on the object O being conveyed; a visual sensor 4 which acquires visual information on the object O having been conveyed by the conveyance device 2; a high-period processing part which processes the visual information acquired by the visual sensor 4 in a first period and detects at least one of a conveyance speed and a position of the object O being conveyed by the conveyance device 2; a low-period processing part which processes the visual information acquired by the visual sensor 4 in a second period shorter than the first period and detects a position of the object O; and a control part 6 which controls the robot based upon at least one of the conveyance speed and position of the object O detected by the high-period processing part and the position of the object O detected by the low-period processing part.SELECTED DRAWING: Figure 1

Description

本発明は、ロボットシステムに関するものである。   The present invention relates to a robot system.

従来、コンベヤによって搬送されてくる物品やコンベヤに付されたマークを撮像して、得られた画像からコンベヤによって搬送される物品の移動速度を検出し、物品の移動に同期してロボットハンドの位置を制御することにより、移動している物品をロボットハンドによって把持するロボットシステムが知られている(例えば、特許文献1参照。)。   Conventionally, images of the articles conveyed by the conveyor and marks attached to the conveyor are imaged, and the movement speed of the articles conveyed by the conveyor is detected from the obtained images, and the position of the robot hand is synchronized with the movement of the articles. There is known a robot system that grips a moving article with a robot hand by controlling (for example, see Patent Document 1).

また、コンベヤの搬送経路における移動量を検出するエンコーダからの信号に同期して視覚センサにより取得された画像により、コンベヤ上のワークを識別し、ロボットの先端のハンドを識別されたワークに位置決めして取り扱うロボットシステムが知られている(例えば、特許文献2参照。)。   In addition, the workpiece on the conveyor is identified by the image acquired by the visual sensor in synchronization with the signal from the encoder that detects the amount of movement in the conveyor transport path, and the robot's tip hand is positioned on the identified workpiece. There is known a robot system that is handled (see, for example, Patent Document 2).

特開2009−28818号公報JP 2009-28818 A 特開2012−192466号公報JP 2012-192466 A

しかしながら、コンベヤの移動量を、エンコーダに匹敵する分解能で、視覚センサにより取得された画像から検出するには、1ms程度の高周期で物品の位置を検出する必要がある一方、コンベヤにより搬送されてくる物品の形状や姿勢を高精度に認識するには、パターンマッチング等の負荷の大きな処理のために膨大な計算が必要となり、高周期で処理することができないという不都合がある。   However, in order to detect the amount of movement of the conveyor from the image acquired by the visual sensor with a resolution comparable to that of the encoder, it is necessary to detect the position of the article at a high cycle of about 1 ms, while being conveyed by the conveyor. In order to recognize the shape and posture of the coming article with high accuracy, enormous calculation is required for processing with a large load such as pattern matching, and there is an inconvenience that processing cannot be performed at a high cycle.

本発明は上述した事情に鑑みてなされたものであって、視覚センサにより検出された視覚情報に基づいて、搬送装置によって搬送されている対象の搬送速度および位置の少なくとも一方の検出と、対象の位置の高精度な検出とを行って、搬送装置により搬送されている対象に対してロボットにより適正な作業を施すことができるロボットシステムを提供することを目的としている。   The present invention has been made in view of the above-described circumstances, and based on visual information detected by a visual sensor, detection of at least one of a transport speed and a position of a target being transported by a transport device, An object of the present invention is to provide a robot system that can detect a position with high accuracy and perform an appropriate operation by a robot on an object being conveyed by a conveying device.

上記目的を達成するため、本発明は以下の手段を提供する。
本発明の一態様は、対象を搬送する搬送装置と、前記搬送装置により搬送されている前記対象に対して処理を行うロボットと、前記搬送装置により搬送されてきた前記対象の視覚情報を取得する視覚センサと、該視覚センサにより取得された前記視覚情報を第1周期で処理して前記搬送装置によって搬送されている前記対象の搬送速度および位置の少なくとも一方を検出する高周期処理部と、前記視覚センサにより取得された前記視覚情報を前記第1周期より長い第2周期で処理して前記対象の位置を検出する低周期処理部と、前記高周期処理部により検出された前記対象の前記搬送速度および前記位置の少なくとも一方、および、前記低周期処理部により検出された前記対象の位置に基づいて前記ロボットを制御する制御部とを備えるロボットシステムを提供する。
In order to achieve the above object, the present invention provides the following means.
One embodiment of the present invention acquires a transport device that transports a target, a robot that performs processing on the target transported by the transport device, and visual information of the target transported by the transport device. A visual sensor, and a high-cycle processing unit that processes the visual information acquired by the visual sensor in a first cycle to detect at least one of a conveyance speed and a position of the object being conveyed by the conveyance device; A low-cycle processing unit that detects the position of the target by processing the visual information acquired by a visual sensor in a second cycle longer than the first cycle, and the conveyance of the target detected by the high-cycle processing unit A robot that includes at least one of a speed and a position, and a control unit that controls the robot based on the position of the target detected by the low-cycle processing unit. To provide a door system.

本態様によれば、搬送装置によって複数の対象が一方向に搬送されてくると、視覚センサによって対象の視覚情報が取得され、取得された複数の視覚情報が高周期処理部および低周期処理部に送られる。高周期処理部においては視覚センサにより取得された視覚情報が第1周期で処理されることにより、比較的小さい処理負荷により算出可能な対象の搬送速度および位置の少なくとも一方が、高周期の第1周期で検出される。これにより、エンコーダと同等の分解能で物品の搬送速度および位置の少なくとも一方を検出することができる。   According to this aspect, when a plurality of targets are transported in one direction by the transport device, the visual information of the target is acquired by the visual sensor, and the acquired plurality of visual information is the high cycle processing unit and the low cycle processing unit. Sent to. In the high cycle processing unit, the visual information acquired by the visual sensor is processed in the first cycle, so that at least one of the conveyance speed and position of the target that can be calculated with a relatively small processing load is the first in the high cycle. Detected with a period. Thereby, at least one of the conveyance speed and the position of the article can be detected with a resolution equivalent to that of the encoder.

一方、低周期処理部においては、第1周期より長い第2周期で視覚情報を処理するので、膨大な計算を必要とする処理を実施することが可能となり、高精度に対象の位置を検出することができる。
これにより、高周期処理部により検出された対象の搬送速度および位置の少なくとも一方に基づいてロボットを移動させて搬送装置によって搬送されている対象にロボットを追従させ、低周期処理部により検出された対象の位置に基づいてロボットにより、搬送装置によって搬送されている対象に対し精度よく処理を施すことができる。
On the other hand, in the low cycle processing unit, visual information is processed in a second cycle longer than the first cycle, so that it is possible to perform a process that requires enormous calculation, and the target position is detected with high accuracy. be able to.
As a result, the robot is moved based on at least one of the conveyance speed and position of the target detected by the high cycle processing unit so that the robot follows the target being conveyed by the conveyance device, and is detected by the low cycle processing unit. Based on the position of the target, the robot can accurately process the target being transported by the transport device.

また、上記態様においては、前記高周期処理部が、前記視覚センサにより取得された前記視覚情報の一部を前記第1周期で処理してもよい。
このようにすることで、高周期処理部により処理される視覚情報の情報量を低減して、高周期で対象の移動速度および位置の少なくとも一方を検出し易くすることができる。
In the above aspect, the high cycle processing unit may process a part of the visual information acquired by the visual sensor in the first cycle.
By doing in this way, the amount of visual information processed by the high cycle processing unit can be reduced, and at least one of the moving speed and position of the target can be easily detected at a high cycle.

上記態様においては、前記視覚センサが、前記搬送装置上の前記対象の画像を前記視覚情報として取得してもよい。
このようにすることで、視覚センサにより異なる時刻に取得された対象の画像を処理して対象の搬送速度を第1周期で検出することができ、視覚センサにより取得された対象の画像にパターンマッチング等の膨大な計算を必要とする処理を第2周期で施して、高精度の対象の位置を検出することができる。
In the above aspect, the visual sensor may acquire the target image on the transport device as the visual information.
In this way, the target image acquired at different times by the visual sensor can be processed to detect the conveyance speed of the target in the first period, and pattern matching is performed on the target image acquired by the visual sensor. It is possible to detect the position of the target with high accuracy by performing a process that requires enormous calculation such as in the second period.

また、上記態様においては、前記搬送装置が、前記対象と同一速度で移動させられるマークを備えていてもよい。
このようにすることで、搬送装置により対象が搬送されてこない状態であっても、搬送装置によって移動するマークの視覚情報を取得することにより、対象の搬送速度を精度よく検出することができる。
Moreover, in the said aspect, the said conveying apparatus may be provided with the mark moved at the same speed as the said object.
By doing in this way, even if the target is not transported by the transport device, it is possible to accurately detect the transport speed of the target by acquiring the visual information of the mark moving by the transport device.

また、上記態様においては、前記高周期処理部が、前記対象の前記搬送速度および大まかな位置および姿勢を検出してもよい。
このようにすることで、高周期処理部が、対象の搬送速度に加えて、大まかな位置および姿勢を検出する。高周期処理部は、高周期で視覚情報を処理するため高精度の位置および姿勢を検出することは困難であるが、大まかな位置および姿勢を検出することは可能であり、対象に対して処理を行うロボットの初期動作のための情報として使用して動作効率を向上することができる。
Moreover, in the said aspect, the said high cycle process part may detect the said conveyance speed and the rough position and attitude | position of the said object.
By doing in this way, a high cycle processing part detects a rough position and posture in addition to a target conveyance speed. Since the high-cycle processing unit processes visual information at a high cycle, it is difficult to detect a highly accurate position and orientation, but it is possible to detect a rough position and orientation, and to process the target. It can be used as information for the initial motion of the robot that performs the operation efficiency.

また、上記態様においては、前記ロボットが、前記搬送装置により搬送されている前記対象を追いかけながら作業してもよい。
このようにすることで、高周期処理部により検出された対象の搬送速度を用いて、搬送されている対象を追従するようにロボットを移動させ、低周期処理部により精度よく検出された対象の位置を用いて、搬送されている対象を誤りなく搬送装置から取り出すことができる。
Moreover, in the said aspect, the said robot may work while chasing the said object currently conveyed by the said conveying apparatus.
By doing so, the robot is moved so as to follow the object being transported using the transport speed of the object detected by the high-cycle processing unit, and the target detected accurately by the low-cycle processing unit Using the position, the object being transported can be removed from the transport device without error.

また、上記態様においては、前記視覚センサが、外部からのトリガにより該トリガを受信した直前または直後の前記視覚情報を出力してもよい。
このようにすることで、視覚センサの外部の高周期処理部、低周期処理部あるいはその他の機器からのトリガにより、必要に応じて視覚情報を出力し、高精度な位置・姿勢の検出、視覚センサの調整や実行状態の確認等に用いることができる。
In the above aspect, the visual sensor may output the visual information immediately before or immediately after receiving the trigger by an external trigger.
In this way, visual information is output as required by a trigger from a high-cycle processor, low-cycle processor, or other equipment outside the visual sensor, and highly accurate position / posture detection, visual It can be used for sensor adjustment and execution status confirmation.

本発明によれば、視覚センサにより検出された視覚情報に基づいて、搬送装置によって搬送されている対象の搬送速度および位置の少なくとも一方の検出と、対象の位置の高精度な検出とを行って、搬送装置により搬送されている対象に対してロボットにより適正な作業を施すことができるという効果を奏する。   According to the present invention, based on the visual information detected by the visual sensor, detection of at least one of the conveyance speed and position of the object being conveyed by the conveyance device and high-precision detection of the position of the object are performed. There is an effect that an appropriate work can be performed by the robot on the object being transported by the transport device.

本発明の一実施形態に係るロボットシステムを示す全体構成図である。1 is an overall configuration diagram showing a robot system according to an embodiment of the present invention. 図1のロボットシステムを示すブロック図である。It is a block diagram which shows the robot system of FIG. 図1のロボットシステムのカメラにより取得される画像の時間変化と搬送速度とを示す図である。It is a figure which shows the time change and conveyance speed of the image which are acquired with the camera of the robot system of FIG. 図1のロボットシステムにおいて同一視野内に複数の物品が撮影される場合を示す図3と同様の図である。FIG. 4 is a view similar to FIG. 3 showing a case where a plurality of articles are photographed within the same field of view in the robot system of FIG. 1. 図1のロボットシステムの第1の変形例を示す全体構成図である。It is a whole block diagram which shows the 1st modification of the robot system of FIG. 図1のロボットシステムの第2の変形例を示す全体構成図である。It is a whole block diagram which shows the 2nd modification of the robot system of FIG. 図1のロボットシステムの第3の変形例を示す全体構成図である。It is a whole block diagram which shows the 3rd modification of the robot system of FIG.

本発明の一実施形態に係るロボットシステム1について、図面を参照しながら以下に説明する。
本実施形態に係るロボットシステム1は、図1に示されるように、対象である物品Oを搬送するコンベヤ(搬送装置)2と、コンベヤ2の近傍に設置されたロボット3と、ロボット3よりも搬送方向の上流側のコンベヤ2の上方に下向きに設置された2次元カメラ(視覚センサ)4と、2次元カメラ4により取得された画像を処理する画像処理部5と、画像処理部5により処理された結果に基づいてロボット3を制御する制御部6とを備えている。
A robot system 1 according to an embodiment of the present invention will be described below with reference to the drawings.
As shown in FIG. 1, the robot system 1 according to the present embodiment includes a conveyor (conveying device) 2 that conveys the target article O, a robot 3 installed near the conveyor 2, and a robot 3. A two-dimensional camera (visual sensor) 4 installed downward above the conveyor 2 on the upstream side in the conveying direction, an image processing unit 5 for processing an image acquired by the two-dimensional camera 4, and processing by the image processing unit 5 And a control unit 6 for controlling the robot 3 based on the result.

コンベヤ2は、例えば、ベルトコンベヤであって、物品Oを搭載して一方向に搬送するベルト7を備えている。ベルト7はモータ(図示略)により駆動されるようになっている。
ロボット3は、平置き型あるいは天吊り型等、任意の形式のものでよいが、例えば、手首先端に物品Oを把持可能なロボットハンド8を備えている。
The conveyor 2 is, for example, a belt conveyor, and includes a belt 7 that carries the article O and conveys it in one direction. The belt 7 is driven by a motor (not shown).
The robot 3 may be of any type such as a flat type or a ceiling type. For example, the robot 3 includes a robot hand 8 that can hold the article O at the tip of the wrist.

2次元カメラ4は、コンベヤ2上の搬送方向の一部の領域に固定された視野を有し、コンベヤ2上を搬送されてくる物品Oの2次元画像を取得するようになっている。2次元カメラ4は、例えば、1msの高周期(第1周期)で2次元画像(視覚情報)を取得して画像処理部5に出力するとともに、外部から入力されてくるトリガに応じて2次元画像を出力するようになっている。   The two-dimensional camera 4 has a field of view fixed in a partial region in the conveyance direction on the conveyor 2 and acquires a two-dimensional image of the article O conveyed on the conveyor 2. The two-dimensional camera 4 acquires, for example, a two-dimensional image (visual information) at a high period (first period) of 1 ms and outputs the two-dimensional image to the image processing unit 5 and two-dimensionally according to a trigger input from the outside. An image is output.

画像処理部5は、図2に示されるように、第1周期で取得された2次元画像の一部を画像処理する高周期処理部9と、第1周期よりも長い第2周期で取得された2次元画像を画像処理する低周期処理部10とを備えている。
高周期処理部9は、第1周期で送られてきた各2次元画像内に含まれる物品Oの重心位置を算出し、異なる時刻に取得された2次元画像内の物品Oの重心位置の変位に基づいて、コンベヤ2による物品Oの搬送速度を算出するようになっている。
As shown in FIG. 2, the image processing unit 5 is acquired in a high cycle processing unit 9 that performs image processing on a part of the two-dimensional image acquired in the first cycle, and in a second cycle longer than the first cycle. And a low-cycle processing unit 10 that performs image processing on the two-dimensional image.
The high-cycle processing unit 9 calculates the gravity center position of the article O included in each two-dimensional image sent in the first period, and the displacement of the gravity center position of the article O in the two-dimensional image acquired at different times. Based on the above, the conveying speed of the article O by the conveyor 2 is calculated.

低周期処理部10は、2次元カメラ4から出力された2次元画像に対しパターンマッチング等の画像処理を施して、2次元画像内に含まれている物品Oの位置および姿勢を検出するようになっている。   The low-cycle processing unit 10 performs image processing such as pattern matching on the two-dimensional image output from the two-dimensional camera 4 so as to detect the position and orientation of the article O included in the two-dimensional image. It has become.

制御部6は、異なる時刻に取得された画像に基づいて高周期処理部9において認識された同一物品Oの位置から算出されたコンベヤ2による物品Oの搬送速度と、低周期処理部10において検出された物品Oの位置および姿勢に基づいてロボット3を制御する駆動信号(駆動指令)を生成するようになっている。   The control unit 6 detects the conveyance speed of the article O by the conveyor 2 calculated from the position of the same article O recognized by the high cycle processing unit 9 based on the images acquired at different times, and detects by the low cycle processing unit 10. A drive signal (drive command) for controlling the robot 3 is generated based on the position and orientation of the article O that has been set.

例えば、制御部6は、低周期処理部10で物品Oの位置および姿勢を検出した時点から高周期処理部9により算出されたコンベヤ2による物品Oの搬送速度を用いて1ms毎にコンベヤ2の移動量を逐次積算して物品Oの現在位置を求め、物品Oの現在位置に応じた駆動信号をロボット3に出力する。
もし物品Oが認識されないことが一時的にあった場合は、直前のコンベヤ2による物品Oの搬送速度を用いてコンベヤ2の移動量を算出する。
For example, the control unit 6 uses the conveyance speed of the article O by the conveyor 2 calculated by the high cycle processing unit 9 from the time when the position and orientation of the article O are detected by the low cycle processing unit 10, and the control unit 6 The amount of movement is sequentially accumulated to determine the current position of the article O, and a drive signal corresponding to the current position of the article O is output to the robot 3.
If the article O is temporarily not recognized, the moving amount of the conveyor 2 is calculated using the transport speed of the article O by the immediately preceding conveyor 2.

制御部6は、予め教示された動作プログラムに従ってロボット3を動作させるとともに、高周期処理部9において算出された搬送速度に基づいて、コンベヤ2上の物品Oを追従するトラッキングを実施し、低周期処理部10において検出された物品Oの位置および姿勢に合わせてロボットハンド8の姿勢を変更し、コンベヤ2によって移動している物品Oをロボットハンド8によって把持させ、コンベヤ2から取り上げさせる処理を行わせるようになっている。   The control unit 6 operates the robot 3 in accordance with an operation program taught in advance, and performs tracking to follow the article O on the conveyor 2 based on the conveyance speed calculated in the high cycle processing unit 9. The posture of the robot hand 8 is changed according to the position and posture of the article O detected by the processing unit 10, and the article O moving by the conveyor 2 is grasped by the robot hand 8 and picked up from the conveyor 2 is performed. It comes to let you.

さらに具体的には、高周期処理部9は、例えば、図3に示されるように、第1周期の時間間隔Δtをあけて異なる時刻t1,t2,t3に同一視野において3枚の画像が取得されたときに、処理負荷が小さい簡単な画像処理(例えば、重心位置検出処理やブロブ検出処理)を行って物品Oの位置を検出し、検出された物品Oの重心の座標位置d1,d2,d3を算出するようになっている。図中、速度Vは物品Oの搬送速度である。   More specifically, as shown in FIG. 3, for example, the high cycle processing unit 9 acquires three images in the same field of view at different times t1, t2, and t3 with a time interval Δt of the first cycle. When this is done, simple image processing with a low processing load (for example, center of gravity position detection processing or blob detection processing) is performed to detect the position of the article O, and the coordinate positions d1, d2, and the center of gravity of the detected article O are detected. d3 is calculated. In the figure, the speed V is the conveying speed of the article O.

そして、高周期処理部9は、時間軸方向に隣接して取得された画像内の搬送方向に直交する方向の同じ座標に配置されている重心を有する物品Oを同一物品Oであると認識し、各物品Oの重心の搬送方向の座標値の差分を撮影の時間間隔Δtで除算することにより搬送速度を算出するようになっている。同一物品Oについて搬送速度が複数回算出されたときにはその平均値あるいは最小自乗法等によってフィッティングされた値を搬送速度として出力するようになっている。   Then, the high cycle processing unit 9 recognizes the article O having the center of gravity arranged at the same coordinate in the direction orthogonal to the transport direction in the image acquired adjacent to the time axis direction as the same article O. The conveyance speed is calculated by dividing the difference between the coordinate values in the conveyance direction of the center of gravity of each article O by the photographing time interval Δt. When the conveyance speed is calculated a plurality of times for the same article O, an average value or a value fitted by the least square method or the like is output as the conveyance speed.

この場合において、高周期処理部9は、第1周期で繰り返し行われる物品Oの重心位置検出処理において、いずれか1つの物品Oを包含する部分領域を画定し、2次元カメラ4から送られてくる画像全体ではなく、部分領域によって制限された画像の一部のみについて画像処理を行って重心位置を順次検出するようになっている。もちろん画像全体を使うことも可能である。この場合、処理の負荷は画像の一部を用いるよりも大きくなる。   In this case, the high-cycle processing unit 9 demarcates a partial region that includes any one of the articles O in the center-of-gravity position detection process of the articles O that is repeatedly performed in the first period, and is sent from the two-dimensional camera 4. The center-of-gravity position is sequentially detected by performing image processing on only a part of the image limited by the partial area, not the entire image to come. Of course, the entire image can be used. In this case, the processing load becomes larger than when a part of the image is used.

一方、低周期処理部10は、2次元カメラ4から送られてくる画像に対して、負荷処理が大きい画像処理(例えば、物品Oの輪郭からパターンマッチングにより物品Oの位置および姿勢を検出する処理)を行って、検出された物品Oの位置および姿勢を制御部6に出力するようになっている。   On the other hand, the low-cycle processing unit 10 performs image processing with large load processing on the image sent from the two-dimensional camera 4 (for example, processing for detecting the position and orientation of the article O by pattern matching from the contour of the article O). ) To output the detected position and posture of the article O to the control unit 6.

このように構成された本実施形態に係るロボットシステム1の作用について以下に説明する。
本実施形態に係るロボットシステム1によれば、コンベヤ2によって物品Oが搬送されてくると、2次元カメラ4によって物品Oが第1周期で撮影される。撮影により取得された画像は、画像処理部5の高周期処理部9に順次に送られるとともに、低周期処理部10から第2周期で出力されるトリガに応じて低周期処理部10にもトリガを受信した直前(または直後)の画像が送られる。
The operation of the robot system 1 according to this embodiment configured as described above will be described below.
According to the robot system 1 according to the present embodiment, when the article O is conveyed by the conveyor 2, the article O is photographed by the two-dimensional camera 4 in the first period. Images acquired by shooting are sequentially sent to the high cycle processing unit 9 of the image processing unit 5 and also triggered by the low cycle processing unit 10 in response to a trigger output from the low cycle processing unit 10 in the second cycle. The image immediately before (or immediately after) is received is sent.

高周期処理部9においては、2次元カメラ4から送られてきた各画像に対し、処理負荷が比較的小さい画像処理が施されることにより、物品Oが認識され、物品Oの周囲の部分的な画像から物品Oの重心の座標位置d1,d2,d3が検出される。そして、図3に示されるように、所定時間間隔Δtをあけて異なる時刻t1,t2,t3に取得された画像から検出された同一物品Oの重心の座標位置d1,d2,d3に基づいて、第1周期でコンベヤ2による物品Oの搬送速度が算出され、制御部6に入力される。2次元カメラ4とロボット3とは所定の距離だけ離れて配置されているので、当該距離を搬送速度で除算した時間後に物品Oがロボット3の動作範囲内に移動する。   In the high-cycle processing unit 9, the article O is recognized by performing image processing with a relatively small processing load on each image sent from the two-dimensional camera 4, and a partial area around the article O is recognized. The coordinate positions d1, d2, d3 of the center of gravity of the article O are detected from the correct image. Then, as shown in FIG. 3, based on the coordinate positions d1, d2, d3 of the center of gravity of the same article O detected from images acquired at different times t1, t2, t3 with a predetermined time interval Δt, In the first period, the conveyance speed of the article O by the conveyor 2 is calculated and input to the control unit 6. Since the two-dimensional camera 4 and the robot 3 are arranged apart from each other by a predetermined distance, the article O moves within the operation range of the robot 3 after a time obtained by dividing the distance by the conveyance speed.

また、低周期処理部10においては、トリガに応じて2次元カメラ4から送られてきた各画像に対し、第1周期よりも長い第2周期で、パターンマッチング等の負荷処理が大きな画像処理が施されることにより、全体画像から物品Oの位置および姿勢が精度よく検出され、制御部6に入力される。   Further, in the low cycle processing unit 10, for each image sent from the two-dimensional camera 4 in response to the trigger, image processing with large load processing such as pattern matching is performed in the second cycle longer than the first cycle. As a result, the position and posture of the article O are detected from the entire image with high accuracy and input to the control unit 6.

制御部6は、物品Oが画像内に存在するいずれかの時点で物品Oの位置および姿勢を認識することによりトラッキング座標系TFを設定し、第1周期(例えば、1ms)の単位でコンベヤ2による物品Oの搬送速度からコンベヤ2の移動量を求めてそれを積算することにより物品Oを認識した時点から現在時刻までの物品Oの重心位置の移動量を算出する。そして、その移動量を成分とする座標変換行列をトラッキング座標系TFに乗算することにより、現在のトラッキング座標系TF′を算出する。
TF′=T・TF
そして、制御部6は、算出されたトラッキング制御系TF′を基準としてコンベヤ2によって搬送されている物品Oに追従してロボットハンド8を移動させるとともに、認識した物品Oの位置および姿勢に合わせてロボットハンド8の位置および姿勢を設定し、物品Oを把持してコンベヤ2から取り上げることができる。
The control unit 6 sets the tracking coordinate system TF by recognizing the position and orientation of the article O at any time when the article O exists in the image, and the conveyor 2 in units of a first period (for example, 1 ms). The amount of movement of the conveyor 2 is obtained from the conveying speed of the article O and is integrated to calculate the amount of movement of the center of gravity position of the article O from the time when the article O is recognized to the current time. Then, the current tracking coordinate system TF ′ is calculated by multiplying the tracking coordinate system TF by a coordinate transformation matrix having the movement amount as a component.
TF '= T · TF
The control unit 6 moves the robot hand 8 following the article O being conveyed by the conveyor 2 with the calculated tracking control system TF ′ as a reference, and matches the recognized position and posture of the article O. The position and posture of the robot hand 8 can be set and the article O can be gripped and picked up from the conveyor 2.

この場合において、ロボット3がロボットハンド8をコンベヤ2上の物品Oに追従させるように駆動されているときには、2次元カメラ4が後続の物品Oを撮影し、高周期処理部9により新たな搬送速度が算出されているので、制御部6は新たに算出された搬送速度を用いてロボット3を制御する。これにより、コンベヤ2による搬送速度が変動しても物品Oを正しく取り上げることができる。   In this case, when the robot 3 is driven so that the robot hand 8 follows the article O on the conveyor 2, the two-dimensional camera 4 captures the subsequent article O, and a new conveyance is performed by the high cycle processing unit 9. Since the speed is calculated, the control unit 6 controls the robot 3 using the newly calculated transport speed. Thereby, even if the conveyance speed by the conveyor 2 fluctuates, the article O can be picked up correctly.

このように、本実施形態に係るロボットシステム1によれば、処理負荷の比較的小さい処理により検出可能な物品Oの移動速度については、高周期の第1周期により、エンコーダと同等の分解能で検出することができ、搬送されている物品Oに対するロボット3のトラッキング動作を精度よく行わせることができる。また、処理負荷の比較的大きい処理を必要とする物品Oの位置および姿勢の検出については、第1周期より長い第2周期により実施することにより、精度よく検出することができ、ロボットハンド8の姿勢を物品Oの姿勢に精度よく一致するように調整して、より確実に把持させることができるという利点がある。   Thus, according to the robot system 1 according to the present embodiment, the moving speed of the article O that can be detected by processing with a relatively small processing load is detected with a resolution equivalent to that of the encoder by the first cycle of the high cycle. It is possible to perform the tracking operation of the robot 3 with respect to the article O being conveyed with high accuracy. In addition, the detection of the position and orientation of the article O that requires processing with a relatively large processing load can be detected with high accuracy by performing it in a second period longer than the first period. There is an advantage that the posture can be adjusted more accurately to match the posture of the article O and can be gripped more reliably.

そして、このようにして、単一の2次元カメラ4を用いて物品Oの移動速度と位置および姿勢とを検出するので、コストを低減することができるという利点がある。
また、高周期処理部9において物品Oの移動速度を検出するために2次元カメラ4から送られてきた画像の一部を使用することにより、処理負荷をより軽減して、高周期での処理を容易にすることもできる。
In this manner, since the moving speed, position, and posture of the article O are detected using the single two-dimensional camera 4, there is an advantage that the cost can be reduced.
Further, by using a part of the image sent from the two-dimensional camera 4 in order to detect the moving speed of the article O in the high cycle processing unit 9, the processing load is further reduced, and high cycle processing is performed. Can also be made easier.

その結果、図2にカッコ書きで示されるように、高周期処理部9において物品Oの大まかな位置および姿勢を検出することも可能となる。例えば、物品Oの長手軸方向やブロブの大まかな形状等である。そして、このようにして検出された物品Oの大まかな位置および姿勢についても制御部6に入力することにより、制御部6が低周期処理部10から第2周期で送られてくる物品Oの高精度の位置および姿勢の情報を待つことなく、高周期処理部9から第1周期で送られてきた物品Oの大まかな位置および姿勢の情報に基づいてロボット3の動作を開始させることができ、トラッキングをより容易にすることができるという利点がある。   As a result, as shown in parentheses in FIG. 2, it is possible to detect the rough position and posture of the article O in the high cycle processing unit 9. For example, the longitudinal direction of the article O or the rough shape of the blob. Then, the rough position and posture of the article O detected in this way are also input to the control unit 6, so that the control unit 6 sends the high level of the article O sent from the low cycle processing unit 10 in the second cycle. Without waiting for accurate position and orientation information, it is possible to start the operation of the robot 3 based on the rough position and orientation information of the article O sent from the high-cycle processing unit 9 in the first period, There is an advantage that tracking can be made easier.

2次元カメラ4から送られてきた画像の一部として、物品Oを含む部分領域を用いることとしたが、これに代えて、2次元カメラ4から送られてきた画像から画素を間引くことにより情報量を低減してもよい。
また、本実施形態においては、視覚情報を取得する視覚センサとして2次元カメラ4を例示したが、これに限定されるものではなく、3次元カメラ、その他の視覚センサを用いてもよい。
As a part of the image sent from the two-dimensional camera 4, a partial region including the article O is used. Instead, information is obtained by thinning out pixels from the image sent from the two-dimensional camera 4. The amount may be reduced.
Moreover, in this embodiment, although the two-dimensional camera 4 was illustrated as a visual sensor which acquires visual information, it is not limited to this, You may use a three-dimensional camera and another visual sensor.

また、本実施形態においては、コンベヤ2によって搬送されてきた物品Oの位置の変化によりコンベヤ2の搬送速度を算出することとしたが、これに代えて、コンベヤ2の表面に適当な間隔でマークを設けておき、2次元カメラ4により取得された画像内に含まれるマークを認識することで、マークの位置の変化によって搬送速度を算出することにしてもよい。
この場合には、マークは物品Oよりも確実に絶え間なく2次元カメラ4の視野内に供給されるので、移動速度を算出するために有用である。
In this embodiment, the conveyance speed of the conveyor 2 is calculated based on the change in the position of the article O that has been conveyed by the conveyor 2. Instead, the surface of the conveyor 2 is marked at an appropriate interval. And the conveyance speed may be calculated by changing the position of the mark by recognizing the mark included in the image acquired by the two-dimensional camera 4.
In this case, since the mark is more reliably supplied into the field of view of the two-dimensional camera 4 than the article O, it is useful for calculating the moving speed.

また、本実施形態においては、画像内に単一の物品Oが検出される場合について説明したが、これに代えて、図4に示されるように、複数の物品a1,a2,a3が同時に2次元カメラ4の視野内に配置される場合にも適用することができる。
すなわち、画像内に複数の物品a1,a2,a3が認識された場合には、各物品a1,a2,a3について、異なる時刻に取得された画像内の物品a1,a2,a3との同一性を識別し、識別された同一物品a1,a2,a3間での移動距離に基づいてそれぞれ算出した速度V1,V2,V3を平均することにより搬送速度を算出することにしてもよい。
In the present embodiment, the case where a single article O is detected in the image has been described. Instead, as shown in FIG. 4, a plurality of articles a1, a2, and a3 are simultaneously 2 The present invention can also be applied to the case where the dimensional camera 4 is disposed within the field of view.
That is, when a plurality of articles a1, a2, and a3 are recognized in the image, each article a1, a2, and a3 has the same identity as the articles a1, a2, and a3 in the image acquired at different times. The conveyance speed may be calculated by identifying and averaging the speeds V1, V2, and V3 calculated based on the movement distances between the identified same articles a1, a2, and a3.

この場合、同一物品a1,a2,a3間での移動距離は、所定時間間隔Δtをあけて異なる時刻t1,t2,t3に取得された画像から算出された同一物品a1,a2,a3の重心の座標位置d11,d12,d13,d22,d23,d24,d33,d34の差分により求められる。   In this case, the moving distance between the same articles a1, a2, a3 is the center of gravity of the same articles a1, a2, a3 calculated from images acquired at different times t1, t2, t3 with a predetermined time interval Δt. It is obtained from the difference between the coordinate positions d11, d12, d13, d22, d23, d24, d33, d34.

また、本実施形態においては、2次元カメラ4から出力される画像を処理する画像処理部5を別体として設ける場合を例示したが、これに代えて、図5に示されるように、高周期処理部9については2次元カメラ4内に配置し、低周期処理部10については制御部6内に配置してもよい。   Further, in the present embodiment, the case where the image processing unit 5 that processes the image output from the two-dimensional camera 4 is provided as a separate body is exemplified, but instead of this, as shown in FIG. The processing unit 9 may be arranged in the two-dimensional camera 4, and the low cycle processing unit 10 may be arranged in the control unit 6.

高周期処理部9を2次元カメラ4内に組み込むことにより、通信遅れの発生を防止して、より確実に高周期でコンベヤ2による物品Oの搬送速度を検出することができる。低周期処理部10は高速な処理が不要なので、制御部6に組み込むことが好ましい。制御部6の制御周期が高周期処理部9による第1周期より長い場合には、制御部6の制御周期でまとまった単位で高周期処理部9から物品Oの重心位置情報を送信することが好ましい。例えば、第1周期が1ms、制御部6の制御周期が8msの場合、8msの周期で、高周期処理部9の8ms分の8個の重心位置情報を一度に制御部6に送ればよい。   By incorporating the high cycle processing unit 9 in the two-dimensional camera 4, it is possible to prevent the occurrence of communication delay and more reliably detect the conveyance speed of the article O by the conveyor 2 at a high cycle. Since the low-cycle processing unit 10 does not require high-speed processing, it is preferably incorporated in the control unit 6. When the control cycle of the control unit 6 is longer than the first cycle by the high cycle processing unit 9, the center-of-gravity position information of the article O can be transmitted from the high cycle processing unit 9 in a unit collected by the control cycle of the control unit 6. preferable. For example, when the first cycle is 1 ms and the control cycle of the control unit 6 is 8 ms, 8 pieces of gravity center position information for 8 ms of the high cycle processing unit 9 may be sent to the control unit 6 at a time with a cycle of 8 ms.

また、本実施形態においては、単一のロボット3を制御する場合を例示したが、これに代えて、図6に示されるように、コンベヤ2の搬送方向に沿って複数台のロボット3が配置され、これらの制御部6が上位のセル制御装置11に接続されていてもよい。
複数台のロボット3で同一のコンベヤ2によって搬送されてきた物品Oに対し作業をする場合に、1つの2次元カメラ4で撮影した画像に基づいて算出されたコンベヤ2の搬送速度を1箇所で管理することができる。
Moreover, in this embodiment, although the case where the single robot 3 was controlled was illustrated, instead of this, as shown in FIG. 6, a plurality of robots 3 are arranged along the conveying direction of the conveyor 2. These control units 6 may be connected to the host cell control device 11.
When working with articles O conveyed by the same conveyor 2 by a plurality of robots 3, the conveyance speed of the conveyor 2 calculated based on an image taken by one two-dimensional camera 4 is set at one place. Can be managed.

各ロボット3の制御部6によりコンベヤ2の搬送速度を管理する場合、制御部6間で同期させる必要があり、通信遅れ等の影響により誤差が生じる可能性があるが、セル制御装置11によって管理することでそのような不都合の発生を防止することができる。
また、通信遅れの影響をさらに抑えるために、高周期処理部9については2次元カメラ4内に配置し、低周期処理部10についてはセル制御装置11に配置した例を示しているが、これに限定されるものではない。例えば、高周期処理部9についてもセル制御装置11内に配置してもよい。
When the transport speed of the conveyor 2 is managed by the control unit 6 of each robot 3, it is necessary to synchronize between the control units 6, and an error may occur due to the influence of communication delay or the like. By doing so, such inconvenience can be prevented.
Further, in order to further suppress the influence of communication delay, an example in which the high cycle processing unit 9 is arranged in the two-dimensional camera 4 and the low cycle processing unit 10 is arranged in the cell control device 11 is shown. It is not limited to. For example, the high cycle processing unit 9 may also be arranged in the cell control device 11.

また、本実施形態においては、コンベヤ2によって搬送されている物品Oを把持して取り上げる場合を例示して説明したが、これに代えて、搬送されている物品Oに対して他の任意の処理を施す場合に適用してもよい。
また、図7に示されるように、必要に応じて制御部6から2次元カメラ4にトリガを出力し、2次元カメラ4がトリガに応じて画像を制御部6に出力し、制御部6において、表示部12に表示することによって画像を確認することができるようにしてもよい。
Further, in the present embodiment, the case where the article O being conveyed by the conveyor 2 is grasped and picked up has been described as an example, but instead, any other processing is performed on the article O being conveyed. You may apply when applying.
Further, as shown in FIG. 7, a trigger is output from the control unit 6 to the two-dimensional camera 4 as necessary, and the two-dimensional camera 4 outputs an image to the control unit 6 in response to the trigger. The image may be confirmed by displaying it on the display unit 12.

なお、前述のように高周期処理部9によって高周期で検出された物品Oの位置に基づき、制御部6がコンベヤ2上の物品Oの位置を逐次計算し、計算により得られた物品Oの位置に応じた駆動信号をロボット3に出力してもよい。また、このように計算により得られた物品Oの位置に基づいて、コンベヤ2上の物品Oに追従する前記トラッキングが行われてもよい。この場合でも、前述と同様の効果が達成される。   As described above, the control unit 6 sequentially calculates the position of the article O on the conveyor 2 based on the position of the article O detected by the high cycle processing unit 9 at a high cycle, and the article O obtained by the calculation is calculated. A drive signal corresponding to the position may be output to the robot 3. Further, the tracking that follows the article O on the conveyor 2 may be performed based on the position of the article O thus obtained by calculation. Even in this case, the same effect as described above can be achieved.

また、2次元カメラ4がロボット3の先端部に取付けられていてもよい。この場合、制御部6において、ロボット3の制御に用いる座標系である基準座標系と2次元カメラ4の位置および姿勢(センサ座標系)とが対応付けられている。これにより、ロボット3の先端部の位置が変化しても、制御部6は2次元カメラ4の位置および姿勢を知ることができ、これにより、2次元カメラ4で得られた画像に基づく物品Oの位置および姿勢の検出結果を、基準座標系から見た物体Oの位置および姿勢に精度よく変換することができる。   Further, the two-dimensional camera 4 may be attached to the tip of the robot 3. In this case, the control unit 6 associates a reference coordinate system, which is a coordinate system used for controlling the robot 3, with the position and orientation (sensor coordinate system) of the two-dimensional camera 4. Thereby, even if the position of the front end portion of the robot 3 changes, the control unit 6 can know the position and orientation of the two-dimensional camera 4, and thereby the article O based on the image obtained by the two-dimensional camera 4. Can be accurately converted into the position and orientation of the object O viewed from the reference coordinate system.

このように2次元カメラ4がロボット3の先端部に取付けられている場合、2次元カメラ4の視野内には、ロボット3が追従している物品O、当該物品Oの近傍の物品O等が存在している。この場合でも、高周期処理部9によって物品Oの位置を高周期で検出することができるので、前述と同様の効果を達成可能である。   When the two-dimensional camera 4 is attached to the tip of the robot 3 in this way, the article O that the robot 3 follows in the field of view of the two-dimensional camera 4, the article O in the vicinity of the article O, and the like. Existing. Even in this case, since the position of the article O can be detected at a high cycle by the high cycle processing unit 9, the same effect as described above can be achieved.

また、フレーム、スタンド等によって2次元カメラ4がロボット3の近傍に固定され、2次元カメラ4の視野内に、ロボット3が追従している物品O、当該物品Oの近傍の物品O等が存在していてもよい。この場合、制御部6において、ロボット3の基準座標系と2次元カメラ4の位置および姿勢(センサ座標系)とが対応付けられおり、制御部6は、2次元カメラ4で得られた画像に基づく物品Oの位置および姿勢の検出結果を、基準座標系から見た物体Oの位置および姿勢に精度よく変換することができる。この場合でも、高周期処理部9によって物品Oの位置を高周期で検出することができるので、前述と同様の効果を達成可能である。   Further, the two-dimensional camera 4 is fixed in the vicinity of the robot 3 by a frame, a stand or the like, and the article O that the robot 3 follows in the field of view of the two-dimensional camera 4, the article O in the vicinity of the article O, etc. You may do it. In this case, the control unit 6 associates the reference coordinate system of the robot 3 with the position and orientation (sensor coordinate system) of the two-dimensional camera 4, and the control unit 6 displays the image obtained by the two-dimensional camera 4. The detection result of the position and orientation of the article O can be converted into the position and orientation of the object O viewed from the reference coordinate system with high accuracy. Even in this case, since the position of the article O can be detected at a high cycle by the high cycle processing unit 9, the same effect as described above can be achieved.

なお、前記実施形態は、物品Oを検出するための単一の2次元カメラ4を有するものであるが、物品Oの検査、到達検知等を行うための他の2次元カメラが設けられてもよく、物品Oを検出するための2次元カメラ4が複数存在していても前記高周期処理および前記低周期処理が可能である。   The embodiment has the single two-dimensional camera 4 for detecting the article O. However, even if another two-dimensional camera for performing inspection, arrival detection, etc. of the article O is provided. The high-cycle processing and the low-cycle processing are possible even when there are a plurality of two-dimensional cameras 4 for detecting the article O.

また、コンベヤ2の代わりに、物品OをX軸方向だけではなくY軸方向にも移動させる搬送装置によって物品Oを搬送することも可能である。なお、X軸およびY軸は水平方向に延びており、X軸はY軸と直交している。この場合でも、高周期処理部9は物品Oの位置を高周期で検出することができ、また、高周期処理部9は高周期で物品OのX軸方向の搬送速度およびY軸方向の搬送速度を算出することができるので、前述と同様の作用効果を達成可能である。なお、搬送装置が物品OをZ軸方向に移動させる場合も同様である。   Further, instead of the conveyor 2, the article O can be transported by a transport device that moves the article O not only in the X-axis direction but also in the Y-axis direction. The X axis and the Y axis extend in the horizontal direction, and the X axis is orthogonal to the Y axis. Even in this case, the high cycle processing unit 9 can detect the position of the article O at a high cycle, and the high cycle processing unit 9 can transport the article O in the X axis direction and the Y axis direction at a high cycle. Since the speed can be calculated, the same effect as described above can be achieved. The same applies when the conveying device moves the article O in the Z-axis direction.

また、コンベヤ2の代わりに他のロボットを用いて物品Oを搬送してもよい。さらに、搬送する物品Oが自動車の車体等である場合は、物品Oがエンジン、車輪等によって搬送されてもよい。また、物品Oが重力によって滑り落ちる、転がり落ちる、又は落下するシューターを用いて物品Oを搬送してもよい。これらの場合、他のロボット、エンジン、車輪、シューター等が搬送装置として機能する。   Further, the article O may be transported using another robot instead of the conveyor 2. Furthermore, when the article O to be transported is an automobile body or the like, the article O may be transported by an engine, wheels, or the like. Further, the article O may be transported using a shooter in which the article O slides, rolls down, or falls due to gravity. In these cases, other robots, engines, wheels, shooters and the like function as the transfer device.

1 ロボットシステム
2 コンベヤ(搬送装置)
3 ロボット
4 2次元カメラ(視覚センサ)
6 制御部
9 高周期処理部
10 低周期処理部
O,a1,a2,a3 物品(対象)
1 Robot system 2 Conveyor
3 Robot 4 Two-dimensional camera (visual sensor)
6 Control unit 9 High cycle processing unit 10 Low cycle processing unit O, a1, a2, a3 Article (target)

Claims (6)

対象を搬送する搬送装置と、
前記搬送装置により搬送されている前記対象に対して処理を行うロボットと、
前記搬送装置により搬送されてきた前記対象の視覚情報を取得する視覚センサと、
該視覚センサにより取得された前記視覚情報を第1周期で処理して前記搬送装置によって搬送されている前記対象の搬送速度および位置の少なくとも一方を検出する高周期処理部と、
前記視覚センサにより取得された前記視覚情報を前記第1周期より長い第2周期で処理して前記対象の位置を検出する低周期処理部と、
前記高周期処理部により検出された前記対象の前記搬送速度および前記位置の少なくとも一方、および、前記低周期処理部により検出された前記対象の位置に基づいて前記ロボットを制御する制御部とを備えるロボットシステム。
A transport device for transporting the object;
A robot that performs processing on the object being transported by the transport device;
A visual sensor for obtaining visual information of the object conveyed by the conveying device;
A high-cycle processing unit that processes the visual information acquired by the visual sensor in a first cycle and detects at least one of a conveyance speed and a position of the object being conveyed by the conveyance device;
A low-cycle processing unit that detects the position of the object by processing the visual information acquired by the visual sensor in a second cycle longer than the first cycle;
A control unit that controls the robot based on at least one of the conveyance speed and the position of the target detected by the high cycle processing unit, and the position of the target detected by the low cycle processing unit. Robot system.
前記高周期処理部が、前記視覚センサにより取得された前記視覚情報の一部を前記第1周期で処理する請求項1に記載のロボットシステム。   The robot system according to claim 1, wherein the high cycle processing unit processes a part of the visual information acquired by the visual sensor in the first cycle. 前記視覚センサが、前記搬送装置上の前記対象の画像を前記視覚情報として取得する請求項1または請求項2に記載のロボットシステム。   The robot system according to claim 1, wherein the visual sensor acquires an image of the object on the transport device as the visual information. 前記搬送装置が、前記対象と同一速度で移動させられるマークを備える請求項1から請求項3のいずれかに記載のロボットシステム。   The robot system according to claim 1, wherein the transfer device includes a mark that is moved at the same speed as the target. 前記ロボットが、前記搬送装置により搬送されている前記対象を追いかけながら作業する請求項1から請求項4のいずれかに記載のロボットシステム。   The robot system according to any one of claims 1 to 4, wherein the robot works while chasing the target being transported by the transport device. 前記視覚センサが、外部からのトリガにより該トリガを受信した直前または直後の前記視覚情報を出力する請求項1から請求項5のいずれかに記載のロボットシステム。

The robot system according to any one of claims 1 to 5, wherein the visual sensor outputs the visual information immediately before or immediately after the trigger is received by an external trigger.

JP2018114237A 2017-07-12 2018-06-15 Robot system Active JP6697510B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/028,973 US10521871B2 (en) 2017-07-12 2018-07-06 Robot system
DE102018116413.0A DE102018116413B4 (en) 2017-07-12 2018-07-06 Robot system
CN201810744084.8A CN109249390B (en) 2017-07-12 2018-07-09 Robot system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017136140 2017-07-12
JP2017136140 2017-07-12

Publications (2)

Publication Number Publication Date
JP2019018339A true JP2019018339A (en) 2019-02-07
JP6697510B2 JP6697510B2 (en) 2020-05-20

Family

ID=65354270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018114237A Active JP6697510B2 (en) 2017-07-12 2018-06-15 Robot system

Country Status (1)

Country Link
JP (1) JP6697510B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020175425A1 (en) * 2019-02-25 2020-09-03 国立大学法人 東京大学 Robot system, robot control device, and robot control program
US10850927B2 (en) 2017-10-16 2020-12-01 Fanuc Corporation Work system, method for executing work on object, and robot
WO2022030111A1 (en) * 2020-08-06 2022-02-10 コマツ産機株式会社 Workpiece conveyance device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009028818A (en) * 2007-07-25 2009-02-12 Panasonic Electric Works Co Ltd Robot system
JP2016107349A (en) * 2014-12-02 2016-06-20 ファナック株式会社 Article transfer device for transferring article by using robot and article transfer method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009028818A (en) * 2007-07-25 2009-02-12 Panasonic Electric Works Co Ltd Robot system
JP2016107349A (en) * 2014-12-02 2016-06-20 ファナック株式会社 Article transfer device for transferring article by using robot and article transfer method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10850927B2 (en) 2017-10-16 2020-12-01 Fanuc Corporation Work system, method for executing work on object, and robot
WO2020175425A1 (en) * 2019-02-25 2020-09-03 国立大学法人 東京大学 Robot system, robot control device, and robot control program
JPWO2020175425A1 (en) * 2019-02-25 2021-11-18 国立大学法人 東京大学 Robot systems, robot controls, and robot control programs
JP7228290B2 (en) 2019-02-25 2023-02-24 国立大学法人 東京大学 ROBOT SYSTEM, ROBOT CONTROL DEVICE, AND ROBOT CONTROL PROGRAM
WO2022030111A1 (en) * 2020-08-06 2022-02-10 コマツ産機株式会社 Workpiece conveyance device
JP7489856B2 (en) 2020-08-06 2024-05-24 コマツ産機株式会社 Workpiece transport device

Also Published As

Publication number Publication date
JP6697510B2 (en) 2020-05-20

Similar Documents

Publication Publication Date Title
CN109249390B (en) Robot system
JP5887383B2 (en) Article alignment apparatus for aligning articles on a conveyor
CN109665307B (en) Work system, work execution method for article, and robot
US10232512B2 (en) Coordinate system setting method, coordinate system setting apparatus, and robot system provided with coordinate system setting apparatus
CN109108959B (en) Robot system
CN108109174B (en) Robot monocular guidance method and system for randomly sorting scattered parts
CN109384027B (en) Robot system
CN110081816B (en) Article carrying system
US10604357B2 (en) Article transfer system and robot system
JP6549655B2 (en) Article transport device
CN102674073A (en) Image processing apparatus and image processing system, and conveyor apparatus therefor
CN109916346B (en) A detection device and detection method for workpiece flatness based on vision system
JP2016147330A (en) Control apparatus based on object recognition
JP6697510B2 (en) Robot system
WO2021065880A1 (en) Robot control system, robot control method, and program
EP4015097B1 (en) Picking device
TW202247966A (en) production system
JP6889216B2 (en) Work system
JP2010214546A (en) Assembly apparatus and assembly method
CN112027647A (en) Feeding method
JP2020199605A (en) Robot system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200424

R150 Certificate of patent or registration of utility model

Ref document number: 6697510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150