[go: up one dir, main page]

JP2016013591A - Robot system - Google Patents

Robot system Download PDF

Info

Publication number
JP2016013591A
JP2016013591A JP2014136317A JP2014136317A JP2016013591A JP 2016013591 A JP2016013591 A JP 2016013591A JP 2014136317 A JP2014136317 A JP 2014136317A JP 2014136317 A JP2014136317 A JP 2014136317A JP 2016013591 A JP2016013591 A JP 2016013591A
Authority
JP
Japan
Prior art keywords
robot
image processing
captured image
orientation
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014136317A
Other languages
Japanese (ja)
Inventor
信之 説田
Nobuyuki Setsuda
信之 説田
ルーパート アラン
rupert Alan
ルーパート アラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014136317A priority Critical patent/JP2016013591A/en
Priority to US14/753,401 priority patent/US9981380B2/en
Priority to EP15174247.5A priority patent/EP2963513B1/en
Priority to CN201510367312.0A priority patent/CN105269578B/en
Publication of JP2016013591A publication Critical patent/JP2016013591A/en
Priority to US15/960,884 priority patent/US20180236661A1/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】効率的にロボットを制御することができるロボットシステムを提供すること。【解決手段】ロボットシステムは、ワークを移動させるロボットと、ロボットが移動させるワークを撮像する撮像装置と、ロボットを動作させる制御装置と、撮像装置が撮像した撮像画像を用いて、ロボットが移動させるワークを検出する画像処理装置と、を含み、画像処理装置は、撮像画像を用いて、ロボットの第1位置とロボットが移動させるワークの第2位置との位置関係を算出する。【選択図】図3A robot system capable of efficiently controlling a robot is provided. A robot system moves a robot using a robot that moves a workpiece, an imaging device that images the workpiece that the robot moves, a control device that operates the robot, and a captured image captured by the imaging device. The image processing apparatus calculates a positional relationship between the first position of the robot and the second position of the work moved by the robot using the captured image. [Selection] Figure 3

Description

この発明は、ロボットシステムに関する。   The present invention relates to a robot system.

従来から、ロボットによりピックアップされた作業対象を所定の位置に整列させるロボットシステムが研究・開発されている。このようなロボットシステムでは、作業対象を所定の位置に正しく整列させるために、ピックアップされた作業対象の位置及び姿勢(以下、位置姿勢と称する)のロボット基準姿勢に対するずれ(オフセット)を算出する必要がある。   Conventionally, a robot system that aligns work objects picked up by a robot at a predetermined position has been researched and developed. In such a robot system, it is necessary to calculate a deviation (offset) of the position and posture of the picked-up work target (hereinafter referred to as a position / posture) with respect to the robot reference posture in order to correctly align the work target at a predetermined position. There is.

これに関連し、ロボットが把持した作業対象の位置及び姿勢を検出するための撮像部を設置し、当該撮像部により撮像された撮像画像から作業対象の位置姿勢を検出(算出)する画像処理装置を、ロボットを制御する制御装置とは別に備えるロボットシステムが知られている(特許文献1参照)。   In relation to this, an image processing unit is installed to detect the position and orientation of the work target gripped by the robot, and detects (calculates) the position and orientation of the work target from the captured image captured by the image capturing unit. Is known separately from a control device for controlling a robot (see Patent Document 1).

特開2012−230041号公報JP 2012-230041 A

しかし、このような従来のロボットシステムでは、画像処理装置からの画像処理結果を制御装置が受け取り、前述したオフセットや、当該オフセットを考慮したマニピュレーターの位置姿勢及び把持部の位置姿勢の算出といった画像処理に関する演算を制御装置が行っていた。   However, in such a conventional robot system, the control device receives an image processing result from the image processing device, and performs image processing such as the above-described offset, and calculation of the position and orientation of the manipulator and the position and orientation of the gripper in consideration of the offset. The control device was performing the calculation regarding.

そのため、ロボット動作を規定するプログラム中に、これらの演算を行うためのプログラムを埋め込む必要があり、プログラム作成に係るユーザーの負荷が大きくなってしまっていた。また、作成するプログラムが制御装置毎に異なるため、やはりプログラム作成に係るユーザーの負荷が大きくなってしまっていた。これらの負荷により、ユーザーは、従来のロボットシステムを利用する際、作業効率を上げることが難しかった。さらに、画像処理装置ではなく、制御装置で画像処理に関する演算が行われることになってしまっていた。このように、制御装置と画像処理装置との間で画像処理に係る演算を分担し、制御装置が画像処理に係る演算を行う場合、制御装置がロボットの制御のみを行う場合と比べて、効率的なロボットの制御を行うことができない場合があった。   For this reason, it is necessary to embed a program for performing these calculations in the program that defines the robot operation, which increases the load on the user for creating the program. In addition, since the program to be created is different for each control device, the load on the user for creating the program has increased. Due to these loads, it is difficult for the user to improve the work efficiency when using the conventional robot system. In addition, calculations related to image processing are performed not by the image processing apparatus but by the control apparatus. As described above, when the calculation related to the image processing is shared between the control device and the image processing apparatus, and the control device performs the calculation related to the image processing, it is more efficient than the case where the control device only controls the robot. In some cases, the robot could not be controlled.

そこで本発明は、上記従来技術の問題に鑑みてなされたものであり、効率的にロボットを制御することができるロボットシステムを提供する。   Therefore, the present invention has been made in view of the above-described problems of the prior art, and provides a robot system capable of efficiently controlling a robot.

本発明の一態様は、ワークを移動させるロボットと、前記ロボットが移動させる前記ワークを撮像する撮像装置と、前記ロボットを動作させる制御装置と、前記撮像装置が撮像した撮像画像を用いて、前記ロボットが移動させる前記ワークを検出する画像処理装置と、を含み、前記画像処理装置は、前記撮像画像を用いて、前記ロボットの第1位置と前記ロボットが移動させる前記ワークの第2位置との位置関係を算出する、ロボットシステムである。
この構成により、ロボットシステムは、画像処理装置が、撮像画像を用いて、ロボットの第1位置とロボットが移動させるワークの第2位置との位置関係を算出する。これにより、ロボットシステムは、効率的にロボットを制御することができる。
According to one embodiment of the present invention, a robot that moves a workpiece, an imaging device that captures the workpiece that the robot moves, a control device that operates the robot, and a captured image captured by the imaging device are used. An image processing device that detects the workpiece that the robot moves, and the image processing device uses the captured image to determine a first position of the robot and a second position of the workpiece that the robot moves. This is a robot system for calculating the positional relationship.
With this configuration, in the robot system, the image processing apparatus calculates the positional relationship between the first position of the robot and the second position of the workpiece moved by the robot using the captured image. Thereby, the robot system can control the robot efficiently.

また、本発明の他の態様は、ロボットシステムにおいて、前記ロボットは、ハンドを備え、そのハンドにより把持された前記ワークを移動させ、前記画像処理装置は、前記撮像画像から前記ハンドの所定位置を前記第1位置として検出する、構成が用いられてもよい。
この構成により、ロボットシステムは、撮像画像からハンドの所定位置を第1位置として検出する。これにより、ロボットシステムは、ハンドの所定位置とワークの第2位置との位置関係を算出することができる。
According to another aspect of the present invention, in the robot system, the robot includes a hand, moves the workpiece gripped by the hand, and the image processing apparatus determines a predetermined position of the hand from the captured image. A configuration for detecting the first position may be used.
With this configuration, the robot system detects a predetermined position of the hand from the captured image as the first position. Thereby, the robot system can calculate the positional relationship between the predetermined position of the hand and the second position of the workpiece.

また、本発明の他の態様は、ロボットシステムにおいて、前記画像処理装置は、パターンマッチングによって前記撮像画像から前記ロボットの前記第1位置と前記ワークの前記第2位置との前記位置関係を検出する。
この構成により、ロボットシステムは、パターンマッチングによって撮像画像からロボットの第1位置とワークの第2位置との位置関係を検出する。これにより、ロボットシステムは、パターンマッチングによって撮像画像からロボットの第1位置とワークの第2位置との位置関係を算出することができる。
According to another aspect of the present invention, in the robot system, the image processing device detects the positional relationship between the first position of the robot and the second position of the workpiece from the captured image by pattern matching. .
With this configuration, the robot system detects the positional relationship between the first position of the robot and the second position of the workpiece from the captured image by pattern matching. Thereby, the robot system can calculate the positional relationship between the first position of the robot and the second position of the workpiece from the captured image by pattern matching.

以上により、ロボットシステムは、画像処理装置が、撮像画像を用いて、ロボットの第1位置とロボットが移動させるワークの第2位置との位置関係を算出する。これにより、ロボットシステムは、具備する装置の置換に係る汎用度が高く、その置換に伴う手間を軽減することができる。   As described above, in the robot system, the image processing apparatus calculates the positional relationship between the first position of the robot and the second position of the workpiece moved by the robot using the captured image. As a result, the robot system has a high degree of versatility related to the replacement of the device provided, and can reduce the labor involved in the replacement.

本実施形態に係るロボットシステム1の構成を示す図である。It is a figure which shows the structure of the robot system 1 which concerns on this embodiment. 画像処理装置40のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of an image processing apparatus 40. FIG. 画像処理装置40の機能構成の一例を示す図である。3 is a diagram illustrating an example of a functional configuration of an image processing device 40. FIG. 画像処理装置40がオフセットを算出する処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process in which the image processing apparatus 40 calculates an offset. 撮像部10が撮像範囲を撮像する様子の一例と、撮像部10により撮像された撮像画像の一例をそれぞれ示す図である。3 is a diagram illustrating an example of a state in which an imaging unit 10 captures an imaging range and an example of a captured image captured by the imaging unit 10. FIG.

<実施形態>
以下、本発明の実施形態について、図面を参照して説明する。図1は、本実施形態に係るロボットシステム1の構成を示す図である。ロボットシステム1は、撮像部10と、把持部HND(エンドエフェクター)及びマニピュレーターMNPを備える単腕のロボット20と、制御装置30と、画像処理装置40と、情報処理端末50を具備する。本実施形態で、単腕のロボットとは、把持部HNDとマニピュレーターMNPにより構成される1本の腕を有するロボットを示す。
<Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration of a robot system 1 according to the present embodiment. The robot system 1 includes an imaging unit 10, a single-arm robot 20 including a gripping unit HND (end effector) and a manipulator MNP, a control device 30, an image processing device 40, and an information processing terminal 50. In the present embodiment, a single arm robot refers to a robot having one arm composed of a gripping unit HND and a manipulator MNP.

ロボットシステム1は、撮像部10によりロボット20が把持した作業対象Oを含む範囲を撮像する。作業対象Oは、ロボット20により把持可能な物体であり、例えば、ネジやボルト、歯車、治具等の工業用の部品等であるが、これらに限られず、ロボット20により把持可能であれば他の物体であってもよい。作業対象Oは、ワークの一例である。ロボットシステム1は、作業対象Oを含む範囲が撮像された撮像画像に基づいて制御点TCPと、ロボット20により把持された作業対象Oに予め設定された代表点OPとの相対位置及び相対姿勢(以下、オフセットと称する)を算出する。   The robot system 1 images a range including the work object O gripped by the robot 20 by the imaging unit 10. The work object O is an object that can be gripped by the robot 20, for example, industrial parts such as screws, bolts, gears, and jigs, but is not limited thereto, and may be any other object that can be gripped by the robot 20. It may be an object. The work target O is an example of a work. The robot system 1 has a relative position and a relative posture between the control point TCP and the representative point OP set in advance on the work object O gripped by the robot 20 based on a captured image in which the range including the work object O is captured ( Hereinafter, the offset is calculated.

制御点TCPとは、制御装置30がロボット20の把持部HND(及びマニピュレーターMNP)を動かす時の把持部HNDの位置姿勢を表す点であり、この一例において、把持部HNDが設けられるマニピュレーターMNPの端部に備えられたフランジの中心点(ツール・センター・ポイント)である。制御点TCPは、第1位置の一例である。また、制御点TCPは、ハンドの所定位置の一例である。代表点OPは、制御装置30に予め設定された作業対象Oの位置姿勢を表す点であって作業対象Oの特徴的な点(この一例において、図1に示した角OP)である。代表点OPは、第2位置の一例である。ロボットシステム1は、算出されたオフセットに基づいて、代表点OPの位置姿勢(以下、作業対象位置姿勢と称する)と目標点TPの位置姿勢(以下、目標点位置姿勢と称する)とが一致するように、ロボット20のマニピュレーターMNP及び把持部HNDによって制御点TCPを動かす。これにより、ロボットシステム1は、ロボット20により作業対象Oを目標領域TAに正しい位置姿勢で配置する。以下では、説明の便宜上、制御点TCPの位置姿勢を、制御点位置姿勢と称して説明する。   The control point TCP is a point representing the position and orientation of the gripper HND when the control device 30 moves the gripper HND (and the manipulator MNP) of the robot 20, and in this example, the control point TCP of the manipulator MNP provided with the gripper HND. This is the center point (tool center point) of the flange provided at the end. The control point TCP is an example of the first position. The control point TCP is an example of a predetermined position of the hand. The representative point OP is a point representing the position and orientation of the work target O set in advance in the control device 30, and is a characteristic point of the work target O (in this example, the angle OP shown in FIG. 1). The representative point OP is an example of a second position. Based on the calculated offset, the robot system 1 matches the position and orientation of the representative point OP (hereinafter referred to as the work target position and orientation) with the position and orientation of the target point TP (hereinafter referred to as the target point position and orientation). As described above, the control point TCP is moved by the manipulator MNP and the gripper HND of the robot 20. Thereby, the robot system 1 arranges the work object O in the target area TA with the correct position and orientation by the robot 20. Hereinafter, for convenience of explanation, the position and orientation of the control point TCP will be described as the control point position and orientation.

ここで、目標点TPとは、ロボット20により作業対象Oが配置される目標領域TAにおける点であって作業対象Oが正しい位置姿勢で目標領域TAに配置された時に代表点OPが一致する点である。目標領域TAとは、ロボット20により作業対象Oを配置させる領域であり、図1においては、テーブルTB上に設けられている。テーブルTBとは、例えば、ロボット20が作業対象Oを配置する台等である。   Here, the target point TP is a point in the target area TA where the work target O is placed by the robot 20, and the representative point OP coincides when the work target O is placed in the target area TA in the correct position and orientation. It is. The target area TA is an area in which the work target O is arranged by the robot 20 and is provided on the table TB in FIG. The table TB is, for example, a table on which the robot 20 places the work target O.

撮像部10は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。また、撮像部10は、単眼のカメラであるが、例えば、ステレオカメラのように2台以上のカメラによって構成されてもよい。   The imaging unit 10 is a camera including, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, which is an imaging element that converts collected light into an electrical signal. Moreover, although the imaging part 10 is a monocular camera, it may be comprised by 2 or more cameras like a stereo camera, for example.

撮像部10は、ケーブルによって画像処理装置40と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。なお、撮像部10と画像処理装置40とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続される構成であってもよい。   The imaging unit 10 is communicably connected to the image processing device 40 via a cable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB (Universal Serial Bus), for example. The imaging unit 10 and the image processing apparatus 40 may be configured to be connected by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

撮像部10は、ロボット20がマニピュレーターMNPと把持部HNDにより作業対象Oを所定の撮像位置に移動させた時に、前述した制御点TCPと、把持部HNDにより把持された作業対象Oの代表点OPとを含む範囲(以下、撮像範囲と称する)を撮像可能な位置に設置される。また、図1において、撮像部10は、鉛直下方から鉛直上方に向けて前述の撮像範囲を撮像可能な位置に設置されている。   When the robot 20 moves the work object O to a predetermined image pickup position by the manipulator MNP and the gripping part HND, the imaging unit 10 is configured to include the control point TCP and the representative point OP of the work target O gripped by the gripping part HND. A range including the following (hereinafter referred to as an imaging range) is installed at a position where imaging is possible. Moreover, in FIG. 1, the imaging part 10 is installed in the position which can image the above-mentioned imaging range from the vertically downward direction to the vertically upward direction.

なお、撮像部10は、鉛直下方から鉛直上方に向けて前述の撮像範囲を撮像可能な位置に設置されている構成に代えて、水平方向に撮像範囲を撮像可能な位置に設置される構成であってもよく、鉛直上方から鉛直下方に向けて撮像範囲を撮像可能な位置に設置される構成であってもよく、他の方向から撮像範囲を撮像可能に設置される構成であってもよい。また、撮像部10は、静止画像を撮像画像として撮像する構成であるとするが、これに代えて、動画像を撮像画像として撮像する構成であってもよい。撮像部10は、撮像装置の一例である。   Note that the imaging unit 10 is configured to be installed at a position where the imaging range can be imaged in the horizontal direction, instead of being configured at a position where the imaging range can be imaged from vertically downward to vertically upward. It may be configured to be installed at a position where the imaging range can be imaged from vertically upward to vertically downward, or may be configured to be able to image the imaging range from other directions. . Further, although the imaging unit 10 is configured to capture a still image as a captured image, it may be configured to capture a moving image as a captured image instead. The imaging unit 10 is an example of an imaging device.

ロボット20は、例えば、把持部HNDと、マニピュレーターMNPと、図示しない複数のアクチュエーターを備えた単腕のロボットである。なお、ロボット20は、単腕のロボットに代えて、スカラーロボット(水平多関節ロボット)や双腕のロボット等であってもよい。スカラーロボットとは、マニピュレーターが水平方向にのみ動き、マニピュレーターの先端のスライド軸のみが上下に動くロボットである。また、双腕のロボットとは、把持部HNDとマニピュレーターMNPによりそれぞれ構成される2本の腕を有するロボットを示す。   The robot 20 is, for example, a single-arm robot including a gripping unit HND, a manipulator MNP, and a plurality of actuators (not shown). The robot 20 may be a scalar robot (horizontal articulated robot), a double-arm robot, or the like instead of the single-arm robot. A scalar robot is a robot in which the manipulator moves only in the horizontal direction and only the slide shaft at the tip of the manipulator moves up and down. Further, the double-armed robot refers to a robot having two arms each constituted by a gripper HND and a manipulator MNP.

ロボット20の腕は、6軸垂直多関節型となっており、支持台とマニピュレーターMNPと把持部HNDとがアクチュエーターによる連携した動作よって6軸の自由度の動作を行うことができる。なお、ロボット20の腕は、5自由度(5軸)以下で動作するものであってもよいし、7自由度(7軸)以上で動作するものであってもよい。以下では、把持部HND及びマニピュレーターMNPを備えた腕によって行われるロボット20の動作について説明する。なお、ロボット20の把持部HNDには、物体を把持可能な爪部が備えられている。把持部HNDは、ハンドの一例である。   The arm of the robot 20 is a 6-axis vertical articulated type, and can operate with 6 degrees of freedom by an operation in which the support base, the manipulator MNP, and the gripper HND are linked by an actuator. The arm of the robot 20 may operate with 5 degrees of freedom (5 axes) or less, or may operate with 7 degrees of freedom (7 axes) or more. Below, the operation | movement of the robot 20 performed with the arm provided with the holding part HND and the manipulator MNP is demonstrated. Note that the grip portion HND of the robot 20 includes a claw portion that can grip an object. The gripping part HND is an example of a hand.

ロボット20は、例えばケーブルによって制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、ロボット20と制御装置30とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。また、ロボットシステム1では、ロボット20は、図1に示したようにロボット20の外部に設置された制御装置30と接続されている構成とするが、この構成に代えて、制御装置30がロボット20に内蔵されている構成であってもよい。   The robot 20 is communicably connected to the control device 30 by a cable, for example. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The robot 20 and the control device 30 may be connected by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). Further, in the robot system 1, the robot 20 is configured to be connected to the control device 30 installed outside the robot 20 as shown in FIG. The structure built in 20 may be sufficient.

ロボット20は、制御装置30から制御信号を取得し、取得した制御信号に基づいて、ロボット20の把持部HNDにより把持された作業対象OをマニピュレーターMNPによって現在位置から所定の撮像位置まで移動させる。また、ロボット20は、制御装置30から制御信号を取得し、取得した制御信号に基づいて、作業対象OをマニピュレーターMNPによって撮像位置から移動させ、目標領域TAに配置させる。   The robot 20 acquires a control signal from the control device 30, and moves the work target O gripped by the gripping unit HND of the robot 20 from the current position to a predetermined imaging position by the manipulator MNP based on the acquired control signal. Further, the robot 20 acquires a control signal from the control device 30, and moves the work target O from the imaging position by the manipulator MNP based on the acquired control signal, and arranges it in the target area TA.

制御装置30は、制御信号をロボット20に出力することで、ロボット20を制御する。制御装置30は、ロボット20に作業対象Oを把持させた後、作業対象Oを撮像位置まで移動するようにロボット20を制御する。そして、制御装置30は、画像処理装置40に対して前述したオフセットを算出させる。制御装置30は、画像処理装置40からオフセットを示す情報を取得すると、取得されたオフセットを示す情報と、制御装置30に予め情報処理端末50を介して登録された目標点位置姿勢とに基づいて、作業対象Oに係る代表点位置姿勢が目標点位置姿勢に一致する時の制御点位置姿勢(以下、制御点目標位置姿勢と称する)を算出する。制御装置30は、制御点目標位置姿勢を算出した後、制御点位置姿勢が制御点目標位置姿勢と一致するように制御点TCPをロボット20に移動させる。   The control device 30 controls the robot 20 by outputting a control signal to the robot 20. The control device 30 controls the robot 20 to move the work target O to the imaging position after the robot 20 grips the work target O. Then, the control device 30 causes the image processing device 40 to calculate the above-described offset. When the control device 30 acquires the information indicating the offset from the image processing device 40, the control device 30 is based on the acquired information indicating the offset and the target point position and orientation registered in advance in the control device 30 via the information processing terminal 50. Then, a control point position / posture (hereinafter referred to as a control point target position / posture) when the representative point position / posture related to the work target O coincides with the target point position / posture is calculated. After calculating the control point target position and orientation, the control device 30 moves the control point TCP to the robot 20 so that the control point position and orientation coincide with the control point target position and orientation.

なお、ロボットシステム1は、制御装置30が制御点目標位置姿勢を算出する構成に代えて、画像処理装置40が制御点目標位置姿勢を算出する構成であってもよい。この場合、制御装置30は、制御装置30に予め登録された目標点位置姿勢を示す情報を画像処理装置40に出力する。そして、画像処理装置40は、制御装置30から取得した目標点位置姿勢と、自装置により算出されたオフセットとに基づいて、制御点目標位置姿勢を算出し、算出された制御点目標位置姿勢を示す情報を、制御装置30に出力する。   The robot system 1 may be configured such that the image processing device 40 calculates the control point target position and orientation instead of the configuration in which the control device 30 calculates the control point target position and orientation. In this case, the control device 30 outputs information indicating the target point position and orientation registered in advance in the control device 30 to the image processing device 40. Then, the image processing device 40 calculates the control point target position and orientation based on the target point position and orientation acquired from the control device 30 and the offset calculated by the own device, and the calculated control point target position and orientation is calculated. The information shown is output to the control device 30.

画像処理装置40は、制御装置30からの要求に応じて、撮像部10に前述の撮像範囲を撮像させる。また、画像処理装置40は、撮像部10から撮像画像を取得すると、取得された撮像画像に基づいて、前述のオフセットを算出する。画像処理装置40は、算出されたオフセットを示す情報を制御装置30に出力する。   In response to a request from the control device 30, the image processing device 40 causes the imaging unit 10 to capture the above-described imaging range. Further, when the captured image is acquired from the imaging unit 10, the image processing device 40 calculates the above-described offset based on the acquired captured image. The image processing device 40 outputs information indicating the calculated offset to the control device 30.

情報処理端末50は、制御装置30に各種の情報を登録(入力)する。情報処理端末50は、ノートPC(Personal Computer)であるが、これに代えて、デスクトップPCやタブレットPC、携帯電話端末、多機能携帯電話端末(スマートフォン)、PDA(Personal Digital Assistant)等であってもよい。情報処理端末50は、画像処理装置40に前述した目標点位置姿勢を示す情報を出力して登録(記憶)させる。なお、情報処理端末50は、画像処理装置40と一体の装置である構成であってもよい。   The information processing terminal 50 registers (inputs) various information in the control device 30. The information processing terminal 50 is a notebook PC (Personal Computer), but instead is a desktop PC, a tablet PC, a mobile phone terminal, a multi-function mobile phone terminal (smartphone), a PDA (Personal Digital Assistant), or the like. Also good. The information processing terminal 50 outputs and registers (stores) the information indicating the target point position and orientation described above in the image processing apparatus 40. The information processing terminal 50 may be configured as an apparatus integrated with the image processing apparatus 40.

次に、図2を参照して、画像処理装置40のハードウェア構成について説明する。図2は、画像処理装置40のハードウェア構成の一例を示す図である。画像処理装置40は、例えば、CPU(Central Processing Unit)41と、記憶部42と、入力受付部43と、通信部44を備え、通信部44を介して制御装置30と通信を行う。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。CPU41は、記憶部42に格納された各種プログラムを実行する。   Next, the hardware configuration of the image processing apparatus 40 will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a hardware configuration of the image processing apparatus 40. The image processing device 40 includes, for example, a CPU (Central Processing Unit) 41, a storage unit 42, an input reception unit 43, and a communication unit 44, and communicates with the control device 30 via the communication unit 44. These components are connected to each other via a bus Bus so that they can communicate with each other. The CPU 41 executes various programs stored in the storage unit 42.

記憶部42は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)などを含み、画像処理装置40が処理する各種情報や画像、プログラムを格納する。なお、記憶部42は、画像処理装置40に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置でもよい。   The storage unit 42 includes, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), an EEPROM (Electrically Erasable Programmable Read-Only Memory), a ROM (Read-Only Memory), a RAM (Random Access Memory), and the like. Various information, images, and programs processed by the image processing apparatus 40 are stored. The storage unit 42 may be an external storage device connected by a digital input / output port such as a USB instead of the one built in the image processing device 40.

入力受付部43は、例えば、キーボードやマウス、タッチパッド、その他の入力装置である。なお、入力受付部43は、表示部として機能することでタッチパネルとして構成されてもよい。また、入力受付部43は、画像処理装置40に備えられていない構成であってもよい。この場合、画像処理装置40への入力は、制御装置30と情報処理端末50のうちいずれか一方又は両方から受け付けるとする。
通信部44は、例えば、USB等のデジタル入出力ポートやイーサネットポート等を含んで構成される。
The input receiving unit 43 is, for example, a keyboard, mouse, touch pad, or other input device. In addition, the input reception part 43 may be comprised as a touch panel by functioning as a display part. Further, the input receiving unit 43 may be configured not to be provided in the image processing apparatus 40. In this case, input to the image processing device 40 is accepted from either one or both of the control device 30 and the information processing terminal 50.
The communication unit 44 includes, for example, a digital input / output port such as USB, an Ethernet port, and the like.

次に、図3を参照することで、画像処理装置40の機能構成について説明する。図3は、画像処理装置40の機能構成の一例を示す図である。画像処理装置40は、記憶部42と、通信部44と、画像取得部45と、制御部46を備える。制御部46が備える機能部のうち一部又は全部は、例えば、CPU41が、記憶部42に記憶された各種プログラムを実行することで実現される。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。   Next, the functional configuration of the image processing apparatus 40 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of a functional configuration of the image processing apparatus 40. The image processing device 40 includes a storage unit 42, a communication unit 44, an image acquisition unit 45, and a control unit 46. Part or all of the functional units included in the control unit 46 is realized by, for example, the CPU 41 executing various programs stored in the storage unit 42. Some or all of these functional units may be hardware functional units such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit).

画像取得部45は、撮像部10から撮像画像を取得する。画像取得部45は、取得された撮像画像を制御部46に出力する。
制御部46は、撮像制御部47と、オフセット算出部48と、通信制御部49を備える。
撮像制御部47は、撮像画像を撮像するように撮像部10を制御する。
オフセット算出部48は、画像取得部45により取得された撮像画像に基づいて制御点位置姿勢と作業対象位置姿勢の間のオフセットを算出する。
通信制御部49は、オフセット算出部48により算出されたオフセットを示す情報を制御装置30に出力するように通信部44を制御する。
The image acquisition unit 45 acquires a captured image from the imaging unit 10. The image acquisition unit 45 outputs the acquired captured image to the control unit 46.
The control unit 46 includes an imaging control unit 47, an offset calculation unit 48, and a communication control unit 49.
The imaging control unit 47 controls the imaging unit 10 so as to capture a captured image.
The offset calculation unit 48 calculates an offset between the control point position and orientation and the work target position and orientation based on the captured image acquired by the image acquisition unit 45.
The communication control unit 49 controls the communication unit 44 so as to output information indicating the offset calculated by the offset calculation unit 48 to the control device 30.

以下、図4を参照して、画像処理装置40がオフセットを算出する処理について説明する。図4は、画像処理装置40がオフセットを算出する処理の流れの一例を示すフローチャートである。以下では、ロボット20により作業対象Oが撮像位置に移動させられた後の処理について説明する。まず、撮像制御部47は、前述の撮像範囲を撮像するように撮像部10を制御する(ステップS100)。次に、画像取得部45は、撮像部10からステップS100で撮像された撮像画像を取得し、取得された撮像画像を制御部46に出力する(ステップS110)。   Hereinafter, with reference to FIG. 4, processing in which the image processing apparatus 40 calculates an offset will be described. FIG. 4 is a flowchart illustrating an example of a process flow in which the image processing apparatus 40 calculates an offset. Hereinafter, a process after the work object O is moved to the imaging position by the robot 20 will be described. First, the imaging control unit 47 controls the imaging unit 10 so as to capture the above-described imaging range (step S100). Next, the image acquisition unit 45 acquires the captured image captured in step S100 from the imaging unit 10, and outputs the acquired captured image to the control unit 46 (step S110).

次に、オフセット算出部48は、画像取得部45から取得された撮像画像に基づいて、制御点位置姿勢と作業対象位置姿勢の間のオフセットを算出する(ステップS120)。ここで、図5を参照して、撮像画像に基づく制御点位置姿勢と作業対象位置姿勢の間のオフセットの算出について説明する。図5は、撮像部10が撮像範囲を撮像する様子の一例と、撮像部10により撮像された撮像画像の一例をそれぞれ示す図である。   Next, the offset calculation unit 48 calculates an offset between the control point position and orientation and the work target position and orientation based on the captured image acquired from the image acquisition unit 45 (step S120). Here, the calculation of the offset between the control point position and orientation based on the captured image and the work target position and orientation will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of how the imaging unit 10 captures an imaging range and an example of a captured image captured by the imaging unit 10.

図5(A)には、撮像部10が撮像範囲を撮像する様子の一例を示す。図5(A)において、把持部HNDにより把持された作業対象Oは、ロボット20により撮像位置に移動させられた状態であるとして説明する。作業対象Oが撮像位置に移動させられた後、撮像部10は、図5(A)に示した方向Cに向かって撮像範囲を撮像する。方向Cは、把持部HNDにより把持されている作業対象Oの面Mに直交する方向である。面Mとは、作業対象Oが把持部HNDにより把持された時に、把持部HNDが設けられたフランジFと対面しない側の面を示す。従って、撮像部10は、面Mが撮像素子の平面に対して平行な状態で撮像範囲を撮像する。   FIG. 5A shows an example of how the imaging unit 10 captures an imaging range. In FIG. 5A, description will be made assuming that the work object O gripped by the gripper HND is in a state of being moved to the imaging position by the robot 20. After the work target O is moved to the imaging position, the imaging unit 10 images the imaging range in the direction C illustrated in FIG. The direction C is a direction orthogonal to the surface M of the work target O held by the holding unit HND. The surface M indicates a surface that does not face the flange F provided with the gripping portion HND when the work object O is gripped by the gripping portion HND. Therefore, the imaging unit 10 images the imaging range in a state where the surface M is parallel to the plane of the imaging element.

面Mが撮像素子の平面に対して平行な状態とする理由は、作業対象Oが目標領域TAに正しい位置姿勢で配置された場合のオフセットであって制御点TCPと代表点OPが目標領域TAの目標領域面上に射影された時の目標領域面上(すなわち、テーブルTBの平面上)における制御点位置姿勢と代表点位置姿勢の間のオフセットを検出するためである。このようにオフセットを、目標領域面上におけるオフセットとして扱うことで、制御装置30や画像処理装置40の計算コストを抑制することができる。なお、このようなオフセットの扱いは、一例に過ぎず、他のオフセットの扱い方を用いてもよい。   The reason why the surface M is in a state parallel to the plane of the image sensor is an offset when the work object O is arranged in the correct position and orientation in the target area TA, and the control point TCP and the representative point OP are the target area TA. This is to detect an offset between the control point position and orientation on the target area surface (that is, on the plane of the table TB) when projected onto the target area surface. By treating the offset as an offset on the target area surface in this way, the calculation cost of the control device 30 and the image processing device 40 can be suppressed. Note that such offset handling is merely an example, and other offset handling methods may be used.

図5(B)には、撮像部10により撮像された撮像画像の一例を示す。図5(B)に示したように、撮像画像には、面Mが直下から撮像されている。また、撮像画像には、作業対象Oに係る代表点OPが含まれている。画像処理装置40は、図5(B)に示したような撮像画像を撮像部10に撮像させ、撮像された撮像画像に基づいて、制御点位置姿勢と作業対象位置姿勢の間のオフセットOSを算出する。   FIG. 5B illustrates an example of a captured image captured by the imaging unit 10. As shown in FIG. 5B, the surface M is captured from directly below the captured image. The captured image includes a representative point OP related to the work object O. The image processing apparatus 40 causes the imaging unit 10 to capture a captured image as illustrated in FIG. 5B, and sets an offset OS between the control point position and orientation and the work target position and orientation based on the captured image. calculate.

図5(B)において、オフセットOSは、撮像画像上のX軸及びY軸によって張られるXY平面上の相対位置及び相対姿勢を示す。なお、画像処理装置40は、例えば、把持部HNDの形状をパターンマッチング等によって撮像画像から検出することで、撮像画像上における制御点TCPの位置(すなわち、フランジFの中心位置)を検出する。また、画像処理装置40は、例えば、図示しないマニピュレーターMNPであって撮像画像に含まれるマニピュレーターMNPが延在する方向に基づいて撮像画像上の制御点TCPの姿勢を検出する。なお、画像処理装置40は、制御点TCPの姿勢を検出する際、他の手法により制御点TCPの姿勢を検出する構成であってもよい。   In FIG. 5B, the offset OS indicates a relative position and a relative posture on the XY plane stretched by the X axis and the Y axis on the captured image. Note that the image processing apparatus 40 detects the position of the control point TCP (that is, the center position of the flange F) on the captured image by detecting the shape of the gripper HND from the captured image by pattern matching or the like, for example. For example, the image processing apparatus 40 detects the attitude of the control point TCP on the captured image based on the direction in which the manipulator MNP (not shown) extends and the manipulator MNP included in the captured image extends. The image processing apparatus 40 may be configured to detect the attitude of the control point TCP by another method when detecting the attitude of the control point TCP.

また、画像処理装置40は、例えば、パターンマッチングによって作業対象Oに係る代表点OPの撮像画像上の位置を検出する。また、画像処理装置40は、例えば、パターンマッチングによって面Mの辺の撮像画像上の方向を検出し、検出された方向に基づいて代表点OPの撮像画像上の姿勢を検出する。なお、画像処理装置40は、代表点OPの姿勢を検出する際、他の手法により代表点OPの姿勢を検出する構成であってもよい。画像処理装置40は、検出された撮像画像上の制御点位置姿勢と、撮像画像上の作業対象位置姿勢とに基づいて、ロボット座標系におけるオフセットOSを算出する。なお、撮像画像上の座標(ピクセル座標)系と、ロボット座標系とは、キャリブレーション等によって予め対応付けられているとする。   Further, the image processing device 40 detects the position of the representative point OP related to the work target O on the captured image by pattern matching, for example. Further, the image processing device 40 detects, for example, the direction of the side of the surface M on the captured image by pattern matching, and detects the orientation of the representative point OP on the captured image based on the detected direction. Note that the image processing device 40 may be configured to detect the posture of the representative point OP by another method when detecting the posture of the representative point OP. The image processing device 40 calculates an offset OS in the robot coordinate system based on the detected control point position and orientation on the captured image and the work target position and orientation on the captured image. Note that the coordinate (pixel coordinate) system on the captured image and the robot coordinate system are associated in advance by calibration or the like.

次に、通信制御部49は、ステップS120でオフセット算出部48により算出された制御点位置姿勢と作業対象位置姿勢との間のオフセットを示す情報を制御装置30に出力するように通信部44を制御する(ステップS130)。
このように、ロボットシステム1は、制御点位置姿勢と作業対象位置姿勢との間のオフセットを算出するための画像処理を制御装置30とは別体の画像処理装置40に行わせる。これにより、ロボットシステム1は、制御装置30による処理に係る計算等の負荷を抑制することができる。また、ロボットシステム1は、制御装置30が行う通信の回数を抑制することができる。
Next, the communication control unit 49 causes the communication unit 44 to output information indicating the offset between the control point position and orientation calculated by the offset calculation unit 48 and the work target position and orientation in step S120 to the control device 30. Control (step S130).
As described above, the robot system 1 causes the image processing device 40 separate from the control device 30 to perform image processing for calculating the offset between the control point position and orientation and the work target position and orientation. Thereby, the robot system 1 can suppress loads such as calculations related to processing by the control device 30. Further, the robot system 1 can suppress the number of communications performed by the control device 30.

また、ロボットシステム1は、ロボット20を制御する制御装置30がバージョンアップ等に伴い、制御装置30とは異なる新たな制御装置Xを具備することになった場合であっても、制御装置Xで実行可能な形式のプログラムであってオフセットを算出するための画像処理に係るプログラムを新たに作成する必要がない。この場合、ロボットシステム1は、画像処理装置40との情報の入出力に係るコードを制御装置Xのロボット20を制御するプログラムに書き込むだけで、容易にオフセットを算出し、算出されたオフセットに基づいてロボット20を制御することができる。   In addition, the robot system 1 can control the robot 20 even when the control device 30 that controls the robot 20 includes a new control device X that is different from the control device 30 due to version upgrade or the like. There is no need to create a new program relating to image processing for calculating an offset, which is an executable program. In this case, the robot system 1 simply calculates an offset simply by writing a code related to input / output of information with the image processing device 40 into a program for controlling the robot 20 of the control device X, and based on the calculated offset. Thus, the robot 20 can be controlled.

以上説明したように、本実施形態に係るロボットシステム1は、画像処理装置40が、撮像部10により撮像された撮像画像を用いて、制御点位置姿勢と作業対象位置姿勢との間のオフセットOSを算出する。これにより、ロボットシステム1は、効率的にロボット20を制御することができる。   As described above, in the robot system 1 according to the present embodiment, the image processing apparatus 40 uses the captured image captured by the imaging unit 10 to use the offset OS between the control point position / posture and the work target position / posture. Is calculated. Thereby, the robot system 1 can control the robot 20 efficiently.

また、ロボットシステム1は、撮像画像から制御点位置姿勢を検出する。これにより、ロボットシステムは、制御点位置姿勢と作業対象位置姿勢との間のオフセットOSを算出することができる。
また、ロボットシステム1は、パターンマッチングによって撮像画像から制御点位置姿勢と作業対象位置姿勢との間のオフセットOSを検出する。これにより、ロボットシステム1は、パターンマッチングによって撮像画像から制御点位置姿勢と作業対象位置姿勢との間のオフセットOSを検出することができる。
The robot system 1 detects the control point position and orientation from the captured image. Thereby, the robot system can calculate the offset OS between the control point position and orientation and the work target position and orientation.
Further, the robot system 1 detects an offset OS between the control point position / posture and the work target position / posture from the captured image by pattern matching. Thereby, the robot system 1 can detect the offset OS between the control point position / posture and the work target position / posture from the captured image by pattern matching.

以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and changes, substitutions, deletions, and the like are possible without departing from the gist of the present invention. May be.

また、以上に説明した装置(例えば、ロボットシステム1の画像処理装置40)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM:Random Access Memory)のように、一定時間プログラムを保持しているものも含むものとする。   Further, a program for realizing the function of an arbitrary component in the apparatus described above (for example, the image processing apparatus 40 of the robot system 1) is recorded on a computer-readable recording medium, and the program is stored in the computer system. You may make it read and execute. Here, the “computer system” includes hardware such as an OS (Operating System) and peripheral devices. “Computer-readable recording medium” means a portable disk such as a flexible disk, a magneto-optical disk, a ROM (Read Only Memory), a CD (Compact Disk) -ROM, or a hard disk built in a computer system. Refers to the device. Further, the “computer-readable recording medium” means a volatile memory (RAM: Random Access) inside a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Memory that holds a program for a certain period of time, such as Memory).

また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

1 ロボットシステム、10 撮像部、20 ロボット、30 制御装置、40 画像処理装置、41 CPU、42 記憶部、43 入力受付部、44 通信部、45 画像取得部、46 制御部、47 撮像制御部、48 オフセット算出部、49 通信制御部、50 情報処理端末 DESCRIPTION OF SYMBOLS 1 Robot system, 10 Imaging part, 20 Robot, 30 Control apparatus, 40 Image processing apparatus, 41 CPU, 42 Storage part, 43 Input reception part, 44 Communication part, 45 Image acquisition part, 46 Control part, 47 Imaging control part, 48 offset calculation unit, 49 communication control unit, 50 information processing terminal

Claims (3)

ワークを移動させるロボットと、
前記ロボットが移動させる前記ワークを撮像する撮像装置と、
前記ロボットを動作させる制御装置と、
前記撮像装置が撮像した撮像画像を用いて、前記ロボットが移動させる前記ワークを検出する画像処理装置と、
を含み、
前記画像処理装置は、
前記撮像画像を用いて、前記ロボットの第1位置と前記ロボットが移動させる前記ワークの第2位置との位置関係を算出する、
ロボットシステム。
A robot that moves the workpiece,
An imaging device for imaging the workpiece moved by the robot;
A control device for operating the robot;
An image processing device that detects the workpiece moved by the robot using a captured image captured by the imaging device;
Including
The image processing apparatus includes:
Calculating a positional relationship between a first position of the robot and a second position of the workpiece moved by the robot, using the captured image;
Robot system.
請求項1に記載のロボットシステムであって、
前記ロボットは、ハンドを備え、そのハンドにより把持された前記ワークを移動させ、
前記画像処理装置は、前記撮像画像から前記ハンドの所定位置を前記第1位置として検出する、
ロボットシステム。
The robot system according to claim 1,
The robot includes a hand, moves the workpiece gripped by the hand,
The image processing device detects a predetermined position of the hand as the first position from the captured image;
Robot system.
請求項1又は2に記載のロボットシステムであって、
前記画像処理装置は、パターンマッチングによって前記撮像画像から前記ロボットの前記第1位置と前記ワークの前記第2位置との前記位置関係を検出する、
ロボットシステム。
The robot system according to claim 1 or 2,
The image processing device detects the positional relationship between the first position of the robot and the second position of the workpiece from the captured image by pattern matching;
Robot system.
JP2014136317A 2014-07-01 2014-07-01 Robot system Pending JP2016013591A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014136317A JP2016013591A (en) 2014-07-01 2014-07-01 Robot system
US14/753,401 US9981380B2 (en) 2014-07-01 2015-06-29 Teaching apparatus and robot system
EP15174247.5A EP2963513B1 (en) 2014-07-01 2015-06-29 Teaching apparatus and robot system
CN201510367312.0A CN105269578B (en) 2014-07-01 2015-06-29 Pointing devices and robotic systems
US15/960,884 US20180236661A1 (en) 2014-07-01 2018-04-24 Teaching Apparatus And Robot System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014136317A JP2016013591A (en) 2014-07-01 2014-07-01 Robot system

Publications (1)

Publication Number Publication Date
JP2016013591A true JP2016013591A (en) 2016-01-28

Family

ID=55230222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014136317A Pending JP2016013591A (en) 2014-07-01 2014-07-01 Robot system

Country Status (1)

Country Link
JP (1) JP2016013591A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63163907A (en) * 1986-12-26 1988-07-07 Toyota Motor Corp Method for matching coordinate in intelligent robot
JP2011093014A (en) * 2009-10-27 2011-05-12 Ihi Corp Control device of hand-eye bin picking robot
JP2011136377A (en) * 2009-12-25 2011-07-14 Ihi Corp Robot control device and method
JP2012254518A (en) * 2011-05-16 2012-12-27 Seiko Epson Corp Robot control system, robot system and program
JP2014104529A (en) * 2012-11-27 2014-06-09 Canon Inc Robot system and control method of the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63163907A (en) * 1986-12-26 1988-07-07 Toyota Motor Corp Method for matching coordinate in intelligent robot
JP2011093014A (en) * 2009-10-27 2011-05-12 Ihi Corp Control device of hand-eye bin picking robot
JP2011136377A (en) * 2009-12-25 2011-07-14 Ihi Corp Robot control device and method
JP2012254518A (en) * 2011-05-16 2012-12-27 Seiko Epson Corp Robot control system, robot system and program
JP2014104529A (en) * 2012-11-27 2014-06-09 Canon Inc Robot system and control method of the same

Similar Documents

Publication Publication Date Title
CN105269578B (en) Pointing devices and robotic systems
JP6380828B2 (en) Robot, robot system, control device, and control method
US10350768B2 (en) Control device, robot, and robot system
JP2017071018A (en) Robot system, robot, and robot controller
CN105269582B (en) Robot, robot system and control method
US20150343634A1 (en) Robot, robot system, and control method
US20170203434A1 (en) Robot and robot system
US20180215044A1 (en) Image processing device, robot control device, and robot
US20160306340A1 (en) Robot and control device
JP6488571B2 (en) Teaching apparatus and robot system
JP2015182212A (en) Robot system, robot, control device, and control method
JP2017047479A (en) Robot, control device, and robot system
JP2019111588A (en) Robot system, information processor, and program
JP2016013590A (en) Teaching device, and robot system
JP2015221485A (en) Robot, robot system, control device, and control method
JP6958091B2 (en) Robot system and robot control method
JP2018017610A (en) Three-dimensional measuring device, robot, robot controlling device, and robot system
JP2015226967A (en) Robot, robot system, control device, and control method
JP2016013591A (en) Robot system
JP2016120558A (en) Robot and robot system
JP2016120530A (en) Robot and robot calibration system
JP2017100197A (en) Robot and control method
JP2015226954A (en) ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL DEVICE
JP2016120557A (en) Robot and robot calibration system
JP2015182211A (en) Robot system, robot, control device, and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180814

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181026

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190129