[go: up one dir, main page]

JP2002018754A - Robot apparatus and control method therefor - Google Patents

Robot apparatus and control method therefor

Info

Publication number
JP2002018754A
JP2002018754A JP2000208915A JP2000208915A JP2002018754A JP 2002018754 A JP2002018754 A JP 2002018754A JP 2000208915 A JP2000208915 A JP 2000208915A JP 2000208915 A JP2000208915 A JP 2000208915A JP 2002018754 A JP2002018754 A JP 2002018754A
Authority
JP
Japan
Prior art keywords
gripping mechanism
gripping
coordinates
robot
hand position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000208915A
Other languages
Japanese (ja)
Other versions
JP4265088B2 (en
Inventor
Takashi Naito
貴志 内藤
Hideki Nomura
秀樹 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2000208915A priority Critical patent/JP4265088B2/en
Publication of JP2002018754A publication Critical patent/JP2002018754A/en
Application granted granted Critical
Publication of JP4265088B2 publication Critical patent/JP4265088B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To save labor for troublesome teaching work and calibration and allow easy work for objects, as predetermined. SOLUTION: In teaching work, a robot controller 5 stores a position Pd of a gripper 3 in the state of gripping the object 11 and further stores any position (Ps) after the object 11 is released. In clamping work, the robot controller 5 makes the gripper 3 follow the object 11 being carried, go to the object 11 in accordance with the positions Ps, Pd and grip the object 11.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ロボット装置及び
その制御方法に係り、特に、運動中の物体を把持するロ
ボット装置及びその制御方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus and a control method therefor, and more particularly to a robot apparatus for gripping a moving object and a control method therefor.

【0002】[0002]

【従来の技術】ロボットを利用して対象物に作業(例え
ば物体の把持)を行う場合、対象物の位置、姿勢などの
情報をセンサにより取得して、そのセンサ情報をもとに
作業する例が数多く実用化されている。このような装置
構成としては、大別して、一般的に次の2つの方式があ
る。
2. Description of the Related Art When performing an operation (for example, grasping an object) on an object using a robot, an example in which information such as the position and orientation of the object is acquired by a sensor and the operation is performed based on the sensor information. Has been put to practical use. Such an apparatus configuration is roughly classified into the following two systems.

【0003】例えば特開平8−63214号公報に記載
されているように、コンベア上を搬送される対象物を固
定されたカメラで撮像し、得られた画像から対象物の位
置、姿勢を検出してその情報をロボットに送信するもの
がある。このロボットは、対象物の位置情報から把持な
どの作業を行っている。
[0003] For example, as described in Japanese Patent Application Laid-Open No. 8-63214, an object to be conveyed on a conveyor is imaged by a fixed camera, and the position and orientation of the object are detected from the obtained image. In some cases, the information is transmitted to the robot. This robot performs operations such as grasping based on position information of an object.

【0004】また、ロボットの手先にカメラなどのセン
サを取り付け、前述のようにカメラからの画像から対象
の位置姿勢を検出して、その情報に基づいて移動する対
象物に追従して把持などの作業を行うものもある。
Further, a sensor such as a camera is attached to the hand of the robot, and the position and orientation of the object are detected from the image from the camera as described above. Some do work.

【0005】[0005]

【発明が解決しようとする課題】しかし、前者のように
ロボットと別に設置したカメラを用いて対象物の把持な
どの作業を実現する場合、ロボットとカメラの設置位置
を予め正確に求めておく作業が必要になる。また、カメ
ラの焦点距離やレンズひずみ係数などを予め算出してお
くカメラキャリブレーションを行う必要がある。
However, in the case of realizing work such as grasping of an object by using a camera installed separately from the robot as in the former case, it is necessary to accurately determine the installation positions of the robot and the camera in advance. Is required. Further, it is necessary to perform camera calibration in which the focal length of the camera, the lens distortion coefficient, and the like are calculated in advance.

【0006】加えて、特開平8−63214号公報など
における例では、一般的にカメラの光軸がコンベア平面
に垂直に、さらに画面中のx軸あるいはy軸がコンベア
の搬送方向に平行になるように設置しておく必要があ
る。また、対象物がベルトコンベアなどで動いているた
め、カメラからの画像により検出した対象物の位置姿勢
情報に加えてコンベアの速度情報などを別の手段(例え
ばコンベアのエンコーダ)により検出し、両者の情報に
基づいてロボットへの指令値を生成する必要がある。さ
らに、カメラとロボットの設置位置情報、対象物の位置
情報、コンベアの速度情報からロボットが対象物を把持
する際の軌道を生成しなければならない。したがって、
教示作業、軌道生成のための処理手順が非常に煩雑にな
るなどの問題がある。
In addition, in the example of Japanese Patent Application Laid-Open No. 8-63214, the optical axis of the camera is generally perpendicular to the plane of the conveyor, and the x-axis or y-axis in the screen is parallel to the direction of conveyance of the conveyor. It is necessary to set it up. Further, since the object is moving on a belt conveyor or the like, in addition to the position and orientation information of the object detected from the image from the camera, speed information of the conveyor is detected by another means (for example, an encoder of the conveyor). It is necessary to generate a command value to the robot based on the information of the robot. Further, it is necessary to generate a trajectory when the robot grasps the object from the installation position information of the camera and the robot, the position information of the object, and the speed information of the conveyor. Therefore,
There is a problem that the teaching procedure and the processing procedure for trajectory generation become very complicated.

【0007】このような問題は、従来技術におけるロボ
ットの手先にカメラを設置した後者の例についても同じ
ことがいえる。つまり、カメラからの画像から検出した
対象物の位置姿勢情報に基づいてロボットの手先に取り
付けたグリッパなどで対象物を把持する場合、カメラか
ら得られた対象物の位置姿勢情報をロボットの基準座標
系からみた位置姿勢情報に変換する必要があり、ロボッ
ト手先とカメラとの位置関係を予め精密に求めておく、
いわゆるハンドアイキャリブレーションが必要となる。
特に、ロボット手先にカメラなどのセンサを設置した場
合、作業中の誤作動などによりロボット手先とカメラ位
置関係が変化することが頻繁にあり、その場合はキャリ
ブレーション作業を再度行う必要がある。また、前者の
例と同様に対象物が動いている場合、ロボット基準座標
からみた対象物の位置姿勢情報は刻々と変化するため、
把持を行うための軌道生成が非常に複雑となる。
The same problem can be said for the latter example in which a camera is installed at the hand of a robot in the prior art. In other words, when gripping an object with a gripper or the like attached to the robot's hand based on the position and orientation information of the object detected from the image from the camera, the position and orientation information of the object obtained from the camera is used as the reference coordinates of the robot. It is necessary to convert it into position and orientation information from the viewpoint of the system, and the positional relationship between the robot hand and the camera is determined in advance precisely,
So-called hand-eye calibration is required.
In particular, when a sensor such as a camera is installed at the robot hand, the positional relationship between the robot hand and the camera frequently changes due to a malfunction during the work or the like. In such a case, the calibration work needs to be performed again. Also, when the target is moving as in the former example, since the position and orientation information of the target viewed from the robot reference coordinates changes every moment,
Trajectory generation for gripping becomes very complicated.

【0008】さらに、従来では、前者及び後者の方法と
も、構成装置(コンベアの設置状況や搬送速度、あるい
はカメラとロボットの設置位置関係)や把持すべき対象
物の形状が変わらなくても、使用するロボット及びセン
サが変わる毎に、前述の高精度なキャリブレーション、
煩雑な教示作業を行う必要があった。
Conventionally, the former method and the latter method can be used even if the constituent devices (conveyor installation status and transfer speed, or the positional relationship between the camera and the robot) and the shape of the object to be grasped do not change. Each time the robot and sensor to be changed, the high-precision calibration described above,
It was necessary to perform complicated teaching work.

【0009】本発明は、上述した問題点を解消するため
に提案されたものであり、煩雑な教授作業やキャリブレ
ーションを行う手間を省き、対象物に容易に所定の作業
を行わせることができるロボット装置及びその制御方法
を提供することを目的とする。
The present invention has been proposed in order to solve the above-mentioned problems, and can save a complicated teaching work and a labor of performing calibration, and can easily perform a predetermined work on an object. It is an object to provide a robot device and a control method thereof.

【0010】[0010]

【課題を解決するための手段】請求項1記載の発明は、
対象物を把持する把持機構を有し、前記把持機構が移動
可能に構成された把持手段と、前記把持手段の把持機構
と共に移動可能に固定され、対象物を撮像する撮像手段
と、前記撮像手段が撮像した対象物の画像から1以上の
特徴量の座標を抽出する特徴量抽出手段と、前記把持機
構に前記対象物を把持させたときの把持機構の位置を第
1の手先位置として記憶し、前記対象物を開放させて前
記撮像手段が対象物を撮像することができる範囲内にお
いて前記把持機構を移動させたときの前記把持機構の位
置を第2の手先位置として記憶し、前記第2の手先位置
において前記撮像手段が撮像して前記特徴量抽出手段が
抽出した前記対象物の各特徴量の座標を記憶する記憶手
段と、前記第2の手先位置から前記1の手先位置まで移
動するための移動行列を算出する算出手段と、前記特徴
量抽出手段によって抽出される運動中の対象物の各特徴
量の座標が、前記記憶手段に記憶されている各特徴量の
座標に一致するように前記把持手段を移動させること
で、前記運動中の対象物に前記把持機構を追従させる制
御をする追従制御手段と、前記把持機構が運動中の対象
物に追従している際に、前記算出手段が算出した移動行
列に基づいて前記把持機構を前記運動中の対象物に近付
け、前記対象物を把持させるように前記把持手段を制御
する把持制御手段と、を備えたものである。
According to the first aspect of the present invention,
A gripping mechanism having a gripping mechanism for gripping an object, wherein the gripping mechanism is configured to be movable; an imaging means fixed to be movable together with the gripping mechanism of the gripping means; And a feature amount extracting means for extracting coordinates of one or more feature amounts from an image of the object captured by the camera, and storing a position of the gripping mechanism when the gripping mechanism grips the object as a first hand position. Storing the position of the gripping mechanism when the gripping mechanism is moved within a range in which the object can be opened and the imaging unit can image the object, as a second hand position; Storage means for storing the coordinates of each feature amount of the object extracted by the imaging means and extracted by the feature amount extraction means at the hand position, and moving from the second hand position to the first hand position Move for Calculating means for calculating a sequence, and the gripping so that the coordinates of each feature amount of the moving object extracted by the feature amount extracting means match the coordinates of each feature amount stored in the storage means. By moving the means, follow-up control means for controlling the gripping mechanism to follow the moving object, and the calculating means calculates when the gripping mechanism is following the moving object. Gripping control means for controlling the gripping means so as to bring the gripping mechanism closer to the moving object based on the movement matrix and to grip the object.

【0011】請求項1記載のロボット装置は、当該ロボ
ット装置に対して相対的に運動する対象物を把持するも
のである。したがって、前記ロボット装置が固定され前
記対象物が運動する場合に限らず、前記ロボット装置が
運動し前記対象物が固定されている場合や、前記ロボッ
ト装置と前記対象物がそれぞれ異なる速度で運動してい
る場合も適用することができる。さらに、前記対象物
は、前記ロボット装置に対して相対的に等速直線運動、
等速円運動、等加速度直線運動していてもよいが、相対
的に静止していてもよい。
According to a first aspect of the present invention, there is provided a robot apparatus for gripping an object moving relatively to the robot apparatus. Therefore, not only when the robot apparatus is fixed and the object moves, but also when the robot apparatus moves and the object is fixed, or when the robot apparatus and the object move at different speeds. It can also be applied if Further, the object is a linear motion at a constant speed relative to the robot device,
It may be a constant velocity circular motion or a constant acceleration linear motion, but may be relatively stationary.

【0012】最初に、オペレータは、教示作業として、
次の2つのことを行う必要がある。第1に、把持機構を
第1の手先位置に移動させ、ここで対象物を把持させ
る。第2に、把持機構から対象物をリリースさせ、撮像
手段が対象物を撮像することができる範囲内において把
持機構を第2の手先位置まで移動させる。このような教
示作業を行い、第1及び第2の手先位置を記憶手段に記
憶させる。さらに、第2の手先位置において、撮像手段
が撮像した画像から抽出される1以上の特徴量の座標も
記憶手段に記憶させる。撮像手段は、把持機構のセンサ
となるものであり、把持手段と共に移動するように固定
されている。また、第2の手先位置から第1の手先位置
まで移動するための移動行列が算出される。
First, the operator performs a teaching operation as follows.
You need to do two things: First, the gripping mechanism is moved to a first hand position, where the object is gripped. Second, the object is released from the gripping mechanism, and the gripping mechanism is moved to the second hand position within a range where the imaging unit can image the object. Such teaching work is performed, and the first and second hand positions are stored in the storage means. Further, at the second hand position, the coordinates of one or more feature amounts extracted from the image captured by the imaging unit are also stored in the storage unit. The imaging means serves as a sensor of the gripping mechanism, and is fixed so as to move together with the gripping means. Further, a movement matrix for moving from the second hand position to the first hand position is calculated.

【0013】このような教示作業が完了すると、運動中
の対象物を把持する把持作業を行うことができる。把持
機構は、運動中の対象物の各特徴量の座標が、前記記憶
手段に記憶されている各特徴量の座標に一致するように
移動される。すなわち、把持機構が運動中の対象物を追
従するように、いわゆるビジュアルサーボが行われる。
このときの対象物と把持機構の相対的な位置関係は、教
示作業時の対象物と把持機構の相対的な位置関係と同じ
である。前記把持機構が運動中の対象物に追従すると、
前記算出手段が算出した第1の移動行列に基づいて前記
把持機構を前記運動中の対象物に近付け、そして前記対
象物を把持させる。
When such a teaching operation is completed, a gripping operation for gripping a moving object can be performed. The gripping mechanism is moved so that the coordinates of each feature amount of the moving object coincide with the coordinates of each feature amount stored in the storage unit. That is, so-called visual servo is performed so that the gripping mechanism follows the moving object.
The relative positional relationship between the target and the gripping mechanism at this time is the same as the relative positional relationship between the target and the gripping mechanism during the teaching operation. When the gripping mechanism follows a moving object,
The gripping mechanism is moved closer to the moving object based on the first movement matrix calculated by the calculating means, and the object is gripped.

【0014】ビジュアルサーボを行っている場合では、
運動中の対象物に把持機構が完全に追従していることが
望ましい。しかし、運動中の対象物に所定距離を隔てな
がら把持機構が追従することがある。このような場合
は、請求項2に記載されるような再教示作業が行われる
のが好ましい。具体的には、前記記憶手段は、前記追従
制御手段によって前記把持機構が前記運動中の対象物に
対して所定距離を隔てながら追従している際に、前記特
徴量抽出手段が抽出した前記対象物の各特徴量の座標を
新たに記憶し、前記追従制御手段が新たに記憶された各
特徴量の座標を用いて、前記第2の手先位置から前記把
持機構を対象物に完全に追従させたときの前記把持機構
の位置を新たな第2の手先位置として記憶すればよい。
When performing visual servoing,
It is desirable that the gripping mechanism completely follows the moving object. However, the gripping mechanism may follow a moving object at a predetermined distance. In such a case, it is preferable that the re-teaching operation as described in claim 2 is performed. Specifically, the storage means stores the object extracted by the feature amount extraction means when the gripping mechanism is following the moving object by a predetermined distance by the tracking control means. The coordinates of each feature amount of the object are newly stored, and the following control unit causes the gripping mechanism to completely follow the object from the second hand position using the newly stored coordinates of the feature amounts. What is necessary is just to store the position of the gripping mechanism at the time of pressing as a new second hand position.

【0015】請求項3記載の発明は、移動可能に構成さ
れた把持機構で対象物を把持するロボット装置の制御方
法であり、前記把持機構に前記対象物を把持させたとき
の把持機構の位置を第1の手先位置として記憶し、前記
対象物を開放させて、対象物を撮像することができる範
囲内において前記把持機構を移動させたときの前記把持
機構の位置を第2の手先位置として記憶し、前記第2の
手先位置において前記対象物を撮像し、前記撮像した対
象物の画像から1以上の特徴量の座標を抽出し、前記抽
出した各特徴量の座標を記憶し、前記第2の手先位置か
ら前記1の手先位置まで移動するための移動行列を算出
し、前記把持機構と共に移動可能に固定された状態で、
運動中の対象物を撮像し、前記撮像した運動中の対象物
の画像から1以上の特徴量の座標を抽出し、前記抽出さ
れた運動中の対象物の各特徴量の座標が、前記記憶され
ている各特徴量の座標に一致するように前記把持機構を
移動させることで、前記運動中の対象物に前記把持機構
を追従させ、前記把持機構が運動中の対象物に追従して
いる際に、前記算出した移動行列に基づいて前記把持機
構を前記運動中の対象物に近付け、前記把持機構に前記
対象物を把持させるものである。
According to a third aspect of the present invention, there is provided a control method of a robot apparatus for gripping an object with a movable gripping mechanism, the position of the gripping mechanism when the gripping mechanism grips the object. Is stored as a first hand position, the object is opened, and the position of the gripping mechanism when the gripping mechanism is moved within a range in which the object can be imaged is defined as a second hand position. Storing the object at the second hand position, extracting coordinates of one or more feature amounts from the captured image of the object, storing the coordinates of each extracted feature amount, A movement matrix for moving from the second hand position to the first hand position is calculated, and in a state in which it is movably fixed together with the gripping mechanism,
The moving object is imaged, and coordinates of one or more feature values are extracted from the captured image of the moving object, and the coordinates of each of the extracted feature values of the moving object are stored in the memory. By moving the gripping mechanism so as to match the coordinates of each feature amount being performed, the gripping mechanism follows the moving object, and the gripping mechanism follows the moving object. At this time, the gripping mechanism is brought closer to the moving object based on the calculated movement matrix, and the gripping mechanism is caused to grip the object.

【0016】この発明は、請求項1に記載されたロボッ
ト装置を制御するための方法であり、オペレータは、教
示作業として上述した2つのことを行うだけでよい。す
なわち、オペレータが2つの簡単な教示作業を行うだけ
で、運動している対象物に把持機構を追従させて、その
対象物を把持することができる。
According to the present invention, there is provided a method for controlling a robot apparatus according to the first aspect of the present invention, in which an operator only needs to perform the above-described two things as a teaching operation. That is, the operator can make the gripping mechanism follow the moving object and grip the object only by performing two simple teaching operations.

【0017】ビジュアルサーボを行っている場合では、
運動中の対象物に把持機構が完全に追従していることが
望ましい。しかし、運動中の対象物に所定距離を隔てな
がら把持機構が追従することがある。このような場合
は、請求項4に記載されるような再教示作業が行われる
のが好ましい。具体的には、前記運動中の対象物に前記
把持機構を追従させ、前記把持機構が前記運動中の対象
物に対して所定距離を隔てながら追従している際に、前
記把持機構と共に移動可能に固定された状態で、運動中
の対象物を撮像し、前記撮像した運動中の対象物の画像
から1以上の特徴量の座標を抽出し、前記抽出した前記
対象物の各特徴量の座標を新たに記憶し、前記新たに記
憶された各特徴量の座標を用いて、前記第2の手先位置
から対象物に前記把持機構が完全に追従するように前記
把持機構を移動させ、完全に追従した際に、前記把持機
構の位置を新たな第2の手先位置として記憶すればよ
い。
When performing visual servoing,
It is desirable that the gripping mechanism completely follows the moving object. However, the gripping mechanism may follow a moving object at a predetermined distance. In such a case, it is preferable to perform a re-teaching operation as described in claim 4. Specifically, the gripping mechanism is made to follow the moving object, and is movable together with the gripping mechanism when the gripping mechanism is following the moving object at a predetermined distance. In the state fixed to, the moving object is imaged, coordinates of one or more feature amounts are extracted from the captured image of the moving object, and the coordinates of each extracted feature amount of the object are extracted. Is newly stored, and using the coordinates of each of the newly stored feature amounts, the gripping mechanism is moved so that the gripping mechanism completely follows the target from the second hand position, and completely When following, the position of the gripping mechanism may be stored as a new second hand position.

【0018】[0018]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0019】(第1の実施の形態)図1に示すように、
本実施の形態に係るロボット装置は、固定された状態
で、コンベア10で搬送されている対象物11を把持す
るものである。なお、本発明は、このような実施の形態
に限定されるものではなく、対象物11がロボット装置
に対して相対的に運動していれば適用することができ
る。すなわち、ロボット装置が運動し対象物11が静止
している場合や、ロボット装置と対象物11が異なる速
度で運動している場合であってもよい。さらに、第2及
び第3の実施の形態でも同様である。
(First Embodiment) As shown in FIG.
The robot apparatus according to the present embodiment grips an object 11 being conveyed by a conveyor 10 in a fixed state. Note that the present invention is not limited to such an embodiment, and can be applied as long as the object 11 is relatively moving with respect to the robot device. That is, the case where the robot apparatus is moving and the object 11 is stationary, or the case where the robot apparatus and the object 11 are moving at different speeds may be used. Further, the same applies to the second and third embodiments.

【0020】ロボット装置は、対象物11を撮像するC
CDカメラ1と、CCDカメラ1が撮像した画像から特
徴量を抽出するセンサコントローラ2と、対象物11を
把持するグリッパ3と、グリッパ3を3次元方向に移動
させるロボットアーム4と、座標変換や軌道生成等を行
い、図示しないサーボ回路、アンプなどを有し、グリッ
パ3やロボットアーム4の動作を制御するロボットコン
トローラ5とを備えている。
The robot apparatus has a C for imaging the object 11
A CD camera 1; a sensor controller 2 for extracting a feature amount from an image captured by the CCD camera 1; a gripper 3 for gripping an object 11; a robot arm 4 for moving the gripper 3 in a three-dimensional direction; A robot controller 5 that performs trajectory generation and the like, includes a servo circuit (not shown), an amplifier, and the like, and controls operations of the gripper 3 and the robot arm 4 is provided.

【0021】CCDカメラ1は、ロボットアーム4の先
端であるグリッパ3の近傍に固着されている。ロボット
コントローラ5は、センサコントローラ2で得られた画
像特徴量Fiに基づいて、誤差ベクトルE(t)や速度
指令値ベクトルV(t)を算出し、これらの値に従って
ロボットアーム4の移動や、グリッパ3による対象物1
1の把持を制御する。なお、コンベア10は、対象物1
1を一定の速度で搬送する。
The CCD camera 1 is fixed near the gripper 3 which is the tip of the robot arm 4. The robot controller 5 calculates an error vector E (t) and a speed command value vector V (t) based on the image feature amount Fi obtained by the sensor controller 2, and moves the robot arm 4 according to these values. Object 1 by gripper 3
1 is controlled. In addition, the conveyor 10 is the object 1
1 is transported at a constant speed.

【0022】このような構成のロボット装置は、搬送さ
れている対象物11を実際に把持する前に、対象物11
を把持するための教示作業が行われる。
The robot apparatus having the above-described configuration is capable of moving the object 11 before actually gripping the object 11 being transported.
Is performed for grasping the object.

【0023】(教示作業)最初に、オペレータは、ロボ
ット装置に対象物11を把持させてロボット手先位置P
を教示する。なお、グリッパ3などの把持機構及び対象
物11の形状によって、把持すべき位置が制限される場
合がある。また、後の処理(例えば、対象物11に他の
部品を組み付けたり、部品箱に投入すること)のため
に、把持すべき位置を予め規定しておくこともある。
(Teaching operation) First, the operator causes the robot apparatus to grip the target object 11 and
Teach. The position to be gripped may be limited by the gripping mechanism such as the gripper 3 and the shape of the object 11. In addition, a position to be gripped may be defined in advance for a later process (for example, assembling another component to the object 11 or putting it into a component box).

【0024】ここでは、対象物11は、例えば図2に示
すように、7角柱状に形成され、7つの側面111〜1
17を備えている。対象物11の上面118には、図示
しない部品を取り付けるための6つの組み付け穴(例え
ばねじ穴)が形成されている。なお、対象物11の下面
119には、このような組み付け穴は形成されていな
い。対象物11の把持される部分は、把持されたときの
安定性を考慮して、7つの側面のうち相対する側面11
1,115、または側面113,116であることが好
ましい。なお、本実施の形態では上記の形状の対象物1
1を用いたが、本発明はこの形状に限定されるものでは
なく、対象物11は他の形状であってもよい。そして、
教示作業は、具体的には図3に示すステップST1から
ステップST6の処理に従って行われる。
Here, as shown in FIG. 2, for example, the object 11 is formed in the shape of a hexagonal prism and has seven side surfaces 111 to 1.
17 is provided. Six mounting holes (for example, screw holes) for mounting components (not shown) are formed on the upper surface 118 of the object 11. It should be noted that such an assembling hole is not formed in the lower surface 119 of the object 11. The gripped portion of the object 11 is determined by considering the stability when gripped,
1, 115 or the side surfaces 113, 116 are preferred. In the present embodiment, the object 1 having the above shape is used.
Although 1 is used, the present invention is not limited to this shape, and the object 11 may have another shape. And
The teaching operation is specifically performed according to the processing of steps ST1 to ST6 shown in FIG.

【0025】ステップST1において、オペレータは、
図示しないティーチングペンダントなどを用いてグリッ
パ3が対象物11の側面111,115または側面11
3,116を把持するようにして、ステップST2に移
行する。
In step ST1, the operator
Using a teaching pendant (not shown) or the like, the gripper 3
The process proceeds to step ST2 so as to hold the members 3 and 116.

【0026】ステップST2において、ロボットコント
ローラ5は、図4に示すようにグリッパ3が対象物11
を把持した状態で、ロボット基準座標系におけるグリッ
パ3の位置、すなわちロボット手先位置Pdを記憶し
て、ステップST3に移行する。ここにいう「位置」
は、姿勢を含む6自由度のパラメータで表される。以下
同様に、姿勢を含む6自由度のパラメータを「位置」と
いう。
In step ST2, the robot controller 5 moves the gripper 3 to the object 11 as shown in FIG.
With the held, the position of the gripper 3 in the robot reference coordinate system, that is, the robot hand position Pd is stored, and the process proceeds to step ST3. "Position" here
Is represented by parameters of six degrees of freedom including the posture. Hereinafter, similarly, a parameter having six degrees of freedom including a posture is referred to as “position”.

【0027】ステップST3において、ロボットコント
ローラ5は、グリッパ3が把持した対象物11をリリー
スさせ、そして、任意の位置にグリッパ3を移動させ、
ステップST4に移行する。
In step ST3, the robot controller 5 releases the object 11 gripped by the gripper 3, and moves the gripper 3 to an arbitrary position.
The process proceeds to step ST4.

【0028】グリッパ3が移動する位置は、CCDカメ
ラ1の視野範囲内であることを要する。すなわち、CC
Dカメラ1で撮像した画像から対象物11の特徴量が抽
出されるような位置である。具体的には、対象物11が
CCDカメラ1の視野内に収まっていない位置や、CC
Dカメラ1が対象物11を真横から撮像する位置などで
はなく、抽出すべき特徴量が好適に画像から得られるよ
うな位置である。
The position at which the gripper 3 moves must be within the field of view of the CCD camera 1. That is, CC
The position is such that the feature amount of the object 11 is extracted from the image captured by the D camera 1. Specifically, the position where the object 11 is not within the field of view of the CCD camera 1,
This is not a position where the D camera 1 captures the image of the object 11 from the side, but a position where a feature amount to be extracted is preferably obtained from the image.

【0029】ステップST4において、ロボットコント
ローラ5は、図5に示すように現在のロボット基準座標
系でのグリッパ3の位置、すなわちロボット手先位置P
sを記憶し、ステップST5に移行する。
In step ST4, the robot controller 5 determines the position of the gripper 3 in the current robot reference coordinate system, that is, the robot hand position P as shown in FIG.
s is stored, and the routine goes to Step ST5.

【0030】ここで、ロボット手先位置PsからPdに変
換するための位置姿勢変換行列をP Oとすると、以下の
式が成り立つ。
Here, the robot hand position changes from Ps to Pd.
Is the position and orientation conversion matrix for OThen,
The formula holds.

【0031】Ps・PO=Pd ∴PO=Ps-1・Pd ロボットコントローラ5は、このとき位置姿勢変換行列
Oを算出し、これを記憶する。なお、ロボットコント
ローラ5は、後述する把持作業の際に、位置姿勢変換行
列POを算出してもよい。
[0031] Ps · P O = Pd ∴P O = Ps -1 · Pd robot controller 5, this time to calculate the position and orientation transformation matrix P O, and stored. Note that the robot controller 5 may calculate the position and orientation conversion matrix P O during a gripping operation described later.

【0032】ステップST5において、CCDカメラ1
は、ロボット手先位置Psにおいて対象物11を撮像
し、この画像をセンサコントローラ2に供給する。セン
サコントローラ2は、CCDカメラ1からの画像に基づ
いて画像特徴量を抽出して、ステップST6に移行す
る。ここで、CCDカメラ1は、例えば図6に示すよう
な対象物11の画像を得る。
In step ST5, the CCD camera 1
Captures the object 11 at the robot hand position Ps, and supplies this image to the sensor controller 2. The sensor controller 2 extracts an image feature amount based on the image from the CCD camera 1, and proceeds to step ST6. Here, the CCD camera 1 obtains an image of the object 11 as shown in FIG. 6, for example.

【0033】ステップST6において、センサコントロ
ーラ2は、対象物11の上面118に加工されている6
つの組み付け穴を画像特徴量Fi(i=1〜6)として
抽出し、各画像特徴量Fiの中心位置の座標値(Xi,Y
i)記憶して、教示作業の処理を終了する。
At step ST 6, the sensor controller 2 processes the upper surface 118 of the object 11
The three mounting holes are extracted as image feature amounts Fi (i = 1 to 6), and the coordinate values (Xi, Y) of the center position of each image feature amount Fi are extracted.
i) Memorize and end the teaching work process.

【0034】なお、画像中の組み付け穴の中心位置の計
測方法としては、二値化画像処理やエッジ処理などの公
知の手法を用いればよい。また、ここでは組み付け穴の
中心位置を画像特徴量Fiとしたが、線分端点、コー
ナ、二値化画像の孤立領域の面積重心など、他の画像特
徴量を用いてもよい。さらに、教示時は、オペレータが
画像特徴量Fiをマウスやキーボード等の図示しない入
力手段により人為的に定義してもよい。
As a method of measuring the center position of the mounting hole in the image, a known method such as binarized image processing or edge processing may be used. Although the center position of the assembling hole is set as the image feature amount Fi here, other image feature amounts such as a line segment end point, a corner, and an area centroid of an isolated region of the binarized image may be used. Further, at the time of teaching, the operator may artificially define the image feature amount Fi using an input unit (not shown) such as a mouse or a keyboard.

【0035】(把持作業)ロボット装置は、教示作業が
終了すると、その作業の際に記憶した画像特徴量Fiの
座標や、ロボット手先位置Pd,Psを用いて、搬送中の
対象物11を把持する。この把持作業では、図7に示す
ステップST11からステップST18までの処理が実
行される。
(Gripping operation) When the teaching operation is completed, the robot device grips the object 11 being conveyed by using the coordinates of the image feature amount Fi and the robot hand positions Pd and Ps stored in the operation. I do. In this gripping operation, processing from step ST11 to step ST18 shown in FIG. 7 is executed.

【0036】ステップST11において、CCDカメラ
1は、図8に示すように、対象物11の搬送領域、すな
わちコンベア10上を撮像し、ステップST12に移行
する。
In step ST11, as shown in FIG. 8, the CCD camera 1 captures an image of the transport region of the object 11, that is, on the conveyor 10, and proceeds to step ST12.

【0037】ステップST12において、センサコント
ローラ2は、対象物11を検出したかを判定する。対象
物11を検出し、その画像から特徴量を抽出するために
は、対象物11全体がCCDカメラ1の視野の範囲内に
入ることが必要である。ここでは、対象物11の検出の
ために画像の輝度が用いられる。例えば、対象物11が
コンベア10の上流にあってCCDカメラ1の視野範囲
内にないときは、CCDカメラ1で得られる画像の輝度
はほとんど変化しない。一方、対象物11がコンベアに
より搬送されCCDカメラ1の視野範囲内に入ると、そ
の輝度は変化する。そこで、センサコントローラ2は、
画像中の適当な位置に図示しないウィンドウを設け、そ
のウィンドウ内の輝度が所定の閾値以上の場合は対象物
11が視野範囲内にあると判定し、輝度が所定の閾値未
満の場合はその視野の範囲内にないと判定する。そし
て、センサコントローラ2が対象物11を検出したとき
はステップST13に移行し、検出しなかったときはス
テップST11に戻る。
In step ST12, the sensor controller 2 determines whether the object 11 has been detected. In order to detect the target object 11 and extract the feature amount from the image, the entire target object 11 needs to be within the range of the field of view of the CCD camera 1. Here, the luminance of the image is used for detecting the target object 11. For example, when the object 11 is located upstream of the conveyor 10 and not within the field of view of the CCD camera 1, the brightness of the image obtained by the CCD camera 1 hardly changes. On the other hand, when the object 11 is conveyed by the conveyor and enters the range of the field of view of the CCD camera 1, its brightness changes. Therefore, the sensor controller 2
A window (not shown) is provided at an appropriate position in the image. If the luminance in the window is equal to or higher than a predetermined threshold, the object 11 is determined to be within the visual field range. Is determined not to be within the range. When the sensor controller 2 detects the target object 11, the process proceeds to step ST13, and when not detected, returns to step ST11.

【0038】ステップST13において、センサコント
ローラ2は、CCDカメラ1が撮像した画像から時刻T
における画像特徴量fi(t)(i=1,2・・・)を抽
出して、ステップST14に移行する。ここで、図9
は、把持作業の実行時において撮像した画像を示す図で
ある。把持作業時には、時刻tに撮像された画像から画
像特徴量fi(t)を抽出する必要がある。しかし、何
らかの原因で本来抽出すべきでない例えば画像特徴量f
3(t)が抽出されることがある。そこで、特徴量f1
(t)〜f7(t)が、図6に示すF1〜F6のいずれ
に対応しているのかを求める対応点探索を行う必要があ
る。
In step ST13, the sensor controller 2 determines the time T from the image captured by the CCD camera 1.
Are extracted, and the process proceeds to step ST14. Here, FIG.
FIG. 4 is a diagram illustrating an image captured during execution of a gripping operation. At the time of the gripping operation, it is necessary to extract the image feature amount fi (t) from the image captured at time t. However, it should not be extracted for some reason.
3 (t) may be extracted. Therefore, the feature amount f1
It is necessary to perform a corresponding point search to determine which of (t) to f7 (t) corresponds to F1 to F6 shown in FIG.

【0039】この対応点探索は、さまざまな方法が提案
され、例えば”ロボットビジョン”(谷内田正彦著、昭
晃堂、1990)に記載されている動的計画法や最大派
閥法など、いわゆる照合法により行うことができる。な
お、一旦、f1〜f7の中からF1〜F6に対応するも
のが得られれば、次の画像特徴量は容易に求めることが
できる。
Various methods have been proposed for the corresponding point search. For example, a so-called collation method such as a dynamic programming method and a maximum faction method described in “Robot Vision” (written by Masahiko Yauchida, Shokodo, 1990). Can be performed. It should be noted that once those corresponding to F1 to F6 are obtained from f1 to f7, the next image feature can be easily obtained.

【0040】具体的には、ステップST13からステッ
プST16までの繰り返し処理のサイクルタイムをΔt
とすると、時刻tの次の時刻(t+Δt)における画像
特徴量fi(t+Δt)は先の画像中での画像特徴量fi
(t)の近傍から抽出すればよい。これにより、特徴量
抽出の安定性が増し、かつ、計算処理の負担を軽減する
ことができる。
Specifically, the cycle time of the repetition processing from step ST13 to step ST16 is Δt
Then, the image feature value fi (t + Δt) at the time (t + Δt) following the time t is the image feature value fi in the previous image.
What is necessary is just to extract from the vicinity of (t). As a result, the stability of feature amount extraction is increased, and the load of calculation processing can be reduced.

【0041】ステップST14において、センサコント
ローラ2は、時刻tにおける誤差ベクトルE(t)が十
分小さいか、具体的には||E(t)||<εの判定基
準を満たすかを判定し、十分小さいときはステップST
17に移行し、十分小さくないときはステップST15
に移行する。
In step ST14, the sensor controller 2 determines whether the error vector E (t) at the time t is sufficiently small, specifically, satisfies || E (t) || <ε. Step ST if sufficiently small
The process proceeds to step ST15 if it is not sufficiently small.
Move to

【0042】ここでは、現在のCCDカメラ1の画像か
ら抽出された画像特徴量fi(t)と上述したステップ
ST6で記憶された画像特徴量Fiとに基づいて、誤差
ベクトルE(t)を求める。
Here, the error vector E (t) is obtained based on the image feature amount fi (t) extracted from the current image of the CCD camera 1 and the image feature amount Fi stored in step ST6 described above. .

【0043】本発明では、文献B.Espiauら、A New Appr
oach to Visual Servoing in Robotics,IEEE Trans.Rob
otics and Automation,8(3),313-326,1992や、文献F.Be
nsalhaら、Real Time Visual Tracking using the Gene
ralized Likelihood Ratio Test,Int.Conf.Automation,
Robotics and Computer Vision,1379-1383,1994に記載
されている手法に基づいて、誤差ベクトルE(t)と、
後述する速度指令値ベクトルV(t)とを算出する。
In the present invention, reference is made to B. Espiau et al., A New Appr.
oach to Visual Servoing in Robotics, IEEE Trans.Rob
otics and Automation, 8 (3), 313-326, 1992, and literature F. Be
nsalha et al., Real Time Visual Tracking using the Gene
ralized Likelihood Ratio Test, Int.Conf.Automation,
Based on the method described in Robotics and Computer Vision, 1379-1383, 1994, an error vector E (t)
A later-described speed command value vector V (t) is calculated.

【0044】教示時の画像特徴量Fi=(Xi,Yi)お
よび時刻tで撮像した画像から得られた画像特徴量fi
(t)=(Xi(t),Yi(t))を用いて、特徴量偏
差ベクトルe(t)を以下の式(1)で求める。
The image feature value Fi = (Xi, Yi) during teaching and the image feature value fi obtained from the image captured at time t.
Using (t) = (Xi (t), Yi (t)), a feature quantity deviation vector e (t) is obtained by the following equation (1).

【0045】[0045]

【数1】 (Equation 1)

【0046】(xi,yi)および(xi(t),yi
(t))は、画素値で表される(Xi,Yi)および(X
i(t),Yi(t))を、それぞれカメラ座標系での値
に変換したものである。また、Nは画像特徴量の個数を
表す。
(Xi, yi) and (xi (t), yi
(T)) are represented by pixel values (Xi, Yi) and (Xi, Yi).
i (t), Yi (t)) are converted into values in the camera coordinate system. N represents the number of image features.

【0047】上記特徴量偏差ベクトルe(t)を用いて
誤差ベクトルE(t)は、式(2)で表される。
The error vector E (t) is represented by the following equation (2) using the feature amount deviation vector e (t).

【0048】[0048]

【数2】 (Equation 2)

【0049】ここで、LT+は、画像特徴量F,F(t)
から求められる画像ヤコビアンLTの疑似逆行列であ
る。
Here, L T + is the image feature amount F, F (t).
It is a pseudo inverse matrix of the image Jacobian L T obtained from.

【0050】また、センサコントローラ2は、||E
(t)||<εの判定基準を満たしたときに、運動する
対象物11に追従したと判定する。εは、オペレータに
よって予め与えられるスカラー量である。あるいは、 E=(E1 E2 E3 E4 E5 E6 )T と表せば、式(3)に示す判定基準を用いてもよい。
Further, the sensor controller 2 has || E
(T) When the criterion of || <ε is satisfied, it is determined that the object 11 that has moved is followed. ε is a scalar quantity given in advance by the operator. Alternatively, if E = (E1 E2 E3 E4 E5 E6) T , the criterion shown in equation (3) may be used.

【0051】[0051]

【数3】 (Equation 3)

【0052】ステップST15において、ロボットコン
トローラ5は、速度指令値ベクトルV(t)を算出し、
ステップST16に移行する。なお、速度指令値ベクト
ルVは、ロボット手先位置Pの並進速度(tx,ty,t
z)および回転速度(ωx,ω y,ωz)を含んだものであ
り、 V=(txyz ωx ωy ωzT と表される。そして、時刻(t+Δt)における速度指
令値ベクトルV(t+Δt)は、式(4)から求められ
る。
In step ST15, the robot controller
The controller 5 calculates a speed command value vector V (t),
The process moves to step ST16. Note that the speed command value vector
V is the translation speed of the robot hand position P (tx, Ty, T
z) And rotational speed (ωx, Ω y, Ωz)
V = (tx ty tz ωx ωy ωz)T It is expressed as Then, the speed finger at the time (t + Δt)
The command value vector V (t + Δt) is obtained from equation (4).
You.

【0053】[0053]

【数4】 (Equation 4)

【0054】なお、λは速度ゲインである。式(4)の
右辺の最右項は、対象物11の運動速度の推定値であ
り、式(5)から求められる。
Here, λ is a speed gain. The rightmost term on the right side of the equation (4) is an estimated value of the motion speed of the object 11 and is obtained from the equation (5).

【0055】[0055]

【数5】 (Equation 5)

【0056】ロボットコントローラ5は、以上のように
して、誤差ベクトルE(t)及び速度指令値ベクトルV
(t)を算出する。
As described above, the robot controller 5 sets the error vector E (t) and the speed command value vector V
(T) is calculated.

【0057】ステップST16において、ロボットコン
トローラ5は、算出された速度指令値ベクトルV(t)
に基づいて、軌道生成、関節角速度・角加速度を生成
し、これらに従ってロボットアーム4を制御し、ステッ
プST13に戻る。
In step ST16, the robot controller 5 calculates the speed command value vector V (t)
, A trajectory generation, a joint angular velocity / angular acceleration are generated, the robot arm 4 is controlled according to these, and the process returns to step ST13.

【0058】ステップST14でE(t)が十分に小さ
いと判定したときのステップST17において、ロボッ
トコントローラ5は、グリッパ3が対象物11に追従し
たと判定して、対象物11に対してアプローチを開始す
る。なお、以下の説明では、図7に示すフローチャート
の処理を行うことによってグリッパ3を対象物に追従さ
せることをビジュアルサーボという。
At step ST17 when it is determined in step ST14 that E (t) is sufficiently small, the robot controller 5 determines that the gripper 3 has followed the object 11, and approaches the object 11. Start. In the following description, causing the gripper 3 to follow the target by performing the processing of the flowchart shown in FIG. 7 is referred to as visual servoing.

【0059】ここで、ステップST14に移行した時刻
を時刻t1とすると、例えば図10に示すように、速度
指令値ベクトルはVactual(t1)、ロボット手先位置
の位置ベクトルはP(t1)となる。
[0059] Here, when the time t 1 the migrated time in step ST14, for example, as shown in FIG. 10, the speed command value vector V actual are (t 1), the position vector of the robot hand position P (t 1 ).

【0060】時刻t1においては、ロボット手先位置P
は対象物11に追従しているため、そのときの速度指令
値ベクトルVactual(t1)は対象物11の速度ベクト
ルに等しい。したがって、ロボットコントローラ5は、
手先位置P(t1)からPO分だけ移動するための速度パ
ターンに、上述した速度指令値ベクトルV
actual(t 1)を重畳させた速度パターンを生成する。
なお、POは、教示作業で示した位置姿勢変換行列であ
る。また、PO分だけ移動するための速度パターンは、
例えば台形速度パターンなど従来の手法により算出する
ことができる。
Time t1, The robot hand position P
Is following the target object 11, so the speed command at that time is
Value vector Vactual(T1) Is the velocity vector of the object 11
Equal to Therefore, the robot controller 5
Hand position P (t1) To POSpeed for moving by
In the turn, the speed command value vector V
actual(T 1) Is generated.
Note that POIs the position and orientation transformation matrix shown in the teaching work.
You. Also, POThe speed pattern for moving by the minute
Calculated by conventional methods such as trapezoidal speed patterns
be able to.

【0061】また、ロボットコントローラ5は、PO
相対移動するのに時間TOを要するとして、以下の式に
従ってPaを算出する。
[0061] Further, the robot controller 5, as it takes time T O to move P O content relative to calculate the P a according to the following equation.

【0062】 Pa=P(t1)+PO+Vactual(t1)・TO そして、ロボットコントローラ5は、算出したPaに基
づいてロボットアーム4を制御する。これにより、図1
1に示すように、手先位置P(t1)から対象物11を
把持すべき位置Paにロボット手先(グリッパ3)を移
動させることができる。このようなアプローチが終了す
ると、ステップST18に移行する。
[0062] P a = P (t 1) + P O + V actual (t 1) · T O The robot controller 5 controls the robot arm 4 on the basis of the calculated P a. As a result, FIG.
As shown in 1, it is possible to position P a to be gripped an object 11 from the hand position P (t 1) moves the robot hand (gripper 3). When such an approach ends, the process moves to step ST18.

【0063】ステップST18において、ロボットコン
トローラ5は、対象物11をグリッパ3で把持して、処
理を終了する。
In step ST18, the robot controller 5 holds the object 11 with the gripper 3, and ends the processing.

【0064】以上のように、ロボット装置は、教示作業
時におけるロボット手先位置Ps,Pdを記憶し、ビジュ
アルサーボによって搬送中の対象物11に追従し、そし
てロボット手先位置Ps,Pdを用いて対象物11の把持
作業を行うことができる。これにより、ロボット装置
は、搬送中の対象物11の姿勢位置に拘束されることな
く、また、コンベア10を止めることなく、搬送中の対
象物11を容易に把持することができる。
As described above, the robot apparatus stores the robot hand positions Ps and Pd during the teaching operation, follows the object 11 being conveyed by the visual servo, and uses the robot hand positions Ps and Pd to store the object. The work of gripping the object 11 can be performed. Accordingly, the robot apparatus can easily grip the transported object 11 without being restrained by the posture position of the transported object 11 and without stopping the conveyor 10.

【0065】また、上記ロボット装置は、その設置位
置、CCDカメラ1、グリッパ3及び対象物11相互間
の位置関係を予め求めておく作業が不要なので、例えば
CCDカメラ1の設置条件が変化した場合であっても、
上述したような単純な教示作業のみで、搬送中の対象物
11を把持することができる。さらに、同じ作業を異な
るロボット装置、CCDカメラ1、グリッパ3で実現し
ようとした場合や、把持すべき対象物11が異なる場合
であっても、同様に、単純な教示作業のみでよい。
Further, the robot apparatus does not need to previously determine the installation position and the positional relationship among the CCD camera 1, the gripper 3, and the object 11, so that, for example, when the installation conditions of the CCD camera 1 change. Even
The object 11 being conveyed can be gripped only by the simple teaching operation as described above. Furthermore, even when the same work is to be realized by different robot devices, the CCD camera 1 and the gripper 3, or when the object 11 to be gripped is different, only a simple teaching work is required.

【0066】これにより、オペレータは、従来の教示作
業、プログラミングにおける負荷を大幅に軽減すること
ができる。さらに、CCDカメラ1、グリッパ3及び対
象物11に変更が生じても、柔軟に対応することができ
る。
As a result, the operator can greatly reduce the load on the conventional teaching work and programming. Furthermore, even if changes occur in the CCD camera 1, the gripper 3, and the object 11, it is possible to flexibly respond.

【0067】なお、上述した実施の形態では、ロボット
装置は、コンベア10によって搬送されている対象物1
1を把持することを例に挙げて説明したが、静止してい
る対象物11を把持する場合も同様にすることができ
る。なお、教示作業は、上述した説明と同様である。
In the above-described embodiment, the robot device is used to move the object 1 conveyed by the conveyor 10.
Although the example of gripping the object 1 has been described, the same applies to the case of gripping the stationary target object 11. The teaching operation is the same as described above.

【0068】把持作業では、図7に示すステップST1
4において、誤差ベクトルE(t)が十分に小さくなっ
たときは、速度指令値ベクトルV(t)はゼロになり、
同様に、実際のロボット手先位置の速度V
actual(t1)もゼロになる。
In the gripping operation, step ST1 shown in FIG.
4, when the error vector E (t) becomes sufficiently small, the speed command value vector V (t) becomes zero,
Similarly, the speed V of the actual robot hand position
actual (t 1 ) also becomes zero.

【0069】したがって、ステップST17において、
ロボットコントローラ5は、現在のロボット手先位置P
(t1)と、教示時における位置の変化分POのみを用い
て対象物11を把持することができる。すなわち、把持
すべき位置Paは、以下の式により求められる。
Therefore, in step ST17,
The robot controller 5 calculates the current robot hand position P
The object 11 can be gripped using only (t 1 ) and the position change P O during teaching. That is, the position P a to be gripped is determined by the following equation.

【0070】Pa=P(t1)+PO そして、ロボットコントローラ5は、算出したPaに基
づいてロボットアーム4を制御し、グリッパ3により静
止している対象物11の把持を行うことができる。
P a = P (t 1 ) + P O The robot controller 5 controls the robot arm 4 based on the calculated P a, and the stationary object 11 can be gripped by the gripper 3. it can.

【0071】(第2の実施の形態)つぎに、本発明の第
2の実施の形態について説明する。なお、第1の実施の
形態と同じ部位には同じ符号を付し、また、重複する説
明についてはその記載を省略する。
(Second Embodiment) Next, a second embodiment of the present invention will be described. The same parts as those in the first embodiment are denoted by the same reference numerals, and the description thereof will not be repeated.

【0072】第1の実施の形態では、搬送中の対象物と
ロボット手先位置Pとの相対的な位置関係が、教示作業
時のそれらの相対的な位置関係とほぼ同じになる完全追
従状態について説明した。これに対して、第2の実施の
形態では、完全追従状態でない場合にロボット装置が対
象物を把持することについて説明する。
In the first embodiment, a complete follow-up state in which the relative positional relationship between the object being conveyed and the robot hand position P is substantially the same as their relative positional relationship during the teaching operation is described. explained. On the other hand, in the second embodiment, a case will be described in which the robot apparatus grips the target object when the robot apparatus is not in the perfect following state.

【0073】ここで、追従状態とは、相対位置関係を一
定に保った状態と定義する。例えば、対象物が速度V0
で運動している場合では、ロボット手先位置Pが速度V
0で運動している状態である。次に、追従状態として、
「完全追従状態」と「不完全追従状態」の2つを定義す
る。
Here, the following state is defined as a state in which the relative positional relationship is kept constant. For example, if the object is at a speed V 0
When the robot is exercising at the speed V
It is a state of exercising at 0 . Next, as the following state,
Two "perfect following states" and "incomplete following states" are defined.

【0074】「完全追従状態」とは、ロボット手先位置
Pと対象物との相対的な位置関係が一定値POのままで
一定時間継続している状態、すなわち教示作業時のそれ
らの相対的な位置関係と同じになっている状態をいう。
「不完全追従状態」とは、ロボット手先位置Pと対象物
との相対的な位置関係が一定値P’0(≠PO)のままで
一定時間継続している状態、すなわちロボット手先位置
Pと対象物との間で相対的な位置の変化はないが、教示
作業時の相対的な位置関係と異なる状態をいう。これら
の2つの状態について、画像誤差、ロボット手先位置
P、ロボット手先位置Pの速度、ロボット手先位置Pの
加速度の状態を表1に示す。
[0074] The "perfect tracking state", a state where the relative positional relationship between the robot hand position P and the object is continued for a certain time remains constant value P O, i.e. their relative during teaching operation It is a state where the same positional relationship is obtained.
The "Incomplete follow-up state", a state where the relative positional relationship between the robot hand position P and the object is continued for a certain time remains constant value P '0 (≠ P O) , i.e. the robot hand position P Although there is no change in the relative position between the object and the object, it means a state different from the relative positional relationship during the teaching operation. Table 1 shows the image error, the robot hand position P, the speed of the robot hand position P, and the acceleration of the robot hand position P for these two states.

【0075】[0075]

【表1】 [Table 1]

【0076】「完全追従状態」では、ロボット手先位置
Pと対象物の相対的な位置関係はP Oであり、しかも、
ロボット手先位置Pは対象物と同じ速度で移動する。こ
のため接近動作は、追従運動Vを維持しつつ、接近移動
Oの移動を行うことで、把持作業を行うことができ
る。
In the “complete following state”, the robot hand position
The relative positional relationship between P and the object is P OAnd
The robot hand position P moves at the same speed as the object. This
Therefore, the approaching motion is the approaching movement while maintaining the following motion V
POBy performing the movement of
You.

【0077】一方、「不完全追従状態」でも、ロボット
手先位置Pは対象物と同じ速度で移動している。ただ
し、ロボット手先位置Pと対象物との相対的な位置関係
P’0は、教示作業時の位置関係POとは異なる。例えば
図12(A)に示すように、追従開始時の対象物11の
初期画像は、目標画像に一致していない。なお、このと
きは、早く追従状態になるようにするため、ロボット手
先位置Psの速度は、図13に示すように、大きくなっ
ている。図12(B)に示すように、追従状態の対象物
11の画像は、目標画像に対して所定のずれを維持した
状態になっている。このときのロボット手先位置Psの
速度は、図13に示すように、Vactual(t1)になっ
ている。
On the other hand, even in the "incomplete follow-up state", the robot hand position P is moving at the same speed as the object. However, the relative positional relationship P '0 with the robot hand position P and the object is different from the positional relationship between P O during teaching operation. For example, as shown in FIG. 12A, the initial image of the target 11 at the time of starting following does not match the target image. At this time, the speed of the robot hand position Ps is increased as shown in FIG. As shown in FIG. 12B, the image of the target object 11 in the following state is in a state of maintaining a predetermined shift from the target image. At this time, the speed of the robot hand position Ps is V actual (t 1 ), as shown in FIG.

【0078】そこで、相対位置関係P’0を教示するこ
とができれば、図12(C)に示すように、「完全追従
状態」と全く同一の効果を得ることができる。なお、
「不完全追従状態」における位置関係P’0は、対象物
の運動速度の変化やビジュアルサーボのゲインの変更等
で変化する可能があり、その度に再教示が必要である。
本実施の形態では、「不完全追従状態」にも対応するこ
とができるように、再教示作業が行われる。
[0078] Therefore, if it is possible to teach the relative positional relationship between P '0, as shown in FIG. 12 (C), it is possible to obtain exactly the same effect as "complete follow-up state". In addition,
The positional relationship P ′ 0 in the “incomplete tracking state” may change due to a change in the moving speed of the target object, a change in the gain of the visual servo, or the like, and it is necessary to re-teach each time.
In the present embodiment, a re-teaching operation is performed so as to be able to cope with the “incomplete following state”.

【0079】(再教示作業及び把持作業)再教示作業で
は、最初に、ビジュアルサーボを用いて、対象物の追従
が行われる。そして、ロボットコントローラ5は、この
とき対象物の画像特徴量F’iを抽出して、各画像特徴
量F’iの座標を記憶する。なお、画像特徴量F’iの抽
出処理は、図3に示すステップST6の処理と同様であ
る。
(Re-teaching operation and gripping operation) In the re-teaching operation, an object is first followed by using a visual servo. At this time, the robot controller 5 extracts the image feature value F′i of the target object and stores the coordinates of each image feature value F′i. The process of extracting the image feature value F′i is the same as the process of step ST6 shown in FIG.

【0080】つぎに、図3に示すステップST1からス
テップST3までの処理が行われ、グリッパ3は任意の
位置(ロボット手先位置Ps)に移動させられる。ロボ
ットコントローラ5は、さらに、画像特徴量Fi’を用
いてビジュアルサーボを行い、追従状態に到達したグリ
ッパ3の位置をロボット手先位置P’sとする。そし
て、ロボットコントローラ5は、追従状態における位置
姿勢変換行列P’O(=P’S -1Pd)を算出し、この位
置姿勢変換行列P’Oを記憶する。
Next, the processing from step ST1 to step ST3 shown in FIG. 3 is performed, and the gripper 3 is moved to an arbitrary position (robot hand position Ps). The robot controller 5 further performs visual servo using the image feature amount Fi ′, and sets the position of the gripper 3 that has reached the following state as the robot hand position P ′s. Then, the robot controller 5 calculates a position / posture conversion matrix P ′ O (= P ′ S −1 Pd) in the following state, and stores the position / posture conversion matrix P ′ O.

【0081】把持作業では、第1の実施の形態と同様
に、図7に示すステップST11からステップST18
までの処理を行う。このとき、第1の実施の形態で求め
た画像特徴量Fi及び位置姿勢変換POに代えて、画像特
徴量F’i及び位置姿勢変換業列P’Oを用いればよい。
In the gripping operation, as in the first embodiment, steps ST11 to ST18 shown in FIG.
The processing up to is performed. In this case, instead of the image feature quantity Fi and the position and orientation transformation P O obtained in the first embodiment may be used an image feature amount F'i and the position and orientation transformation industry column P 'O.

【0082】以上のように、第2の実施の形態に係るロ
ボット装置によれば、ロボット手先位置Pが対象物11
に完全に追従していなくても、複雑な調整をすることな
く上述した簡単な教示作業を行うだけで、対象物11を
把持することができるようになる。
As described above, according to the robot apparatus according to the second embodiment, the robot hand position P is
Even if the object 11 is not completely followed, the object 11 can be grasped only by performing the simple teaching operation described above without performing complicated adjustment.

【0083】(第3の実施の形態)第1及び第2の実施
の形態では、一例として静止運動、等速直線運動の場合
を示したが、本発明を用いれば等加速度直線運動あるい
は等速円運動まで拡大することができる。そして、この
把持作業でも、第1の実施の形態と同様に、図7に示す
ステップST11からステップST17までの処理が行
われる。
(Third Embodiment) In the first and second embodiments, the case of stationary motion and constant velocity linear motion has been described as an example. It can be extended to circular motion. Then, in this gripping operation as well, the processing from step ST11 to step ST17 shown in FIG. 7 is performed as in the first embodiment.

【0084】具体的には、等加速度直線運動の場合、ロ
ボットコントローラ5は、誤差ベクトルE(t)が十分
に小さくなった時刻t1において、ロボット手先位置P
は対象物11に対して相対的にPOあるいはP’Oの位置
に制御されたと判定し、この時刻t1でのV
actual(t1)と、手先加速度accactual(t1)から
生成される速度成分Vestimate(t)と、POあるいは
P’Oより生成される速度指令値とを重ね合わせた速度
指令値を生成し、時刻t1でのロボット手先位置P
(t1)から対象物11に接近し、グリッパ3により対
象物11の把持を行う。
Specifically, in the case of the linear motion with the uniform acceleration, the robot controller 5 determines at time t 1 when the error vector E (t) becomes sufficiently small, the robot hand position P
Determines that the position has been controlled to the position of P O or P ′ O relative to the object 11, and V at this time t 1
and actual (t 1), and hand acceleration acc actual are velocity components V estimate generated from (t 1) (t), the speed command value obtained by superimposing the speed command value generated from the P O or P 'O Generated and the robot hand position P at time t 1
From (t 1 ), the target 11 is approached and the gripper 3 grips the target 11.

【0085】すなわち、ロボットコントローラ5は、図
14に示すように、追従状態になったときのロボット手
先位置PsからPO分だけグリッパ3を移動するように制
御する。なお、ロボットコントローラ5は、このときP
O分相対移動するのに時間T’Oを要するとして、以下の
式に従ってPaを算出する。
[0085] That is, the robot controller 5, as shown in FIG. 14, controls the robot hand position Ps to move P O amount corresponding gripper 3 when it is follow-up state. At this time, the robot controller 5
As O partial takes time T 'O to move relative to calculate the P a according to the following equation.

【0086】[0086]

【数6】 (Equation 6)

【0087】なお、上述した実施の形態では、対象物を
把持する場合を例に挙げて説明したが、本発明はこれに
限定されるものではない。例えば、対象物11に部品の
取り付け等を行う場合であっても同様にして適用するこ
とができる。
In the above-described embodiment, the case where the object is gripped has been described as an example, but the present invention is not limited to this. For example, the present invention can be similarly applied to a case where components are attached to the object 11 or the like.

【0088】[0088]

【発明の効果】本発明に係るロボット装置及びその制御
方法によれば、オペレータは、教示作業として、次の2
つのことを行うだけでよい。第1に、把持機構を第1の
手先位置に移動させ、ここで対象物を把持させる。第2
に、把持機構から対象物をリリースさせ、撮像範囲内に
おいて把持機構を第2の手先位置まで移動させる。この
とき記憶される第1及び第2の手先位置や、第2の手先
位置における対象物の特徴量の座標は、対象物を追従し
てこれを把持するために用いられる。すなわち、オペレ
ータは簡単な教示作業を行うだけで、ロボット装置に運
動中の対象物を把持させることができる。
According to the robot apparatus and the control method thereof according to the present invention, the operator can perform the following two tasks as a teaching operation.
You only need to do one thing. First, the gripping mechanism is moved to a first hand position, where the object is gripped. Second
Then, the object is released from the gripping mechanism, and the gripping mechanism is moved to the second hand position within the imaging range. The coordinates of the feature amounts of the object at the first and second hand positions and the second hand position which are stored at this time are used to follow the object and grasp it. That is, the operator can cause the robot apparatus to grasp the moving object only by performing a simple teaching operation.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態に係るロボット装置
の構成を示す図である。
FIG. 1 is a diagram showing a configuration of a robot device according to a first embodiment of the present invention.

【図2】ロボット装置によって把持される対象物の外観
斜視図である。
FIG. 2 is an external perspective view of an object gripped by a robot device.

【図3】ロボット装置の教示作業における処理内容を示
すフローチャートである。
FIG. 3 is a flowchart showing processing contents in a teaching operation of the robot apparatus.

【図4】教示作業において、対象物を把持した状態のロ
ボット手先位置Pdを示す概略的な構成を示す図であ
る。
FIG. 4 is a diagram showing a schematic configuration showing a robot hand position Pd in a state where an object is gripped in a teaching operation.

【図5】教示作業において、対象物をリリースしたとき
のロボット手先位置Psを示す概略的な構成を示す図で
ある。
FIG. 5 is a diagram showing a schematic configuration showing a robot hand position Ps when an object is released in a teaching operation.

【図6】教示作業におけるカメラの撮像画像を示す図で
ある。
FIG. 6 is a diagram showing a captured image of a camera in a teaching operation.

【図7】ロボット装置の把持作業における処理内容を示
すフローチャートである。
FIG. 7 is a flowchart showing processing contents in a gripping operation of the robot device.

【図8】把持作業において、カメラが対象物を搬送する
コンベア上を撮像していることを説明するための図であ
る。
FIG. 8 is a diagram for explaining that a camera captures an image of a conveyor that conveys an object in a gripping operation.

【図9】把持作業におけるカメラの撮像画像を示す図で
ある。
FIG. 9 is a diagram showing a captured image of a camera in a gripping operation.

【図10】時刻t1におけるロボット手先位置P(t1
及び速度指令値ベクトルVactual(t1)を説明するた
めの図である。
FIG. 10 shows a robot hand position P (t 1 ) at time t 1 .
FIG. 4 is a diagram for explaining a speed command value vector V actual (t 1 ).

【図11】対象物を把持するときの状態を説明する図で
ある。
FIG. 11 is a diagram illustrating a state in which an object is gripped.

【図12】第2の実施の形態に係るロボット装置におい
て初期状態、追従状態、再教示時の対象物の画像を示す
図である。
FIG. 12 is a diagram illustrating an image of an object in an initial state, a following state, and a re-teaching state in the robot apparatus according to the second embodiment.

【図13】ロボット手先位置Pの速度指令値ベクトルV
(t)を説明する図である。
FIG. 13 shows a speed command value vector V of the robot hand position P.
It is a figure explaining (t).

【図14】本発明の第3の実施の形態に係るロボット装
置が搬送中の対象物を把持した状態を説明する図であ
る。
FIG. 14 is a diagram illustrating a state in which the robot apparatus according to the third embodiment of the present invention has gripped an object being transported.

【符号の説明】[Explanation of symbols]

1 カメラ 2 センサコントローラ 3 グリッパ 4 ロボットアーム 5 ロボットコントローラ DESCRIPTION OF SYMBOLS 1 Camera 2 Sensor controller 3 Gripper 4 Robot arm 5 Robot controller

フロントページの続き Fターム(参考) 3F059 BC07 BC09 CA05 DA02 DA05 DA08 DB04 DB09 DD01 DE02 FA01 FA03 FA05 FA10 FB01 FB16 FB22 FC04 FC13 FC14 5H269 AB21 AB33 CC09 EE10 JJ09Continued on the front page F term (reference) 3F059 BC07 BC09 CA05 DA02 DA05 DA08 DB04 DB09 DD01 DE02 FA01 FA03 FA05 FA10 FB01 FB16 FB22 FC04 FC13 FC14 5H269 AB21 AB33 CC09 EE10 JJ09

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 相対的に運動する対象物を把持するロボ
ット装置において、 前記対象物を把持する把持機構を有し、前記把持機構が
移動可能に構成された把持手段と、 前記把持手段の把持機構と共に移動可能に固定され、対
象物を撮像する撮像手段と、 前記撮像手段が撮像した対象物の画像から1以上の特徴
量の座標を抽出する特徴量抽出手段と、 前記把持機構に前記対象物を把持させたときの把持機構
の位置を第1の手先位置として記憶し、前記対象物を開
放させて前記撮像手段が対象物を撮像することができる
範囲内において前記把持機構を移動させたときの前記把
持機構の位置を第2の手先位置として記憶し、前記第2
の手先位置において前記撮像手段が撮像して前記特徴量
抽出手段が抽出した前記対象物の各特徴量の座標を記憶
する記憶手段と、 前記第2の手先位置から前記1の手先位置まで移動する
ための移動行列を算出する算出手段と、 前記特徴量抽出手段によって抽出される運動中の対象物
の各特徴量の座標が、前記記憶手段に記憶されている各
特徴量の座標に一致するように前記把持手段を移動させ
ることで、前記運動中の対象物に前記把持機構を追従さ
せる制御をする追従制御手段と、 前記把持機構が運動中の対象物に追従している際に、前
記算出手段が算出した移動行列に基づいて前記把持機構
を前記運動中の対象物に近付け、前記対象物を把持させ
るように前記把持手段を制御する把持制御手段と、 を備えたロボット装置。
1. A robot apparatus for gripping a relatively moving object, comprising: a gripping mechanism having a gripping mechanism for gripping the object, wherein the gripping mechanism is configured to be movable; and gripping the gripping means. An imaging unit that is movably fixed together with a mechanism and captures an image of an object; a feature amount extraction unit that extracts coordinates of one or more feature amounts from an image of the object captured by the imaging unit; The position of the gripping mechanism at the time of gripping the object is stored as a first hand position, and the object is released and the gripping mechanism is moved within a range where the imaging unit can image the object. The position of the gripping mechanism at the time is stored as a second hand position,
Storage means for storing the coordinates of each feature amount of the object extracted by the imaging means and extracted by the feature amount extraction means at the hand position, and moving from the second hand position to the first hand position Calculation means for calculating a movement matrix for the moving object, and the coordinates of each feature quantity of the moving object extracted by the feature quantity extraction means coincide with the coordinates of each feature quantity stored in the storage means. Moving the gripping means to follow the gripping mechanism with the moving object; andfollowing control means that controls the gripping mechanism to follow the moving object. A gripping control unit that controls the gripping unit so that the gripping mechanism approaches the moving object based on the movement matrix calculated by the unit and grips the object.
【請求項2】 前記記憶手段は、 前記追従制御手段によって前記把持機構が前記運動中の
対象物に対して所定距離を隔てながら追従している際
に、前記特徴量抽出手段が抽出した前記対象物の各特徴
量の座標を新たに記憶し、 前記追従制御手段が新たに記憶された各特徴量の座標を
用いて、前記第2の手先位置から前記把持機構を対象物
に完全に追従させたときの前記把持機構の位置を新たな
第2の手先位置として記憶する請求項1記載のロボット
装置。
2. The object extracted by the feature amount extracting means when the gripping mechanism is following the moving object by a predetermined distance by the following control means. The coordinates of each feature amount of the object are newly stored, and the following control unit causes the gripping mechanism to completely follow the target object from the second hand position using the newly stored coordinates of each feature amount. The robot apparatus according to claim 1, wherein the position of the gripping mechanism when stored is stored as a new second hand position.
【請求項3】 移動可能に構成された把持機構で相対的
に運動する対象物を把持するロボット装置の制御方法に
おいて、 前記把持機構に前記対象物を把持させたときの把持機構
の位置を第1の手先位置として記憶し、 前記対象物を開放させて、対象物を撮像することができ
る範囲内において前記把持機構を移動させたときの前記
把持機構の位置を第2の手先位置として記憶し、 前記第2の手先位置において前記対象物を撮像し、 前記撮像した対象物の画像から1以上の特徴量の座標を
抽出し、 前記抽出した各特徴量の座標を記憶し、 前記第2の手先位置から前記1の手先位置まで移動する
ための移動行列を算出し、 前記把持機構と共に移動可能に固定された状態で、運動
中の対象物を撮像し、 前記撮像した運動中の対象物の画像から1以上の特徴量
の座標を抽出し、 前記抽出された運動中の対象物の各特徴量の座標が、前
記記憶されている各特徴量の座標に一致するように前記
把持機構を移動させることで、前記運動中の対象物に前
記把持機構を追従させ、 前記把持機構が運動中の対象物に追従している際に、前
記算出した移動行列に基づいて前記把持機構を前記運動
中の対象物に近付け、前記把持機構に前記対象物を把持
させるロボット装置の制御方法。
3. A control method for a robot apparatus for gripping a relatively moving target by a gripping mechanism configured to be movable, wherein a position of the gripping mechanism when the gripping mechanism grips the target is set to a first position. The position of the gripping mechanism when the object is opened and the gripping mechanism is moved within a range in which the object can be imaged is stored as a second hand position. Capturing the object at the second hand position, extracting coordinates of one or more feature amounts from the captured image of the object, storing the coordinates of the extracted feature amounts, A movement matrix for moving from the hand position to the one hand position is calculated, and the moving object is imaged in a state in which the moving object is fixed together with the gripping mechanism. 1 or less from the image By extracting the coordinates of the feature amount of the extracted, by moving the gripping mechanism so that the coordinates of each of the extracted feature amounts of the moving object match the coordinates of each of the stored feature amounts, The gripping mechanism is made to follow the moving object, and when the gripping mechanism is following the moving object, the gripping mechanism is moved to the moving object based on the calculated movement matrix. A control method of a robot apparatus that causes the gripping mechanism to approach the target object.
【請求項4】 前記運動中の対象物に前記把持機構を追
従させ、 前記把持機構が前記運動中の対象物に対して所定距離を
隔てながら追従している際に、前記把持機構と共に移動
可能に固定された状態で、運動中の対象物を撮像し、 前記撮像した運動中の対象物の画像から1以上の特徴量
の座標を抽出し、 前記抽出した前記対象物の各特徴量の座標を新たに記憶
し、 前記新たに記憶された各特徴量の座標を用いて、前記第
2の手先位置から対象物に前記把持機構が完全に追従す
るように前記把持機構を移動させ、 完全に追従した際に、前記把持機構の位置を新たな第2
の手先位置として記憶する請求項3記載のロボット装置
の制御方法。
4. The apparatus according to claim 1, wherein the gripping mechanism follows the moving object, and is movable with the gripping mechanism when the gripping mechanism follows the moving object at a predetermined distance. In the state fixed to, an image of the moving object is imaged, coordinates of one or more feature amounts are extracted from the captured image of the moving object, and the coordinates of each of the extracted feature amounts of the object are Is newly stored, and the gripping mechanism is moved so that the gripping mechanism completely follows the object from the second hand position by using the coordinates of the newly stored feature amounts. When following, the position of the gripping mechanism is changed to a new second position.
The control method for a robot device according to claim 3, wherein the information is stored as a hand position of the robot.
JP2000208915A 2000-07-10 2000-07-10 Robot apparatus and control method thereof Expired - Fee Related JP4265088B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000208915A JP4265088B2 (en) 2000-07-10 2000-07-10 Robot apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000208915A JP4265088B2 (en) 2000-07-10 2000-07-10 Robot apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2002018754A true JP2002018754A (en) 2002-01-22
JP4265088B2 JP4265088B2 (en) 2009-05-20

Family

ID=18705412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000208915A Expired - Fee Related JP4265088B2 (en) 2000-07-10 2000-07-10 Robot apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP4265088B2 (en)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6261095A (en) * 1985-09-11 1987-03-17 カシオ計算機株式会社 Waveform editing device
WO2004007150A1 (en) * 2002-07-17 2004-01-22 Kabushiki Kaisha Yaskawa Denki Carriage robot system and its controlling method
JP2005537939A (en) * 2002-09-13 2005-12-15 ダイムラークライスラー・アクチェンゲゼルシャフト Method and apparatus for creating a connection region in a workpiece
GB2415944A (en) * 2004-07-03 2006-01-11 Koorosh Khodabandehloo Apparatus fro moving products using camera and flat gripper
WO2010064353A1 (en) * 2008-12-05 2010-06-10 本田技研工業株式会社 Method of controlling robot arm
JP2011143494A (en) * 2010-01-13 2011-07-28 Ihi Corp Robot control device and method
US8095237B2 (en) 2002-01-31 2012-01-10 Roboticvisiontech Llc Method and apparatus for single image 3D vision guided robotics
US8437535B2 (en) 2006-09-19 2013-05-07 Roboticvisiontech Llc System and method of determining object pose
JP2013158851A (en) * 2012-02-01 2013-08-19 Seiko Epson Corp Jacobian matrix information generation device, jacobian matrix information generation method, jacobian matrix information generation program, robot control device, robot control method, robot control program and robot system
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
JP2014140942A (en) * 2013-01-25 2014-08-07 Seiko Epson Corp Robot control system, robot, robot control method, and program
JP2015089598A (en) * 2013-11-06 2015-05-11 セイコーエプソン株式会社 Teaching device, robot, robot system, method and program
JP2015100868A (en) * 2013-11-22 2015-06-04 セイコーエプソン株式会社 Robot system
JP2015214014A (en) * 2014-05-09 2015-12-03 ザ・ボーイング・カンパニーTheBoeing Company Path repeatable machining for full sized part-based assembly
CN105645010A (en) * 2014-12-02 2016-06-08 发那科株式会社 Device and method of transferring articles by using robot
CN106938463A (en) * 2017-05-02 2017-07-11 上海贝特威自动化科技有限公司 A kind of method of large plate positioning crawl
CN107363837A (en) * 2017-09-08 2017-11-21 桂林加宏汽车修理有限公司 A kind of method of manipulator control system and control machinery hand captures object
JP2018027580A (en) * 2016-08-17 2018-02-22 ファナック株式会社 Robot control device
CN109305532A (en) * 2017-07-26 2019-02-05 发那科株式会社 Article conveying system and transportation system control device
US10556345B2 (en) 2014-02-28 2020-02-11 Sony Corporation Robot arm apparatus and calibration method
CN110801239A (en) * 2019-11-20 2020-02-18 上海交通大学 Upper limb multi-joint constant speed training testing device
CN111300490A (en) * 2018-12-12 2020-06-19 成都蒸汽巨人机器人科技有限公司 Robot track generation system and method based on depth vision sensor
DE102019122790B4 (en) * 2018-08-24 2021-03-25 Nvidia Corp. Robot control system
CN113716323A (en) * 2021-08-17 2021-11-30 成都新气象科技实业股份有限公司 Intelligent container carrying method
CN113954075A (en) * 2021-11-10 2022-01-21 佛山市南海区广工大数控装备协同创新研究院 Moving object tracking and grabbing method and device based on active movement of robot
CN114012706A (en) * 2021-11-12 2022-02-08 佛山市南海区广工大数控装备协同创新研究院 Moving object robust clamping method and system based on speed modulation
US11407115B2 (en) 2018-02-08 2022-08-09 Fanuc Corporation Work robot system
US11613021B2 (en) 2017-06-13 2023-03-28 Kawasaki Jukogyo Kabushiki Kaisha Operation system
US11679502B2 (en) 2019-09-26 2023-06-20 Fanuc Corporation Robot control system
US11833681B2 (en) 2018-08-24 2023-12-05 Nvidia Corporation Robotic control system
JP2025029018A (en) * 2020-09-23 2025-03-05 デクステリティ・インコーポレーテッド Velocity Control Based Robot System
DE102024108378A1 (en) * 2024-03-25 2025-09-25 J.Schmalz Gmbh Method for handling a gripping object by means of a handling system, as well as handling system and end effector

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012153629A1 (en) 2011-05-12 2012-11-15 株式会社Ihi Device and method for controlling prediction of motion
JP5850962B2 (en) 2014-02-13 2016-02-03 ファナック株式会社 Robot system using visual feedback
CN104354167B (en) * 2014-08-29 2016-04-06 广东正业科技股份有限公司 Robot hand-eye calibration method and device
US9889566B2 (en) 2015-05-01 2018-02-13 General Electric Company Systems and methods for control of robotic manipulation

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6261095A (en) * 1985-09-11 1987-03-17 カシオ計算機株式会社 Waveform editing device
US8095237B2 (en) 2002-01-31 2012-01-10 Roboticvisiontech Llc Method and apparatus for single image 3D vision guided robotics
WO2004007150A1 (en) * 2002-07-17 2004-01-22 Kabushiki Kaisha Yaskawa Denki Carriage robot system and its controlling method
KR100787704B1 (en) * 2002-07-17 2007-12-21 가부시키가이샤 야스카와덴키 Teaching method for conveying robot and conveying robot
US7805219B2 (en) 2002-07-17 2010-09-28 Kabushiki Kaisha Yaskawa Denki Carrier robot system and control method for carrier robot
JP2005537939A (en) * 2002-09-13 2005-12-15 ダイムラークライスラー・アクチェンゲゼルシャフト Method and apparatus for creating a connection region in a workpiece
JP2006514588A (en) * 2002-09-13 2006-05-11 ダイムラークライスラー・アクチェンゲゼルシャフト Method and apparatus for processing moving workpieces, especially car bodies
GB2415944A (en) * 2004-07-03 2006-01-11 Koorosh Khodabandehloo Apparatus fro moving products using camera and flat gripper
US8437535B2 (en) 2006-09-19 2013-05-07 Roboticvisiontech Llc System and method of determining object pose
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
WO2010064353A1 (en) * 2008-12-05 2010-06-10 本田技研工業株式会社 Method of controlling robot arm
CN102300680A (en) * 2008-12-05 2011-12-28 本田技研工业株式会社 Method Of Controlling Robot Arm
US20110301758A1 (en) * 2008-12-05 2011-12-08 Honda Motor Co., Ltd. Method of controlling robot arm
JP2010131711A (en) * 2008-12-05 2010-06-17 Honda Motor Co Ltd Method of controlling robot arm
JP2011143494A (en) * 2010-01-13 2011-07-28 Ihi Corp Robot control device and method
JP2013158851A (en) * 2012-02-01 2013-08-19 Seiko Epson Corp Jacobian matrix information generation device, jacobian matrix information generation method, jacobian matrix information generation program, robot control device, robot control method, robot control program and robot system
JP2014140942A (en) * 2013-01-25 2014-08-07 Seiko Epson Corp Robot control system, robot, robot control method, and program
JP2015089598A (en) * 2013-11-06 2015-05-11 セイコーエプソン株式会社 Teaching device, robot, robot system, method and program
JP2015100868A (en) * 2013-11-22 2015-06-04 セイコーエプソン株式会社 Robot system
US10556345B2 (en) 2014-02-28 2020-02-11 Sony Corporation Robot arm apparatus and calibration method
JP2015214014A (en) * 2014-05-09 2015-12-03 ザ・ボーイング・カンパニーTheBoeing Company Path repeatable machining for full sized part-based assembly
US10928799B2 (en) 2014-05-09 2021-02-23 The Boeing Company Path repeatable machining for full sized determinant assembly
US10691097B2 (en) 2014-05-09 2020-06-23 The Boeing Company Path repeatable machining for full sized determinant assembly
CN105645010A (en) * 2014-12-02 2016-06-08 发那科株式会社 Device and method of transferring articles by using robot
JP2016107349A (en) * 2014-12-02 2016-06-20 ファナック株式会社 Article transfer device for transferring article by using robot and article transfer method
JP2018027580A (en) * 2016-08-17 2018-02-22 ファナック株式会社 Robot control device
US10507583B2 (en) 2016-08-17 2019-12-17 Fanuc Corporation Robot control device
CN106938463A (en) * 2017-05-02 2017-07-11 上海贝特威自动化科技有限公司 A kind of method of large plate positioning crawl
US11613021B2 (en) 2017-06-13 2023-03-28 Kawasaki Jukogyo Kabushiki Kaisha Operation system
CN109305532A (en) * 2017-07-26 2019-02-05 发那科株式会社 Article conveying system and transportation system control device
CN109305532B (en) * 2017-07-26 2020-04-10 发那科株式会社 Article conveyance system and conveyance system control device
CN107363837A (en) * 2017-09-08 2017-11-21 桂林加宏汽车修理有限公司 A kind of method of manipulator control system and control machinery hand captures object
US11904483B2 (en) 2018-02-08 2024-02-20 Fanuc Corporation Work robot system
US11407115B2 (en) 2018-02-08 2022-08-09 Fanuc Corporation Work robot system
DE102019122790B4 (en) * 2018-08-24 2021-03-25 Nvidia Corp. Robot control system
US11833681B2 (en) 2018-08-24 2023-12-05 Nvidia Corporation Robotic control system
US12194632B2 (en) 2018-08-24 2025-01-14 Nvidia Corporation Robotic control system
CN111300490A (en) * 2018-12-12 2020-06-19 成都蒸汽巨人机器人科技有限公司 Robot track generation system and method based on depth vision sensor
DE102020211375B4 (en) 2019-09-26 2025-03-13 Fanuc Corporation ROBOT CONTROL SYSTEM
US11679502B2 (en) 2019-09-26 2023-06-20 Fanuc Corporation Robot control system
CN110801239A (en) * 2019-11-20 2020-02-18 上海交通大学 Upper limb multi-joint constant speed training testing device
JP7796197B2 (en) 2020-09-23 2026-01-08 デクステリティ・インコーポレーテッド Velocity Control-Based Robot System
JP2025029018A (en) * 2020-09-23 2025-03-05 デクステリティ・インコーポレーテッド Velocity Control Based Robot System
CN113716323A (en) * 2021-08-17 2021-11-30 成都新气象科技实业股份有限公司 Intelligent container carrying method
CN113954075A (en) * 2021-11-10 2022-01-21 佛山市南海区广工大数控装备协同创新研究院 Moving object tracking and grabbing method and device based on active movement of robot
CN114012706A (en) * 2021-11-12 2022-02-08 佛山市南海区广工大数控装备协同创新研究院 Moving object robust clamping method and system based on speed modulation
CN114012706B (en) * 2021-11-12 2024-11-15 佛山市南海区广工大数控装备协同创新研究院 A robust gripping method and gripping system for moving objects based on speed modulation
DE102024108378A1 (en) * 2024-03-25 2025-09-25 J.Schmalz Gmbh Method for handling a gripping object by means of a handling system, as well as handling system and end effector

Also Published As

Publication number Publication date
JP4265088B2 (en) 2009-05-20

Similar Documents

Publication Publication Date Title
JP2002018754A (en) Robot apparatus and control method therefor
CN111905983B (en) Vision following-based dispensing track correction method, device, system and medium
JP6484213B2 (en) Robot system including a plurality of robots, robot control apparatus, and robot control method
US20230120598A1 (en) Robot program generation method from human demonstration
CN115070781B (en) Object grabbing method and two-mechanical-arm cooperation system
CN110666805A (en) Industrial robot sorting method based on active vision
JP6322949B2 (en) Robot control apparatus, robot system, robot, robot control method, and robot control program
Li et al. Integrating vision, haptics and proprioception into a feedback controller for in-hand manipulation of unknown objects
Roveda et al. Human-robot cooperative interaction control for the installation of heavy and bulky components
CN116652962A (en) An Object Grasping Method Based on Visual Feedback Control
JP2015071207A (en) Robot hand and control method thereof
CN117103276A (en) Precise grabbing method and system for robot
CN120116233B (en) Intelligent control auxiliary device and method for lifting and pressing positioning pin
JP6939729B2 (en) Control systems, control methods and programs
JP2678002B2 (en) Coordinate system calibration method for a robot with vision
CN115556102B (en) A robot sorting planning method and planning equipment based on visual recognition
Luo et al. Robotic conveyor tracking with dynamic object fetching for industrial automation
Tongloy et al. An image-based visual servo control system based on an eye-in-hand monocular camera for autonomous robotic grasping
Wei et al. Multisensory visual servoing by a neural network
Gratal et al. Virtual visual servoing for real-time robot pose estimation
JP7781264B2 (en) Robot teaching method and device
CN116100562B (en) Visual guiding method and system for multi-robot cooperative feeding and discharging
JP7583942B2 (en) ROBOT CONTROL DEVICE, ROBOT CONTROL SYSTEM, AND ROBOT CONTROL METHOD
CN115533890B (en) Adaptive mobile operation device and method
CN112123329A (en) A robot 3D vision hand-eye calibration method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees