JP2006224291A - Robot system - Google Patents
Robot system Download PDFInfo
- Publication number
- JP2006224291A JP2006224291A JP2005120527A JP2005120527A JP2006224291A JP 2006224291 A JP2006224291 A JP 2006224291A JP 2005120527 A JP2005120527 A JP 2005120527A JP 2005120527 A JP2005120527 A JP 2005120527A JP 2006224291 A JP2006224291 A JP 2006224291A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- image
- dimensional position
- image processing
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】 対象物の3次元位置と姿勢を高精度で検出する。
【解決手段】 ロボット10と、ロボットを制御するロボット制御装置2と、ロボットのアーム先端に設けられた撮像装置20と、撮像装置により撮像された画像を処理する画像処理装置30とを備え、対象物100を操作するロボットシステムにおいて、画像処理装置20は、対象物100の特徴となる基準画像を2以上登録するモデル画像登録部1と、モデル画像登録部に登録された基準画像を画像処理し、撮像画像の中の対象物について3点のカメラ座標系上の位置を検出する検出処理部3と、カメラ座標系上の検出点を3次元位置に変換する3次元位置変換部4とを備える。
【選択図】 図1PROBLEM TO BE SOLVED: To detect a three-dimensional position and posture of an object with high accuracy.
A robot includes a robot, a robot control device that controls the robot, an imaging device provided at the tip of the robot arm, and an image processing device that processes an image captured by the imaging device. In the robot system that operates the object 100, the image processing apparatus 20 performs image processing on the model image registration unit 1 that registers two or more reference images that are characteristics of the object 100 and the reference image registered in the model image registration unit. A detection processing unit 3 that detects positions on the camera coordinate system of three points of the object in the captured image, and a three-dimensional position conversion unit 4 that converts the detection points on the camera coordinate system into a three-dimensional position. .
[Selection] Figure 1
Description
本発明は、対象物の位置を画像処理装置で検出してその対象物を操作するロボットシステムに関する。 The present invention relates to a robot system that detects the position of an object with an image processing apparatus and operates the object.
従来の画像処理装置は、山積みされた対象物や、所定領域内に任意の位置姿勢で収納されている対象物を撮像することによって、その対象物の位置と姿勢を検出することができるようになっている(例えば特許文献1参照)。対象物の位置は具体的には次のようにして検出される。
まず、ロボットの手先に取り付けられたカメラを移動させてワークピースを順次撮像していき、それぞれのモデルを登録する。そして、カメラとワークピースの相対位置姿勢を求めて記憶する。その時、ワークピースが視野に入るようにロボットを動作させてから、複数のモデル画像を順次マッチングさせ、マッチングしたモデル画像の中から最もマッチング度が高いモデル画像によってカメラの相対位置関係が求められる。
このように、従来の画像処理装置は、1つのワークピースのモデルを複数のカメラ位置と姿勢から撮像して相対位置と関連付けして記憶させておき、その後、順次モデルをマッチングさせて最もマッチング度の高いモデルを求め、そのモデルに関連付けられた3次元位置と姿勢から対象物の3次元位置と姿勢を求めるようになっている。
First, the camera attached to the hand of the robot is moved to sequentially image the workpiece, and each model is registered. Then, the relative position and orientation of the camera and the workpiece are obtained and stored. At that time, the robot is operated so that the workpiece enters the field of view, and then a plurality of model images are sequentially matched, and the relative positional relationship of the camera is determined by the model image having the highest matching degree among the matched model images.
As described above, the conventional image processing apparatus captures a model of one workpiece from a plurality of camera positions and postures, stores them in association with relative positions, and then sequentially matches the models to obtain the highest matching degree. A high model is obtained, and the three-dimensional position and posture of the object are obtained from the three-dimensional position and posture associated with the model.
ところが従来の画像処理装置は、複数の異なるカメラ位置と姿勢毎に同じ対象物のモデル画像を複数記憶させて、撮像をその複数のモデル画像とマッチングさせているので、対象物の位置と姿勢の精度が予め登録されているカメラの位置と姿勢の精度に依存している。
例えば、カメラ位置が10°刻みに登録されていれば検出精度も10°刻みの分解能となっている。
このため、ロボットの先端に取り付けられたツール(対象物を操作する手先器、例えば、対象物をハンドリングするハンドなど)と対象物との間のクリアランス(許容精度)が大きくなるように、ハンドを製作しなければならず、ロボットの制御精度が低下するという問題があった。
本発明は、かかる問題に鑑みてなされたものであり、高精度で対象物の3次元位置と姿勢を検出する画像処理装置を備えたロボットシステムを提供することを目的とする。
However, the conventional image processing apparatus stores a plurality of model images of the same object for each of a plurality of different camera positions and orientations, and matches the imaging with the plurality of model images. The accuracy depends on the accuracy of the camera position and orientation registered in advance.
For example, if the camera position is registered in increments of 10 °, the detection accuracy is also a resolution in increments of 10 °.
For this reason, the hand should be adjusted so that the clearance (allowable accuracy) between the tool attached to the tip of the robot (a hand device for manipulating the object, such as a hand for handling the object) and the object is increased. There was a problem that the control accuracy of the robot was lowered because it had to be manufactured.
The present invention has been made in view of such problems, and an object of the present invention is to provide a robot system including an image processing apparatus that detects a three-dimensional position and posture of an object with high accuracy.
上記の課題を解決するため、第1の本発明は、ロボットと、前記ロボットを制御するロボット制御装置と、前記ロボットのアーム先端に設けられた撮像装置と、前記撮像装置により撮像された画像を処理する画像処理装置とを備え、対象物を操作するロボットシステムにおいて、前記画像処理装置は、前記対象物の特徴となる基準画像を2以上登録するモデル画像登録部と、前記モデル画像登録部に登録された基準画像を画像処理し、前記撮像画像の中の前記対象物について3点のカメラ座標系上の位置を検出する検出処理部と、前記カメラ座標系上の検出点を3次元位置に変換する3次元位置変換部と、を備えることを特徴としている。
また第2の本発明は、前記画像処理装置は、2以上の登録された前記基準画像の間の距離を登録するモデル距離登録部を備えることを特徴としている。
また第3の本発明は、前記基準画像の数は3であることを特徴としている。
また第4の本発明は、前記3次元位置変換部で変換された前記3点の位置から座標系を生成することを特徴としている。
また第5の本発明は、前記基準画像は、前記対象物の1つの特徴となる部分に対し、2以上であることを特徴としている。
In order to solve the above-described problem, the first aspect of the present invention provides a robot, a robot control device that controls the robot, an imaging device provided at an arm tip of the robot, and an image captured by the imaging device. In a robot system that operates an object, the image processing apparatus includes: a model image registration unit that registers two or more reference images that are characteristics of the object; and a model image registration unit A registered reference image is subjected to image processing, and a detection processing unit that detects positions on the camera coordinate system for the target in the captured image, and detection points on the camera coordinate system are set to a three-dimensional position. And a three-dimensional position conversion unit for conversion.
According to a second aspect of the present invention, the image processing apparatus includes a model distance registration unit that registers a distance between two or more registered reference images.
The third aspect of the present invention is characterized in that the number of the reference images is three.
According to a fourth aspect of the present invention, a coordinate system is generated from the positions of the three points converted by the three-dimensional position conversion unit.
The fifth aspect of the present invention is characterized in that the reference image is two or more with respect to one characteristic portion of the object.
第1の発明によると、画像処理装置が、対象物の特徴となる基準画像を2以上登録するモデル画像登録部と、モデル画像登録部に登録された基準画像を画像処理し、撮像画像の中の対象物について3点のカメラ座標系上の位置を検出する検出処理部と、カメラ座標系上の検出点を3次元位置に変換する3次元位置変換部と、を備えているので、高精度で対象物の3次元位置と姿勢を検出するロボットシステムを提供できるという効果がある。
第2の発明によると、画像処理装置は、2以上の登録された基準画像の間の距離を登録するモデル距離登録部を備えているので、基準画像が2の場合でも、対象物の3次元位置と姿勢を検出できるという効果がある。
第3の発明によると、基準画像の数が3であるので、1つの対象物に異なる特徴が3つある場合に、操作者が客観的に操作しやすいという効果がある。
第4の発明によると、3次元位置変換部で変換された3点の位置から座標系を生成するので、予め登録されたロボット軌跡を容易に修正できるという効果がある。
第5の発明によると、基準画像が対象物の1つの特徴となる部分に対して2以上であるので、より精度良く対象物の3次元位置と姿勢を検出できるという効果がある。
According to the first aspect, the image processing apparatus performs image processing on the reference image registered in the model image registration unit and the model image registration unit that registers two or more reference images that are the characteristics of the target object. A detection processing unit that detects the position of three points on the camera coordinate system and a three-dimensional position conversion unit that converts the detection point on the camera coordinate system into a three-dimensional position. Thus, it is possible to provide a robot system that detects the three-dimensional position and posture of an object.
According to the second invention, since the image processing apparatus includes the model distance registration unit that registers the distance between two or more registered reference images, even when the reference image is 2, the three-dimensional object There is an effect that the position and orientation can be detected.
According to the third invention, since the number of reference images is 3, there is an effect that the operator can easily operate objectively when there are three different features in one object.
According to the fourth invention, since the coordinate system is generated from the positions of the three points converted by the three-dimensional position conversion unit, there is an effect that the robot locus registered in advance can be easily corrected.
According to the fifth invention, since the reference image is 2 or more with respect to a part that is one feature of the object, there is an effect that the three-dimensional position and orientation of the object can be detected with higher accuracy.
以下、本発明の実施の形態について図を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、画像処理装置を備えた本発明のロボットシステムの構成図である。図においてロボット10はロボット制御装置21によって制御されており、手先部にはカメラ20が2個装着されている。カメラ20と画像処理装置30の間は電源線と信号線で接続されており、カメラ20が画像処理装置30によって制御される。対象物100は図に示すようにランダムに山積されており、ロボット10にはこの対象物をハンドリングするハンドが装着されている。 FIG. 1 is a configuration diagram of a robot system of the present invention provided with an image processing apparatus. In the figure, the robot 10 is controlled by a robot control device 21, and two cameras 20 are mounted on the hand portion. The camera 20 and the image processing apparatus 30 are connected by a power line and a signal line, and the camera 20 is controlled by the image processing apparatus 30. The objects 100 are randomly piled as shown in the figure, and the robot 10 is equipped with a hand for handling the objects.
カメラ20は2個使われて同一対象物を撮像するようになっており、一般的にステレオ2眼視として知られている。このステレオ2眼視によって同一対象物の同一点を2つのカメラで撮影すると、カメラ座標系の2次元位置に基づき透視変換して3次元位置に変換される。この変換の際には複数個のカメラパラメータが使われており、このカメラパラメータは内部パラメータと外部パラメータに分けられる。内部パラメータはカメラ座標系を定義するパラメータとレンズの幾何学的補正係数を含んでおり、外部パラメータはワールド座標系におけるカメラの3次元位置と姿勢の情報を含んでいる。 Two cameras 20 are used to image the same object, which is generally known as stereo binocular vision. When the same point of the same object is photographed by two cameras by this stereo binocular vision, it is perspective-transformed based on the two-dimensional position of the camera coordinate system and converted to a three-dimensional position. In this conversion, a plurality of camera parameters are used, and the camera parameters are divided into internal parameters and external parameters. The internal parameters include parameters that define the camera coordinate system and the geometric correction coefficient of the lens, and the external parameters include information on the three-dimensional position and orientation of the camera in the world coordinate system.
画像処理装置30にはモデル画像登録部1とモデル距離登録部2、検出処理部3、3次元位置変換部4、通信部5が含まれており、この他にもカメラ20が撮像した映像を表示するモニタやカーソルを動作させるペンダントも含まれている。 The image processing apparatus 30 includes a model image registration unit 1, a model distance registration unit 2, a detection processing unit 3, a three-dimensional position conversion unit 4, and a communication unit 5. A monitor to display and a pendant to move the cursor are also included.
モデル画像登録部1には予め検出する対象物100の特徴点が登録されており、その特徴点には画像データと画像処理に必要な各種のパラメータが含まれている。図2はその一例であり、300が主基準画像であり、301、302が従基準画像である。
モデル距離登録部2は、各検出位置間の3次元距離を登録する。
検出処理部3は、2個のカメラ20で撮像した画像と、モデル画像登録部1のモデルを画像処理し、対象物100の主基準画像300、従基準画像301、302のカメラ座標系上の2次元位置を検出する。
3次元位置変換部4は、2個のカメラ20で検出した位置に応じて各基準画像を3次元位置へ変換する。
In the model image registration unit 1, feature points of the object 100 to be detected are registered in advance, and the feature points include image data and various parameters necessary for image processing. FIG. 2 shows an example thereof, in which 300 is a main reference image, and 301 and 302 are sub-reference images.
The model distance registration unit 2 registers a three-dimensional distance between the detection positions.
The detection processing unit 3 performs image processing on the images captured by the two cameras 20 and the model of the model image registration unit 1, and on the camera coordinate system of the main reference image 300 and the sub-reference images 301 and 302 of the object 100. A two-dimensional position is detected.
The three-dimensional position conversion unit 4 converts each reference image into a three-dimensional position according to the positions detected by the two cameras 20.
次に画像処理装置30の動作について図5のフローチャートに沿って順に説明する。まず登録時の処理、すなわち教示時の処理について説明する。
(ステップA)対象物100の1つを2個のカメラ20で撮像する。
(ステップB)図2に示すように、主基準画像300、従基準画像301、302のように登録する。
(ステップC)主基準画像300の位置を原点とし、この原点から見た従基準画像301の方向をX軸方向、従基準画像を含む平面をXY平面として、図4に示すように座標系Mを作成する。この座標系Mはロボットの座標系上の座標系である。
Next, the operation of the image processing apparatus 30 will be described in order along the flowchart of FIG. First, processing at the time of registration, that is, processing at the time of teaching will be described.
(Step A) One of the objects 100 is imaged by the two cameras 20.
(Step B) As shown in FIG. 2, registration is made as a main reference image 300 and sub-reference images 301 and 302.
(Step C) Using the position of the main reference image 300 as the origin, the direction of the slave reference image 301 viewed from the origin as the X-axis direction, and the plane including the slave reference image as the XY plane, as shown in FIG. Create This coordinate system M is a coordinate system on the coordinate system of the robot.
次に、実行時の処理について順に説明する。
(ステップD)ロボット制御装置21が対象物100を撮像できる位置へカメラ20を移動させる。
(ステップE)ロボット制御装置21が画像処理装置30に検出開始指令を出力する。
(ステップF)ロボット制御装置21が主基準画像300にマッチングする位置を検出して3次元位置を求める。
(ステップG)ロボット制御装置21が従基準画像301、302にマッチングする位置を検出して2つの点の3次元位置を求める。
(ステップH)ロボット制御装置21がステップF,Gで求めた3次元位置から、ステップCと同じ方法で座標系Nを作成する。
(ステップI)座標系M、Nから対象物100の3次元位置と姿勢の変化量を計算する。画像処理装置30は、ステップIで求めた変化量を通信部5によってロボット制御装置21の通信部6に送信する。
(ステップJ)ロボット制御装置21の通信部6が位置と姿勢の変化量を受信してからその変化量を動作指令部7に指令し、ロボット10を動作させることによって、ロボット10の位置と姿勢を変更する。
Next, processing at the time of execution will be described in order.
(Step D) The robot controller 21 moves the camera 20 to a position where the object 100 can be imaged.
(Step E) The robot control device 21 outputs a detection start command to the image processing device 30.
(Step F) The robot control device 21 detects a position matching the main reference image 300 and obtains a three-dimensional position.
(Step G) The robot controller 21 detects a position that matches the sub-reference images 301 and 302, and obtains a three-dimensional position of the two points.
(Step H) The coordinate system N is created by the same method as in Step C from the three-dimensional position obtained by the robot controller 21 in Steps F and G.
(Step I) The change amount of the three-dimensional position and orientation of the object 100 is calculated from the coordinate systems M and N. The image processing device 30 transmits the change amount obtained in step I to the communication unit 6 of the robot control device 21 through the communication unit 5.
(Step J) After the communication unit 6 of the robot control device 21 receives the change amount of the position and posture, the change command is sent to the operation command unit 7 and the robot 10 is operated to thereby move the position and posture of the robot 10. To change.
以上のステップを実行することにより、ロボット10は対象物100の3次元位置と姿勢を認識することができる。そして、この位置と姿勢に基づいて、予め登録されたロボット軌跡を修正することにより、対象物100を操作することが可能となる。 By executing the above steps, the robot 10 can recognize the three-dimensional position and posture of the object 100. And based on this position and attitude | position, it becomes possible to operate the target object 100 by correcting the robot locus registered beforehand.
実施例2として、対象物100の特徴となる画像が2つの場合について説明する。
図3に示すように、対象物100には主基準画像300と従基準画像310の2種類の特徴ある画像だけが登録される。この場合、モデル距離登録部2は主基準画像300の3次元位置と従基準画像310の3次元位置の各々の距離を算出し、図6に示すようなデータテーブル400を作成する。距離L1は、点P0−P1間の距離であり、距離L2は、距離P0−P2間の距離である。そして主基準画像の位置をP0とし、このP0を原点としてP1をX軸方向とし、P2をXY平面上の点として座標系Mを作成する。
As a second embodiment, a case where there are two images that are characteristic of the object 100 will be described.
As shown in FIG. 3, only two types of characteristic images, a main reference image 300 and a sub reference image 310, are registered in the object 100. In this case, the model distance registration unit 2 calculates the distance between each of the three-dimensional position of the main reference image 300 and the three-dimensional position of the sub-reference image 310, and creates a data table 400 as shown in FIG. The distance L1 is a distance between points P0-P1, and the distance L2 is a distance between distances P0-P2. The coordinate system M is created with the position of the main reference image as P0, P0 as the origin, P1 as the X-axis direction, and P2 as a point on the XY plane.
実行時は主基準画像300を検出してから3次元位置を求め、従基準画像310を検出してから3次元位置を求める。そしてこの従基準画像310の3次元位置と主基準画像の3次元位置から各々の距離を算出し、各々の距離の中から、登録されている点P1、P2と同じ距離を与える3次元位置を探し出す。次に主基準画像の検出位置をQ0としてP1に対応する点をQ1とし、P2に対応する点をQ2として座標系Nを作成する。そして座標系M、Nに基づいて3次元位置と姿勢の変化量を求める。
このようにして姿勢と変化量を求めているので、主基準画像と異なる従基準画像が1種類の場合でも、検出することが可能となるのである。
At the time of execution, the three-dimensional position is obtained after detecting the main reference image 300, and the three-dimensional position is obtained after detecting the sub-reference image 310. Then, each distance is calculated from the three-dimensional position of the sub-reference image 310 and the three-dimensional position of the main reference image, and a three-dimensional position that gives the same distance as the registered points P1 and P2 is obtained from each distance. Find out. Next, a coordinate system N is created with the detection position of the main reference image as Q0, the point corresponding to P1 as Q1, and the point corresponding to P2 as Q2. Based on the coordinate systems M and N, the amount of change in the three-dimensional position and orientation is obtained.
Since the posture and the amount of change are obtained in this way, it is possible to detect even when there is one type of sub-reference image different from the main reference image.
次に実施例3について図7を用いて説明する。この例の場合、モデル画像登録部1は320を主基準マクロ画像とし、321を主基準ミクロ画像として1つの特徴となる部分について2つのモデルを登録しており、同様に330、340を従基準マクロ画像とし、331、341を従基準ミクロ画像としている。
この例の検出処理部3の動作について図8のフローチャートに沿って説明する。
(ステップK)2個のカメラ20で撮像した画像と、主基準マクロ画像320を画像処理し、カメラ座標系上での2次元位置を検出する。
(ステップL)ステップKの結果から、例えば処理範囲などの検出条件を再設定する。
(ステップM)ステップLで再設定した検出条件で、主基準ミクロ画像321を画像処理し、カメラ座標系上での2次元位置を検出する。
このような手順で検出するので、図9に示したような対象物100が傾くなどして入力画像が基準画像と異なってしまうような場合でも、精度良く検出することが可能となるのである。
Next, Example 3 will be described with reference to FIG. In this example, the model image registration unit 1 registers two models for one characteristic portion with 320 as a main reference macro image and 321 as a main reference micro image. Macro images are used, and reference numerals 331 and 341 are sub-standard micro images.
The operation of the detection processing unit 3 in this example will be described with reference to the flowchart of FIG.
(Step K) The image captured by the two cameras 20 and the main reference macro image 320 are subjected to image processing to detect a two-dimensional position on the camera coordinate system.
(Step L) From the result of Step K, for example, a detection condition such as a processing range is reset.
(Step M) Under the detection conditions reset in Step L, the main reference micro image 321 is subjected to image processing, and a two-dimensional position on the camera coordinate system is detected.
Since the detection is performed in such a procedure, even when the target image 100 as shown in FIG. 9 is inclined and the input image is different from the reference image, the detection can be performed with high accuracy.
本発明は、ロボットにより対象物の3次元位置を認識するロボットシステムに有用である。 The present invention is useful for a robot system that recognizes a three-dimensional position of an object by a robot.
1 モデル登録部、 2 モデル距離登録部、 3 検出処理部、
4 3次元位置変換部、 5 通信部、 6 通信部、
7 動作指令部、 10 ロボット、 20 カメラ、
21 ロボット制御装置、 22 ハンド、 30 画像処理装置、
100 対象物
1 model registration unit, 2 model distance registration unit, 3 detection processing unit,
4 3D position conversion unit, 5 communication unit, 6 communication unit,
7 Operation command section, 10 robot, 20 camera,
21 robot control device, 22 hand, 30 image processing device,
100 objects
Claims (5)
前記画像処理装置は、
前記対象物の特徴となる基準画像を2以上登録するモデル画像登録部と、
前記モデル画像登録部に登録された基準画像を画像処理し、前記撮像画像の中の前記対象物について3点のカメラ座標系上の位置を検出する検出処理部と、
前記カメラ座標系上の検出点を3次元位置に変換する3次元位置変換部と、
を備えることを特徴とするロボットシステム。 A robot that operates a target, comprising: a robot; a robot control device that controls the robot; an imaging device provided at an arm tip of the robot; and an image processing device that processes an image captured by the imaging device In the system,
The image processing apparatus includes:
A model image registration unit for registering two or more reference images as features of the object;
A detection processing unit that performs image processing on a reference image registered in the model image registration unit, and detects positions on the camera coordinate system of three points for the object in the captured image;
A three-dimensional position conversion unit that converts detection points on the camera coordinate system into three-dimensional positions;
A robot system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005120527A JP2006224291A (en) | 2005-01-19 | 2005-04-19 | Robot system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005011223 | 2005-01-19 | ||
JP2005120527A JP2006224291A (en) | 2005-01-19 | 2005-04-19 | Robot system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006224291A true JP2006224291A (en) | 2006-08-31 |
Family
ID=36986086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005120527A Pending JP2006224291A (en) | 2005-01-19 | 2005-04-19 | Robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006224291A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009115783A (en) * | 2007-11-07 | 2009-05-28 | Mitsubishi Electric Research Laboratories Inc | Method and system for determining 3d posture of object in scene |
JP2009248214A (en) * | 2008-04-03 | 2009-10-29 | Kanto Auto Works Ltd | Image processing device and robot control system |
JP2010064202A (en) * | 2008-09-11 | 2010-03-25 | Ihi Corp | Picking device and method |
JP2016000442A (en) * | 2014-06-12 | 2016-01-07 | セイコーエプソン株式会社 | Robot, robot system and control device |
KR20160010868A (en) * | 2013-05-17 | 2016-01-28 | 록신 2002 에스.엘. | Automated machining head with vision and procedure |
JP2016120566A (en) * | 2014-12-25 | 2016-07-07 | 株式会社キーエンス | Image processing apparatus, image processing system, image processing method, and computer program |
JP2019171497A (en) * | 2018-03-27 | 2019-10-10 | ファナック株式会社 | Robot system for correcting teaching of robot utilizing image processing |
CN112775961A (en) * | 2019-11-06 | 2021-05-11 | 发那科株式会社 | Control device, control method for control device, and control system |
CN116214514A (en) * | 2023-03-17 | 2023-06-06 | 梅卡曼德(北京)机器人科技有限公司 | Method and device for determining object position, robot and storage medium |
WO2023199572A1 (en) * | 2022-04-11 | 2023-10-19 | パナソニックIpマネジメント株式会社 | Template registration device, template registration method, and template registration system |
WO2025187050A1 (en) * | 2024-03-08 | 2025-09-12 | 株式会社Fuji | Robot control device, robot control method, and robot |
-
2005
- 2005-04-19 JP JP2005120527A patent/JP2006224291A/en active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009115783A (en) * | 2007-11-07 | 2009-05-28 | Mitsubishi Electric Research Laboratories Inc | Method and system for determining 3d posture of object in scene |
JP2009248214A (en) * | 2008-04-03 | 2009-10-29 | Kanto Auto Works Ltd | Image processing device and robot control system |
JP2010064202A (en) * | 2008-09-11 | 2010-03-25 | Ihi Corp | Picking device and method |
KR102271941B1 (en) | 2013-05-17 | 2021-07-02 | 록신 2002 에스.엘. | Automated machining head with vision and procedure |
KR20160010868A (en) * | 2013-05-17 | 2016-01-28 | 록신 2002 에스.엘. | Automated machining head with vision and procedure |
JP2016000442A (en) * | 2014-06-12 | 2016-01-07 | セイコーエプソン株式会社 | Robot, robot system and control device |
CN105291101A (en) * | 2014-06-12 | 2016-02-03 | 精工爱普生株式会社 | Robot, robotic system, and control device |
JP2016120566A (en) * | 2014-12-25 | 2016-07-07 | 株式会社キーエンス | Image processing apparatus, image processing system, image processing method, and computer program |
JP2019171497A (en) * | 2018-03-27 | 2019-10-10 | ファナック株式会社 | Robot system for correcting teaching of robot utilizing image processing |
US11376732B2 (en) | 2018-03-27 | 2022-07-05 | Fanuc Corporation | Robot system for correcting teaching of robot using image processing |
CN112775961A (en) * | 2019-11-06 | 2021-05-11 | 发那科株式会社 | Control device, control method for control device, and control system |
WO2023199572A1 (en) * | 2022-04-11 | 2023-10-19 | パナソニックIpマネジメント株式会社 | Template registration device, template registration method, and template registration system |
CN116214514A (en) * | 2023-03-17 | 2023-06-06 | 梅卡曼德(北京)机器人科技有限公司 | Method and device for determining object position, robot and storage medium |
WO2025187050A1 (en) * | 2024-03-08 | 2025-09-12 | 株式会社Fuji | Robot control device, robot control method, and robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112276936B (en) | Three-dimensional data generating device and robot control system | |
JP7111114B2 (en) | Information processing device, information processing method, and information processing system | |
JP6855492B2 (en) | Robot system, robot system control device, and robot system control method | |
JP4506685B2 (en) | Mobile robot | |
JP4961860B2 (en) | Robot apparatus and control method of robot apparatus | |
JP6180087B2 (en) | Information processing apparatus and information processing method | |
JP5233601B2 (en) | Robot system, robot control apparatus, and robot control method | |
US9679385B2 (en) | Three-dimensional measurement apparatus and robot system | |
JP6816070B2 (en) | Interference avoidance device and robot system | |
JP2019119027A (en) | Method of controlling robot system, and robot system | |
JP2006224291A (en) | Robot system | |
JP4849178B2 (en) | Mobile robot | |
JP2008045983A (en) | Stereo camera adjustment device | |
US12186920B2 (en) | Robot system | |
WO2022124232A1 (en) | Image processing system and image processing method | |
JP2010214546A (en) | Assembly apparatus and assembly method | |
US12307703B2 (en) | Detection device and detection method | |
JP2016203282A (en) | Robot with mechanism for changing end effector attitude | |
JP2021133458A (en) | Three-dimensional measurement apparatus and three-dimensional measurement system | |
JP2012022600A (en) | Mask image creation system | |
JP6735208B2 (en) | Calibration jig, sheet metal carry-in system, and calibration method | |
JP2021053775A (en) | Control system and robot system | |
JP2007171018A (en) | Object position recognition method and device | |
JP3541980B2 (en) | Calibration method for robot with visual sensor | |
JPS63254575A (en) | Calibration device for visual sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Effective date: 20080314 Free format text: JAPANESE INTERMEDIATE CODE: A621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091027 |
|
A977 | Report on retrieval |
Effective date: 20091029 Free format text: JAPANESE INTERMEDIATE CODE: A971007 |
|
A02 | Decision of refusal |
Effective date: 20100302 Free format text: JAPANESE INTERMEDIATE CODE: A02 |