JPH10207524A - Method for automatic off-line teaching of sensing pattern and method for simulating sensing operation - Google Patents
Method for automatic off-line teaching of sensing pattern and method for simulating sensing operationInfo
- Publication number
- JPH10207524A JPH10207524A JP1352497A JP1352497A JPH10207524A JP H10207524 A JPH10207524 A JP H10207524A JP 1352497 A JP1352497 A JP 1352497A JP 1352497 A JP1352497 A JP 1352497A JP H10207524 A JPH10207524 A JP H10207524A
- Authority
- JP
- Japan
- Prior art keywords
- sensing
- pattern
- sensing operation
- touch sensing
- teaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 27
- 238000004088 simulation Methods 0.000 claims abstract description 14
- 238000003466 welding Methods 0.000 claims description 76
- 230000005611 electricity Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000013461 design Methods 0.000 description 8
- 230000003187 abdominal effect Effects 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000010422 painting Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Landscapes
- Testing And Monitoring For Control Systems (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、溶接用や塗装用等
各種ロボットに対してタッチセンシング(接触式センシ
ング)あるいは非接触式センシングを行わせる場合に必
要な、センシング動作のティーチング(ロボットの位置
や姿勢、動作方法、溶接方法などに関する教示)、更に
は動作シミュレーションをオフラインで自動的に行う方
法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to teaching of a sensing operation (position of a robot) necessary for performing touch sensing (contact sensing) or non-contact sensing for various robots such as welding and painting. And teaching methods relating to posture, operation method, welding method, etc.) and a method for automatically performing operation simulation offline.
【0002】[0002]
【従来の技術】溶接ロボットを例に挙げて、従来の技術
を説明する。2. Description of the Related Art Conventional techniques will be described by taking a welding robot as an example.
【0003】ロボットを溶接に使用する場合には、溶接
線に正しく溶接ワイヤ先端を持って行って溶接する必要
があり、溶接に必要なデータ(各点でのロボット位置、
溶接条件、動作条件など)をロボットにティーチングす
ることが行われる。しかし、部材がガスカット材であっ
てその精度が悪かったり、ロボットに対する部材の設置
誤差があったりして、ロボットと個々の部材との位置関
係に誤差があると、ティーチングデータだけでそのまま
溶接を行わせることはできない。When a robot is used for welding, it is necessary to hold the tip of the welding wire correctly at the welding line and perform welding. Data required for welding (the robot position at each point,
Teaching of the robot to welding conditions, operating conditions, etc.) is performed. However, if the member is a gas cut material and its accuracy is poor, or there is an error in the installation of the member with respect to the robot, and there is an error in the positional relationship between the robot and each member, welding can be performed using only the teaching data. It cannot be done.
【0004】そこで、溶接ワイヤと部材との間に電位を
かけておき、ロボットで溶接ワイヤ先端を部材にタッチ
(接触)させることで、短絡信号のONを検知し、その
時のロボットの位置から部材の位置を補正するという
「タッチセンシング機能」を使って、部材の誤差(精度
の悪さや設置誤差)を補正して溶接線に沿って溶接する
方法が主流となっている。Therefore, an electric potential is applied between the welding wire and the member, and the robot touches (contacts) the tip of the welding wire with the member, thereby detecting the ON of the short-circuit signal. The mainstream method is to use a "touch sensing function" that corrects the position of a member to correct an error of a member (poor accuracy or installation error) and to perform welding along a welding line.
【0005】一方、溶接ロボットに対する動作条件や溶
接条件などのティーチングとしては、従来、作業者が実
際に作業場でロボットを動かしながら、各点のロボット
位置のティーチング、その点での溶接条件や動作条件な
どをティーチングしていた。[0005] On the other hand, as teaching of operating conditions and welding conditions for a welding robot, conventionally, while an operator actually moves a robot in a work place, teaching of a robot position at each point, welding conditions and operating conditions at that point are performed. Was teaching.
【0006】そのため、作業者がティーチングを行って
いる時間は、実際にはロボットが溶接を行えない時間と
なり、それだけロボットの稼働率が低くなってしまうと
いう問題があった。Therefore, the time during which the worker is teaching is a time during which the robot cannot actually perform welding, and there is a problem that the operating rate of the robot is reduced accordingly.
【0007】そこで、事前に事務所にてティーチングデ
ータを作成するというオフライン自動ティーチングシス
テムが開発された。[0007] Accordingly, an offline automatic teaching system has been developed in which teaching data is created in advance in an office.
【0008】しかし、現状のオフライン自動ティーチン
グシステムでは、溶接ロボットのメーカ毎にタッチセン
シングに必要な部材に対するロボットの動かし方や、そ
の命令の仕方が異なるため、汎用的なプログラム化が困
難であるからタッチセンシングのティーチングや動作シ
ミュレーションを行うことができなかった。[0008] However, in the current off-line automatic teaching system, since the method of moving the robot to a member necessary for touch sensing and the method of instructing the welding robot differ depending on the manufacturer of the welding robot, it is difficult to make a general-purpose program. Teaching of touch sensing and motion simulation could not be performed.
【0009】例えば、隅肉部材の始端認識のタッチセン
シングでは、ロボットの動かし方に下記〜がある
が、それらの具体的な動作方法や順序は、溶接ロボット
メーカが各々独自に決めているため、色々な方法があ
る。For example, in touch sensing for recognizing the start end of a fillet member, there are the following methods of moving the robot. However, since the specific operation method and order are individually determined by the welding robot manufacturer, There are various ways.
【0010】隅部をセンシングするため、溶接トーチ
を前面方向に移動させ、立っている部材側の腹面を、溶
接トーチのワイヤ先端もしくは溶接トーチの腹面でタッ
チセンシングしてその位置を認識する。また、溶接トー
チを下方向に移動させ、部材面の底面を、溶接トーチの
ワイヤ先端もしくは溶接トーチの腹面でタッチセンシン
グしてその位置を認識する。In order to sense the corner, the welding torch is moved in the front direction, and the position of the standing abdominal surface is recognized by touch sensing with the wire tip of the welding torch or the abdominal surface of the welding torch. Further, the welding torch is moved downward, and the position of the bottom surface of the member surface is recognized by touch sensing with the wire tip of the welding torch or the abdominal surface of the welding torch.
【0011】更に、部材の端部を認識するためには、
溶接トーチを横向きで水平方向に移動させ、立っている
部材側の側面を、溶接トーチの側面もしくは溶接トーチ
の腹面でタッチセンシングしてその位置を認識する。ま
た、溶接トーチを下向きで左右方向に移動させ、部材面
の底面の側面を、溶接トーチの側面もしくは溶接トーチ
の腹面でタッチセンシングしてその位置を認識する。Further, in order to recognize the end of the member,
The welding torch is moved sideways and horizontally, and the position of the standing member side is recognized by touch sensing on the side surface of the welding torch or the abdominal surface of the welding torch. Further, the welding torch is moved downward and left and right, and the position of the bottom surface of the member surface is recognized by touch sensing with the side surface of the welding torch or the abdominal surface of the welding torch.
【0012】更にまた、部材が垂直に取り付いていな
い場合も想定して、立っている部材側の腹面を3点、部
材面の底面を3点それぞれタッチセンシングして、各部
材の面の位置と傾きを認識する。Further, assuming that the members are not mounted vertically, three points on the abdominal surface on the side of the standing member and three points on the bottom surface of the member surface are touch-sensitive to determine the position of the surface of each member. Recognize the tilt.
【0013】上述のように溶接ロボットメーカ毎にタッ
チセンシングの具体的な動作方法や順序が異なるため
に、オフライン自動ティーチングにおいてティーチング
や動作シミュレーションを行う場合、タッチセンシング
部分については、その制御がプログラムに組み込まれて
いないのが現状である。As described above, since the specific operation method and order of touch sensing differ for each welding robot maker, when teaching or operation simulation is performed in off-line automatic teaching, control of the touch sensing portion is performed by a program. At present it is not incorporated.
【0014】従って、現状のオフライン自動ティーチン
グの動作シミュレータでは、作業者がモニタ画面を見な
がら溶接ロボットの先端(溶接ワイヤ先端)を実際に動
かして、部材にタッチさせる動作を教え込むというマニ
ュアル動作が必要であった。Therefore, in the current operation simulator of the offline automatic teaching, a manual operation is performed in which the operator actually moves the tip of the welding robot (the tip of the welding wire) while watching the monitor screen and teaches the operation of touching the member. Was needed.
【0015】そのため、タッチセンシングの対象部材が
多くなるとその作業が繁雑となり、結局、大量の部材を
取り扱う対象に対しては、動作シミュレータが使いもの
にならなくなっていた。[0015] For this reason, when the number of target members of the touch sensing increases, the work becomes complicated, and as a result, the operation simulator cannot be used for an object handling a large number of members.
【0016】以上は溶接ロボットのオフライン自動ティ
ーチングにおけるタッチセンシングについての説明であ
るが、ロボットを塗装など各種の作業に用いる場合につ
いても、更には、ロボットと部材の位置関係を非接触で
検知する非接触式センシングの場合についても同様の問
題がある。The above is a description of touch sensing in off-line automatic teaching of a welding robot. However, even when the robot is used for various operations such as painting, a non-contact detection of the positional relationship between the robot and members without contact is also performed. A similar problem exists in the case of contact-type sensing.
【0017】[0017]
【発明が解決しようとする課題】本発明は、上記従来技
術の問題点に鑑み、各メーカ各様のタッチセンシングあ
るいは非接触式センシングについて、ティーチングデー
タの作成あるいは動作シミュレーションを汎用的に自動
的に行うことができる方法を提供することを課題とす
る。SUMMARY OF THE INVENTION In view of the above-mentioned problems of the prior art, the present invention automatically and universally generates teaching data or simulates operation for touch sensing or non-contact sensing of each manufacturer. It is an object to provide a method that can be performed.
【0018】[0018]
【課題を解決するための手段】上記課題を解決する本発
明に係るセンシングパターンのオフライン自動ティーチ
ング方法は、部材形状とロボットメーカ毎に異なった複
数種類のセンシング動作パターンを定義するセンシング
動作パターンデータベースと、同データベース中の各セ
ンシング動作パターンに対応する複数種類のセンシング
パターンコードを部材の形状やロボットの制約条件など
のキーにより定義するセンシングパターンコードデータ
ベースとを用い、前記キーにより前記センシングパター
ンコードデータベースから特定のセンシングパターンコ
ードを選択し、同特定のセンシングパターンコードに対
応するセンシング動作パターンを前記センシング動作パ
ターンデータベースから選択し、選択したセンシング動
作パターンによりオフラインで自動的にティーチングデ
ータを作成することを特徴とするものである。According to the present invention, there is provided a sensing pattern offline automatic teaching method according to the present invention, comprising: a sensing operation pattern database for defining a plurality of types of sensing operation patterns different for each member shape and each robot maker; Using a sensing pattern code database that defines a plurality of types of sensing pattern codes corresponding to each sensing operation pattern in the same database using keys such as member shapes and robot constraints, and using the keys to read from the sensing pattern code database. Select a specific sensing pattern code, select a sensing operation pattern corresponding to the specific sensing pattern code from the sensing operation pattern database, and select a sensing operation pattern according to the selected sensing operation pattern. It is characterized in that automatically create teaching data offline.
【0019】また、本発明に係るセンシングパターンの
オフライン自動ティーチング方法は、前記センシングが
タッチセンシングであることを特徴とし、あるいは、前
記センシングはレーザ光を用いたセンサ、カメラを用い
たセンサ、あるいは、渦電流センサや静電容量センサな
どの電気を用いたセンサなどによる非接触式センシング
であることを特徴とし、あるいは、前記センシングは溶
接ロボットにより部材始終端認識、開先形状認識等を行
うセンシングであることを特徴とする。In the method for automatically teaching a sensing pattern off-line according to the present invention, the sensing is a touch sensing, or the sensing is a sensor using a laser beam, a sensor using a camera, or It is characterized by non-contact sensing using sensors using electricity such as eddy current sensors and capacitance sensors, or the sensing is performed by a welding robot to recognize the beginning and end of a member, recognize the groove shape, etc. There is a feature.
【0020】また、上記課題を解決する本発明に係るセ
ンシング動作シミュレーション方法は、上記いずれかの
方法で作成したティーチングデータを用い、ロボットの
センシング動作をグラフィックディスプレー上でシミュ
レーションすることを特徴とするものである。Further, a sensing operation simulation method according to the present invention for solving the above-mentioned problems is characterized in that a sensing operation of a robot is simulated on a graphic display using teaching data created by any of the above methods. It is.
【0021】[0021]
【発明の実施の形態】以下、本発明の実施の形態を説明
する。本実施の形態は、オフライン自動ティーチングシ
ステムにおける各溶接ロボットメーカが提供する幾つも
の種類があるワイヤ接触式のタッチセンシングにおい
て、この動作をシミュレーションしたり、ティーチング
データを作成したりする場合に、この動作やティーチン
グパターンをデータベース化したファイルを持ち、これ
をどのメーカが提供する溶接ロボットに対しても汎用的
に制御可能なオフライン自動ティーチングシステムであ
る。データベースとしては、部材形状と溶接ロボットメ
ーカ毎に異なった複数種類のセンシング動作パターンを
定義するタッチセンシング動作パターンデータベース
と、このデータベースから各センシング動作パターンに
対応する複数種類のセンシングパターンコードを、部材
の形状やロボットの制約条件などのキーにより定義する
タッチセンシングパターンコードデータベースからな
る。Embodiments of the present invention will be described below. In the present embodiment, in the off-line automatic teaching system, in the case of wire contact type touch sensing in which there are several types provided by each welding robot maker, when this operation is simulated or when teaching data is created, this operation is performed. It is an offline automatic teaching system that has a file in which a database of teaching patterns and teaching patterns is created and can be used for welding robots provided by any manufacturer for general purposes. As the database, a touch sensing operation pattern database that defines a plurality of types of sensing operation patterns that are different for each member robot and a welding robot maker, and a plurality of types of sensing pattern codes corresponding to each sensing operation pattern from the database, It consists of a touch sensing pattern code database defined by keys such as shape and robot constraints.
【0022】このようなデータベースを持つことによ
り、汎用的にタッチセンシングを制御可能である。ま
た、これにより自動ティーチングされたティーチングデ
ータ(図1の符号12参照)を基に、実際に現場で溶接
ロボットにより溶接を行うことも、あるいは、画面上で
動作シミュレーションすることも可能である。By having such a database, touch sensing can be controlled in a general-purpose manner. In addition, based on the teaching data (see reference numeral 12 in FIG. 1) that has been automatically taught, welding can be actually performed on site by a welding robot, or operation simulation can be performed on a screen.
【0023】以下、溶接ロボットのワイヤ接触式のタッ
チセンシングを例に挙げて、図面を参照して、本発明の
実施例を説明する。ここで、図1はシステム構成全体を
説明した図、図2は処理フローの概要を説明した図、図
3はタッチセンシングパターンコードデータベース17
中のタッチセンシングパターンコード例を説明した図、
図4はタッチセンシング動作パターンデータベース中の
タッチセンシング動作パターン例を説明した図、図5は
タッチセンシング動作パターン18の一例を示した図で
ある。Hereinafter, an embodiment of the present invention will be described with reference to the drawings, taking a wire contact type touch sensing of a welding robot as an example. Here, FIG. 1 is a diagram illustrating the entire system configuration, FIG. 2 is a diagram illustrating an outline of the processing flow, and FIG. 3 is a diagram illustrating the touch sensing pattern code database 17.
Diagram explaining the example of touch sensing pattern code inside,
FIG. 4 is a diagram illustrating an example of a touch sensing operation pattern in the touch sensing operation pattern database, and FIG. 5 is a diagram illustrating an example of the touch sensing operation pattern 18.
【0024】図1のシステム構成に示すように、本実施
例では、溶接部材の設計CADデータ11を先ず読み込
み、溶接部材の形状やその他の指示に従ってティーチン
グデータ12を、3次元オフライン自動ティーチングシ
ステム13で作り出す。As shown in the system configuration of FIG. 1, in the present embodiment, the CAD data 11 for the welding member is first read, and the teaching data 12 is converted into the three-dimensional off-line automatic teaching system 13 in accordance with the shape of the welding member and other instructions. Create with.
【0025】この時、ティーチングデータ12を基にグ
ラフィックディスプレー上で、溶接ロボットの3次元動
作シミュレーション14を行う。At this time, a three-dimensional operation simulation 14 of the welding robot is performed on the graphic display based on the teaching data 12.
【0026】更にこの時、溶接ロボットと溶接部材が干
渉していた場合は、干渉チェックリスト15を表示もし
くはプリントアウトする。At this time, if the welding robot interferes with the welding member, the interference check list 15 is displayed or printed out.
【0027】この時、どの様にセンシング動作させるか
を制御させるのが、ティーチングデータベース16であ
り、このティーチングデータベース16により各種のセ
ンシング動作を作り出す。At this time, the teaching database 16 controls how the sensing operation is performed, and various teaching operations are created by the teaching database 16.
【0028】本実施例ではティーチングデータベース1
6は、図3に示す各種タッチセンシングパターンコード
0〜10…が格納されたタッチセンシングパターンコー
ドデータベース17と、図4に例示するタッチセンシン
グ動作パターン18等の各種タッチセンシング動作パタ
ーンがテーブルとして格納されたタッチセンシング動作
パターンデータベースからなっている。In the present embodiment, the teaching database 1
6 stores a touch sensing pattern code database 17 in which various touch sensing pattern codes 0 to 10 shown in FIG. 3 are stored, and various touch sensing operation patterns such as a touch sensing operation pattern 18 illustrated in FIG. It consists of a touch sensing operation pattern database.
【0029】タッチセンシング動作パターンデータベー
ス中、各種タッチセンシング動作パターン18は部材形
状と溶接ロボットメーカ毎に異なっている。また、タッ
チセンシングパターンコードデータベース17中、各タ
ッチセンシングパターンコード0〜10…は部材の形状
やロボットの制約条件などのキーにより定義され、タッ
チセンシング動作パターンデータベース中の各センシン
グ動作パターン18のアドレス即ちタッチセンシングパ
ターンテーブルアドレスat0〜at10…に対応す
る。In the touch sensing operation pattern database, various touch sensing operation patterns 18 are different depending on the member shape and the welding robot manufacturer. In the touch sensing pattern code database 17, each of the touch sensing pattern codes 0 to 10... Is defined by a key such as a shape of a member or a constraint condition of a robot, and the address of each sensing operation pattern 18 in the touch sensing operation pattern database, that is, Corresponding to the touch sensing pattern table addresses at0 to at10.
【0030】次に、上記センシング動作を作り出す手順
例について、その概要を図2、図3、図4を用いて説明
する。Next, an example of a procedure for producing the sensing operation will be described with reference to FIGS. 2, 3 and 4. FIG.
【0031】まず、溶接線が複数本あることを想定し、
溶接番号nを初期設定(n=1)して、溶接番号n毎に
以下の処理を行う(図2のステップS1、S2参照)。First, assuming that there are a plurality of welding lines,
The welding number n is initially set (n = 1), and the following processing is performed for each welding number n (see steps S1 and S2 in FIG. 2).
【0032】詳細は後述するが、設計CADデータ11
を基に図2のステップS3〜S9にて幾つかのキーとな
るデータを求め、ステップS10において図3のタッチ
センシングパターンコードデータベース17を基にタッ
チセンシングパターンコード0〜10…を求める。Although details will be described later, the design CAD data 11
Are determined as key data in steps S3 to S9 in FIG. 2 and touch sensing pattern codes 0 to 10... Are determined in step S10 based on the touch sensing pattern code database 17 in FIG.
【0033】キーデータとしては、図3の例では、部材
形状、隣接の有無、何面に接しているか?、溶接姿勢、
部材端部の検出の有無、部材面の倒れの検出の有無、部
材端部の倒れの検出の有無、その他となっている。As the key data, in the example of FIG. 3, the shape of the member, the presence or absence of the adjacency, and what surface is in contact? , Welding posture,
The detection of the end of the member, the detection of the inclination of the member surface, the detection of the detection of the inclination of the end of the member, and the like.
【0034】それぞれのキーデータに値を求めるため
に、図2、図3のようにサブルーチンsub0〜sub
6…を呼び出して処理を行う。このようにサブルーチン
を呼び出すことにより、呼び出すサブルーチンの名前を
変えれば、任意の意図するキーデータの値を変えて出力
を得ることができる。また、キーデータの組合せについ
ても、サブルーチンの呼び出し数を変えることにより、
任意の組合せを設定できる。In order to obtain a value for each key data, subroutines sub0 to sub0 as shown in FIGS.
6 is called to perform processing. By calling the subroutine in this way, if the name of the subroutine to be called is changed, an output can be obtained by changing the value of any intended key data. Also, regarding the combination of key data, by changing the number of subroutine calls,
Any combination can be set.
【0035】以下、図2、図3を参照して、具体例を説
明する。A specific example will be described below with reference to FIGS.
【0036】先ず、図2のステップS3でサブルーチン
sub0を呼出し、設計CADデータ11に基づく部材
形状の認識を自動的に行う。図3のタッチセンシングパ
ターンコードデータベース17は、部材を垂直に隅肉溶
接するリブなのか? 箱形のものなのか? パイプ部材
なのか? など大まかな形状の違いを認識する例であ
る。First, a subroutine sub0 is called in step S3 of FIG. 2 to automatically recognize a member shape based on the design CAD data 11. Is the touch sensing pattern code database 17 of FIG. 3 a rib for fillet welding a member vertically? Is it a box-shaped thing? Is it a pipe member? This is an example of recognizing a rough difference in shape.
【0037】次に、図2のステップS4でサブルーチン
sub1を呼出し、設計CADデータ11に基づいて、
隣接の有無を自動的に判定する。部材端近くでセンシン
グを行う場合、センシング時にその近くに他の部材があ
ると干渉を起こす。そこで、部材端部に対して、他の部
材の接近度合いをチェックする。図3の例では、接近度
合いを隣接=「無」、隣接=「有」及び隣接=「狭隘」
の3種類で区分している。「無」は完全にフリーな状態
でセンシング可能な隣接度合いを表し、「有」は干渉を
考慮しつつセンシングを行う必要がある隣接度合いを表
し、「狭隘」は他の部材との距離が狭く端部ではセンシ
ングできない隣接度合いを表す。Next, the subroutine sub1 is called in step S4 of FIG.
The presence or absence of the neighbor is automatically determined. When sensing near the end of a member, interference occurs if there is another member near the end at the time of sensing. Therefore, the degree of approach of another member to the member end is checked. In the example of FIG. 3, the degree of approach is adjacent = “no”, adjacent = “present”, and adjacent = “narrow”
Are classified into three types. "None" indicates the degree of adjacency that can be sensed in a completely free state, "Yes" indicates the degree of adjacency that requires sensing while considering interference, and "Narrow" indicates that the distance to other members is small. At the end, it indicates the degree of adjacency that cannot be sensed.
【0038】図2のステップS5ではサブルーチンsu
b2を呼出し、設計CADデータ11に基づいて、何面
に接しているか?を自動的に判定する。これは部材端部
が幾つの面に接しているかで、センシング方法が変わっ
てくるからである。部材とリブ材では「2面」、箱材で
は「3面」となる。In step S5 of FIG.
b2 is called, and based on the design CAD data 11, what surface is in contact? Is automatically determined. This is because the sensing method changes depending on how many surfaces the end of the member contacts. The member and the rib material have "two faces", and the box material has "three faces".
【0039】図2のステップS6ではサブルーチンsu
b3を呼出し、設計CADデータ11に基づいて、溶接
姿勢について自動的に求める。図3の例では、水平隅
肉、下向開先、横向開先、立向隅肉、上向隅肉、上向開
先……などがある。In step S6 of FIG.
b3 is called, and the welding attitude is automatically obtained based on the design CAD data 11. In the example of FIG. 3, there are a horizontal fillet, a downward groove, a lateral groove, a vertical fillet, an upward fillet, an upward groove, and so on.
【0040】図2のステップS7ではサブルーチンsu
b4を呼出し、設計CADデータ11に基づいて、部材
端部の検出の有無、即ち部材端部を検出するか否かを自
動的に決定する。これは、部材の取付精度、加工精度、
製作精度などにより決定する。In step S7 of FIG.
b4 is called, and based on the design CAD data 11, the presence or absence of the detection of the member end, that is, whether or not the member end is detected is automatically determined. This is due to the mounting accuracy of members, processing accuracy,
Determined by manufacturing accuracy.
【0041】図2のステップS8ではサブルーチンsu
b5を呼出し、設計CADデータ11に基づいて、部材
面の倒れの検出の有無、即ち部材面の倒れを検出するか
否かを自動的に決定する。これも、上記部材端部の検出
の有無と同様に、部材の取付精度、加工精度、製作精度
などにより決定する。In step S8 of FIG.
b5 is called, and based on the design CAD data 11, the presence / absence of the detection of the inclination of the member surface, that is, whether or not the inclination of the member surface is detected is automatically determined. This is also determined based on the mounting accuracy of the member, the processing accuracy, the manufacturing accuracy, and the like, similarly to the detection of the end of the member.
【0042】図2のステップS9ではサブルーチンsu
b6を呼出し、設計CADデータ11に基づいて、部材
端部の倒れの検出の有無、即ち部材端部の倒れを検出す
るか否かを自動的に決定する。これも、上記部材面の倒
れの検出の有無と同様に、部材の取付精度、加工精度、
製作精度などにより決定する。In step S9 of FIG.
b6 is called, and based on the design CAD data 11, it is automatically determined whether or not the end of the member is detected, that is, whether or not the end of the member is detected. This is also the same as the presence / absence of detection of the member surface tilt, as well as the member mounting accuracy, processing accuracy,
Determined by manufacturing accuracy.
【0043】次に、図2のステップS10で、タッチセ
ンシングパターンコードを自動的に決定する。即ち、ス
テップS3〜S9で求めたキーデータの値を基に、図3
のタッチセンシングパターンコードデータベース17か
ら、キーデータに該当するタッチセンシングパターンコ
ード0〜10…を選択する。Next, in step S10 of FIG. 2, the touch sensing pattern code is automatically determined. That is, based on the values of the key data obtained in steps S3 to S9, FIG.
From the touch sensing pattern code database 17 corresponding to the key data are selected.
【0044】次に、図2のステップS11で、図3より
更に、選択したタッチセンシングパターンコードに該当
するタッチセンシング動作パターンを、タッチセンシン
グ動作パターンデータベースから選択する。Next, in step S11 of FIG. 2, a touch sensing operation pattern corresponding to the selected touch sensing pattern code is further selected from the touch sensing operation pattern database as compared with FIG.
【0045】タッチセンシングパターンコード0〜10
…に該当するタッチセンシング動作パターンの選択とし
て、本実施例では、タッチセンシングパターンテーブル
アドレスat0〜at10…と、センシングパターンテ
ーブルデータ数nt…(図4参照)との決定を行う。こ
こで、タッチセンシングパターンテーブルアドレスat
0〜at10…とは、タッチセンシングパターンコード
0〜10…に対応するタッチセンシング動作パターン
(例えば、図4のタッチセンシング動作パターン18)
がティーチングデータベース16中にテーブルとして格
納された位置(アドレス)を示すものである。タッチセ
ンシングパターンテーブルデータ数nt…は、そのテー
ブルでのタッチセンシング動作パターンの数である。図
4のタッチセンシング動作パターン18では、センシン
グパターンテーブルデータ数は4である。Touch sensing pattern codes 0 to 10
In this embodiment, as the selection of the touch sensing operation pattern corresponding to ..., the touch sensing pattern table addresses at0 to at10 ... and the number nt of the sensing pattern table data (see Fig. 4) are determined. Here, the touch sensing pattern table address at
0 to at10... Are the touch sensing operation patterns corresponding to the touch sensing pattern codes 0 to 10 (for example, the touch sensing operation pattern 18 in FIG. 4).
Indicates a position (address) stored as a table in the teaching database 16. The number nt of the touch sensing pattern table data is the number of touch sensing operation patterns in the table. In the touch sensing operation pattern 18 in FIG. 4, the number of sensing pattern table data is four.
【0046】次に、図2のステップS12で、センシン
グ動作の自動生成を行う。即ち、上記タッチセンシング
パターンテーブルアドレスat0〜at10…とタッチ
センシングパターンテーブルデータ数nt…を基に、図
4に例示するようなタッチセンシング動作パターン18
よりタッチセンシング動作のティーチングデータ12を
生成する。Next, in step S12 of FIG. 2, a sensing operation is automatically generated. That is, based on the touch sensing pattern table addresses at0 to at10... And the number of touch sensing pattern table data nt.
The teaching data 12 of the touch sensing operation is generated.
【0047】図3、図4の例では、各タッチセンシング
パターンコード0〜10…毎にタッチセンシング動作パ
ターン18を登録でき、溶接ロボットメーカに各種各様
があるタッチセンシングの動きに対応できるものとして
ある。In the examples of FIGS. 3 and 4, the touch sensing operation pattern 18 can be registered for each touch sensing pattern code 0 to 10... is there.
【0048】また、図4のタッチセンシング動作パター
ン18では、2面隅肉の水平溶接の1番単純なタッチセ
ンシング動作を示している。ここで、タッチセンシング
動作パターン18を説明すると、基準位置(L1,L
2,L3)、タッチセンシングのための前進位置(L
1,0,L3)、後退位置(L1,L2,L3)、タッ
チセンシングのための下降位置(L1,L2,0)、及
び、上昇位置(L1,L2,L3)を規定している。基
準位置、後退位置及び上昇位置は同じとしている。な
お、各位置は図5(a)(b)に示すように、溶接線上
の点Aを原点とするXYZ直交座標系で表している。The touch sensing operation pattern 18 shown in FIG. 4 shows the simplest touch sensing operation of horizontal welding of two fillets. Here, the touch sensing operation pattern 18 will be described.
2, L3), forward position (L
1, 0, L3), a retreat position (L1, L2, L3), a descending position (L1, L2, 0) for touch sensing, and an ascending position (L1, L2, L3). The reference position, the retreat position, and the ascending position are the same. As shown in FIGS. 5A and 5B, each position is represented by an XYZ orthogonal coordinate system having a point A on a welding line as an origin.
【0049】具体的には、図5(a)に示すように、ま
ず基準位置(L1,L2,L3)から、前側にY=
0まで溶接トーチ19の先端を移動して立っているリブ
部材20の面にタッチセンシングし、そこから基準位
置に戻り、下側にZ=0まで移動して部材21の面を
タッチセンシングし、基準位置に戻るという一連のタ
ッチセンシング動作を規定している。Specifically, as shown in FIG. 5A, first, from the reference position (L1, L2, L3), Y =
0, the tip of the welding torch 19 is moved to perform touch sensing on the surface of the standing rib member 20, and from there, return to the reference position, and move downward to Z = 0 to perform touch sensing on the surface of the member 21; A series of touch sensing operations of returning to the reference position are defined.
【0050】図4のタッチセンシング動作パターン18
では、この時の溶接トーチ先端の姿勢についても、ま
た、センシング速度についても指定が可能となってい
る。溶接トーチ先端の姿勢は極座標系の2つの角度α、
βで表している。The touch sensing operation pattern 18 shown in FIG.
In this case, the posture of the tip of the welding torch at this time and the sensing speed can be specified. The attitude of the welding torch tip is two angles α in the polar coordinate system,
It is represented by β.
【0051】上記タッチセンシング動作パターン18等
のデータベース及びタッチセンシングパターンコード0
〜10…のデータベース17により、各種の部材形状や
各溶接ロボットメーカのタッチセンシング動作を任意に
定義可能となる。The database of the touch sensing operation pattern 18 and the like and the touch sensing pattern code 0
The database 17 of 10 to 10 allows arbitrary definition of various member shapes and touch sensing operations of each welding robot maker.
【0052】以上により、タッチセンシングを組み込ん
だティーチングデータ12を部材の溶接線毎に(あるい
は、部材のユニット毎などに)自動生成することができ
る。As described above, the teaching data 12 incorporating the touch sensing can be automatically generated for each welding line of the member (or for each unit of the member).
【0053】従って、図2のステップS13のように溶
接線nを最後まで処理すれば、最終的に溶接ロボットの
ティーチングデータ12が指定の全部材を対象にオフラ
インで自動的に作成できることになる。Therefore, if the welding line n is processed to the end as in step S13 of FIG. 2, finally, the teaching data 12 of the welding robot can be automatically created offline for all designated members.
【0054】そして、このティーチングデータ12を、
通信回線を介してロボットの制御装置のメモリに転送し
て登録し、もしくは、フロッピーディスク等の外部記録
媒体に記録して事務所からロボットの制御装置に持って
いきメモリに登録し、このメモリに登録されたティーチ
ングデータ12で溶接を行う。Then, the teaching data 12 is
The data is transferred to and registered in the memory of the robot controller via a communication line, or recorded on an external recording medium such as a floppy disk, taken from the office to the robot controller, and registered in the memory. Welding is performed using the registered teaching data 12.
【0055】この時、ティーチングデータ12内にある
タッチセンシング動作で、実際に溶接ロボットが動いて
部材位置をタッチセンシングし、溶接ロボットの位置か
ら部材位置を想定して補正し、溶接線を補正シフトして
溶接を行う。At this time, in the touch sensing operation included in the teaching data 12, the welding robot actually moves and touch-senses the member position, and the position of the welding robot is corrected by assuming the member position, and the welding line is shifted. And perform welding.
【0056】あるいは、ティーチングデータ12を基
に、グラフィックディスプレー上で溶接ロボットの3次
元動作シミュレーション14を行い、干渉チェックリス
ト15を見てタッチセンシング動作及び溶接動作の適否
を確認する(図1参照)。Alternatively, a three-dimensional operation simulation 14 of the welding robot is performed on the graphic display based on the teaching data 12, and the appropriateness of the touch sensing operation and the welding operation is confirmed by referring to the interference check list 15 (see FIG. 1). .
【0057】図1中の3次元オフライン自動ティーチン
グシステム13はコンピュータ(CPU:中央処理装
置)と、本発明を実現するために必要なコンピュータプ
ログラム(ソフトウェア)とで構成してあり、コンピュ
ータプログラムは図2に示すような処理をコンピュータ
に実行させるため、コンピュータに読取可能な形のデー
タにして適宜な記録媒体に記録してある。The three-dimensional off-line automatic teaching system 13 in FIG. 1 comprises a computer (CPU: central processing unit) and a computer program (software) necessary for realizing the present invention. In order for the computer to execute the processing shown in FIG. 2, the data is recorded in an appropriate recording medium in the form of data readable by the computer.
【0058】以上、本発明の一実施例について説明した
が、本発明は上記実施例に限定されるものではなく、本
発明の技術的思想の範囲内において種々変更が可能であ
り、それらは何れも本発明の技術的範囲に属する。Although one embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made within the technical idea of the present invention. Also belong to the technical scope of the present invention.
【0059】例えば、ワイヤ接触式等のタッチセンシン
グに限らず、レーザ光を用いるもの、カメラを用いるも
の、あるいは、渦電流センサや静電容量センサ等の電気
を用いたセンサなどによる非接触センシングでの部材始
終端認識や、開先形状認識などにも、同様の手法にてオ
フライン自動ティーチング及びセンシング動作シミュレ
ーションが可能となる。For example, the present invention is not limited to touch sensing of a wire contact type or the like, but may be a non-contact sensing using a laser beam, a camera, or an electric sensor such as an eddy current sensor or a capacitance sensor. In the same way, the off-line automatic teaching and the sensing operation simulation can be performed for the recognition of the start and end of the member and the recognition of the groove shape.
【0060】また、溶接ロボットに限らず、塗装ロボッ
トなど各種ロボットのタッチセンシングあるいは非接触
式センシングについて、同様の手法にてオフライン自動
ティーチング及びセンシング動作シミュレーションが可
能である。For touch sensing or non-contact sensing of not only welding robots but also various robots such as painting robots, offline automatic teaching and sensing operation simulation can be performed by the same method.
【0061】[0061]
【発明の効果】本発明のセンシングパターンのオフライ
ン自動ティーチング方法によれば、各種の部材形状やロ
ボット毎に異なるタッチセンシングあるいは非接触式セ
ンシングを任意に定義可能であるから、オフラインティ
ーチングデータを自動で精度良く効率的に作成可能とな
る。また、センシング動作シミュレーションを加えるこ
とができ、センシング時の干渉チェックも可能となる。According to the sensing pattern offline automatic teaching method of the present invention, it is possible to arbitrarily define different touch sensing or non-contact type sensing for each of various member shapes and robots. It can be created with high accuracy and efficiency. In addition, a simulation of sensing operation can be added, and interference check at the time of sensing can be performed.
【図1】本発明の一実施例に係るシステム構成全体を説
明した図。FIG. 1 is a diagram illustrating an entire system configuration according to an embodiment of the present invention.
【図2】本発明の一実施例における処理フローの概要を
説明した図。FIG. 2 is a view for explaining an outline of a processing flow in one embodiment of the present invention.
【図3】本発明の一実施例におけるタッチセンシングパ
ターンコードデータベースのタッチセンシングパターン
コード例を説明した図。FIG. 3 is a diagram illustrating an example of a touch sensing pattern code in a touch sensing pattern code database according to an embodiment of the present invention.
【図4】本発明の一実施例におけるタッチセンシング動
作パターンデータベースのタッチセンシング動作パター
ン例を説明した図。FIG. 4 is a diagram illustrating an example of a touch sensing operation pattern in a touch sensing operation pattern database according to an embodiment of the present invention.
【図5】本発明の一実施例におけるタッチセンシング動
作の一例を示した図。FIG. 5 is a diagram showing an example of a touch sensing operation in one embodiment of the present invention.
0〜10 タッチセンシングパターンコード 11 設計CADデータ 12 ティーチングデータ 13 3次元オフライン自動ティーチングシステム 14 3次元動作シミュレーション 15 干渉チェックリスト 16 ティーチングデータベース 17 タッチセンシングパターンコードデータベース 18 タッチセンシング動作パターン 19 溶接トーチ 20 リブ部材 21 部材 A 溶接線上の点 at0〜at10 タッチセンシングパターンテーブル
アドレス nt タッチセンシングパターンテーブルデータ数0-10 Touch sensing pattern code 11 Design CAD data 12 Teaching data 13 3D offline automatic teaching system 14 3D operation simulation 15 Interference check list 16 Teaching database 17 Touch sensing pattern code database 18 Touch sensing operation pattern 19 Welding torch 20 Rib member 21 Member A Point on welding line at0 to at10 Touch sensing pattern table address nt Touch sensing pattern table data number
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI B23K 9/127 508 B23K 9/127 508A 509 509B B25J 9/22 B25J 9/22 A 19/02 19/02 G05B 19/42 G05B 23/02 301L 23/02 301 19/42 J ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification code FI B23K 9/127 508 B23K 9/127 508A 509 509B B25J 9/22 B25J 9/22 A 19/02 19/02 G05B 19/42 G05B 23/02 301L 23/02 301 19/42 J
Claims (5)
複数種類のセンシング動作パターンを定義するセンシン
グ動作パターンデータベースと、同データベース中の各
センシング動作パターンに対応する複数種類のセンシン
グパターンコードを部材の形状やロボットの制約条件な
どのキーにより定義するセンシングパターンコードデー
タベースとを用い、前記キーにより前記センシングパタ
ーンコードデータベースから特定のセンシングパターン
コードを選択し、同特定のセンシングパターンコードに
対応するセンシング動作パターンを前記センシング動作
パターンデータベースから選択し、選択したセンシング
動作パターンによりオフラインで自動的にティーチング
データを作成することを特徴とするセンシングパターン
のオフライン自動ティーチング方法。1. A sensing operation pattern database that defines a plurality of types of sensing operation patterns different for each member and a shape of a member, and a plurality of types of sensing pattern codes corresponding to each sensing operation pattern in the database. And a sensing pattern code database defined by a key such as a constraint condition of a robot, a specific sensing pattern code is selected from the sensing pattern code database by the key, and a sensing operation pattern corresponding to the specific sensing pattern code is selected. The teaching pattern is selected from the sensing operation pattern database, and the teaching data is automatically created offline according to the selected sensing operation pattern. Teaching method.
ることを特徴とする請求項1記載のセンシングパターン
のオフライン自動ティーチング方法。2. The method of claim 1, wherein the sensing is touch sensing.
サ、カメラを用いたセンサ、あるいは、渦電流センサや
静電容量センサなどの電気を用いたセンサなどによる非
接触式センシングであることを特徴とする請求項1記載
のセンシングパターンのオフライン自動ティーチング方
法。3. The sensor according to claim 1, wherein the sensing is a non-contact sensing using a sensor using a laser beam, a sensor using a camera, or a sensor using electricity such as an eddy current sensor or a capacitance sensor. 2. The method for automatically performing off-line teaching of a sensing pattern according to claim 1.
材始終端認識、開先形状認識等を行うセンシングである
ことを特徴とする請求項1または2または3記載のセン
シングパターンのオフライン自動ティーチング方法。4. The offline automatic teaching method of a sensing pattern according to claim 1, wherein the sensing is performed by a welding robot to recognize the start and end of a member, to recognize a groove shape, and the like.
ングパターンのオフライン自動ティーチング方法で作成
したティーチングデータを用い、ロボットのセンシング
動作をグラフィックディスプレー上でシミュレーション
することを特徴とするセンシング動作シミュレーション
方法。5. A sensing operation simulation method, wherein a sensing operation of a robot is simulated on a graphic display by using teaching data created by the offline automatic teaching method for sensing patterns according to claim 1. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01352497A JP3411770B2 (en) | 1997-01-28 | 1997-01-28 | Off-line automatic teaching method of sensing pattern and sensing operation simulation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01352497A JP3411770B2 (en) | 1997-01-28 | 1997-01-28 | Off-line automatic teaching method of sensing pattern and sensing operation simulation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10207524A true JPH10207524A (en) | 1998-08-07 |
JP3411770B2 JP3411770B2 (en) | 2003-06-03 |
Family
ID=11835552
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP01352497A Expired - Fee Related JP3411770B2 (en) | 1997-01-28 | 1997-01-28 | Off-line automatic teaching method of sensing pattern and sensing operation simulation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3411770B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002153784A (en) * | 2000-11-20 | 2002-05-28 | Hitachi Zosen Corp | NC data creation device for painting robot |
EP2826585A4 (en) * | 2012-03-16 | 2015-11-18 | Panasonic Ip Man Co Ltd | SOLDER LINE DETECTION METHOD AND INDUSTRIAL ROBOT |
CN109719714A (en) * | 2017-10-27 | 2019-05-07 | 发那科株式会社 | The Coordinate Setting method of robot, robot system and robot |
JPWO2020194448A1 (en) * | 2019-03-25 | 2020-10-01 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5517664B2 (en) * | 2010-02-17 | 2014-06-11 | 株式会社神戸製鋼所 | Sensing operation generation method, sensing operation generation device, and sensing operation generation program for work manipulator |
-
1997
- 1997-01-28 JP JP01352497A patent/JP3411770B2/en not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002153784A (en) * | 2000-11-20 | 2002-05-28 | Hitachi Zosen Corp | NC data creation device for painting robot |
EP2826585A4 (en) * | 2012-03-16 | 2015-11-18 | Panasonic Ip Man Co Ltd | SOLDER LINE DETECTION METHOD AND INDUSTRIAL ROBOT |
US10105784B2 (en) | 2012-03-16 | 2018-10-23 | Panasonic Intellectual Property Management Co., Ltd. | Weld line-detecting method and industrial robot |
CN109719714A (en) * | 2017-10-27 | 2019-05-07 | 发那科株式会社 | The Coordinate Setting method of robot, robot system and robot |
JP2019077016A (en) * | 2017-10-27 | 2019-05-23 | ファナック株式会社 | Robot, robot system, and method for setting robot coordinate system |
US10935968B2 (en) | 2017-10-27 | 2021-03-02 | Fanuc Corporation | Robot, robot system, and method for setting coordinate system of robot |
JPWO2020194448A1 (en) * | 2019-03-25 | 2020-10-01 |
Also Published As
Publication number | Publication date |
---|---|
JP3411770B2 (en) | 2003-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1092513B1 (en) | Graphic display apparatus for robot system | |
US9718189B2 (en) | Robot teaching device for teaching robot offline | |
KR100929445B1 (en) | Recording medium including robot simulation apparatus and robot simulation program | |
CN100475460C (en) | Robot offline teaching device | |
JP4168002B2 (en) | Offline programming device | |
US20160151913A1 (en) | Robot programming apparatus for teaching machining operation to robot | |
US10406688B2 (en) | Offline programming apparatus and method having workpiece position detection program generation function using contact sensor | |
EP0322464A1 (en) | Method of robot arrangement determination | |
JP7674464B2 (en) | Simulation device using 3D position information obtained from the output of a visual sensor | |
JPH0359441B2 (en) | ||
CN102161126B (en) | Sensing motion generating method, sensing motion generating device for operation manipulator | |
JP3327854B2 (en) | Teaching method and teaching device for welding robot | |
JP5495915B2 (en) | Sensing motion generation method and sensing motion generation device for work manipulator | |
JP7061013B2 (en) | Path correction method and control device for multi-axis machine | |
JP2020082285A (en) | Interference checking method for plural robots, and robot system | |
JP5291482B2 (en) | Robot teaching program correction device | |
JP3639873B2 (en) | Robot control method and robot control system | |
JPH10207524A (en) | Method for automatic off-line teaching of sensing pattern and method for simulating sensing operation | |
JP7622480B2 (en) | Safety verification device, safety verification method, and program | |
JP2004017245A (en) | Robot interference judgment method | |
KR102713016B1 (en) | Method and device for robot teaching | |
JP7701465B2 (en) | Work support device and work support method | |
JP2000112510A (en) | Robot teaching method and its device | |
JP3686958B2 (en) | Sensing path automatic creation method and automatic creation system | |
JP2025030938A (en) | ROBOT SYSTEM, ROBOT SYSTEM CONTROL METHOD, ARTICLE MANUFACTURING METHOD, PROGRAM, AND RECORDING MEDIUM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20030218 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080320 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090320 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100320 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |