[go: up one dir, main page]

JP2008221281A - Position detection system for automatic welding machine - Google Patents

Position detection system for automatic welding machine Download PDF

Info

Publication number
JP2008221281A
JP2008221281A JP2007063319A JP2007063319A JP2008221281A JP 2008221281 A JP2008221281 A JP 2008221281A JP 2007063319 A JP2007063319 A JP 2007063319A JP 2007063319 A JP2007063319 A JP 2007063319A JP 2008221281 A JP2008221281 A JP 2008221281A
Authority
JP
Japan
Prior art keywords
image analysis
image processing
data
image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007063319A
Other languages
Japanese (ja)
Inventor
Hidetomo Sakashita
英知 阪下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihen Corp
Original Assignee
Daihen Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihen Corp filed Critical Daihen Corp
Priority to JP2007063319A priority Critical patent/JP2008221281A/en
Publication of JP2008221281A publication Critical patent/JP2008221281A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a position detection system for an automatic welding machine, which, when applying a different image-processing parameter, enables confirmation of the result of image processing, which is displayed on a teach pendant, based on the measured distance data obtained by a search operation without performing another search operation thereafter. <P>SOLUTION: When receiving a command from a keyboard 41 of a teach pendant TP to conduct an image re-analysis, a robot controller RC conducts an image analysis of a weld joint according to the image processing parameter inputted by adjustment-input executed based on the measured distance data that are stored in the first storage area in a storage part set in the robot controller RC. The robot controller RC obtains, based on the image analysis, groove information including characteristic points relating to the groove shape of the weld joint, and a display 42 displays the image analysis data obtained according to the image processing parameter inputted by adjustment-input. <P>COPYRIGHT: (C)2008,JPO&amp;INPIT

Description

本発明は自動溶接機の位置検出システムに関するものである。   The present invention relates to a position detection system for an automatic welder.

自動溶接機の位置検出システムでは、マニピュレータ(ロボット)の溶接トーチに付設されたレーザ変位センサからレーザをワークに照射しながら、マニピュレータを動作させることによりワークの位置ずれを検出し、その位置ずれを溶接プログラムに反映している。   In the position detection system of an automatic welder, the position displacement of the workpiece is detected by operating the manipulator while irradiating the workpiece with the laser from the laser displacement sensor attached to the welding torch of the manipulator (robot). This is reflected in the welding program.

前記システムでは、前記位置ずれの検出のために、一方向サーチ機能を有している。この一方向サーチ機能は、図15に示すよう任意の一方向(サーチ方向)にレーザ変位センサLSを動作させて検出点P1を検出し、基準点P0と検出点P1のずれ(ずれ量)を算出して、ワークWの一方向のずれ量をずれ量補正ファイルFへ保存する機能である。なお、基準点P0は、ワークWが元位置に位置した場合にレーザ変位センサLSが検出する点である。そして、算出されたずれ量を溶接プログラムに反映することで実ワーク上を溶接できる。なお、図15中、アプローチ点APは、レーザ変位センサLSのレーザ光が投射開始するポイントを示している。   The system has a one-way search function for detecting the displacement. In this one-way search function, the detection point P1 is detected by operating the laser displacement sensor LS in any one direction (search direction) as shown in FIG. 15, and the deviation (deviation amount) between the reference point P0 and the detection point P1 is detected. This is a function of calculating and saving the deviation amount in one direction of the workpiece W in the deviation amount correction file F. The reference point P0 is a point detected by the laser displacement sensor LS when the workpiece W is located at the original position. Then, the actual workpiece can be welded by reflecting the calculated deviation amount in the welding program. In FIG. 15, an approach point AP indicates a point at which the laser beam from the laser displacement sensor LS starts to be projected.

一方向サーチ動作は、以下の手順で行われる。
図16(a)に示すように、ロボット制御装置RCでは、既ティーチングされた教示データであるプログラムによる再生動作で一方向サーチ命令の直前点に到達すると、レーザ変位センサ制御装置LUにレーザ照射指令を出力し、その後一方向サーチ命令を出力する。このレーザ照射指令に応じてレーザ変位センサ制御装置LUはレーザ変位センサLSをレーザON状態にするとともに、一方向サーチ命令の実行でレーザ変位センサLSは距離測定を開始する。又、同時にロボット制御装置RCの制御によりマニピュレータの溶接トーチとともにレーザ変位センサLSはサーチ目標点に向かって動作を開始する。そして、レーザ変位センサLSは、レーザ光を投射し得られた測距データをレーザ変位センサ制御装置LUに出力する。レーザ変位センサ制御装置LUは前記測距データに基づいて高さ検出を行い、この高さが決められた基準高さとなるまで計測を継続する。
The one-way search operation is performed according to the following procedure.
As shown in FIG. 16 (a), in the robot controller RC, when the point just before the one-way search command is reached by the reproduction operation by the program that is already taught teaching data, the laser irradiation command is sent to the laser displacement sensor controller LU. Is output, and then a one-way search command is output. In response to this laser irradiation command, the laser displacement sensor control device LU turns on the laser displacement sensor LS, and the laser displacement sensor LS starts distance measurement upon execution of the one-way search command. At the same time, under the control of the robot controller RC, the laser displacement sensor LS starts operation toward the search target point together with the welding torch of the manipulator. The laser displacement sensor LS outputs distance measurement data obtained by projecting the laser beam to the laser displacement sensor control device LU. The laser displacement sensor control device LU detects the height based on the distance measurement data, and continues the measurement until the height reaches the determined reference height.

図16(b)に示すように、レーザ変位センサLSがワークWを検出すると、すなわち前記高さ検出の結果が、基準高さとなると、レーザ変位センサ制御装置LUはレーザ変位センサLSのレーザを消灯させ、ロボット制御装置のタッチ検出入力をONする。ロボット制御装置RCはタッチ検出入力を受信するとマニピュレータを停止し、予め教示していた基準点とサーチ時に停止した点とのずれ量を計算し、ずれ量補正ファイルに格納する。このように、レーザ変位センサを使って単に物体へのタッチ検出入力をロボット制御装置に入力することでワークの位置ずれを検出できる。   As shown in FIG. 16B, when the laser displacement sensor LS detects the workpiece W, that is, when the height detection result is the reference height, the laser displacement sensor control device LU turns off the laser of the laser displacement sensor LS. To turn on the touch detection input of the robot controller. When the robot control device RC receives the touch detection input, the robot control device RC stops the manipulator, calculates the amount of deviation between the previously taught reference point and the point stopped during the search, and stores it in the deviation amount correction file. As described above, the position displacement of the workpiece can be detected by simply inputting the touch detection input to the object to the robot control device using the laser displacement sensor.

又、レーザ変位センサにより得られた前記測距データは、レーザ変位センサ制御装置LUのメモリに保存される。そして、レーザ変位センサ制御装置LUは予め設定入力された画像処理パラメータに基づいて前記測距データに対して画像処理を行って画像データを得、その画像データに対する特徴点や、必要な物理量を求めるようにしている。そして、その画像処理の結果は、ティーチペンダント(図示しない)のディスプレイで表示されるようにしている。   The distance measurement data obtained by the laser displacement sensor is stored in the memory of the laser displacement sensor controller LU. Then, the laser displacement sensor control device LU performs image processing on the distance measurement data based on image processing parameters set and input in advance to obtain image data, and obtains feature points and necessary physical quantities for the image data. I am doing so. The result of the image processing is displayed on a teach pendant (not shown) display.

なお、特許文献1には、レーザ溶接継手の開先断面検出にて得られた溶接継手の形状に応じて溶接トーチの狙い位置及び溶接条件を自動選択して溶接を行い、開先情報による検出がokか否かの判断手段が開示されている。特許文献2には、スキャナー式レーザセンサで計測されている画像データ又は画像解析結果をティーチペンダントに表示する視覚センサ付ロボット装置が開示されている。又、特許文献3には、視覚センサカメラが捉えた映像又はメモリに格納された画像を映し出す画像表示用モニタをティーチペンダントに取付けた画像処理装置が開示されている。又、特許文献4には、視覚センサカメラを用いたシステムであって、ティーチペンダントの代わりに設けられた画像処理装置教示操作盤がモニタディスプレイを有するとともにロボットの教示操作機能を有していることが開示されている。
特開2001−334366号公報 特開平09−183087号公報 特開平5−66825号公報 特開2001−135689号公報
In Patent Document 1, welding is performed by automatically selecting the target position and welding conditions of the welding torch according to the shape of the welded joint obtained by detecting the groove cross-section of the laser welded joint, and detection based on the groove information. A means for determining whether or not is OK is disclosed. Patent Document 2 discloses a robot device with a visual sensor that displays image data or image analysis results measured by a scanner type laser sensor on a teach pendant. Patent Document 3 discloses an image processing apparatus in which an image display monitor for displaying an image captured by a visual sensor camera or an image stored in a memory is attached to a teach pendant. Patent Document 4 discloses a system using a visual sensor camera, in which an image processing apparatus teaching operation panel provided in place of a teach pendant has a monitor display and a robot teaching operation function. Is disclosed.
JP 2001-334366 A Japanese Patent Laid-Open No. 09-183087 Japanese Patent Laid-Open No. 5-66825 JP 2001-135589 A

上記のように、レーザ変位センサにより得られた測距データは、画像処理パラメータに基づいて画像処理が行われ、その画像処理の結果は、ティーチペンダント(図示しない)のディスプレイで表示するようにしている。しかし、ワークの開先形状、光沢、加工精度により適切な画像処理パラメータは異なる。   As described above, the distance measurement data obtained by the laser displacement sensor is subjected to image processing based on image processing parameters, and the result of the image processing is displayed on the display of a teach pendant (not shown). Yes. However, appropriate image processing parameters vary depending on the groove shape, gloss, and processing accuracy of the workpiece.

このため、システムの導入当初や、開先ないし表面状態の異なるワークに対して新しく教示を行う際には、画像処理パラメータを適宜変更した上でサーチ動作を行い、ティーチペンダントのディスプレイ上で画像解析結果を確認する作業を繰り返して、最適な画像処理パラーメータを探索する作業がしばしば発生する。この探索作業ではサーチ開始位置に毎回ロボットを作動させて、サーチ動作を繰り返す必要がある。このため、この探索作業の間は、ロボットを動作させる時間に加え、複数の作業者がいる場合には、他の者がワーク周辺での作業ができない問題があった。この結果、システム導入や新規教示にかかる時間が増大する問題があった。又、画像データに対する特徴点を正しく認識できなかった場合に再調整を行うことになるが、この場合にも、調整のためにロボットをサーチ動作させる必要があった。   For this reason, at the beginning of the system introduction or when a new teaching is performed on a workpiece with a different groove or surface condition, a search operation is performed after appropriately changing the image processing parameters, and image analysis is performed on the teach pendant display. There is often an operation of searching for an optimum image processing parameter by repeating the operation of confirming the result. In this search operation, it is necessary to operate the robot at the search start position every time and repeat the search operation. For this reason, during this search work, in addition to the time for operating the robot, when there are a plurality of workers, there is a problem that other people cannot work around the workpiece. As a result, there is a problem that the time required for system introduction and new teaching increases. In addition, readjustment is performed when the feature points for the image data cannot be correctly recognized. In this case also, it is necessary to search the robot for adjustment.

なお、特許文献1乃至特許文献4には、画像処理パラメータのチェックをどのように行い、或いは画像処理パラメータの設定をティーチペンダントから行うことは記載されていない。   Note that Patent Documents 1 to 4 do not describe how to check image processing parameters or perform setting of image processing parameters from a teach pendant.

本発明の目的は、サーチ動作により得られた測距データを元に、以後サーチ動作を行うことなく、異なる画像処理パラメータを適用した際の画像解析結果をティーチペンダント上で確認できる自動溶接機の位置検出システムを提供することにある。   An object of the present invention is an automatic welding machine that can confirm on a teach pendant image analysis results when different image processing parameters are applied without performing a search operation on the basis of distance measurement data obtained by a search operation. It is to provide a position detection system.

上記問題点を解決するために、請求項1に記載の発明は、溶接継手に対しレーザ光を投射して、測距データを取得するレーザ変位センサと、前記レーザ変位センサを溶接トーチとともに溶接線を横断する方向にサーチ動作させるマニピュレータと、前記測距データを記憶する第1記憶手段と、前記測距データに基づき画像処理パラメータに従って前記溶接継手の画像解析を行い、同画像解析に基づき前記溶接継手の開先形状に関する特徴点を含む開先情報を取得する開先情報取得手段を備えた自動溶接機の位置検出システムにおいて、前記開先情報、及び画像解析された後の加工測距データ(以後、開先情報、及び画像解析された後の加工測距データを画像解析データという)を記憶する第2記憶手段と、前記画像解析データを表示する表示部、前記画像処理パラメータを調整入力するパラメータ入力部、及び調整入力された画像処理パラメータに従って再画像解析を行う指示を入力する再画像解析指示入力部を備えた可搬式操作手段とを備え、前記再画像解析指示入力部から再画像解析を行う指示があった際、前記開先情報取得手段は第1記憶手段の測距データに基づき前記調整入力された画像処理パラメータに従って前記溶接継手の画像解析を行って新たな画像解析データを作成し、前記表示部は、前記新たな画像解析データを表示することを特徴とする自動溶接機の位置検出システムを要旨とするものである。   In order to solve the above problems, the invention according to claim 1 is directed to a laser displacement sensor that projects laser light onto a welded joint to acquire distance measurement data, and the laser displacement sensor is welded together with a welding torch. A manipulator that performs a search operation in a direction that crosses the distance, first storage means that stores the distance measurement data, and image analysis of the weld joint according to image processing parameters based on the distance measurement data, and the welding based on the image analysis In a position detection system of an automatic welding machine provided with groove information acquisition means for acquiring groove information including a feature point related to a groove shape of a joint, the groove information and processed distance measurement data after image analysis ( Hereinafter, second storage means for storing groove information and processed distance measurement data after image analysis is referred to as image analysis data), and display for displaying the image analysis data A portable operation means including a parameter input unit for adjusting and inputting the image processing parameter, and a re-image analysis instruction input unit for inputting an instruction for performing re-image analysis in accordance with the adjusted and input image processing parameter. When there is an instruction to perform re-image analysis from the image analysis instruction input unit, the groove information acquisition unit performs image analysis of the weld joint according to the image processing parameter that has been adjusted and input based on the distance measurement data of the first storage unit. The gist of the position detection system of the automatic welding machine is to create new image analysis data, and the display unit displays the new image analysis data.

請求項2の発明は、請求項1において、前記可搬式操作手段には、前記パラメータ入力部にて調整入力された画像処理パラメータを記憶する第3記憶手段を備えることを特徴とする。   According to a second aspect of the present invention, in the first aspect, the portable operation unit includes a third storage unit that stores the image processing parameter adjusted and input by the parameter input unit.

請求項3の発明は、請求項1又は請求項2において、前記第2記憶手段は、画像処理パラメータ調整入力前(以下、画像処理パラメータ調整前という)の画像解析データを記憶する記憶領域と、画像処理パラメータ調整入力後(以下、画像処理パラメータ調整後という)の画像解析データを記憶する記憶領域を備えることを特徴とする。   The invention of claim 3 is the storage area for storing image analysis data before input of image processing parameter adjustment (hereinafter referred to as before image processing parameter adjustment). A storage area for storing image analysis data after image processing parameter adjustment input (hereinafter referred to as image processing parameter adjustment) is provided.

請求項4の発明は、請求項1又は請求項2において、前記第2記憶手段は、画像処理パラメータ調整前と調整後の画像解析データをそれぞれファイル化して記憶することを特徴とする。   According to a fourth aspect of the present invention, in the first or second aspect, the second storage unit stores the image analysis data before and after adjustment of the image processing parameters as files.

請求項5は、請求項4において、前記第2記憶手段は、互いに異なる画像処理パラメータで画像解析されて得られた画像解析データをファイル化する毎に、作成したファイルのファイル名に互いに異なる識別符号を付与することを特徴とする。   A fifth aspect of the present invention provides the method according to the fourth aspect, wherein the second storage unit identifies the file name of the created file differently each time the image analysis data obtained by performing image analysis with different image processing parameters is filed. It is characterized by giving a code.

請求項6の発明は、請求項4において、前記可搬式操作手段には、第1記憶手段に記憶した測距データ、第2記憶手段に記憶した画像処理パラメータ調整前の画像解析データ、又は画像処理パラメータ調整後の画像解析データのうち、いずれか1つのデータを選択して表示部に切換え表示する表示切換手段を備えることを特徴とする。   According to a sixth aspect of the present invention, in the fourth aspect, the portable operation means includes distance measurement data stored in the first storage means, image analysis data before image processing parameter adjustment stored in the second storage means, or an image Display switching means is provided for selecting any one of the image analysis data after adjusting the processing parameters and switching and displaying the selected data on the display unit.

請求項7の発明は、請求項4において、前記表示部は、第1記憶手段に記憶した測距データ、第2記憶手段に記憶した画像処理パラメータ調整前の画像解析データ、及び画像処理パラメータ調整後の画像解析データのうち、1つのデータを表示する表示モードと、少なくとも2つのデータを同時に表示する表示モードを有し、前記可搬式操作手段には、前記表示モードを選択する表示モード選択入力手段が設けられ、前記表示モード選択入力手段による表示モードの選択入力に応じて前記表示部がいずれかの表示モードを実行することを特徴とする。   According to a seventh aspect of the present invention, the display unit according to the fourth aspect of the present invention includes the distance measurement data stored in the first storage unit, the image analysis data before image processing parameter adjustment stored in the second storage unit, and the image processing parameter adjustment. Of the subsequent image analysis data, there is a display mode for displaying one data and a display mode for simultaneously displaying at least two data. The portable operation means has a display mode selection input for selecting the display mode. Means is provided, and the display unit executes one of the display modes in response to a display mode selection input by the display mode selection input means.

以上詳述したように、請求項1の発明によれば、サーチ動作により得られた測距データを元に、以後サーチ動作を行うことなく、異なる画像処理パラメータを適用した際の画像解析結果をティーチペンダント上で確認できる自動溶接機の位置検出システムを提供することができる。この結果、システム導入ないし新規教示における画像処理の調整時間を短縮できる効果がある。   As described above in detail, according to the first aspect of the present invention, based on the distance measurement data obtained by the search operation, the image analysis results when different image processing parameters are applied without performing the search operation thereafter. An automatic welding machine position detection system that can be confirmed on a teach pendant can be provided. As a result, there is an effect that the adjustment time of image processing in system introduction or new teaching can be shortened.

請求項2の発明によれば、第3記憶手段を備えることにより、パラメータ入力部にて調整入力された画像処理パラメータを記憶でき、この記憶された画像処理パラメータにより、開先情報の再取得を行うことができる。   According to the invention of claim 2, by providing the third storage means, it is possible to store the image processing parameter adjusted and input by the parameter input unit, and to re-acquire groove information by the stored image processing parameter. It can be carried out.

請求項3の発明によれば、画像処理パラメータ調整前の画像解析データと、調整後の画像解析データを記憶する記憶領域をそれぞれ有する。この結果、それぞれの画像処理パラメータに従って得られた画像解析データを表示部に表示することができる。   According to the third aspect of the present invention, the image processing apparatus has storage areas for storing image analysis data before adjustment of image processing parameters and image analysis data after adjustment. As a result, the image analysis data obtained according to each image processing parameter can be displayed on the display unit.

請求項4の発明によれば、画像処理パラメータ調整前と、画像処理パラメータ調整後のそれぞれの画像処理パラメータに従って得られた画像解析データを表示部に表示することができる。   According to the fourth aspect of the present invention, the image analysis data obtained according to the respective image processing parameters before and after the image processing parameter adjustment can be displayed on the display unit.

請求項5の発明によれば、1プログラムである教示データ内に複数のサーチ動作がある場合には、その再生動作が行われ、測距データが第1記憶手段に格納されるとともに、画像処理パラメータに従って画像解析された画像解析データが第2記憶手段に記憶される。このとき、開先形状が異なることにより、異なる画像処理パラメータで画像解析されて得られた画像解析データはファイル化される毎に、各ファイルに対して互いに異なる識別符号が付与されたファイル名が作成される。   According to the invention of claim 5, when there are a plurality of search operations in the teaching data which is one program, the reproduction operation is performed, and the distance measurement data is stored in the first storage means and the image processing is performed. Image analysis data image-analyzed according to the parameters is stored in the second storage means. At this time, because the groove shape is different, each time the image analysis data obtained by image analysis with different image processing parameters is filed, the file names to which different identification codes are assigned to each file Created.

この後、異なる画像処理パラメータに従って得られた画像解析データに対し、可搬式操作手段の再画像解析指示入力部にて画像処理パラメータが調整入力されると、ファイル単位毎に調整入力された、画像処理パラメータに従って溶接継手の画像解析を行うことができる。   Thereafter, when the image processing parameters are adjusted and input to the image analysis data obtained according to the different image processing parameters in the re-image analysis instruction input unit of the portable operation means, Image analysis of the welded joint can be performed according to the processing parameters.

請求項6の発明によれば、表示切換手段により、第1記憶手段に記憶した測距データ、第2記憶手段に記憶した画像処理パラメータ調整前の画像解析データ、又は画像処理パラメータ調整後の画像解析データのうち、いずれか1つのデータを選択して表示部に切換え表示することができる。この結果、画像処理パラメータの有無や或いは調整の変更の効果を確認することができる。   According to the invention of claim 6, by the display switching means, the distance measurement data stored in the first storage means, the image analysis data before image processing parameter adjustment stored in the second storage means, or the image after image processing parameter adjustment Any one of the analysis data can be selected and displayed on the display unit. As a result, the presence or absence of image processing parameters or the effect of changing the adjustment can be confirmed.

請求項7の発明によれば、測距データ、画像処理パラメータ調整前後の画像解析データのうち、1つのデータを表示する表示モードと、少なくとも2つのデータを同時に表示する表示モードを有することにより、画像処理パラメータの有無、及び調整有無の効果を確認することができる。   According to the invention of claim 7, by having a display mode for displaying one data among the distance measurement data and the image analysis data before and after the image processing parameter adjustment, and a display mode for simultaneously displaying at least two data, The presence / absence of image processing parameters and the effect of presence / absence of adjustment can be confirmed.

以下、本発明に係る自動溶接機の位置検出システムを溶接ロボットの制御装置10に適用した一実施形態を図1〜13を参照して説明する。
図1は溶接ロボットの制御装置10の構成を示すブロック図である。溶接ロボットの制御装置10は、ワーク(作業対象物)Wに対してアーク溶接を自動で行うように制御するものである。溶接ロボットの制御装置10は、溶接作業を行うマニピュレータMと、マニピュレータMを制御するロボット制御装置RCと、ワークWの形状を検出するセンサとしてのレーザ変位センサLSとを備える。
Hereinafter, an embodiment in which a position detection system for an automatic welding machine according to the present invention is applied to a control device 10 for a welding robot will be described with reference to FIGS.
FIG. 1 is a block diagram illustrating a configuration of a control apparatus 10 for a welding robot. The control device 10 of the welding robot controls the workpiece (work object) W so as to automatically perform arc welding. The welding robot control device 10 includes a manipulator M that performs a welding operation, a robot control device RC that controls the manipulator M, and a laser displacement sensor LS as a sensor that detects the shape of the workpiece W.

又、ロボット制御装置RCには、可搬式操作部としてのティーチペンダントTPが接続されている。ティーチペンダントTPにはテンキーや各種のキーからなるキーボード41及び液晶表示装置等からなるディスプレイ42が設けられている。前記キーボード41により各種の教示データがロボット制御装置RCに入力される。本実施形態のティーチペンダントTPは可搬式操作手段に相当する。本実施形態のキーボード41は、パラメータ入力部、再画像解析指示入力部、表示切換手段に相当する。又、ディスプレイ42は表示部に相当する。   In addition, a teach pendant TP as a portable operation unit is connected to the robot controller RC. The teach pendant TP is provided with a keyboard 41 including a numeric keypad and various keys, and a display 42 including a liquid crystal display device. Various teaching data are input to the robot controller RC by the keyboard 41. The teach pendant TP of this embodiment corresponds to a portable operation means. The keyboard 41 of this embodiment corresponds to a parameter input unit, a re-image analysis instruction input unit, and a display switching unit. The display 42 corresponds to a display unit.

マニピュレータMは、フロア等に固定されるベース部材12と、複数の軸を介して連結された複数のアーム13とを備える。最も先端側に位置するアーム13の先端部には、作業ツールとしての溶接トーチ14が設けられる。溶接トーチ14は、溶加材としてのワイヤ15を内装し、図示しない送給装置によって送り出されたワイヤ15の先端とワークWとの間にアークを発生させ、その熱でワイヤ15を溶着させることによりワークWに対して溶接を施す。アーム13間には複数のモータ(図示しない)が配設されており、モータの駆動によって溶接トーチ14を前後左右に自在に移動できるように構成されている。なお、前後とは、溶接トーチ14が溶接線に沿って進行する方向を前とし、その180度反対方向を後ろとする。又、左右とは進行する方向を人が向いたときを基準として、左右という。   The manipulator M includes a base member 12 fixed to a floor or the like, and a plurality of arms 13 connected via a plurality of shafts. A welding torch 14 as a work tool is provided at the distal end portion of the arm 13 located on the most distal side. The welding torch 14 includes a wire 15 as a filler material, generates an arc between the tip of the wire 15 fed by a feeding device (not shown) and the workpiece W, and welds the wire 15 with the heat. To weld the workpiece W. A plurality of motors (not shown) are disposed between the arms 13, and the welding torch 14 can be freely moved back and forth and left and right by driving the motors. Note that front and rear refers to the direction in which the welding torch 14 travels along the weld line as the front, and the opposite direction 180 degrees as the rear. Left and right are referred to as left and right with reference to the direction in which the person travels.

ロボット制御装置RCは、図3に示すようにコンピュータからなる。すなわち、ロボット制御装置RCはCPU(中央処理装置)20や、マニピュレータMを制御するための各種プログラムや、各種の開先形状に応じて用意された複数の画像解析プログラムを記憶する書換可能なEEPROM21や、作業メモリとなるRAM22や、各種データを記憶する書換可能な不揮発性メモリからなる記憶部23を備える。本実施形態では、CPU20は、画像解析手段、開先情報取得手段に相当する。   The robot controller RC is composed of a computer as shown in FIG. That is, the robot controller RC is a rewritable EEPROM 21 that stores a CPU (Central Processing Unit) 20, various programs for controlling the manipulator M, and a plurality of image analysis programs prepared according to various groove shapes. And a RAM 22 serving as a working memory, and a storage unit 23 including a rewritable nonvolatile memory for storing various data. In the present embodiment, the CPU 20 corresponds to an image analysis unit and a groove information acquisition unit.

記憶部23は、第1記憶領域23a、第2記憶領域23b、第3記憶領域23c、及び第4記憶領域23dを有する。
第1記憶領域23aはレーザ変位センサLSにて測定されて得られた測距データを記憶するための領域であり、本発明の第1記憶手段に相当する。
The storage unit 23 includes a first storage area 23a, a second storage area 23b, a third storage area 23c, and a fourth storage area 23d.
The first storage area 23a is an area for storing distance measurement data obtained by measurement with the laser displacement sensor LS, and corresponds to the first storage means of the present invention.

第2記憶領域23bは、画像処理パラメータ(後述する)調整前の開先情報及び画像解析された後の加工測距データ(以後、開先情報及び、画像解析された後の加工測距データを画像解析データという)を記憶する領域Paと、画像処理パラメータ調整後の画像解析データを記憶する領域Pbからなる。第2記憶領域23bは第2記憶手段に相当する。   The second storage area 23b stores groove information before adjustment of image processing parameters (to be described later) and processed distance data after image analysis (hereinafter referred to as groove information and processed distance data after image analysis). Area Pa for storing image analysis data) and area Pb for storing image analysis data after image processing parameter adjustment. The second storage area 23b corresponds to second storage means.

第3記憶領域23cは、キーボード41にて調整前に入力された画像処理パラメータを記憶する領域Qaと、キーボード41にて調整入力された画像処理パラメータを記憶する領域Qbを有する。第3記憶領域23cは第3記憶手段に相当する。   The third storage area 23c has an area Qa for storing image processing parameters input before adjustment with the keyboard 41 and an area Qb for storing image processing parameters input with the keyboard 41. The third storage area 23c corresponds to third storage means.

第4記憶領域23dは、基準点を取得するための一方向サーチが行われた後に実行される一方向サーチにおいて、開先形状の特徴点等を得るための画像解析データを記憶するための領域である。   The fourth storage area 23d is an area for storing image analysis data for obtaining feature points and the like of a groove shape in a one-way search performed after a one-way search for acquiring a reference point is performed. It is.

又、記憶部23には、図示はしないが、前記キーボード41により入力された教示データを記憶する教示データ記憶領域も備えている。
ロボット制御装置RCは、前記モータを駆動制御することにより、予め設定された教示データの主軌道に沿って溶接トーチ14を動作させる。又、ロボット制御装置RCは、溶接電流及び溶接電圧といった溶接条件を溶接電源WPSに対して出力し、溶接電源WPSからパワーケーブルPKを通じて供給される電力によって溶接作業を行わせる。
The storage unit 23 also includes a teaching data storage area that stores teaching data input from the keyboard 41, although not shown.
The robot controller RC controls the motor to drive the welding torch 14 along the main track of preset teaching data. Further, the robot controller RC outputs welding conditions such as a welding current and a welding voltage to the welding power source WPS, and causes the welding operation to be performed by electric power supplied from the welding power source WPS through the power cable PK.

レーザ変位センサLSは、レーザの発光及び受光によりワークWまでの距離を測定する走査型のレーザ変位センサであり、溶接トーチ14に搭載される。レーザ変位センサLSは、レーザをワークWに向けて発光する発光部と、ワークWで反射したレーザを受光する受光部等(ともに図示しない)を備える。前記発光部で発光されたレーザは、ワークWで乱反射され、受光部で受光される。受光部は、例えばCCDラインセンサにより構成されており、受光量分布の重心位置からワークWまでの距離を測定するようにされている。   The laser displacement sensor LS is a scanning type laser displacement sensor that measures the distance to the workpiece W by light emission and light reception of a laser, and is mounted on the welding torch 14. The laser displacement sensor LS includes a light emitting unit that emits light toward the workpiece W, a light receiving unit that receives the laser reflected by the workpiece W, and the like (both not shown). The laser emitted from the light emitting unit is irregularly reflected by the workpiece W and received by the light receiving unit. The light receiving unit is constituted by a CCD line sensor, for example, and measures the distance from the center of gravity of the received light amount distribution to the workpiece W.

又、ロボット制御装置RCは、レーザ変位センサLSを駆動制御し、測定される距離情報からワークWの開先形状を検出する。
次に、ロボットの制御装置10における開先情報取得機能のための一方向サーチの手順を図10、図11(a)、(b)を参照して説明する。
The robot controller RC controls the laser displacement sensor LS and detects the groove shape of the workpiece W from the measured distance information.
Next, the one-way search procedure for the groove information acquisition function in the robot controller 10 will be described with reference to FIGS. 10, 11A, and 11B.

なお、上記機能を実現するために、前提条件として、前記レーザ変位センサLSのレーザ照射方向がツール座標系のいずれかの軸と平行となるようにセンサヘッドLSaが取り付けされ、図2(a)にはツールである溶接トーチ14が示されており、ツール座標系は図2(a)のように表わされる。そして、本実施形態では、図2(b)に示すように溶接トーチ14に対して、レーザ変位センサLSのセンサヘッドLSaはレーザ照射方向がZ−方向となるように取付けされている。   In order to realize the above function, as a precondition, the sensor head LSa is attached so that the laser irradiation direction of the laser displacement sensor LS is parallel to any axis of the tool coordinate system, and FIG. 1 shows a welding torch 14 as a tool, and the tool coordinate system is represented as shown in FIG. In this embodiment, as shown in FIG. 2B, the sensor head LSa of the laser displacement sensor LS is attached to the welding torch 14 so that the laser irradiation direction is the Z-direction.

又、ロボット制御装置RCには、溶接作業が行われる前に、溶接が行われる際のマニピュレータMの動作及び溶接条件等を示す教示データがティーチペンダントTPを介して入力され記憶部23の図示しない教示データ記憶領域に記憶されている。   In addition, before the welding operation is performed, teaching data indicating the operation of the manipulator M, welding conditions, and the like when welding is performed is input to the robot controller RC via the teach pendant TP, and the storage unit 23 is not illustrated. It is stored in the teaching data storage area.

(1) まず、ロボット制御装置RCは前記教示データに従ってマニピュレータMを再生動作させて、レーザ変位センサLSを図4に示すように一方向にサーチ動作を行い、予め基準点を、ファイル名を付与してファイル化して記憶部23の第2記憶領域23bの領域Paに記憶する。この基準点の取得の仕方については説明の便宜上後述する。   (1) First, the robot controller RC performs a reproduction operation of the manipulator M according to the teaching data, performs a search operation for the laser displacement sensor LS in one direction as shown in FIG. Then, it is filed and stored in the area Pa of the second storage area 23b of the storage unit 23. The method of acquiring this reference point will be described later for convenience of explanation.

(2) 次に、ロボット制御装置RCは、マニピュレータMをリターンさせた後、教示データに従って再生動作(すなわち、一方向にサーチ動作)させ、開先情報取得命令の直前点にレーザ変位センサLSが到達すると、図10に示すようにレーザ変位センサLSにレーザ照射指令を出力する。同時に、ロボット制御装置RCは予めティーチペンダントTPにて入力されていた画像解析のため検出パターン番号、該検出パターン番号に対応するとともに予めティーチペンダントTPにて入力された検出パラメータ及びデータサンプリング周期を加味してEEPROM21に記憶している画像解析プログラムを実行する。   (2) Next, after returning the manipulator M, the robot controller RC performs a reproduction operation (that is, a search operation in one direction) according to the teaching data, and the laser displacement sensor LS is positioned immediately before the groove information acquisition command. When it reaches, a laser irradiation command is output to the laser displacement sensor LS as shown in FIG. At the same time, the robot controller RC takes into account the detection pattern number for the image analysis that has been input in advance by the teach pendant TP, the detection parameter corresponding to the detection pattern number and the data sampling cycle that has been input in advance by the teach pendant TP. Then, the image analysis program stored in the EEPROM 21 is executed.

ここで、検出パラメータとは、ロボット制御装置RCで画像解析時に使用される数値の集合である。検出パラメータは、検出パターン番号に対応して複数個有するものであり、検出パターン番号により検出パラメータの意味が変化する。   Here, the detection parameter is a set of numerical values used at the time of image analysis by the robot controller RC. There are a plurality of detection parameters corresponding to the detection pattern number, and the meaning of the detection parameter changes depending on the detection pattern number.

なお、検出パラメータの例については後述する。
なお、ロボット制御装置RCはレーザ変位センサLSにレーザ照射指令を出力した時点での、マニピュレータMの位置をロボット座標系のサーチ開始点座標(すなわち、測距データ)として記憶部23の第1記憶領域23aに記憶する。
Examples of detection parameters will be described later.
Note that the robot controller RC uses the position of the manipulator M at the time when the laser irradiation command is output to the laser displacement sensor LS as the search start point coordinates (that is, distance measurement data) of the robot coordinate system in the first memory of the storage unit 23. Store in area 23a.

(3) この後、前記レーザ照射指令に応じてレーザ変位センサLSは距離測定(すなわち、測距データの取得)を開始し、同時にマニピュレータMの溶接トーチ14はサーチ終了点に向かって動作を開始する。そして、レーザ光を投射し得られた測距データがレーザ変位センサLSからロボット制御装置RCに入力される。   (3) Thereafter, in response to the laser irradiation command, the laser displacement sensor LS starts distance measurement (that is, acquisition of distance measurement data), and at the same time, the welding torch 14 of the manipulator M starts operation toward the search end point. To do. Then, distance measurement data obtained by projecting the laser light is input from the laser displacement sensor LS to the robot controller RC.

ロボット制御装置RCでは、レーザ照射中、前記データサンプリング周期で定めた周期でレーザ変位センサLSから受信した測距データ(すなわち、距離データ)を、記憶部23の第1記憶領域23aに保存していく(図11(a)参照)。   In the robot controller RC, during laser irradiation, distance measurement data (that is, distance data) received from the laser displacement sensor LS at a period determined by the data sampling period is stored in the first storage area 23a of the storage unit 23. (See FIG. 11 (a)).

(4) マニピュレータMがサーチ終了点に到達すると、ロボット制御装置RCはレーザ消灯指令をレーザ変位センサLSに送信する(図11(b)参照)。その指令を受けてレーザ変位センサLSは消灯する。このとき、ロボット制御装置RCは、レーザ変位センサLSにレーザ消灯指令を出力した時点での、マニピュレータMの位置をロボット座標系のサーチ終了点(すなわち、測距データ)として、記憶部23の第1記憶領域23aに記憶する。   (4) When the manipulator M reaches the search end point, the robot controller RC transmits a laser extinguishing command to the laser displacement sensor LS (see FIG. 11B). In response to the command, the laser displacement sensor LS is turned off. At this time, the robot controller RC uses the position of the manipulator M at the time when a laser extinguishing command is output to the laser displacement sensor LS as the search end point of the robot coordinate system (that is, distance measurement data). Store in one storage area 23a.

(5) サーチ動作終了後、ロボット制御装置RCは時系列で得られた測距データに対して画像処理を行う。この画像処理が行われているデータを以下、画像データという。そして、メモリ上の該画像データに対する特徴点を求める。又、ロボット制御装置RCは開先に応じてギャップ量や開先角度といった物理量を求める。なお、特徴点、及び物理量の求め方についての詳細な説明は例を挙げて後述する。   (5) After the search operation is completed, the robot controller RC performs image processing on the distance measurement data obtained in time series. The data on which this image processing is performed is hereinafter referred to as image data. Then, a feature point for the image data on the memory is obtained. Also, the robot controller RC obtains physical quantities such as a gap amount and a groove angle according to the groove. A detailed description of how to obtain the feature points and physical quantities will be described later with examples.

(特徴点と物理量)
ここで、開先情報である特徴点と物理量を溶接継手としてのV字継手、重ね継手及び円弧位置を例にして説明する。
(Feature points and physical quantities)
Here, the feature points and physical quantities as groove information will be described by taking V-shaped joints, lap joints, and arc positions as weld joints as examples.

(V字継手)
V字継手の場合、図5に示すように、左右の溶接母材(ワークW)の開先において、両溶接部材上面の延長平面Eに位置する開先の中点Pを特徴点としている。V字継手の場合、ギャップ量、開先深さ、開先角度θ1、開先角度θ2を物理量としている。ギャップ量Gは図5に示すように開先の左右の溶接母材の互いに離間した端の縁部の距離(左右の溶接母材の開先端間距離)である。開先深さHは、開先溝の深さである。開先角度θ1は、一方の溶接母材の開先側の角度であり、開先角度θ2は他方の溶接母材の開先側の角度である。
(V-shaped joint)
In the case of the V-shaped joint, as shown in FIG. 5, in the groove of the left and right welding base materials (work W), the middle point P of the groove located on the extended plane E on the upper surfaces of both welding members is a characteristic point. In the case of the V-shaped joint, the gap amount, groove depth, groove angle θ1, and groove angle θ2 are physical quantities. As shown in FIG. 5, the gap amount G is the distance between the edge portions of the left and right weld base materials of the groove that are spaced apart from each other (the distance between the open tips of the left and right weld base materials). The groove depth H is the depth of the groove. The groove angle θ1 is an angle on the groove side of one welding base material, and the groove angle θ2 is an angle on the groove side of the other welding base material.

(重ね継手)
重ね継手の場合、図6に示すように、上板Uの端角(上板角という)のポイントを特徴点としている。又、上板Uと下板Sの離間距離を物理量であるギャップ量としている。なお、重ね継手のギャップ量は、レーザ変位センサLSから下板Sまでの測距データと上板Uまでの測距データとの差を取って、その値から、予め設定されている上板Uの板厚を引くことにより得ることができる。
(Lap joint)
In the case of the lap joint, as shown in FIG. 6, the end point of the upper plate U (referred to as the upper plate angle) is a feature point. In addition, the distance between the upper plate U and the lower plate S is a gap amount which is a physical quantity. Note that the gap amount of the lap joint is obtained by calculating the difference between the distance measurement data from the laser displacement sensor LS to the lower plate S and the distance measurement data from the upper plate U, and based on the difference, the preset upper plate U It can be obtained by subtracting the plate thickness.

(特徴点と物理量の算出)
ここで、ロボット制御装置RCが行う画像解析による特徴点及び物理量の算出について説明する。この画像解析は、表1に示される検出パターン番号に対応した画像解析プログラムがロボット制御装置RCのCPU20にて読み込まれて下記(1)〜(10)の順序で実行される。なお、下記説明中、該CPU20が実行するときに参考とされる検出パラメータは表1に示された検出パラメータ1〜9に記載されているものである。これらの検出パラメータは、特徴点及び物理量を算出するための検出条件である。
(Calculation of feature points and physical quantities)
Here, calculation of feature points and physical quantities by image analysis performed by the robot controller RC will be described. This image analysis is executed in the following order (1) to (10) after an image analysis program corresponding to the detection pattern number shown in Table 1 is read by the CPU 20 of the robot controller RC. In the following description, detection parameters referred to when the CPU 20 executes are those described in detection parameters 1 to 9 shown in Table 1. These detection parameters are detection conditions for calculating feature points and physical quantities.

ここで、表1に記載されている検出パターン番号、データサンプリング周期、検出パラメータ1〜9は画像処理パラメータに相当する。この画像処理パラメータは、ティーチペンダントTPのキーボード41にて入力されて、記憶部23の第3記憶領域23cの画像処理パラメータ調整前を記憶する領域Qaに格納されている。   Here, the detection pattern number, the data sampling period, and the detection parameters 1 to 9 described in Table 1 correspond to image processing parameters. This image processing parameter is input from the keyboard 41 of the teach pendant TP, and is stored in the area Qa for storing the image processing parameter before adjustment in the third storage area 23c of the storage unit 23.

検出パラメータ1及び検出パラメータ2は、データの上限値及び下限値をそれぞれ規定する。検出パラメータ3及び検出パラメータ4は開先内のオフセット量及び直線長さをそれぞれ規定する。検出パラメータ5は、特徴点となるねらい位置を規定するものであり、「0」は開先溝の最深部を、「1」は開先溝の左上縁部を、「2」は開先溝の右上縁部を、「3」は開先の中点を、「4」は近似直線交点を指定する。どれを特徴点とするかは、オペレータが予めティーチペンダントTPから入力することにより、画像解析プログラムに設定される。   The detection parameter 1 and the detection parameter 2 respectively define an upper limit value and a lower limit value of data. The detection parameter 3 and the detection parameter 4 define an offset amount and a straight line length in the groove, respectively. The detection parameter 5 defines the target position to be a feature point. “0” is the deepest part of the groove, “1” is the upper left edge of the groove, and “2” is the groove. “3” designates the midpoint of the groove, and “4” designates the approximate straight line intersection. Which one is to be used as a feature point is set in the image analysis program when the operator inputs in advance from the teach pendant TP.

検出パラメータ6は端点検出の閾値を規定する。検出パラメータ7は開先外のオフセット量を規定する。検出パラメータ8は画像データに対するフィルタ処理のためのフィルタモードを規定し、「0」は、フィルタなし、「1」は移動平均、「2」はメディアン、「3」は移動平均とメディアンの両処理を意味する。どのフィルタ処理が行われるかは、オペレータが予めティーチペンダントTPからの入力により、画像解析プログラムに設定される。検出パラメータ9は、フィルタ窓幅を規定する。   The detection parameter 6 defines a threshold value for endpoint detection. The detection parameter 7 defines the offset amount outside the groove. The detection parameter 8 defines a filter mode for filtering the image data, “0” is no filter, “1” is moving average, “2” is median, “3” is both moving average and median processing. Means. Which filter processing is performed is set in the image analysis program in advance by the operator from the teach pendant TP. The detection parameter 9 defines the filter window width.

Figure 2008221281
(1)まず、ロボット制御装置RCは検出パラメータ8でフィルタモードを設定する。
Figure 2008221281
(1) First, the robot controller RC sets the filter mode with the detection parameter 8.

(2)次に、ロボット制御装置RCは検出パラメータ9で指定したフィルタ窓幅で画像データを前記設定されたフィルタモードに従ってフィルタ処理する。
(3)続いて、ロボット制御装置RCは測距距離から検出パラメータ1(データ上限値)〜検出パラメータ2(データ下限値)の範囲外のデータを除外し、その中でデータ最深部を探索する(図7参照)。図7において、黒点は測距データ取得時のサンプリング点を示している。
(2) Next, the robot controller RC filters the image data according to the set filter mode with the filter window width specified by the detection parameter 9.
(3) Subsequently, the robot controller RC excludes data outside the range of the detection parameter 1 (data upper limit value) to the detection parameter 2 (data lower limit value) from the distance measurement distance, and searches for the data deepest portion in the data. (See FIG. 7). In FIG. 7, black dots indicate sampling points at the time of distance measurement data acquisition.

(4)次に、ロボット制御装置RCは最深部から検出パラメータ3で指定したオフセット量離れた位置を中心に、開先両端にそれぞれ検出パラメータ4で指定した直線長さの近似直線を引く(図7参照)。   (4) Next, the robot controller RC draws approximate straight lines each having a straight line length designated by the detection parameter 4 at both ends of the groove centering on the position separated from the deepest portion by the offset amount designated by the detection parameter 3 (see FIG. 7).

(5)続いて、ロボット制御装置RCは、測距したサンプリング点のうち、各直線から検出パラメータ6で指定した距離(すなわち、端点検出の閾値)離れ始める点を左右の開先端とする(図7参照)。   (5) Subsequently, the robot control device RC sets the points at which the distance specified by the detection parameter 6 (that is, the threshold value for detecting the end point) starts to be separated from each straight line among the measured sampling points (see FIG. 7).

(6)次に、ロボット制御装置RCは検出パラメータ5で特徴点を指定する(図7参照)。なお、本実施形態では、予めオペレータの入力により画像解析プログラムには「3」が選択されているものとする。なお、交差角としては、各々鋭角となる角度を選択する。   (6) Next, the robot controller RC designates a feature point with the detection parameter 5 (see FIG. 7). In this embodiment, it is assumed that “3” is selected in advance as an image analysis program by an operator input. Note that an acute angle is selected as each crossing angle.

(7)続いて、ロボット制御装置RCは左右の溶接母材の開先端間距離をギャップ量Gとする(図7参照)。
(8)次に、ロボット制御装置RCは開先左端から検出パラメータ7で指定したオフセット量分、左に移動した位置を中心に左開先外近似直線を引く。同様に右開先外近似直線を引く(図7参照)。
(7) Subsequently, the robot controller RC sets the distance G between the open ends of the left and right welding base materials as the gap amount G (see FIG. 7).
(8) Next, the robot controller RC draws an approximate straight line outside the left groove centering on the position moved to the left by the offset amount specified by the detection parameter 7 from the left end of the groove. Similarly, a straight line outside the right groove is drawn (see FIG. 7).

(9)続いて、ロボット制御装置RCは左開先外近似直線と最深部の距離を開先深さとする(図7参照)。
(10)そして、ロボット制御装置RCは左開先部近似直線と左開先外近似直線の交差角を開先角度θ1、右開先部近似直線と右開先外近似直線の交差角を開先角度θ2とする(図7参照)。
(9) Next, the robot controller RC sets the distance between the approximate straight line outside the left groove and the deepest part as the groove depth (see FIG. 7).
(10) Then, the robot controller RC opens the intersection angle between the left groove portion approximate line and the left groove outside approximate line as the groove angle θ1, and the right groove portion approximate line and the right groove outside approximate line as the intersection angle θ1. The tip angle θ2 is set (see FIG. 7).

なお、重ね継手やV字継手では傾きが急峻に変化する場所が存在するが、そうではない場合にも開先情報取得機能は適用できる。例えば円弧位置を探索することもできる。円弧位置での画像解析手順は以下(1)〜(7)の通りである。   In addition, although there exists a place where the inclination changes steeply in the lap joint or the V-shaped joint, the groove information acquisition function can be applied even when this is not the case. For example, the arc position can be searched. The image analysis procedure at the arc position is as follows (1) to (7).

この画像解析は、表2に示される検出パターン番号に対応した画像解析プログラムがロボット制御装置RCのCPU20にて読み込まれて実行される。なお、画像解析プログラムの選択は、予めオペレータの入力により決定される。そして、該CPU20が実行するときに参考とされる検出パラメータは表2に示された検出パラメータ1〜6に記載されているものである。この場合、これらの検出パラメータは、特徴点を算出するための検出条件である。   This image analysis is executed by reading an image analysis program corresponding to the detection pattern number shown in Table 2 by the CPU 20 of the robot controller RC. The selection of the image analysis program is determined in advance by operator input. The detection parameters referred to when the CPU 20 executes are those described in the detection parameters 1 to 6 shown in Table 2. In this case, these detection parameters are detection conditions for calculating feature points.

ここでの検出パラメータ1は頂点探索時の区間長さを規定する。又、検出パラメータ2は、頂点からの下がり量を規定する。検出パラメータ3は、点A,B探索時の高さ差分閾値である。検出パラメータ4は探索する円弧の半径を規定する。検出パラメータ5は画像データに対するフィルタ処理のためのフィルタモードを規定し、「0」は、フィルタなし、「1」は移動平均、「2」はメディアン、「3」は移動平均とメディアンの両処理を意味する。どのフィルタ処理が行われるかは、オペレータが予めティーチペンダントTPから入力することにより、画像解析プログラムに設定される。検出パラメータ6は、フィルタ窓幅を規定する。   The detection parameter 1 here defines the section length at the time of vertex search. The detection parameter 2 defines the amount of decrease from the apex. The detection parameter 3 is a height difference threshold value when searching for points A and B. The detection parameter 4 defines the radius of the arc to be searched. The detection parameter 5 defines a filter mode for filtering the image data. “0” indicates no filter, “1” indicates moving average, “2” indicates median, and “3” indicates both moving average and median processing. Means. Which filter processing is performed is set in the image analysis program when the operator inputs in advance from the teach pendant TP. The detection parameter 6 defines the filter window width.

Figure 2008221281
(1)ロボット制御装置RCは検出パラメータ5でフィルタモードを設定する。
Figure 2008221281
(1) The robot controller RC sets the filter mode with the detection parameter 5.

(2)次に、ロボット制御装置RCは検出パラメータ6で指定したフィルタ窓幅で画像データを前記設定されたフィルタモードに従ってフィルタ処理する。
(3)続いて、ロボット制御装置RCは頂点をサンプリング点を基にラフに探索する(図9参照)。図9の黒点は測距データ取得時のサンプリング点を示している。
(2) Next, the robot controller RC filters the image data according to the set filter mode with the filter window width specified by the detection parameter 6.
(3) Subsequently, the robot controller RC searches roughly for the apexes based on the sampling points (see FIG. 9). Black dots in FIG. 9 indicate sampling points at the time of distance measurement data acquisition.

(4)そして、ロボット制御装置RCは頂点から検出パラメータ4以上離れたデータは除外する。
(5)次に、ロボット制御装置RCは頂点から、検出パラメータ2下がった位置を探索する。(4)で整形したデータ(以下、整形データという)の左端から探索を開始し、
((測距データ)−(頂点−検出パラメータ2))<検出パラメータ3
となる点を点Aとする。同様に整形データ右端から探索を行い、点Bを求める。
(4) Then, the robot controller RC excludes data away from the apex by the detection parameter 4 or more.
(5) Next, the robot controller RC searches for a position where the detection parameter 2 is lowered from the apex. The search is started from the left end of the data shaped in (4) (hereinafter referred to as shaped data),
((Ranging data)-(Vertex-Detection parameter 2)) <Detection parameter 3
Let the point A be point A. Similarly, the search is performed from the right end of the shaped data, and the point B is obtained.

(6)続いて、ロボット制御装置RCは点A〜点Bの中点Cを計算する。
(7)そして、ロボット制御装置RCは、左右方向はCの座標、上下方向は頂点の高さの座標の位置を特徴点とする。
(6) Subsequently, the robot controller RC calculates the midpoint C of the points A to B.
(7) Then, the robot controller RC uses the position of the coordinate of C in the left-right direction and the coordinate of the height of the vertex in the vertical direction as a feature point.

(特徴点の座標の算出)
さて、話を元に戻して、ロボット制御装置RCのCPU20は、画像処理で得られた画像データ上の特徴点と、サーチ開始点及びサーチ終了点のロボット座標より、ロボット座標での特徴点座標を求め、前記物理量とともに、記憶部23の第4記憶領域23dに格納する。
(Calculation of feature point coordinates)
Returning to the original, the CPU 20 of the robot controller RC determines the feature point coordinates in the robot coordinates from the feature points on the image data obtained by the image processing and the robot coordinates of the search start point and the search end point. And is stored in the fourth storage area 23d of the storage unit 23 together with the physical quantity.

ここで、前記特徴点は、サーチ方向及びレーザ照射方向に分けて求められる。以下、サーチ方向の特徴点の位置を「左右位置」、レーザ照射方向の特徴点の位置を「上下位置」と呼ぶ。このとき、左右位置、上下位置は以下のように求められる。   Here, the feature points are obtained separately for the search direction and the laser irradiation direction. Hereinafter, the position of the feature point in the search direction is referred to as “left / right position”, and the position of the feature point in the laser irradiation direction is referred to as “up / down position”. At this time, the horizontal position and vertical position are obtained as follows.

Figure 2008221281
このようにして、画像解析が終了すると、開先情報(特徴点と物理量)、及び画像解析された後の加工測距データを、CPU20は、ティーチペンダントTPに出力する。ティーチペンダントTPのディスプレイ42は、その表示領域Da(図12参照)に画像解析結果(すなわち、開先情報(特徴点と物理量)、及び画像解析された後の加工測距データ)をグラフ化して表示するとともに、表示領域Db(図16参照)に対して各種の物理量を表示する。なお、本実施形態では表示領域Dbには、開先(レーザ)データのデータ個数も示される。
Figure 2008221281
When the image analysis is thus completed, the CPU 20 outputs the groove information (feature points and physical quantities) and the processed distance measurement data after the image analysis to the teach pendant TP. The display 42 of the teach pendant TP graphs the image analysis results (that is, groove information (feature points and physical quantities) and processed distance measurement data after image analysis) in the display area Da (see FIG. 12). While displaying, various physical quantities are displayed on the display area Db (see FIG. 16). In the present embodiment, the display area Db also shows the number of groove (laser) data.

なお、表示領域Daにおいては、横軸はレーザ変位センサLSの移動時間(秒)で示しているが、秒の代わりにレーザ変位センサLSが移動した距離(mm)で表示してもよい。   In the display area Da, the horizontal axis indicates the moving time (seconds) of the laser displacement sensor LS, but it may be displayed by the distance (mm) moved by the laser displacement sensor LS instead of seconds.

(基準点の位置)
そして、最初の一方向サーチ動作時にはこれらの特徴点がそれぞれ基準点(基準位置)として、ファイル名を付与してファイル化して第2記憶領域23bの領域Paに記憶される。その様子を図8に示す。なお、図8は説明の便宜上サーチ方向がロボット座標系のX軸と平行に図示しているが、実際のサーチは必ずしもX軸と平行である必要はない。
(Reference point position)
In the initial one-way search operation, these feature points are stored as a reference point (reference position) with a file name and filed in the area Pa of the second storage area 23b. This is shown in FIG. Although FIG. 8 shows the search direction parallel to the X axis of the robot coordinate system for convenience of explanation, the actual search does not necessarily need to be parallel to the X axis.

このようにして、基準点(基準位置)を取得した後は、前述した施工されるワークWに対して同じように一方向サーチ動作を行う。
(ずれ量の算出)
上記のようにして、一方向サーチ動作を行った後、ロボット制御装置RCは、第4記憶領域23dに記憶した特徴点の座標と先に第2記憶領域23bの領域Paに、ファイル名を付与してファイル化して記憶した基準点の座標からずれ量を以下の式で算出し、ずれ量補正ファイルを作成して記憶部23の図示しない記憶領域に格納する。
After acquiring the reference point (reference position) in this way, the one-way search operation is similarly performed on the workpiece W to be constructed.
(Calculation of deviation)
After performing the one-way search operation as described above, the robot controller RC assigns a file name to the coordinates of the feature point stored in the fourth storage area 23d and the area Pa of the second storage area 23b first. Then, the deviation amount is calculated from the coordinates of the reference point stored as a file by the following formula, and a deviation amount correction file is created and stored in a storage area (not shown) of the storage unit 23.

Figure 2008221281
本実施形態では、このようにレーザ変位センサという一次元の検出しかできないセンサで、二次元の開先情報(すなわち、特徴点および物理量)の取得を一方向サーチと同じ動作で行うことができる。なお、ここで、二次元といっているのは、X軸とZ軸を含む平面上で前記開先情報が得られることをいっている。
Figure 2008221281
In the present embodiment, the two-dimensional groove information (that is, feature points and physical quantities) can be acquired by the same operation as the one-way search by using a sensor capable of only one-dimensional detection such as a laser displacement sensor. Here, the term “two-dimensional” means that the groove information can be obtained on a plane including the X-axis and the Z-axis.

(画像処理パラメータのチェック)
ところで、上記のように構成された位置検出システムとしての溶接ロボットの制御装置10において、一回の一方向サーチ動作を行った後、作業者が画像処理パラメータのチェックを行う場合は、下記のように行われる。
(Check image processing parameters)
By the way, in the welding robot control device 10 as the position detection system configured as described above, when the operator checks the image processing parameters after performing a one-way search operation once, the following is performed. To be done.

作業者はティーチペンダントTPのキーボード41を操作して、ティーチペンダントTPを画像処理パラメータの調整モードに設定する。調整モードにおいては、作業者はキーボード41を操作してディスプレイ42に、調整したい開先形状に応じた画像処理パラメータのパラメータ調整画面を表示させ、この状態でキーボード41を操作して、画像処理パラメータを調整入力する。   The operator operates the keyboard 41 of the teach pendant TP to set the teach pendant TP to the image processing parameter adjustment mode. In the adjustment mode, the operator operates the keyboard 41 to cause the display 42 to display a parameter adjustment screen for image processing parameters corresponding to the groove shape to be adjusted. In this state, the operator operates the keyboard 41 to display image processing parameters. Adjust the input.

そして、この後、作業者はティーチペンダントTPのキーボード41を操作して、再画像解析を行う指示の入力を行う。
ロボット制御装置RCのCPU20は、前記再画像解析を行う指示に応じて、第1記憶領域23aに記憶されている測距データに基づき、第3記憶領域23cの領域Qbに格納された調整後の画像処理パラメータに従って溶接継手の画像解析を行う。そして、CPU20は、調整後の画像処理パラメータに従って得られた画像解析データを、ファイル名を付与してファイル化して第2記憶領域23bの領域Pbに記憶する。
After that, the operator operates the keyboard 41 of the teach pendant TP to input an instruction for performing re-image analysis.
In response to the instruction to perform the re-image analysis, the CPU 20 of the robot controller RC adjusts the adjusted data stored in the area Qb of the third storage area 23c based on the distance measurement data stored in the first storage area 23a. Image analysis of the welded joint is performed according to the image processing parameters. Then, the CPU 20 assigns a file name to the image analysis data obtained according to the adjusted image processing parameter, and stores the file in the area Pb of the second storage area 23b.

このようにして、画像処理パラメータ調整後の画像解析データ(すなわち、開先情報(特徴点と物理量)、及び画像解析された後の加工測距データ)は、画像処理パラメータ調整前の場合と同様に前述した図12に示す表示領域Daや、図13に示す表示領域Dbに示される。作業者は、ディスプレイ42に表示された内容をみて、画像処理パラメータが所望のものであるか否かをチェックする。   In this way, the image analysis data after adjustment of the image processing parameters (that is, groove information (feature points and physical quantities) and processed distance measurement data after image analysis) are the same as those before the adjustment of the image processing parameters. These are shown in the display area Da shown in FIG. 12 and the display area Db shown in FIG. The operator looks at the contents displayed on the display 42 and checks whether or not the image processing parameters are desired.

なお、このチェックの際、キーボード41に設けられた表示切換キー(図示しない)を操作して、画像処理パラメータ調整前の画像解析データ(すなわち、開先情報(特徴点と物理量)、及び画像解析された後の加工測距データ)を第2記憶領域23bの領域Paから読み出して、ディスプレイ42に切換表示させてもよい。このように構成すれば、画像処理パラメータ調整前後の両方の画像解析データを交互に見ることができる。   In this check, a display switching key (not shown) provided on the keyboard 41 is operated to check image analysis data (that is, groove information (feature points and physical quantities) and image analysis) before image processing parameter adjustment. Then, the processed distance measurement data) may be read out from the area Pa of the second storage area 23b and switched and displayed on the display 42. With this configuration, both image analysis data before and after image processing parameter adjustment can be viewed alternately.

前記表示切換キー(図示しない)を有するキーボード41は、表示切換手段に相当する。
なお、必要であれば、作業者は以後同様にパラメータ調整画面をディスプレイ42に表示させて、画像処理パラメータを調整入力し、再画像解析を行う指示を繰り返し行い、作業者が画像処理パラメータのチェックを行うことにより、所望の画像処理パラメータを求めても良い。
The keyboard 41 having the display switching key (not shown) corresponds to display switching means.
If necessary, the operator subsequently displays a parameter adjustment screen on the display 42 in the same manner, inputs and adjusts the image processing parameters, repeats the instruction for re-image analysis, and the operator checks the image processing parameters. By performing the above, a desired image processing parameter may be obtained.

そして、所望の画像処理パラメータが得られたとき、作業者はティーチペンダントTPのキーボード41を操作して、画像処理パラメータの保存指示入力を行う。この保存指示入力に応じて調整入力された画像処理パラメータは、ロボット制御装置RCに出力され、記憶部23において第3記憶領域23cの領域Qbに格納される。   When a desired image processing parameter is obtained, the operator operates the keyboard 41 of the teach pendant TP and inputs an instruction for storing the image processing parameter. The image processing parameters adjusted and input in response to the save instruction input are output to the robot controller RC and stored in the area Qb of the third storage area 23c in the storage unit 23.

なお、領域Qbに格納される調整後の画像処理パラメータは、表1に示すV字開先用検出パラメータである画像処理パラメータの例では、検出パターン番号、データサンプリング周期、及び検出パラメータ1〜9の値である。ここで、表1において、検出パラメータ5の値が「0」から「1」に変更された場合であっても、実際に調整された検出パラメータのみ領域Qbに格納されるのではなく、表1で示された全てのパラメータが領域Qbに格納される。   The image processing parameters after adjustment stored in the region Qb are the detection pattern number, the data sampling cycle, and the detection parameters 1 to 9 in the example of the image processing parameter that is the V-shaped groove detection parameter shown in Table 1. Is the value of Here, in Table 1, even when the value of the detection parameter 5 is changed from “0” to “1”, only the actually adjusted detection parameter is not stored in the region Qb. All the parameters indicated by are stored in the area Qb.

なお、調整前の画像処理パラメータは、記憶部23の第3記憶領域23cの領域Qaに格納されている。
本実施形態の溶接ロボットの制御装置10によれば、以下のような効果を得ることができる。
It should be noted that the image processing parameters before adjustment are stored in the area Qa of the third storage area 23c of the storage unit 23.
According to the welding robot control device 10 of the present embodiment, the following effects can be obtained.

(1) 本実施形態の溶接ロボットの制御装置10では、ロボット制御装置RCに、画像解析データを記憶する第2記憶領域23b(第2記憶手段)を有する記憶部23が設けられている。又、可搬式操作手段としてのティーチペンダントTPに画像解析データを表示するディスプレイ42(表示部)、画像処理パラメータを調整入力するとともに、調整入力された画像処理パラメータに従って再画像解析を行う指示を入力するキーボード41(パラメータ入力部及び再画像解析指示入力部)が設けられている。   (1) In the welding robot control device 10 of the present embodiment, the robot control device RC is provided with a storage unit 23 having a second storage area 23b (second storage means) for storing image analysis data. Further, a display 42 (display unit) for displaying image analysis data on a teach pendant TP as a portable operation means, inputs an image processing parameter, and inputs an instruction to perform re-image analysis according to the adjusted image processing parameter. A keyboard 41 (parameter input unit and re-image analysis instruction input unit) is provided.

そして、キーボード41(再画像解析指示入力部)から再画像解析を行う指示があったとき、ロボット制御装置RCのCPU20(開先情報取得手段)は、記憶部23の第1記憶領域23a(第1記憶手段)に記憶した測距データに基づき前記調整入力された画像処理パラメータに従って溶接継手の画像解析を行い、新たな画像解析データを取得する。又、ティーチペンダントTPのディスプレイ42は、調整入力された画像処理パラメータに従って得られた画像解析データを表示するようにした。   When there is an instruction to perform re-image analysis from the keyboard 41 (re-image analysis instruction input unit), the CPU 20 (groove information acquisition unit) of the robot control device RC stores the first storage area 23a (first) in the storage unit 23. The image analysis of the welded joint is performed in accordance with the image processing parameter that has been adjusted and input based on the distance measurement data stored in one storage means), and new image analysis data is acquired. The display 42 of the teach pendant TP displays image analysis data obtained in accordance with the image processing parameters that have been adjusted and input.

この結果、本実施形態の溶接ロボットの制御装置10では、サーチ動作により得られた測距データを元に、以後サーチ動作を行うことなく、異なる画像処理パラメータを適用した際の画像解析結果をティーチペンダントTP上で確認できるとともに、システム導入ないし新規教示における画像処理の調整時間を短縮できる効果がある。   As a result, the control apparatus 10 for the welding robot of the present embodiment teaches the image analysis results when different image processing parameters are applied based on the distance measurement data obtained by the search operation without performing the search operation thereafter. This can be confirmed on the pendant TP and can shorten the adjustment time of image processing in system introduction or new teaching.

(2) 本実施形態の溶接ロボットの制御装置10では、ティーチペンダントTP(可搬式操作手段)に、キーボード41(パラメータ入力部)にて調整入力された画像処理パラメータを記憶する第3記憶領域23c(第3記憶手段)を備えるようにした。   (2) In the control apparatus 10 for the welding robot of the present embodiment, the third storage area 23c that stores image processing parameters adjusted and input by the keyboard 41 (parameter input unit) in the teach pendant TP (portable operation means). (Third storage means) is provided.

この結果、第3記憶領域23cを備えることにより、キーボード41(パラメータ入力部)にて調整入力された画像処理パラメータを記憶でき、この記憶された画像処理パラメータにより、開先情報の再取得を行うことができる。   As a result, by providing the third storage area 23c, it is possible to store the image processing parameters adjusted and input by the keyboard 41 (parameter input unit), and re-acquire groove information using the stored image processing parameters. be able to.

(3) 本実施形態の溶接ロボットの制御装置10では、記憶部23の第2記憶領域23b(第2記憶手段)は、画像処理パラメータ調整前の画像解析データを記憶する領域Pa(記憶領域)と、画像処理パラメータ調整後の画像解析データを記憶する領域Pb(記憶領域)を備えるようにした。   (3) In the control apparatus 10 for the welding robot of the present embodiment, the second storage area 23b (second storage means) of the storage unit 23 is an area Pa (storage area) for storing image analysis data before image processing parameter adjustment. And an area Pb (storage area) for storing image analysis data after image processing parameter adjustment.

この結果、本実施形態では、画像処理パラメータ調整前及び画像処理パラメータ調整後のそれぞれの画像処理パラメータに従って得られた画像解析データをティーチペンダントTPのディスプレイ42(表示部)に表示することができ、画像処理パラメータのチェックを容易にできる。   As a result, in the present embodiment, the image analysis data obtained according to the respective image processing parameters before and after the image processing parameter adjustment can be displayed on the display 42 (display unit) of the teach pendant TP. Image processing parameters can be easily checked.

(4) 本実施形態の溶接ロボットの制御装置10では、記憶部23の第2記憶領域23b(第2記憶手段)は、画像処理パラメータ調整前と調整後の画像解析データをそれぞれファイル化して記憶するようにした。   (4) In the welding robot control apparatus 10 of the present embodiment, the second storage area 23b (second storage means) of the storage unit 23 stores the image analysis data before and after adjustment of image processing parameters as files. I tried to do it.

この結果、本実施形態では、画像処理パラメータ調整前と、画像処理パラメータ調整後のそれぞれの画像処理パラメータに従って得られた画像解析データをファイルを読み出すことでティーチペンダントTPのディスプレイ42(表示部)に表示することができるとともに、画像処理パラメータの再調整を行うことができる。   As a result, in the present embodiment, the image analysis data obtained according to the image processing parameters before and after the image processing parameter adjustment is read out on the display 42 (display unit) of the teach pendant TP by reading the file. While being able to display, it is possible to readjust image processing parameters.

(5) 本実施形態では、ティーチペンダントTP(可搬式操作手段)には、記憶部23の第2記憶領域23bの領域Pa,Pbのそれぞれに記憶した画像処理パラメータ調整前の画像解析データ、及び画像処理パラメータ調整後の画像解析データのうち、いずれか1つのデータをディスプレイ42(表示部)に切換え表示するようにした。すなわち、ティーチペンダントTPには、切換表示するための表示切換キー(図示しない)を有するキーボード41(表示切換手段)を備えるようにした。   (5) In the present embodiment, the teach pendant TP (portable operation means) includes image analysis data before image processing parameter adjustment stored in each of the areas Pa and Pb of the second storage area 23b of the storage unit 23, and Any one of the image analysis data after adjusting the image processing parameters is switched and displayed on the display 42 (display unit). That is, the teach pendant TP is provided with a keyboard 41 (display switching means) having a display switching key (not shown) for switching display.

この結果、画像処理パラメータの変更の効果を確認することができる。
なお、本発明は前記実施形態に限定されるものではなく、下記のように構成してもよい。
As a result, the effect of changing the image processing parameter can be confirmed.
In addition, this invention is not limited to the said embodiment, You may comprise as follows.

○ 前記実施形態において、開先断面形状が異なる部位を複数有する溶接継手に対してレーザ変位センサLSに一方向サーチ動作を行わせた際に、開先断面形状が異なる部位毎に複数のサーチ動作により得られたその開先断面形状毎の測距データに対して、その開先断面形状に応じた画像処理パラメータに従って画像解析が行われるようにする。   In the above embodiment, when the laser displacement sensor LS performs a one-way search operation on a welded joint having a plurality of portions having different groove cross-sectional shapes, a plurality of search operations are performed for each portion having a different groove cross-sectional shape. The distance analysis data for each groove cross-sectional shape obtained by the above is subjected to image analysis according to the image processing parameters corresponding to the groove cross-sectional shape.

このときにその開先断面形状毎に得られた画像解析データをファイル化するに当たり、そのファイル名の先頭ないし末尾に自動的に識別符号としての番号を昇順或いは降順に追加して、記憶部23の第2記憶領域23bの領域Paに対して保存する。この後、画像処理パラメータの再調整を行って、調整後の画像処理パラメータに従って得られた画像解析データをファイル化する際に、そのファイル名の先頭ないし末尾に自動的に識別符号としての番号を昇順或いは降順に追加して、記憶部23の第2記憶領域23bの領域Pbに対して保存する。   At this time, when the image analysis data obtained for each groove cross-sectional shape is filed, a number as an identification code is automatically added to the beginning or end of the file name in ascending or descending order, and the storage unit 23 Is stored in the area Pa of the second storage area 23b. After this, the image processing parameters are readjusted, and when the image analysis data obtained according to the adjusted image processing parameters is filed, a number as an identification code is automatically added to the beginning or end of the file name. It adds to an ascending order or descending order, and preserve | saves with respect to the area | region Pb of the 2nd storage area 23b of the memory | storage part 23. FIG.

なお、ファイル名に付与する識別符号は番号の代わりに、例えば、アルファベット順に英記号を付与するようにしてもよい。
このようにすると、1プログラムである教示データ内に複数のサーチ動作がある場合には、その再生動作が行われ、測距データが第1記憶領域23a(第1記憶手段)に格納されるとともに、画像処理パラメータに従って画像解析された画像解析データが第2記憶領域23b(第2記憶手段)に記憶される。
In addition, as for the identification code given to the file name, English symbols may be given in alphabetical order instead of numbers.
In this way, when there are a plurality of search operations in the teaching data as one program, the reproduction operation is performed, and the distance measurement data is stored in the first storage area 23a (first storage means). The image analysis data subjected to image analysis in accordance with the image processing parameters is stored in the second storage area 23b (second storage means).

このとき、開先形状が異なることにより、異なる画像処理パラメータで画像解析されて得られた画像解析データはファイル化される毎に、各ファイルに対して互いに異なる番号や異なるアルファベットが付与されたファイル名が作成される。   At this time, because the groove shape is different, each time the image analysis data obtained by image analysis with different image processing parameters is filed, files with different numbers or different alphabets assigned to each file A name is created.

この後、異なる画像処理パラメータに従って得られた画像解析データに対し、ティーチペンダントTPのキーボード41にて画像処理パラメータが調整入力されると、ファイル単位毎に調整入力された、画像処理パラメータに従って溶接継手の画像解析を行うことができる。   Thereafter, when the image processing parameters are adjusted and input with the keyboard 41 of the teach pendant TP with respect to the image analysis data obtained according to the different image processing parameters, the weld joints are adjusted according to the image processing parameters input for each file unit Image analysis can be performed.

○ 前記実施形態では、ティーチペンダントTPのディスプレイ42に対して、画像処理パラメータ調整前及び調整後の画像解析データを切換表示させるようにした。この構成に加えて、図14(a)に示すように同時に、画像処理パラメータ調整前及び調整後の画像解析データをディスプレイ42に表示するようにしてもよい。   In the above embodiment, the image analysis data before and after image processing parameter adjustment is switched and displayed on the display 42 of the teach pendant TP. In addition to this configuration, image analysis data before and after image processing parameter adjustment may be simultaneously displayed on the display 42 as shown in FIG.

すなわち、ティーチペンダントTPのキーボード41を表示モード選択キー(図示しない)を有する構成として、キーボード41を表示モード選択入力手段として機能させる。そして、該表示モード選択キーを操作することにより、図14(a)に示すように、ディスプレイ42の表示領域42aに画像処理パラメータ調整前の画像解析データを表示し、ディスプレイ42の表示領域42bに画像処理パラメータ調整後の画像解析データを表示する表示モードにする。なお、表示領域42a,42bの上下位置関係を逆にしてもよい。前記各データの表示される態様は、グラフであっても、表形式であってもよい。   That is, the keyboard 41 of the teach pendant TP is configured to have display mode selection keys (not shown), and the keyboard 41 is caused to function as display mode selection input means. Then, by operating the display mode selection key, as shown in FIG. 14A, the image analysis data before image processing parameter adjustment is displayed in the display area 42a of the display 42, and the display area 42b of the display 42 is displayed. The display mode for displaying the image analysis data after adjusting the image processing parameters is set. Note that the vertical positional relationship between the display areas 42a and 42b may be reversed. The display mode of each data may be a graph or a tabular format.

○ 前記実施形態では、ティーチペンダントTPのディスプレイ42に対して、画像処理パラメータ調整前及び調整後の画像解析データを切換表示させるようにした。さらにこの構成に加えて、図14(b)に示すように同時に、測距データ、画像処理パラメータ調整前及び調整後の画像解析データをディスプレイ42に表示する表示モードを有するにしてもよい。   In the above embodiment, the image analysis data before and after image processing parameter adjustment is switched and displayed on the display 42 of the teach pendant TP. In addition to this configuration, as shown in FIG. 14B, a display mode for displaying distance measurement data and image analysis data before and after image processing parameter adjustment on the display 42 at the same time may be provided.

すなわち、ティーチペンダントTPのキーボード41を表示モード選択キー(図示しない)を有する構成として、キーボード41を表示モード選択入力手段として機能させる。そして、該表示モード選択キーを操作して、図14(b)に示すように、ディスプレイ42の表示領域42cに第1記憶領域23aに記憶した測距データが表示され、表示領域42dに画像処理パラメータ調整前の画像解析データが表示され、表示領域42eに画像処理パラメータ調整後の画像解析データが表示される表示モードにする。なお、前記各データの表示される態様は、グラフであっても、表形式であってもよい。   That is, the keyboard 41 of the teach pendant TP is configured to have display mode selection keys (not shown), and the keyboard 41 is caused to function as display mode selection input means. Then, by operating the display mode selection key, as shown in FIG. 14B, the distance measurement data stored in the first storage area 23a is displayed in the display area 42c of the display 42, and image processing is performed in the display area 42d. A display mode is set in which image analysis data before parameter adjustment is displayed and image analysis data after image processing parameter adjustment is displayed in the display area 42e. The display mode of each data may be a graph or a table.

○ 前記実施形態では、ティーチペンダントTPには、記憶部23の第2記憶領域23bの領域Pa,Pbのそれぞれに記憶した画像処理パラメータ調整前の画像解析データ、及び画像処理パラメータ調整後の画像解析データのうち、いずれか1つのデータをディスプレイ42(表示部)に切換え表示するようにした。   In the above embodiment, the teach pendant TP includes image analysis data before image processing parameter adjustment stored in each of the areas Pa and Pb of the second storage area 23b of the storage unit 23, and image analysis after image processing parameter adjustment. Any one of the data is switched and displayed on the display 42 (display unit).

この構成に代えて、第1記憶領域23aに記憶した測距データと、第2記憶領域23bの領域Paに記憶した画像処理パラメータ調整前の画像解析データのいずれか一方を選択して、これらのデータをディスプレイ42に表示するキーを有するキーボード41に設けてもよい。   Instead of this configuration, one of the distance measurement data stored in the first storage area 23a and the image analysis data before image processing parameter adjustment stored in the area Pa of the second storage area 23b is selected, and these are selected. A keyboard 41 having keys for displaying data on the display 42 may be provided.

或いは、第1記憶領域23aに記憶した測距データと、第2記憶領域23bの領域Pbに記憶した画像処理パラメータ調整後の画像解析データのいずれか一方を選択して、これらのデータをディスプレイ42に表示するキーを有するキーボード41に設けてもよい。   Alternatively, one of the distance measurement data stored in the first storage area 23a and the image analysis data after image processing parameter adjustment stored in the area Pb of the second storage area 23b is selected, and these data are displayed on the display 42. You may provide in the keyboard 41 which has the key displayed on this.

このようにした場合、画像処理パラメータの有無の効果を確認することができる。
○前記実施形態では、表示部であるディスプレイ42は液晶ディスプレイに限定されるものではなく、有機EL、プラズマディスプレイ等の他のディスプレイで構成されていてもよい。
In this case, the effect of the presence or absence of the image processing parameter can be confirmed.
In the above-described embodiment, the display 42 that is a display unit is not limited to a liquid crystal display, and may be configured by other displays such as an organic EL and a plasma display.

○ 前記実施形態の構成に代えて、レーザ変位センサ制御装置LUを有する図16に示す従来例の構成に具体化してもよい。   Instead of the configuration of the above embodiment, the configuration of the conventional example shown in FIG. 16 having the laser displacement sensor control device LU may be embodied.

(a)は一実施形態のロボットの制御装置のブロック図、(b)は同じくティーチペンダントTPの概略図。(A) is a block diagram of the control apparatus of the robot of one Embodiment, (b) is the schematic of the teach pendant TP similarly. (a)はツール座標系の説明図、(b)はレーザ変位センサLSの取付状態を示すレーザ変位センサLSの斜視図。(A) is explanatory drawing of a tool coordinate system, (b) is a perspective view of the laser displacement sensor LS which shows the attachment state of the laser displacement sensor LS. ロボット制御装置RCのブロック図。The block diagram of robot controller RC. 一方向サーチ動作の説明図。Explanatory drawing of one-way search operation | movement. V字継手の特徴点、物理量の説明図。Explanatory drawing of the feature point and physical quantity of a V-shaped joint. 重ね継手の特徴点、物理量の説明図。Explanatory drawing of the feature point and physical quantity of a lap joint. V字継手の画像解析の手順の説明図。Explanatory drawing of the procedure of the image analysis of a V-shaped joint. 特徴点、物理量のロボット座標上への変換の様子を示す説明図。Explanatory drawing which shows the mode of conversion to the robot coordinate of a feature point and a physical quantity. 円弧位置の画像解析の説明図。Explanatory drawing of the image analysis of a circular arc position. 同じく開先情報取得機能の動作を説明する説明図。Explanatory drawing which similarly demonstrates operation | movement of groove information acquisition function. (a)、(b)は同じく開先情報取得機能の動作を説明する説明図。(A), (b) is explanatory drawing explaining operation | movement of groove information acquisition function similarly. 画像解析結果をグラフ化してティーチペンダントTPのディスプレイに表示した説明図。Explanatory drawing which displayed the image analysis result as a graph on the display of the teach pendant TP. 各種の物理量をティーチペンダントTPのディスプレイに表示した説明図。Explanatory drawing which displayed various physical quantities on the display of teach pendant TP. (a)、(b)は他の実施形態のティーチペンダントTPのディスプレイ42の表示領域を示す説明図。(A), (b) is explanatory drawing which shows the display area of the display 42 of the teach pendant TP of other embodiment. 一方向サーチ機能の説明図。Explanatory drawing of a one-way search function. (a)〜(c)は一方向サーチの説明図。(A)-(c) is explanatory drawing of a one-way search.

符号の説明Explanation of symbols

M…マニピュレータ、LS…レーザ変位センサ、RC…ロボット制御装置、
TP…ティーチペンダント(可搬式操作手段)、
20…CPU(画像解析手段、開先情報取得手段)
23…記憶部、23a…第1記憶領域(第1記憶手段)、
23b…第2記憶領域(第2記憶手段)、23c…第3記憶領域(第3記憶手段)、
41…キーボード(パラメータ入力部、再画像解析指示入力部、表示切換手段、表示モード選択入力手段)、42…液晶ディスプレイ(表示部)。
M ... Manipulator, LS ... Laser displacement sensor, RC ... Robot controller,
TP ... Teach pendant (portable operation means),
20 ... CPU (image analysis means, groove information acquisition means)
23 ... storage unit, 23a ... first storage area (first storage means),
23b ... second storage area (second storage means), 23c ... third storage area (third storage means),
41... Keyboard (parameter input unit, re-image analysis instruction input unit, display switching unit, display mode selection input unit), 42. Liquid crystal display (display unit).

Claims (7)

溶接継手に対しレーザ光を投射して、測距データを取得するレーザ変位センサと、前記レーザ変位センサを溶接トーチとともに溶接線を横断する方向にサーチ動作させるマニピュレータと、前記測距データを記憶する第1記憶手段と、前記測距データに基づき画像処理パラメータに従って前記溶接継手の画像解析を行い、同画像解析に基づき前記溶接継手の開先形状に関する特徴点を含む開先情報を取得する開先情報取得手段を備えた自動溶接機の位置検出システムにおいて、
前記開先情報、及び画像解析された後の加工測距データ(以後、開先情報、及び画像解析された後の加工測距データを画像解析データという)を記憶する第2記憶手段と、
前記画像解析データを表示する表示部、前記画像処理パラメータを調整入力するパラメータ入力部、及び調整入力された画像処理パラメータに従って再画像解析を行う指示を入力する再画像解析指示入力部を備えた可搬式操作手段とを備え、
前記再画像解析指示入力部から再画像解析を行う指示があった際、前記開先情報取得手段は第1記憶手段の測距データに基づき前記調整入力された画像処理パラメータに従って前記溶接継手の画像解析を行って新たな画像解析データを作成し、前記表示部は、前記新たな画像解析データを表示することを特徴とする自動溶接機の位置検出システム。
A laser displacement sensor that projects laser light onto a welded joint to obtain distance measurement data, a manipulator that causes the laser displacement sensor to perform a search operation in a direction that crosses the weld line together with a welding torch, and stores the distance measurement data A groove that performs image analysis of the weld joint according to image processing parameters based on the first storage means and the distance measurement data, and acquires groove information including feature points related to the groove shape of the weld joint based on the image analysis In an automatic welding machine position detection system equipped with information acquisition means,
Second storage means for storing the groove information and processed distance data after image analysis (hereinafter referred to as groove information and processed distance data after image analysis is referred to as image analysis data);
A display unit that displays the image analysis data, a parameter input unit that adjusts and inputs the image processing parameters, and a re-image analysis instruction input unit that inputs an instruction to perform re-image analysis according to the adjusted image processing parameters. Portable operation means,
When there is an instruction to perform re-image analysis from the re-image analysis instruction input unit, the groove information acquisition unit is configured to output the image of the weld joint according to the image processing parameter that has been adjusted and input based on the distance measurement data of the first storage unit. A position detection system for an automatic welding machine, wherein analysis is performed to create new image analysis data, and the display unit displays the new image analysis data.
前記可搬式操作手段には、前記パラメータ入力部にて調整入力された画像処理パラメータを記憶する第3記憶手段を備えることを特徴とする請求項1に記載の自動溶接機の位置検出システム。   2. The position detection system for an automatic welder according to claim 1, wherein the portable operation means includes third storage means for storing image processing parameters adjusted and input by the parameter input unit. 前記第2記憶手段は、画像処理パラメータ調整入力前(以下、画像処理パラメータ調整前という)の画像解析データを記憶する記憶領域と、画像処理パラメータ調整入力後(以下、画像処理パラメータ調整後という)の画像解析データを記憶する記憶領域を備えることを特徴とする請求項1又は請求項2に記載の自動溶接機の位置検出システム。   The second storage means stores a storage area for storing image analysis data before input of image processing parameter adjustment (hereinafter referred to as before image processing parameter adjustment), and after input of image processing parameter adjustment (hereinafter referred to as after image processing parameter adjustment). The position detection system for an automatic welder according to claim 1 or 2, further comprising a storage area for storing the image analysis data of the automatic welder. 前記第2記憶手段は、画像処理パラメータ調整前と調整入力後の画像解析データをそれぞれファイル化して記憶することを特徴とする請求項1又は請求項2に記載の自動溶接機の位置検出システム。   3. The position detection system for an automatic welder according to claim 1, wherein the second storage unit stores image analysis data before and after adjustment of image processing parameters as files. 前記第2記憶手段は、
互いに異なる画像処理パラメータで画像解析されて得られた画像解析データをファイル化する毎に、作成したファイルのファイル名に互いに異なる識別符号を付与することを特徴とする請求項4に記載の自動溶接機の位置検出システム。
The second storage means
5. The automatic welding according to claim 4, wherein each time the image analysis data obtained by image analysis with different image processing parameters is filed, different identification codes are given to the file names of the created files. Machine position detection system.
前記可搬式操作手段には、第1記憶手段に記憶した測距データ、第2記憶手段に記憶した画像処理パラメータ調整前の画像解析データ、又は画像処理パラメータ調整後の画像解析データのうち、いずれか1つのデータを選択して表示部に切換え表示する表示切換手段を備えることを特徴とする請求項4に記載の自動溶接機の位置検出システム。   The portable operation means includes any one of ranging data stored in the first storage means, image analysis data before image processing parameter adjustment stored in the second storage means, or image analysis data after image processing parameter adjustment. 5. The position detection system for an automatic welding machine according to claim 4, further comprising display switching means for selecting one of the data and switching and displaying the selected data on the display unit. 前記表示部は、
第1記憶手段に記憶した測距データ、第2記憶手段に記憶した画像処理パラメータ調整前の画像解析データ、及び画像処理パラメータ調整後の画像解析データのうち、1つのデータを表示する表示モードと、少なくとも2つのデータを同時に表示する表示モードを有し、
前記可搬式操作手段には、前記表示モードを選択する表示モード選択入力手段が設けられ、
前記表示モード選択入力手段による表示モードの選択入力に応じて前記表示部がいずれかの表示モードを実行することを特徴とする請求項4に記載の自動溶接機の位置検出システム。
The display unit
A display mode for displaying one of the distance measurement data stored in the first storage means, the image analysis data before image processing parameter adjustment stored in the second storage means, and the image analysis data after image processing parameter adjustment; A display mode for displaying at least two data simultaneously;
The portable operation means is provided with a display mode selection input means for selecting the display mode,
5. The position detection system for an automatic welder according to claim 4, wherein the display unit executes any one of the display modes in response to a display mode selection input by the display mode selection input means.
JP2007063319A 2007-03-13 2007-03-13 Position detection system for automatic welding machine Pending JP2008221281A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007063319A JP2008221281A (en) 2007-03-13 2007-03-13 Position detection system for automatic welding machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007063319A JP2008221281A (en) 2007-03-13 2007-03-13 Position detection system for automatic welding machine

Publications (1)

Publication Number Publication Date
JP2008221281A true JP2008221281A (en) 2008-09-25

Family

ID=39840478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007063319A Pending JP2008221281A (en) 2007-03-13 2007-03-13 Position detection system for automatic welding machine

Country Status (1)

Country Link
JP (1) JP2008221281A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010190797A (en) * 2009-02-19 2010-09-02 Jfe Steel Corp Beveling section deepest position detection device and beveling section deepest position detection method
WO2021095886A1 (en) * 2019-11-15 2021-05-20 川崎重工業株式会社 Control device, control system, robot system, and control method
CN112935539A (en) * 2021-01-28 2021-06-11 广州德擎光学科技有限公司 Method and system for monitoring machining process
CN114473308A (en) * 2022-03-17 2022-05-13 江南造船(集团)有限责任公司 Automatic welding system and method for large-thickness plate groove
CN114749849A (en) * 2022-06-01 2022-07-15 江苏徐工工程机械研究院有限公司 Welding control method, device and system
CN115661095A (en) * 2022-11-01 2023-01-31 中车工业研究院有限公司 Method and device for adjusting welding process parameters, electronic equipment and storage medium
JP2023062492A (en) * 2021-10-21 2023-05-08 オムロン株式会社 control system
CN116175523A (en) * 2022-12-30 2023-05-30 成都卡诺普机器人技术股份有限公司 Method for detecting groove by using welding robot
JP7490126B1 (en) 2023-09-05 2024-05-24 日鉄エンジニアリング株式会社 Welding Systems

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS614907A (en) * 1984-06-19 1986-01-10 Matsushita Electric Ind Co Ltd Detector for sectional area of welding groove
JPH0566825A (en) * 1991-09-06 1993-03-19 Fanuc Ltd Monitor in image processor
JPH09183087A (en) * 1995-12-28 1997-07-15 Komatsu Ltd Work robot equipment
JP2001021386A (en) * 1999-07-06 2001-01-26 Yokogawa Electric Corp Paperless recorder
JP2006330468A (en) * 2005-05-27 2006-12-07 Olympus Imaging Corp Projector device
JP2007060039A (en) * 2005-08-22 2007-03-08 Sanyo Electric Co Ltd Broadcast receiver and multiscreen operating method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS614907A (en) * 1984-06-19 1986-01-10 Matsushita Electric Ind Co Ltd Detector for sectional area of welding groove
JPH0566825A (en) * 1991-09-06 1993-03-19 Fanuc Ltd Monitor in image processor
JPH09183087A (en) * 1995-12-28 1997-07-15 Komatsu Ltd Work robot equipment
JP2001021386A (en) * 1999-07-06 2001-01-26 Yokogawa Electric Corp Paperless recorder
JP2006330468A (en) * 2005-05-27 2006-12-07 Olympus Imaging Corp Projector device
JP2007060039A (en) * 2005-08-22 2007-03-08 Sanyo Electric Co Ltd Broadcast receiver and multiscreen operating method

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010190797A (en) * 2009-02-19 2010-09-02 Jfe Steel Corp Beveling section deepest position detection device and beveling section deepest position detection method
WO2021095886A1 (en) * 2019-11-15 2021-05-20 川崎重工業株式会社 Control device, control system, robot system, and control method
JP2021079468A (en) * 2019-11-15 2021-05-27 川崎重工業株式会社 Control device, control system, robot system and controlling method
US12343873B2 (en) 2019-11-15 2025-07-01 Kawasaki Jukogyo Kabushiki Kaisha Control device, control system, robot system, and control method
CN114728396A (en) * 2019-11-15 2022-07-08 川崎重工业株式会社 Control device, control system, robot system, and control method
JP7518610B2 (en) 2019-11-15 2024-07-18 川崎重工業株式会社 Control device, control system, robot system, and control method
CN112935539A (en) * 2021-01-28 2021-06-11 广州德擎光学科技有限公司 Method and system for monitoring machining process
JP2023062492A (en) * 2021-10-21 2023-05-08 オムロン株式会社 control system
JP7703996B2 (en) 2021-10-21 2025-07-08 オムロン株式会社 Control System
CN114473308A (en) * 2022-03-17 2022-05-13 江南造船(集团)有限责任公司 Automatic welding system and method for large-thickness plate groove
CN114749849B (en) * 2022-06-01 2023-09-01 江苏徐工工程机械研究院有限公司 Welding control method, device and system
CN114749849A (en) * 2022-06-01 2022-07-15 江苏徐工工程机械研究院有限公司 Welding control method, device and system
CN115661095A (en) * 2022-11-01 2023-01-31 中车工业研究院有限公司 Method and device for adjusting welding process parameters, electronic equipment and storage medium
CN116175523A (en) * 2022-12-30 2023-05-30 成都卡诺普机器人技术股份有限公司 Method for detecting groove by using welding robot
JP7490126B1 (en) 2023-09-05 2024-05-24 日鉄エンジニアリング株式会社 Welding Systems
JP2025036806A (en) * 2023-09-05 2025-03-17 日鉄エンジニアリング株式会社 Welding Systems

Similar Documents

Publication Publication Date Title
JP2008221281A (en) Position detection system for automatic welding machine
CN108406091B (en) Laser processing head and laser processing system with imaging device
EP2375298B1 (en) Programming method for a robot, programming apparatus for a robot, and robot control system
JP5645687B2 (en) Laser processing apparatus and laser processing method
JP2004261878A (en) Control system using work robot and work processing method using this control system
JP5502462B2 (en) Control apparatus and program for arc welding robot
JP7414851B2 (en) Robot control device, robot system, control method, and computer program
CN116867600A (en) Teaching device and teaching method for teaching the operation of a laser processing device
JP5636148B2 (en) Automatic welding machine position detection system
KR100671024B1 (en) Step welding method and system of welding robot using laser vision sensor
JP2010149225A (en) Robot system, device and method for controlling robot system
JP2005138126A (en) Welding system
TW202306720A (en) Teaching point generation device that generates teaching points on basis of output of sensor, and teaching point generation method
JP3203507B2 (en) Laser processing equipment
US10722987B2 (en) Joining machines with a position guide system
JP6405168B2 (en) Scanning control device, welding robot system, and scanning control method
JP5134871B2 (en) Attitude control method for arc welding robot welding torch and arc welding robot controller
US20250187185A1 (en) Device for generating search program for robot
KR102569978B1 (en) Welding method for using robot
JP6411828B2 (en) Camera position adjustment apparatus, welding robot system, and camera position adjustment method
WO2024009484A1 (en) Control device and control method
JP2509320B2 (en) Teaching position confirmation device for arc welding robot
JP2003001420A (en) Welding position automatic profiling control device
KR100687814B1 (en) Collision avoidance method for step welding of welding robot
JP3482615B2 (en) Welding position automatic profiling control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100108

A977 Report on retrieval

Effective date: 20111125

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Effective date: 20111206

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120120

A131 Notification of reasons for refusal

Effective date: 20121002

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121128

A02 Decision of refusal

Effective date: 20130702

Free format text: JAPANESE INTERMEDIATE CODE: A02