[go: up one dir, main page]

JP2021112809A - Production system - Google Patents

Production system Download PDF

Info

Publication number
JP2021112809A
JP2021112809A JP2020007613A JP2020007613A JP2021112809A JP 2021112809 A JP2021112809 A JP 2021112809A JP 2020007613 A JP2020007613 A JP 2020007613A JP 2020007613 A JP2020007613 A JP 2020007613A JP 2021112809 A JP2021112809 A JP 2021112809A
Authority
JP
Japan
Prior art keywords
work
machine tool
robot
guided vehicle
automatic guided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020007613A
Other languages
Japanese (ja)
Inventor
秀樹 長末
Hideki NAGASUE
秀樹 長末
昌昭 中川
Masaaki Nakagawa
昌昭 中川
秀明 田中
Hideaki Tanaka
秀明 田中
浩二 住井
Koji Sumii
浩二 住井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DMG Mori Co Ltd
Original Assignee
DMG Mori Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DMG Mori Seiki Co Ltd filed Critical DMG Mori Seiki Co Ltd
Priority to JP2020007613A priority Critical patent/JP2021112809A/en
Publication of JP2021112809A publication Critical patent/JP2021112809A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】ロボット及び無人搬送車をより多面的且つ効率的に利用することができる生産システムを提供する。【解決手段】工作機械10と、画像を撮像するカメラ41a,41bを有し、工作機械10に対して作業を行うロボット35と、ロボット35を搭載し、工作機械10に対して設定された作業位置に経由する無人搬送車45と、無人搬送車45及びロボット35を制御する制御装置50とを備える。工作機械10は、当該工作機械10で加工されるワークを保持する保持台を有し、制御装置50は、ロボット35及び無人搬送車45の少なくとも一方を動作させて、保持台に保持されるワークの画像をカメラ41a,41bにより複数の撮像方向から撮像し、得られた複数の画像を基に、該ワークの3次元形状を認識するように構成される。【選択図】図5PROBLEM TO BE SOLVED: To provide a production system capable of more multifaceted and efficient use of a robot and an automatic guided vehicle. SOLUTION: A machine tool 10 and a robot 35 having cameras 41a and 41b for capturing images and performing work on the machine tool 10 and a robot 35 mounted on the machine tool 10 are set for the machine tool 10. The automatic guided vehicle 45 via the position and the control device 50 for controlling the automatic guided vehicle 45 and the robot 35 are provided. The machine tool 10 has a holding table for holding the work machined by the machine tool 10, and the control device 50 operates at least one of the robot 35 and the automatic guided vehicle 45 to hold the work held on the holding table. The images of the above are captured by the cameras 41a and 41b from a plurality of imaging directions, and the three-dimensional shape of the work is recognized based on the obtained plurality of images. [Selection diagram] FIG. 5

Description

本発明は、ワークを加工する工作機械、この工作機械に対して作業を行うロボット、ロボットを搭載し、前記工作機械に対して設定された作業位置に経由する無人搬送車、並びにこれらロボット及び無人搬送車の動作を制御する制御装置から構成される生産システムに関する。 The present invention includes a machine tool that processes a workpiece, a robot that performs work on the machine tool, an automatic guided vehicle that carries a robot and passes through a work position set for the machine tool, and these robots and an unmanned vehicle. The present invention relates to a production system composed of a control device for controlling the operation of an automatic guided vehicle.

従来から、FMS(Flexible Manufacturing System)と呼ばれる生産システムが知られている。この生産システムでは、例えば、工場内に複数の工作機械を適宜配設し、無人の搬送車を用いて、各工作機械に加工前のワークや工具などを搬送し、また、この無人搬送車を用いて、各工作機械において加工されたワークや使用済みの工具などが回収される。そして、このような生産システムによって、無人の自動生産が実現される。 Conventionally, a production system called FMS (Flexible Manufacturing System) has been known. In this production system, for example, a plurality of machine tools are appropriately arranged in a factory, and an unmanned transport vehicle is used to transport workpieces and tools before processing to each machine tool, and the unmanned transport vehicle is also used. By using it, the workpieces processed in each machine tool and used tools are collected. And, by such a production system, unmanned automatic production is realized.

上記無人搬送車として、従来、特開2019−8359号公報に開示された無人搬送車が知られている。この無人搬送車は、投射光を出射する投光部を回転駆動させ、投射光が計測対象物で反射した反射光の受光に基づいて距離測定データを出力する距離測定装置と、距離測定データに基づいてマップ情報を作成するマップ作成部と、障害物を検知する障害物センサとを備え、障害物センサは、距離測定装置の測定有効領域を含んだ円形領域における測定無効領域に配置される。 As the automatic guided vehicle, the automatic guided vehicle disclosed in Japanese Patent Application Laid-Open No. 2019-8359 is conventionally known. This unmanned carrier is a distance measuring device that rotates and drives a light projecting unit that emits projected light and outputs distance measurement data based on the light received by the projected light reflected by the object to be measured, and distance measurement data. A map creation unit that creates map information based on the map information and an obstacle sensor that detects an obstacle are provided, and the obstacle sensor is arranged in a measurement invalid area in a circular area including a measurement effective area of the distance measuring device.

この無人搬送車によれば、まず、例えば手動操作により当該無人搬送車を操作して、工場の建屋内を走行させた際に、前記距離測定装置により測定される距離測定データに基づいて、工場建屋内の内側の輪郭、並びに建屋内に配置された工作機械や他の装置の外形上の輪郭を画定する平面状のマップ情報が、前記マップ作成部によって作成される。 According to this automatic guided vehicle, first, when the automatic guided vehicle is operated by manual operation and traveled in the building of the factory, the factory is based on the distance measurement data measured by the distance measuring device. The map creation unit creates planar map information that defines the inner contour of the building and the outer contour of the machine machine or other device arranged in the building.

また、無人搬送車は、前記距離測定装置により測定される距離測定データと、前記マップ作成部によって予め作成されたマップ情報に基づいて、建屋内における自身の現在位置(自己位置)を同定する。そして、無人搬送車は、建屋内のマップ情報及び自己位置情報に基づいて、予め定められた経路に沿って無軌道で自律走行し、上述したワークや工具などの搬送を行う。 In addition, the automatic guided vehicle identifies its own current position (self-position) in the building based on the distance measurement data measured by the distance measuring device and the map information created in advance by the map creating unit. Then, the automatic guided vehicle autonomously travels on a predetermined route along a predetermined route based on the map information and the self-position information in the building, and transports the above-mentioned workpieces and tools.

そして、近年では、特開2017−132002号公報に開示されるように、カメラを備えたロボットを上述した無人搬送車に搭載した生産システムが提案されている。この生産システムでは、ロボットを搭載した無人搬送車が、工作機械に対して設定された作業位置に移動し、当該作業位置において、ロボットにより当該工作機械に対してワークの着脱等の作業が実行される。 In recent years, as disclosed in Japanese Patent Application Laid-Open No. 2017-132002, a production system in which a robot equipped with a camera is mounted on the above-mentioned automatic guided vehicle has been proposed. In this production system, an automatic guided vehicle equipped with a robot moves to a work position set for the machine tool, and at the work position, the robot executes work such as attaching / detaching a work to the machine tool. NS.

このような、生産システムでは、無人搬送車によって移動する一台のロボットにより、複数の工作機械に対してワークの着脱等の作業を実施することができるので、工作機械に対してロボットを固定した状態で配設する場合に比べて、工作機械のレイアウトの自由度が増すため、工作機械のレイアウトをより生産効率を高めることが可能なレイアウトに設定することができる。また、ロボットを固定状態で配設した旧来の生産システムに比べて、一台のロボットにより、より多くの工作機械に対して作業を行うことができるので、設備費用の低廉化を図ることができる。 In such a production system, one robot moved by an automatic guided vehicle can perform work such as attaching / detaching a work to a plurality of machine tools, so that the robot is fixed to the machine tool. Since the degree of freedom in the layout of the machine tool is increased as compared with the case where the machine tool is arranged in the state, the layout of the machine tool can be set to a layout capable of further improving the production efficiency. In addition, compared to the conventional production system in which the robots are arranged in a fixed state, one robot can work on more machine tools, so that the equipment cost can be reduced. ..

特開2019−8359号公報JP-A-2019-8359 特開2017−132002号公報Japanese Unexamined Patent Publication No. 2017-132002

ところで、上述した生産システムにおいて、前記ロボットを搭載した無人搬送車は多くの工作機械が配設された工場建屋内を広範囲に走行している。このような無人搬送車は搭載されたロボットにより工作機械に対してワークの着脱等を行うように設定されているが、ロボットはカメラ等を具備した高機能の設備であり、当該ロボット及び無人搬送車の空き時間、言い換えれば待機時間中に、これらを他の用途に用いることができれば便利であり、また、設備の効率的な利用につながるため有益である。 By the way, in the above-mentioned production system, the automatic guided vehicle equipped with the robot travels in a wide range in the factory building where many machine tools are arranged. Such an automatic guided vehicle is set so that the mounted robot attaches / detaches a work to a machine tool, etc., but the robot is a high-performance equipment equipped with a camera or the like, and the robot and the automatic guided vehicle are transported. It would be convenient if these could be used for other purposes during the free time of the car, in other words, during the waiting time, and it would be beneficial because it would lead to the efficient use of the equipment.

本発明は、このような背景の下でなされたものであり、ロボットが搭載された無人搬送車を用いた生産システムにおいて、当該ロボット及び無人搬送車をより多面的且つ効率的に利用することを可能にした生産システムの提供を、その目的とする。 The present invention has been made under such a background, and in a production system using an automatic guided vehicle equipped with a robot, the robot and the automatic guided vehicle can be used more multifacetedly and efficiently. The purpose is to provide a production system that has been made possible.

上記課題を解決するための本発明は、
ワークに対して所定の加工を行う工作機械と、
画像を撮像するカメラを有し、前記工作機械に対して作業を行うロボットと、
前記ロボットを搭載し、前記工作機械に対して設定された作業位置に経由する無人搬送車と、
前記無人搬送車及びロボットを制御する制御装置とを備えた生産システムであって、
前記工作機械は、該工作機械で加工されるワークを保持する保持台を有し、
前記制御装置は、前記ロボット及び無人搬送車の少なくとも一方を動作させて、前記保持台に保持されるワークの画像を前記カメラにより複数の撮像方向から撮像し、得られた複数の画像を基に、該ワークの3次元形状を認識するように構成された生産システムに係る。
The present invention for solving the above problems
Machine tools that perform predetermined machining on workpieces and
A robot that has a camera that captures images and works on the machine tool,
An automatic guided vehicle equipped with the robot and passing through a work position set for the machine tool.
A production system including the automatic guided vehicle and a control device for controlling a robot.
The machine tool has a holding table for holding a workpiece machined by the machine tool.
The control device operates at least one of the robot and the automatic guided vehicle to capture an image of the work held on the holding table from a plurality of imaging directions by the camera, and based on the obtained plurality of images. The present invention relates to a production system configured to recognize a three-dimensional shape of the work.

この態様(第1の態様)の生産システムによれば、前記制御装置による制御の下、前記保持台に保持されたワークが前記カメラによって撮像されるとともに、その際、前記ロボット及び無人搬送車の少なくとも一方が動作することにより、前記カメラによって複数の撮像方向からワークが撮像される。そして、前記制御装置は、前記カメラによって撮像された複数の画像を基に、当該ワークの3次元形状を認識する。尚、複数の画像からワークの3次元形状を認識する処理には、公知のあらゆる処理を適用することができる。 According to the production system of this aspect (first aspect), the work held on the holding table is imaged by the camera under the control of the control device, and at that time, the robot and the automatic guided vehicle are imaged. By operating at least one of them, the work is imaged by the camera from a plurality of imaging directions. Then, the control device recognizes the three-dimensional shape of the work based on the plurality of images captured by the camera. Any known process can be applied to the process of recognizing the three-dimensional shape of the work from a plurality of images.

また、本発明は、ワークに対して所定の加工を行う工作機械と、
画像を撮像するカメラを有し、前記工作機械に対して作業を行うロボットと、
前記ロボットを搭載し、前記工作機械に対して設定された作業位置に経由する無人搬送車と、
前記無人搬送車及びロボットを制御する制御装置とを備えた生産システムであって、
前記工作機械は、該工作機械で加工されるワークを保持する保持台、及び該保持台を回転させる回転機構を備え、
前記制御装置は、前記回転機構を回転させる動作信号を前記工作機械に送信して前記保持台を回転させ、前記カメラにより複数の撮像方向から前記ワークの画像を撮像し、得られた複数の画像を基に、該ワークの3次元形状を認識するように構成された生産システムに係る。
Further, the present invention includes a machine tool that performs predetermined processing on a work and a machine tool.
A robot that has a camera that captures images and works on the machine tool,
An automatic guided vehicle equipped with the robot and passing through a work position set for the machine tool.
A production system including the automatic guided vehicle and a control device for controlling a robot.
The machine tool includes a holding table for holding a workpiece machined by the machine tool, and a rotating mechanism for rotating the holding table.
The control device transmits an operation signal for rotating the rotation mechanism to the machine tool to rotate the holding table, and the camera captures images of the work from a plurality of imaging directions, and a plurality of obtained images are obtained. The present invention relates to a production system configured to recognize the three-dimensional shape of the work based on the above.

この態様(第2の態様)の生産システムによれば、前記制御装置による制御の下、前記保持台に保持されたワークが前記カメラによって撮像されるとともに、その際、前記回転機構を回転させる動作信号を前記工作機械に送信して前記保持台を回転させることにより、前記カメラによって複数の撮像方向からワークが撮像される。そして、前記制御装置は、前記カメラによって撮像された複数の画像を基に、当該ワークの3次元形状を認識する。 According to the production system of this aspect (second aspect), under the control of the control device, the work held on the holding table is imaged by the camera, and at that time, the rotation mechanism is rotated. By transmitting a signal to the machine tool and rotating the holding table, the work is imaged by the camera from a plurality of imaging directions. Then, the control device recognizes the three-dimensional shape of the work based on the plurality of images captured by the camera.

また、本発明は、ワークに対して所定の加工を行う工作機械と、
画像を撮像するカメラを有し、前記工作機械に対して作業を行うロボットと、
前記ロボットを搭載し、前記工作機械に対して設定された作業位置に経由する無人搬送車と、
前記無人搬送車及びロボットを制御する制御装置とを備えた生産システムであって、
前記工作機械は、該工作機械で加工されるワークを保持する保持台、及び該保持台を回転させる回転機構を備え、
前記制御装置は、前記回転機構を回転させる動作信号を前記工作機械に送信して前記保持台を回転させるとともに、前記ロボット及び無人搬送車の少なくとも一方を動作させて、前記保持台に保持されるワークの画像を前記カメラにより複数の撮像方向から撮像し、得られた複数の画像を基に、該ワークの3次元形状を認識するように構成された生産システムに係る。
Further, the present invention includes a machine tool that performs predetermined processing on a work and a machine tool.
A robot that has a camera that captures images and works on the machine tool,
An automatic guided vehicle equipped with the robot and passing through a work position set for the machine tool.
A production system including the automatic guided vehicle and a control device for controlling a robot.
The machine tool includes a holding table for holding a workpiece machined by the machine tool, and a rotating mechanism for rotating the holding table.
The control device transmits an operation signal for rotating the rotation mechanism to the machine tool to rotate the holding table, and at the same time, operates at least one of the robot and the automatic guided vehicle to be held by the holding table. The present invention relates to a production system configured to capture an image of a work by the camera from a plurality of imaging directions and to recognize a three-dimensional shape of the work based on the obtained plurality of images.

この態様(第3の態様)の生産システムによれば、前記制御装置による制御の下、前記保持台に保持されたワークが前記カメラによって撮像されるとともに、その際、前記回転機構を回転させる動作信号を前記工作機械に送信して前記保持台を回転させるとともに、前記ロボット及び無人搬送車の少なくとも一方を動作させることにより、前記カメラによって複数の撮像方向からワークが撮像される。そして、前記制御装置は、前記カメラによって撮像された複数の画像を基に、当該ワークの3次元形状を認識する。 According to the production system of this aspect (third aspect), the work held on the holding table is imaged by the camera under the control of the control device, and at that time, the rotation mechanism is rotated. By transmitting a signal to the machine tool to rotate the holding table and operating at least one of the robot and the automatic guided vehicle, the camera images the work from a plurality of imaging directions. Then, the control device recognizes the three-dimensional shape of the work based on the plurality of images captured by the camera.

これら第1〜第3の態様の生産システムにおいて、前記制御装置は、上記のようにしてワークの3次元形状を認識することにより、例えば、認識されたワーク形状と、予め登録(記憶)されたワーク形状とを比較することによって当該ワークの品番を認識し、更に、認識されたワークの品番と、工作機械が現在加工を予定しているワークの品番とを照合することにより、前記保持台に保持されたワークが、加工を予定しているワークであるか否かを判別し、前記保持台に保持されたワークが、加工を予定していないワークである場合には、アラームを出力するといった処理を行うことができる。尚、工作機械が加工を予定しているワークの品番は、例えば、工作機械の数値制御装置との通信を介して、当該数値制御装置から得ることができる。 In the production system of the first to third aspects, the control device recognizes the three-dimensional shape of the work as described above, so that, for example, the recognized work shape and the recognized work shape are registered (stored) in advance. The part number of the work is recognized by comparing with the work shape, and further, by collating the recognized part number of the work with the part number of the work currently scheduled to be machined by the machine tool, the holding table can be used. It is determined whether or not the held work is a work scheduled to be machined, and if the work held on the holding table is a work not scheduled to be machined, an alarm is output. Processing can be performed. The product number of the work to be machined by the machine tool can be obtained from the numerical control device, for example, via communication with the numerical control device of the machine tool.

前記保持台には、前記工作機械によって加工されるワークが、一般的に、適宜自動供給装置、或いはオペレータによって供給され、保持される態様が採られるが、ときに形状の誤認等によって、形状の酷似した別のワーク(加工を予定していないワーク)が混入することがある。このような場合、この予定されていないワークが工作機械によって加工されると、工具とワークが衝突してこれらが損傷したり、或いは衝突しない場合でもワークが不良品となるという不都合を生じる。本発明に係る生産システムによれば、保持台に保持されたワークが当該工作機械において加工を予定されたワークであるか否かを確認することができるので、上記のような不都合が生じるのを未然に防止することができる。 In the holding table, the work machined by the machine tool is generally supplied and held by an automatic feeding device or an operator as appropriate, but sometimes due to a misunderstanding of the shape or the like, the shape of the holding table Another very similar work (work that is not scheduled to be processed) may be mixed. In such a case, when this unscheduled work is machined by a machine tool, there is an inconvenience that the tool and the work collide with each other to damage them, or even if they do not collide, the work becomes a defective product. According to the production system according to the present invention, it is possible to confirm whether or not the work held on the holding table is the work scheduled to be machined in the machine tool, so that the above-mentioned inconvenience occurs. It can be prevented in advance.

また、撮像された画像を適宜処理することにより、加工後のワークの寸法を算出することができ、このようにワークの寸法を算出することで、当該加工が適切に行われているかどうかを確認することができる。更に、制御装置は、ワークの品番を認識することにより、当該ワークの品番が加工を予定されたものである場合には、このワークの品番を基に、自身が実行している動作プログラムが予定された動作プログラムであるか否かを確認することができ、予定されていない動作プログラムである場合には、動作を停止して、アラームを出力するなどの処理を実行することができる。 In addition, the dimensions of the workpiece after machining can be calculated by appropriately processing the captured image, and by calculating the dimensions of the workpiece in this way, it is confirmed whether or not the machining is properly performed. can do. Further, the control device recognizes the part number of the work, and when the part number of the work is scheduled to be machined, the operation program executed by itself is planned based on the part number of this work. It is possible to confirm whether or not the operation program has been executed, and if it is an unscheduled operation program, it is possible to stop the operation and execute a process such as outputting an alarm.

尚、上述した第1〜第3の態様の各生産システムにおいて、前記複数の撮像方向は、相互に直交する方向であるのが好ましい。 In each of the production systems of the first to third aspects described above, it is preferable that the plurality of imaging directions are orthogonal to each other.

上述したように、本発明に係る各生産システムでは、カメラによって撮像された複数の画像を基に、制御装置によってワークの3次元形状が認識される。そして、このようにしてワークの3次元形状を認識することにより、例えば、当該ワークの品番が認識され、更に、認識されたワークの品番を基に、保持台に保持されたワークが加工を予定しているワークであるか否かを判別することができ、加工を予定していないワークである場合には、アラームを出力するといった処理を行うことができる。 As described above, in each production system according to the present invention, the three-dimensional shape of the work is recognized by the control device based on the plurality of images captured by the camera. Then, by recognizing the three-dimensional shape of the work in this way, for example, the part number of the work is recognized, and further, the work held on the holding table is scheduled to be machined based on the recognized part number of the work. It is possible to determine whether or not the work is being machined, and if the work is not scheduled to be machined, it is possible to perform processing such as outputting an alarm.

予定されていないワークが工作機械によって加工されると、工具とワークが衝突してこれらが損傷したり、或いは衝突しない場合でもワークが不良品になるという不都合を生じるが、保持台に保持されたワークが加工予定のワークであるか否かを確認することで、このような不都合が生じるのを未然に防止することができる。 When an unplanned work is machined by a machine tool, there is an inconvenience that the tool and the work collide with each other and they are damaged, or even if they do not collide, the work becomes defective, but it is held by the holding table. By confirming whether or not the work is a work to be machined, it is possible to prevent such inconvenience from occurring.

また、撮像された画像を適宜処理することにより、加工後のワークの寸法を算出することができ、このようにワークの寸法を算出することで、当該加工が適切に行われているかどうかを確認することができる。また、制御装置は、ワークの品番が加工を予定されたものである場合には、このワークの品番を基に、自身が実行している動作プログラムが予定された動作プログラムであるか否かを確認することができ、予定されていない動作プログラムである場合には、動作を停止して、アラームを出力するなどの処理を実行することができる。 In addition, the dimensions of the workpiece after machining can be calculated by appropriately processing the captured image, and by calculating the dimensions of the workpiece in this way, it is confirmed whether or not the machining is properly performed. can do. In addition, when the product number of the work is scheduled to be machined, the control device determines whether or not the operation program it is executing is the scheduled operation program based on the product number of this work. It can be confirmed, and if it is an unscheduled operation program, the operation can be stopped and processing such as outputting an alarm can be executed.

本発明の一実施形態に係る生産システムを示した平面図である。It is a top view which showed the production system which concerns on one Embodiment of this invention. 本実施形態に係る工作機械等を示した斜視図である。It is a perspective view which showed the machine tool and the like which concerns on this Embodiment. 本実施形態に係る保持台及びパレット等を一部断面で示した正面図である。It is a front view which showed the holding table, the pallet, etc. which concerns on this embodiment in a partial cross section. 本実施形態に係る無人搬送車及びロボットを示した斜視図である。It is a perspective view which showed the automatic guided vehicle and the robot which concerns on this embodiment. 本実施形態に係る制御装置等を示したブロック図である。It is a block diagram which showed the control apparatus and the like which concerns on this Embodiment. 本実施形態において、ワークの形状を認識する処理を説明するための説明図である。In this embodiment, it is explanatory drawing for demonstrating the process of recognizing the shape of a work. 本発明の他の実施形態に係る保持台を示した斜視図である。It is a perspective view which showed the holding table which concerns on other embodiment of this invention.

以下、本発明の実施の形態について、図面を参照しながら説明する。図1及び図5に示すように、本例の生産システム1は、少なくとも1台の工作機械10と、ワークストッカ33と、ロボット35と、このロボット35を搭載した無人搬送車45と、これらロボット35及び無人搬送車45を制御する制御装置50とを備えて構成される。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. As shown in FIGS. 1 and 5, the production system 1 of this example includes at least one machine tool 10, a work stocker 33, a robot 35, an automatic guided vehicle 45 equipped with the robot 35, and these robots. It is configured to include a control device 50 that controls 35 and an automatic guided vehicle 45.

図1及び図2に示すように、本例の前記工作機械10は横形マシニングセンタであり、平面視T字形状をしたベッド11、ベッド11の一方の辺にあたる部分(図1において長手方向が横方向に沿った部分)に立設され、矢示X軸方向に往復動可能に設けられたコラム12、ベッド11の他方の辺にあたる部分(図1において長手方向が縦方向に沿った部分)に配設され、矢示Z軸方向に往復動可能に設けられたサドル16、それぞれ取付ジグJが配設された2つのパレットPa、ベッド11の他方の辺の端部に設けられたパレット交換装置20及びパレット保持装置25、並びに数値制御装置(図示せず)などを備えている。 As shown in FIGS. 1 and 2, the machine tool 10 of this example is a horizontal machining center, and is a portion corresponding to one side of a T-shaped bed 11 and a bed 11 in a plan view (the longitudinal direction in FIG. 1 is the lateral direction). The column 12 and the bed 11 are erected on the other side of the column 12 and the bed 11 so as to be reciprocating in the X-axis direction. A saddle 16 provided so as to be reciprocating in the Z-axis direction, two pallets Pa on which mounting jigs J are arranged, and a pallet changing device 20 provided at the other end of the bed 11. It also includes a pallet holding device 25, a numerical control device (not shown), and the like.

前記コラム12のサドル16側の面には、主軸保持台13が矢示Y軸方向に往復動可能に配設されており、この主軸保持台13には主軸頭14が保持されている。そして、この主軸頭14には主軸15が軸中心に回転自在に保持され、当該主軸15には工具Tが保持される。また、前記サドル16は前記パレットPaを水平回転可能、且つ着脱自在に保持しており、このパレットPaの上面には、角柱状をした前記取付ジグJが固設されている。尚、取付ジグJの各側面にはワークWが取り付けられている。 On the surface of the column 12 on the saddle 16 side, a spindle holding base 13 is arranged so as to be reciprocating in the Y-axis direction indicated by an arrow, and the spindle head 14 is held by the spindle holding base 13. Then, the spindle 15 is rotatably held at the center of the spindle at the spindle head 14, and the tool T is held at the spindle 15. Further, the saddle 16 holds the pallet Pa horizontally rotatable and detachable, and the prismatic mounting jig J is fixedly mounted on the upper surface of the pallet Pa. Work Ws are attached to each side surface of the attachment jig J.

そして、前記数値制御装置(図示せず)による制御の下、主軸15及び工具Tが軸中心に回転した状態で、コラム12、主軸保持台13及びサドル16がそれぞれ矢示X軸方向、Y軸方向及びZ軸方向に移動することにより、工具TとワークWとが相対的に矢示X軸方向、Y軸方向及びZ軸方向に移動し、これによりワークWが工具Tによって加工される。 Then, under the control of the numerical control device (not shown), the column 12, the spindle holding base 13, and the saddle 16 are rotated in the X-axis direction and the Y-axis, respectively, in a state where the spindle 15 and the tool T are rotated about the axis. By moving in the direction and the Z-axis direction, the tool T and the work W move relatively in the X-axis direction, the Y-axis direction, and the Z-axis direction, whereby the work W is machined by the tool T.

前記パレット保持装置25は、図3に示すように、パレットPaを着脱自在に保持する保持台27、この保持台27を水平回転自在に保持する基台26、及び前記保持台27を水平回転させる回転機構28などから構成される。また、回転機構28は、前記保持台27の下端部に取り付けられたウォームホイール30、このウォームホイール30に噛合するウォーム29、このウォーム29に連結された駆動軸31、この駆動軸31を軸中心に回転させる駆動モータ32などから構成され、駆動モータ32によって駆動軸31及びウォーム29を軸中心に回転させることにより、ウォームホイール30が水平回転し、これによって保持台27及びパレットPaが水平回転する。 As shown in FIG. 3, the pallet holding device 25 horizontally rotates a holding base 27 that holds the pallet Pa detachably, a base 26 that holds the holding base 27 horizontally and rotatablely, and the holding base 27. It is composed of a rotation mechanism 28 and the like. Further, the rotation mechanism 28 is centered on a worm wheel 30 attached to the lower end of the holding base 27, a worm 29 that meshes with the worm wheel 30, a drive shaft 31 connected to the worm 29, and the drive shaft 31. The worm wheel 30 rotates horizontally by rotating the drive shaft 31 and the worm 29 about the axis by the drive motor 32, which causes the holding base 27 and the pallet Pa to rotate horizontally. ..

前記パレット交換装置20は、平面視H字形状を有し、水平回転可能に設けられた旋回アーム21を備えており、前記保持台27に保持されたパレットPaが一方の櫛歯状のアーム21b,21b間に位置している。このパレット交換装置20は、前記サドル16が旋回アーム21側に移動して、当該サドル16によって保持されたパレットPaが他方側の櫛歯状のアーム間21a,21aに位置した状態で、当該旋回アーム21を上方に移動させる、即ち、リフトアップさせることにより、両パレットPaを上方に持ち上げ、次いで、旋回アーム21を180°水平回転させた後、当該旋回アーム21を下方に移動させることで、保持台27に保持されていたパレットPaがサドル16に保持され、当該サドル16に保持されていたパレットPaが保持台27に保持される。即ち、サドル16に保持されたパレットPaと保持台27に保持されたパレットPaとが交換される。 The pallet changing device 20 has an H-shape in a plan view and includes a swivel arm 21 provided so as to be horizontally rotatable, and the pallet Pa held on the holding table 27 is one of the comb-shaped arms 21b. , 21b. The pallet changing device 20 is in a state where the saddle 16 is moved to the swivel arm 21 side and the pallet Pa held by the saddle 16 is located between the comb-shaped arms 21a and 21a on the other side. By moving the arm 21 upward, that is, by lifting it up, both pallets Pa are lifted upward, and then the swivel arm 21 is horizontally rotated by 180 °, and then the swivel arm 21 is moved downward. The pallet Pa held in the holding table 27 is held in the saddle 16, and the pallet Pa held in the saddle 16 is held in the holding table 27. That is, the pallet Pa held in the saddle 16 and the pallet Pa held in the holding table 27 are exchanged.

尚、この工作機械10では、保持台27に保持されたパレットPaについて、前記ロボット35によりワークWの着脱動作が行われる。即ち、前記無人搬送車35が作業位置Pに位置している状態で、取付ジグJに取り付けられた加工済みのワークWが前記ロボット35によって当該取付ジグJから取り外され、ついで、前記無人搬送車35が作業位置Pに移動した後、当該ロボット35によって前記ワークストッカ33に格納される。次に、無人搬送車35が作業位置Pに位置している状態で、前記ワークストッカ33に収容された未加工のワークWがロボット35により取り出され、ついで、無人搬送車35が作業位置Pに移動した後、当該ロボット35によって未加工のワークWが取付ジグJに取り付けられる。尚、このワークストッカ33は、ワークWを収容する収容部を有し、この収容部に、未加工のワークと加工済みのワークの双方を収容する。 In the machine tool 10, the robot 35 attaches / detaches the work W to / from the pallet Pa held on the holding table 27. That is, the state in which the AGV 35 is positioned at the working position P 1, processed workpiece W mounted on the mounting jig J is removed from the mounting jig J by the robot 35, then the AGV after the vehicle 35 has moved to the working position P 2, it is stored in the stocker 33 by the robot 35. Then, with the AGV 35 is positioned at the working position P 2, the stocker 33 to the stowed raw workpiece W is taken out by the robot 35, then, the AGV 35 is the working position P After moving to 1 , the raw work W is attached to the attachment jig J by the robot 35. The work stocker 33 has an accommodating portion for accommodating the work W, and both the unprocessed work and the processed work are accommodated in this accommodating portion.

前記無人搬送車45は、図1及び図4に示すように、その上面である載置面46に前記ロボット35が搭載されるとともに、オペレータが携帯可能な操作盤47が付設されている。この操作盤47は、データの入出力を行う入出力部、当該無人搬送車45及びロボット35を手動操作する操作部、画面表示可能なディスプレイ、並びに音声を出力するスピーカなどを備えている。 As shown in FIGS. 1 and 4, the automatic guided vehicle 45 is equipped with the robot 35 mounted on a mounting surface 46 which is an upper surface thereof, and an operation panel 47 which can be carried by an operator. The operation panel 47 includes an input / output unit for inputting / outputting data, an operation unit for manually operating the automatic guided vehicle 45 and the robot 35, a display capable of displaying a screen, a speaker for outputting sound, and the like.

また、無人搬送車45は、工場の建屋内における自身の位置を認識可能なセンサ(例えば、レーザ光を用いた距離計測センサ)を備えており、前記制御装置50による制御の下で、前記建屋内を無軌道で走行するように構成され、本例では、少なくとも前記工作機械10に対して設定された作業位置P及びPに経由する。 Further, the automatic guided vehicle 45 is provided with a sensor capable of recognizing its own position in the building of the factory (for example, a distance measurement sensor using a laser beam), and is built under the control of the control device 50. configured indoor so that the vehicle travels in trackless, in this example, via the working position P 1 and P 2 is set to at least the machine tool 10.

図1及び図4に示すように、前記ロボット35は、第1アーム36、第2アーム37及び第3アーム38の3つのアームを備えた多関節型のロボットであり、第3アーム38の先端部にはエンドエフェクタとしてのハンド39が装着され、また、支持バー40を介して2つのカメラ41a,41bが装着されている。このカメラ41a,41bは、例えば、CCDエリアイメージセンサから構成される。 As shown in FIGS. 1 and 4, the robot 35 is an articulated robot having three arms, a first arm 36, a second arm 37, and a third arm 38, and is a tip of the third arm 38. A hand 39 as an end effector is attached to the portion, and two cameras 41a and 41b are attached via a support bar 40. The cameras 41a and 41b are composed of, for example, a CCD area image sensor.

前記制御装置50は、前記無人搬送車45の筐体内に格納されており、図5に示すように、動作プログラム記憶部51、移動位置記憶部52、動作姿勢記憶部53、マップ情報記憶部54、ワーク形状記憶部55、手動運転制御部56、自動運転制御部57、マップ情報生成部58、位置認識部59、ワーク形状認識部60及び入出力インターフェース61から構成される。そして、制御装置50は、この入出力インターフェース61を介して、前記工作機械10、ワークストッカ33、ロボット35、カメラ41a,41b、無人搬送車45及び操作盤47に接続している。 The control device 50 is housed in the housing of the unmanned transport vehicle 45, and as shown in FIG. 5, the operation program storage unit 51, the moving position storage unit 52, the operation posture storage unit 53, and the map information storage unit 54. , Work shape storage unit 55, manual operation control unit 56, automatic operation control unit 57, map information generation unit 58, position recognition unit 59, work shape recognition unit 60, and input / output interface 61. The control device 50 is connected to the machine tool 10, the work stocker 33, the robot 35, the cameras 41a and 41b, the automatic guided vehicle 45, and the operation panel 47 via the input / output interface 61.

尚、制御装置50は、CPU、RAM、ROMなどを含むコンピュータから構成され、前記手動運転制御部56、自動運転制御部57、マップ情報生成部58、位置認識部59ワーク形状認識部60及び入出力インターフェース61は、コンピュータプログラムによってその機能が実現され、所定の処理を実行する。また、動作プログラム記憶部51、移動位置記憶部52、動作姿勢記憶部53、マップ情報記憶部54及びワーク形状記憶部55はRAMなどの適宜記憶媒体から構成される。 The control device 50 is composed of a computer including a CPU, RAM, ROM, etc., and includes the manual operation control unit 56, the automatic operation control unit 57, the map information generation unit 58, the position recognition unit 59, and the work shape recognition unit 60. The function of the output interface 61 is realized by a computer program, and a predetermined process is executed. Further, the operation program storage unit 51, the movement position storage unit 52, the operation posture storage unit 53, the map information storage unit 54, and the work shape storage unit 55 are composed of appropriate storage media such as RAM.

前記手動運転制御部56は、オペレータにより前記操作盤47から入力される操作信号に従って、前記無人搬送車45及びロボット35を動作させる機能部である。即ち、オペレータは、この手動運転制御部56による制御の下で、操作盤47を用いて、前記無人搬送車45及びロボット35の手動操作を実行することができる。 The manual operation control unit 56 is a functional unit that operates the automatic guided vehicle 45 and the robot 35 according to an operation signal input from the operation panel 47 by the operator. That is, the operator can manually operate the automatic guided vehicle 45 and the robot 35 by using the operation panel 47 under the control of the manual operation control unit 56.

前記動作プログラム記憶部51は、生産時に前記無人搬送車45及び前記ロボット35を自動運転するための自動運転用プログラム、並びに後述する建屋内のマップ情報を生成する際に前記無人搬送車45を動作させるためのマップ生成用プログラムを記憶する機能部である。自動運転用プログラム及びマップ生成用プログラムは、例えば、前記操作盤47に設けられた入出力部から入力され、当該動作プログラム記憶部51に格納される。 The operation program storage unit 51 operates the automatic guided vehicle 45 when generating an automatic driving program for automatically driving the automatic guided vehicle 45 and the robot 35 at the time of production, and map information in a building to be described later. It is a functional part that stores a program for generating a map. The automatic operation program and the map generation program are, for example, input from the input / output unit provided on the operation panel 47 and stored in the operation program storage unit 51.

尚、この自動運転用プログラムには、無人搬送車45が移動する目標位置としての移動位置、移動速度及び無人搬送車45の向きに関する指令コードが含まれ、また、ロボット35が順次動作する当該動作に関する指令コードが含まれる。そして、本例では、保持台27に保持されたパレットPaについて、当該ロボット35によりワークWを着脱する上述の着脱動作に関する指令コードが含まれ、また、ロボット35に備えられたカメラ41a,41bを用いて、保持台27の割り出し位置I,I,IにあるワークWの画像をそれぞれ撮像するための撮像動作に関する指令コードが含まれる。また、マップ生成用プログラムには、前記マップ情報生成部58においてマップ情報を生成できるように、無人搬送車45を無軌道で建屋内を隈なく走行させるための指令コードが含まれる。 In addition, this automatic driving program includes a command code regarding a moving position, a moving speed, and a direction of the automatic guided vehicle 45 as a target position for the automatic guided vehicle 45 to move, and the operation of the robot 35 in which the robot 35 operates sequentially. Contains the directive code for. Then, in this example, with respect to the pallet Pa held on the holding table 27, the command code relating to the above-mentioned attachment / detachment operation for attaching / detaching the work W by the robot 35 is included, and the cameras 41a and 41b provided in the robot 35 are used. A command code relating to an imaging operation for capturing an image of the work W at indexing positions I 2 , I 3 , and I 4 of the holding table 27 is included. In addition, the map generation program includes a command code for running the automatic guided vehicle 45 on an untracked route throughout the building so that the map information generation unit 58 can generate map information.

前記マップ情報記憶部54は、無人搬送車45が走行する建屋、及びこの建屋内に配置される工作機械10等の配置情報を含むマップ情報を記憶する機能部であり、このマップ情報は前記マップ情報生成部58によって生成される。 The map information storage unit 54 is a functional unit that stores map information including layout information of the building on which the automatic guided vehicle 45 travels and the machine tools 10 and the like arranged in the building, and the map information is the map. It is generated by the information generation unit 58.

前記マップ情報生成部58は、詳しくは後述する前記制御装置50の自動運転制御部57による制御の下で、前記動作プログラム記憶部51に格納されたマップ生成用プログラムに従って無人搬送車45を走行させた際に、前記センサによって検出される距離データから建屋内の空間情報を取得するとともに、建屋内に配設される前記工作機械10等の平面形状を認識し、例えば、予め登録された前記工作機械10等の平面形状を基に、建屋内に配設された具体的な工作機械10等の位置、平面形状等(配置情報)を認識する。そして、マップ情報生成部58は、得られた空間情報及び工作機械10等の配置情報を建屋内のマップ情報として前記マップ情報記憶部54に格納する。 The map information generation unit 58 runs the automatic guided vehicle 45 according to the map generation program stored in the operation program storage unit 51 under the control of the automatic operation control unit 57 of the control device 50, which will be described in detail later. At that time, the spatial information in the building is acquired from the distance data detected by the sensor, and the plane shape of the machine tool 10 or the like arranged in the building is recognized, for example, the pre-registered machine tool. Based on the plane shape of the machine 10 or the like, the position, plane shape, etc. (arrangement information) of the specific machine tool 10 or the like arranged in the building are recognized. Then, the map information generation unit 58 stores the obtained spatial information and the arrangement information of the machine tool 10 and the like in the map information storage unit 54 as map information in the building.

前記位置認識部59は、前記センサによって検出される距離データ、及び前記マップ情報記憶部54に格納された建屋内のマップ情報を基に、建屋内における無人搬送車45の位置を認識する機能部であり、この位置認識部59によって認識される無人搬送車45の位置に基づいて、当該無人搬送車45の動作が前記自動運転制御部57によって制御される。 The position recognition unit 59 is a functional unit that recognizes the position of the automatic guided vehicle 45 in the building based on the distance data detected by the sensor and the map information in the building stored in the map information storage unit 54. The operation of the automatic guided vehicle 45 is controlled by the automatic operation control unit 57 based on the position of the automatic guided vehicle 45 recognized by the position recognition unit 59.

前記移動位置記憶部52は、前記無人搬送車45が移動する具体的な目標位置としての移動位置であって、前記動作プログラム中の指令コードに対応した具体的な移動位置を記憶する機能部であり、この移動位置には、上述した工作機械10に経由して、ロボット35により当該工作機械10に対して作業を行うための作業位置、即ち、上述した作業位置P,Pが含まれる。尚、この移動位置は、例えば、前記手動運転制御部56による制御の下、前記操作盤47により前記無人搬送車45を手動運転して、目標とする各位置に移動させた後、前記位置認識部59によって認識される位置データを前記移動位置記憶部52に格納する操作によって設定される。この操作は所謂ティーチング操作と呼ばれる。 The moving position storage unit 52 is a moving position as a specific target position for the automatic guided vehicle 45 to move, and is a functional unit that stores a specific moving position corresponding to a command code in the operation program. The moving position includes the work positions for the robot 35 to perform work on the machine tool 10 via the machine tool 10 described above, that is, the work positions P 1 and P 2 described above. .. The movement position is determined, for example, by manually driving the automatic guided vehicle 45 with the operation panel 47 under the control of the manual operation control unit 56 to move the automatic guided vehicle 45 to each target position, and then recognizing the position. The position data recognized by the unit 59 is set by the operation of storing the position data in the moving position storage unit 52. This operation is called a so-called teaching operation.

前記動作姿勢記憶部53は、前記ロボット35が所定の順序で動作することによって順次変化するロボット35の姿勢(動作姿勢)であって、前記動作プログラム中の指令コードに対応した動作姿勢に係るデータを記憶する機能部である。この動作姿勢に係るデータは、前記手動運転制御部56による制御の下で、前記操作盤47を用いたティーチング操作により、当該ロボット35を手動運転して、目標とする各姿勢を取らせたときの、当該各姿勢におけるロボット35の各関節(モータ)の回転角度データであり、この回転角度データが動作姿勢に係るデータとして前記動作姿勢記憶部53に格納される。 The motion posture storage unit 53 is a posture (motion posture) of the robot 35 that changes sequentially when the robot 35 operates in a predetermined order, and is data related to the motion posture corresponding to the command code in the motion program. It is a functional part that memorizes. The data related to this operating posture is obtained when the robot 35 is manually operated to take each target posture by a teaching operation using the operation panel 47 under the control of the manual operation control unit 56. It is the rotation angle data of each joint (motor) of the robot 35 in each posture, and this rotation angle data is stored in the operation posture storage unit 53 as data related to the operation posture.

そして、本例では、保持台27に保持されたパレットPaについて、当該ロボット35によりワークWを着脱する着脱動作における動作姿勢のデータ、及びロボット35に備えられたカメラ41a,41bを用いて、保持台27の割り出し位置I,I,IにあるワークWをそれぞれ撮像する撮像動作における動作姿勢のデータが前記動作姿勢記憶部53に格納される。 Then, in this example, the pallet Pa held on the holding table 27 is held by using the data of the operation posture in the attachment / detachment operation of attaching / detaching the work W by the robot 35 and the cameras 41a and 41b provided in the robot 35. The data of the operating posture in the imaging operation of imaging the work W at the indexing positions I 2 , I 3 , and I 4 of the table 27 is stored in the operating posture storage unit 53.

前記自動運転制御部57は、前記動作プログラム記憶部51に格納された自動運転用プログラム及びマップ生成用プログラムの何れかを用い、当該プログラムに従って無人搬送車45及びロボット35を動作させる機能部である。その際、前記移動位置記憶部52及び動作姿勢記憶部53に格納されたデータが必要に応じて使用される。 The automatic driving control unit 57 is a functional unit that uses either the automatic driving program or the map generation program stored in the operation program storage unit 51 to operate the automatic guided vehicle 45 and the robot 35 according to the program. .. At that time, the data stored in the moving position storage unit 52 and the operating posture storage unit 53 are used as needed.

前記ワーク形状記憶部55は、ワークWの形状に係るデータ、例えば、ワークWの寸法データや3次元モデルデータと、当該ワークWの品番とを相互に関連付けて記憶する機能部であり、例えば、前記操作盤47に設けられた入出力部から入力され、当該ワーク形状記憶部55に格納される。 The work shape storage unit 55 is a functional unit that stores data related to the shape of the work W, for example, dimensional data or three-dimensional model data of the work W, and a product number of the work W in association with each other. It is input from the input / output unit provided on the operation panel 47 and stored in the work shape storage unit 55.

前記ワーク形状認識部60は、前記カメラ41a,41bによって撮像された画像を基に、ワークWの形状を認識する処理を実行する。尚、この形状認識処理には、複数の画像からワークの3次元形状を認識するための公知のあらゆる処理を適用することができる。以下、その一例について、簡単に説明する。 The work shape recognition unit 60 executes a process of recognizing the shape of the work W based on the images captured by the cameras 41a and 41b. It should be noted that any known process for recognizing the three-dimensional shape of the work from a plurality of images can be applied to this shape recognition process. Hereinafter, an example thereof will be briefly described.

例えば、形状認識対象のワークWが保持台27の割り出し位置Iにあるときに、前記カメラ41a,41bによって撮像された画像が図6(a),(b)に示した画像であるとする。また、カメラ41a,41bはその光軸がZ軸に沿った状態で対象ワークWを撮像するものとする。 For example, when the shape recognition target workpiece W is in the indexing position I 2 of holder 27, the camera 41a, an image captured by 41b is FIG. 6 (a), as the image shown in (b) .. Further, it is assumed that the cameras 41a and 41b image the target work W with their optical axes along the Z axis.

前記カメラ41a,41bは、多行多列の2次元に配置された複数の光電変換素子を備え、受光強度に応じて各光電変換素子から出力される電圧信号をデジタル化した後、これを濃淡レベル値に変換して、前記光電変換素子の配列と同配列の2次元濃淡画像データとして出力する。そして、前記ワーク形状認識部60はカメラ41a,41bから出力された2次元濃淡画像データを受信する。 The cameras 41a and 41b include a plurality of photoelectric conversion elements arranged in two dimensions in multiple rows and multiple columns, digitize the voltage signal output from each photoelectric conversion element according to the light receiving intensity, and then shade the voltage signals. It is converted into a level value and output as two-dimensional shading image data having the same arrangement as the arrangement of the photoelectric conversion elements. Then, the work shape recognition unit 60 receives the two-dimensional shading image data output from the cameras 41a and 41b.

前記ワーク形状認識部60は、受信した各2次元濃淡画像データを基に、対象ワークWの3次元モデルデータを生成する等の処理によって、その形状を認識する。具体的には、まず、受信した各2次元画像データを所定のしきい値で2値化して対象ワークWの画像をそれぞれ抽出し、抽出した2値化画像をラスター方向に走査して、2値化画像の輪郭線に係る画像(輪郭線画像)をそれぞれ抽出する(図6(a),(b)参照)。 The work shape recognition unit 60 recognizes the shape of the target work W by processing such as generating three-dimensional model data of the target work W based on the received two-dimensional shading image data. Specifically, first, each received two-dimensional image data is binarized at a predetermined threshold value to extract each image of the target work W, and the extracted binarized image is scanned in the raster direction to obtain 2 An image (contour line image) related to the contour line of the digitized image is extracted (see FIGS. 6 (a) and 6 (b)).

次に、それぞれ抽出された2つの輪郭線画像を基に、3次元空間内における対象ワークWの実輪郭線の座標位置を、三角測量法を用いて算出する。ここで、三角測量法により、対象ワークWの実輪郭線の3次元空間内における座標位置を算出する手法について簡単に説明する。 Next, the coordinate position of the actual contour line of the target work W in the three-dimensional space is calculated by using the triangulation method based on the two contour line images extracted respectively. Here, a method of calculating the coordinate position of the actual contour line of the target work W in the three-dimensional space by the triangulation method will be briefly described.

例えば、図6(a),(b)に示した画像を撮像する2台のカメラ41a,41bと対象ワークWの実体とは、X−Z平面で同図6(c)に示した位置関係にある。尚、図6(c)において、Faはカメラ41a,41bの各レンズの中心面であり、Gaは各結像面である。また、aはカメラ41aのレンズ中心点であり、bはカメラ41bのレンズ中心点である。また、Raは前記レンズ中心面Faと結像面Gaとの間の距離であり、Laは2台のカメラ41a,41bのレンズ中心点a,b間の距離であり、それぞれ予め精密に計測されている。c及びdはZ軸と平行な軸であってそれぞれ前記a点,b点を通る軸である。 For example, the two cameras 41a and 41b that capture the images shown in FIGS. 6A and 6B and the substance of the target work W have a positional relationship shown in FIG. 6C on the XZ plane. It is in. In FIG. 6C, Fa is the central surface of each lens of the cameras 41a and 41b, and Ga is each image plane. Further, a is the lens center point of the camera 41a, and b is the lens center point of the camera 41b. Ra is the distance between the lens center surface Fa and the image plane Ga, and La is the distance between the lens center points a and b of the two cameras 41a and 41b, which are precisely measured in advance. ing. c 1 and d 1 are axes parallel to the Z axis and pass through points a and b, respectively.

いま、対象ワークWの実体における基準点をAaとし、前記軸c,dが結像面Gaと交差する点とこの基準点Aaと結ぶ線を設定すると、各線と前記レンズ中心面FaとはそれぞれAa及びAaで交差する。即ち、基準点Aaから2台のカメラ41a,41bにそれぞれ受光された光は、各レンズ中心面のAa点及びAa点で交差し、各レンズによって偏光されて、Aa点及びAa点から軸c,dと平行に進んで各結像面で結像される。尚、Aa点及びAa点は図6(a),(b)に示した輪郭線画像では、それぞれ、同符合で示す部分にあたる。 Now, a reference point and Aa in the entity of the target workpiece W, when the axis c 1, d 1 sets the line connecting the point of intersection with the imaging surface Ga between the reference point Aa, and each line and the lens center surface Fa Cross at Aa 1 and Aa 2, respectively. That is, the light received from the reference point Aa to the two cameras 41a and 41b intersects at the Aa 1 point and the Aa 2 point on the central surface of each lens, and is polarized by each lens to form the Aa 1 point and the Aa 2 The image is formed on each imaging plane from the point in parallel with the axes c 1 and d 1. It should be noted that the points Aa 1 and Aa 2 correspond to the portions indicated by the same signs in the contour line images shown in FIGS. 6 (a) and 6 (b), respectively.

したがって、基準点Aaが各カメラ41a,41bの結像面に結像された各レンズ中心点a,bからの距離X,Xが分かれば、三角測量法により、次の数式1によって各カメラ41a,41bから対象ワークWの実体までのZ軸方向における距離Zaを算出することができる。尚、前記距離X,Xは、カメラ41a,41bによって撮像され、処理された図6(a),(b)に示した輪郭線画像からこれを容易に算出することができる。但し、図中のc及びdはY軸と平行な軸であってそれぞれ前記レンズ中心点a,bを通る軸である。 Therefore, if the reference point Aa each camera 41a, the lens center point a is imaged on the imaging surface of the 41b, the distance X 1, X 2 from b divided by triangulation, by the following equation 1 each The distance Za in the Z-axis direction from the cameras 41a and 41b to the actual body of the target work W can be calculated. The distances X 1 and X 2 can be easily calculated from the contour line images shown in FIGS. 6 (a) and 6 (b) captured and processed by the cameras 41a and 41b. However, c 2 and d 2 in the figure are axes parallel to the Y axis and pass through the lens center points a and b, respectively.

(数式1)
Za=Ra(La−X−X)/(X+X
(Formula 1)
Za = Ra (La-X 1- X 2 ) / (X 1 + X 2 )

そして、算出されたカメラ41a,41bと対象ワークWとの間の距離Za、及びキャリブレーション等によって予め設定された距離Zaと画像の倍率との関係から対象ワークWの寸法を算出する。即ち、図6(a)に示した対象ワークWの実輪郭画像の各頂点の座標位置を算出することによって、その形状および寸法を認識することができる。 Then, the dimensions of the target work W are calculated from the calculated distance Za between the cameras 41a and 41b and the target work W, and the relationship between the distance Za preset by calibration and the like and the magnification of the image. That is, the shape and dimensions can be recognized by calculating the coordinate positions of the vertices of the actual contour image of the target work W shown in FIG. 6A.

前記ワーク形状認識部60は、以上の処理によって対象ワークWの形状および寸法を認識する。同様にして、ワーク形状認識部60は、対象ワークWが保持台27の割り出し位置I,Iにあるときに、前記カメラ41a,41bによって撮像される画像を処理し、上記と同様にして、それぞれの撮像方向における対象ワークWの形状および寸法を認識する。そして、ワーク形状認識部60は、得られた直交3方向における対象ワークWの形状データを合成することにより、対象ワークWの全体的な3次元形状データを算出して、当該対象ワークWの3次元形状を認識する。 The work shape recognition unit 60 recognizes the shape and dimensions of the target work W by the above processing. Similarly, the work shape recognition unit 60 processes the images captured by the cameras 41a and 41b when the target work W is at the indexing positions I 3 and I 4 of the holding table 27, and in the same manner as described above. , Recognize the shape and dimensions of the target work W in each imaging direction. Then, the work shape recognition unit 60 calculates the overall three-dimensional shape data of the target work W by synthesizing the shape data of the target work W in the obtained three orthogonal directions, and 3 of the target work W. Recognize dimensional shapes.

次に、ワーク形状認識部60は、算出した対象ワークWの3次元形状データを基に、前記ワーク形状記憶部55に格納されたデータを検索して、当該対象ワークWの品番を認識し、認識した品番と、前記工作機械10の数値制御装置(図示せず)から得られる現在加工中のワークWの品番とを照合することにより、対象ワークWが、工作機械10で加工が予定されているワークであるか否かを判別する。そして、ワーク形状認識部60は、対象ワークWが、工作機械10において加工が予定されていないワークである場合には、前記操作盤47にアラームを出力する処理を行う。 Next, the work shape recognition unit 60 searches the data stored in the work shape storage unit 55 based on the calculated three-dimensional shape data of the target work W, recognizes the product number of the target work W, and recognizes the product number of the target work W. By collating the recognized product number with the product number of the work W currently being machined obtained from the numerical control device (not shown) of the machine tool 10, the target work W is scheduled to be machined by the machine tool 10. Determine if it is a working work. Then, when the target work W is a work that is not scheduled to be machined in the machine tool 10, the work shape recognition unit 60 performs a process of outputting an alarm to the operation panel 47.

以上の構成を備えた本例の生産システム1によれば、前記制御装置50の自動運転制御部57による制御の下で、前記動作プログラム記憶部51に格納された自動運転用プログラムが実行され、この自動運転用プログラムに従って、無人搬送車45及びロボット35が動作する。 According to the production system 1 of this example having the above configuration, the automatic operation program stored in the operation program storage unit 51 is executed under the control of the automatic operation control unit 57 of the control device 50. The automatic guided vehicle 45 and the robot 35 operate according to this automatic driving program.

即ち、無人搬送車45は、自動運転用プログラムに従い、前記工作機械10及びワークストッカ33に対してそれぞれ設定された各作業位置P,Pに経由し、各作業位置P,Pにおいて、ロボット35が工作機械10及びワークストッカ33に対して上述した作業を行う。 That is, the automatic guided vehicle 45 in accordance with an automatic operation program, the way in the machine tool 10 and the working position P 1 which is set respectively stocker 33, P 2, at each work position P 1, P 2 , The robot 35 performs the above-mentioned work on the machine tool 10 and the work stocker 33.

そして、本例では、工作機械10の数値制御装置(図示せず)による制御の下で回転機構28を駆動して、前記保持台27の取付ジグJに取り付けられた(認識)対象ワークWを、割り出し位置I,I及びIにそれぞれ割り出し、各割り出し位置I,I及びIに割り出された対象ワークWを、ロボット35に適宜撮像姿勢を取らせることによってカメラ41a,41bにより撮像する。 Then, in this example, the rotation mechanism 28 is driven under the control of the numerical control device (not shown) of the machine tool 10, and the (recognition) target work W attached to the attachment jig J of the holding base 27 is placed. indexing each indexed position I 2, I 3 and I 4, each indexing position I 2, I 3 and the target workpiece W that has been indexed to I 4, the camera 41a by assume an appropriate imaging posture to the robot 35, Image is taken by 41b.

そして、ワーク形状認識部60は、上記のようにして直交3方向からカメラ41a,41bによって撮像された画像を処理して、対象ワークWの全体的な3次元形状データを算出するとともに、得られた3次元形状データを基に、前記ワーク形状記憶部55に格納されたデータを参照して、当該対象ワークWの品番を認識し、認識した品番と、工作機械10の数値制御装置(図示せず)から得られる現在加工中のワークWの品番とを照合することにより、対象ワークWが、工作機械10で加工が予定されているワークであるか否かを判別する。そして、対象ワークWが、工作機械10において加工が予定されていないワークである場合には、ワーク形状認識部60は、前記操作盤47にアラームを出力する処理を行う。 Then, the work shape recognition unit 60 processes the images captured by the cameras 41a and 41b from the three orthogonal directions as described above, calculates the overall three-dimensional shape data of the target work W, and obtains the data. The product number of the target work W is recognized by referring to the data stored in the work shape storage unit 55 based on the three-dimensional shape data, and the recognized product number and the numerical control device of the machine tool 10 (shown in the figure). By collating with the part number of the work W currently being machined obtained from (1), it is determined whether or not the target work W is a work scheduled to be machined by the machine tool 10. Then, when the target work W is a work that is not scheduled to be machined in the machine tool 10, the work shape recognition unit 60 performs a process of outputting an alarm to the operation panel 47.

前記ワークストッカ33には、一般的に、適宜自動供給装置、或いはオペレータによってワークWが投入されるが、ときに形状の誤認等によって、形状の酷似した別のワーク(加工を予定していないワーク)が混入することがある。このような場合、予定されていないワークが取付ジグJに取り付けられて、前記工作機械10によって加工されると、工具TとワークWとが衝突してこれらが損傷したり、或いは衝突しない場合でもワークWが不良品となるという不都合を生じる。本例の生産システム1によれば、保持台27上の取付ジグJに取り付けられたワークWが当該工作機械10において加工を予定されたワークWであるか否かを確認することができるので、このような不都合が生じるのを未然に防止することができる。 Generally, the work W is appropriately put into the work stocker 33 by an automatic supply device or an operator, but sometimes due to a misunderstanding of the shape or the like, another work having a shape very similar (a work not scheduled to be machined). ) May be mixed. In such a case, when an unscheduled work is attached to the mounting jig J and machined by the machine tool 10, even if the tool T and the work W collide with each other and they are damaged or do not collide. The inconvenience that the work W becomes a defective product occurs. According to the production system 1 of this example, it is possible to confirm whether or not the work W attached to the mounting jig J on the holding table 27 is the work W scheduled to be machined by the machine tool 10. It is possible to prevent such inconvenience from occurring.

また、加工後のワークWを対象ワークWとしてカメラ41a,41bにより撮像し、得られた画像をワーク形状認識部60により処理して、当該加工後のワークWの寸法を算出するようにすれば、工作機械10において加工が適切に行われているかどうかを確認することができる。 Further, if the processed work W is taken as the target work W by the cameras 41a and 41b, the obtained image is processed by the work shape recognition unit 60, and the dimensions of the processed work W are calculated. , It is possible to confirm whether or not the machining is properly performed in the machine tool 10.

また、制御装置50は、ワークWの品番を認識した結果、当該ワークWの品番が加工を予定されたものである場合には、この品番を基に、自身が実行している動作プログラムが予定された動作プログラムであるか否かを確認することができ、予定されていない動作プログラムである場合には、動作を停止して、前記操作盤47にアラームを出力するといった処理を行うことができる。 Further, as a result of recognizing the product number of the work W, if the product number of the work W is scheduled to be machined, the control device 50 plans an operation program executed by itself based on this product number. It is possible to confirm whether or not the operation program has been executed, and if it is an unscheduled operation program, it is possible to stop the operation and output an alarm to the operation panel 47. ..

以上、本発明の具体的な実施の形態について説明したが、本発明が採り得る態様は、何ら上例の態様に限定されるものではない。 Although the specific embodiments of the present invention have been described above, the modes that can be adopted by the present invention are not limited to the above-mentioned modes.

例えば、上例では、前記カメラ41a,41bによって、直交3方向から対象ワークWを撮像する際に、保持台27を回転させる動作と、ロボット35に撮像姿勢を取らせる動作とを合わせて実行するようにしたが、これに限られるものではなく、ロボット35の姿勢を一定にして、保持台27を回転させる動作と、無人搬送車45を適宜位置に移動させる動作との複合動作によって撮像するようにしても良い。 For example, in the above example, when the target work W is imaged from three orthogonal directions by the cameras 41a and 41b, the operation of rotating the holding table 27 and the operation of causing the robot 35 to take an imaging posture are executed together. However, the image is not limited to this, and the image is taken by a combined operation of the operation of rotating the holding table 27 and the operation of moving the automatic guided vehicle 45 to an appropriate position while keeping the posture of the robot 35 constant. You can do it.

或いは、保持台27の回転位置を一定にして、ロボット35と無人搬送車45のいずれか一方を動作させることによって、対象ワークWを直交3方向から撮像するようにしても良い。 Alternatively, the target work W may be imaged from three orthogonal directions by keeping the rotation position of the holding table 27 constant and operating either the robot 35 or the automatic guided vehicle 45.

更には、上例では、対象ワークWを3方向から撮像するようにしたが、これに限られるものではなく、2方向以上の複数方向から対象ワークWを撮像すれば良く、ワーク形状認識部60は、得られた画像データを基に、対象ワークWの3次元形状データを算出する。 Further, in the above example, the target work W is imaged from three directions, but the present invention is not limited to this, and the target work W may be imaged from a plurality of directions of two or more directions. Calculates the three-dimensional shape data of the target work W based on the obtained image data.

また、上例において、前記ワーク形状記憶部55は、ワークWの形状データと品番とを相互に関連付けて記憶し、前記ワーク形状認識部60は、対象ワークWの3次元形状データを算出し、この3次元形状データを基に前記ワーク形状記憶部55を参照して、対象ワークWの品番を認識するようにしたが、これに限られるものではなく、前記ワーク形状記憶部55は、複数方向から見たワークWのモデルデータと品番とを相互に関連付けて記憶するように構成されるとともに、前記ワーク形状認識部60は、対象ワークWの複数方向からの画像データを取得し、取得した画像データを基に、前記ワーク形状記憶部55を参照して、例えば、パターンマッチング手法により、複数方向のワークWのモデルデータと画像データとを照合して、対象ワークWの品番を認識するようにしても良い。 Further, in the above example, the work shape storage unit 55 stores the shape data of the work W and the product number in association with each other, and the work shape recognition unit 60 calculates the three-dimensional shape data of the target work W. Based on this three-dimensional shape data, the work shape storage unit 55 is referred to to recognize the product number of the target work W, but the present invention is not limited to this, and the work shape storage unit 55 may have a plurality of directions. The work shape recognition unit 60 acquires image data from a plurality of directions of the target work W and acquires the acquired image, while being configured to correlate and store the model data of the work W and the product number viewed from the above. Based on the data, the work shape storage unit 55 is referred to, and for example, the model data of the work W in a plurality of directions is collated with the image data by a pattern matching method so that the product number of the target work W is recognized. You may.

また、上例では、回転機構28を設けて、この回転機構28により保持台27を水平回転させるように構成したが、これに限られるものではなく、この回転機構28に代えて、図7に示すように、棒状部材34を、例えば、パレットPaの4隅に立設し、ロボット35のハンド39によりこの棒状部材34を把持して、当該ロボット35の動作によりパレットPaを回転させるようにしても良い。 Further, in the above example, a rotation mechanism 28 is provided, and the holding base 27 is configured to rotate horizontally by the rotation mechanism 28. However, the present invention is not limited to this, and FIG. 7 shows, instead of the rotation mechanism 28. As shown, for example, the rod-shaped member 34 is erected at four corners of the pallet Pa, the rod-shaped member 34 is grasped by the hand 39 of the robot 35, and the pallet Pa is rotated by the operation of the robot 35. Is also good.

繰り返しになるが、上述の実施形態の説明は、すべての点で例示であって、制限的なものではない。当業者にとって変形および変更が適宜可能である。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲内と均等の範囲内での実施形態からの変更が含まれる。 Again, the description of the embodiments described above is exemplary in all respects and not restrictive. Modifications and changes can be made as appropriate for those skilled in the art. The scope of the present invention is shown not by the above-described embodiment but by the scope of claims. Further, the scope of the present invention includes modifications from the embodiment within the scope of the claims and within the scope of the claims.

1 生産システム
10 工作機械
11 ベッド
12 コラム
13 主軸保持台
14 主軸頭
15 主軸
16 サドル
20 パレット交換装置
21 旋回アーム
25 パレット保持装置
26 基台
27 保持台
28 回転機構
33 ワークストッカ
35 ロボット
39 ハンド
41a,41b カメラ
45 無人搬送車
47 操作盤
50 制御装置
51 動作プログラム記憶部
52 移動位置記憶部
53 動作姿勢記憶部
54 マップ情報記憶部
55 ワーク形状記憶部
56 手動運転制御部
57 自動運転制御部
58 マップ情報生成部
59 位置認識部
60 ワーク形状認識部
Pa パレット
J 取付ジグ
1 Production system 10 Machine tool 11 Bed 12 Column 13 Spindle holder 14 Spindle head 15 Spindle 16 Saddle 20 Pallet exchange device 21 Swivel arm 25 Pallet holding device 26 Base 27 Holding base 28 Rotating mechanism 33 Workstocker 35 Robot 39 Hand 41a, 41b Camera 45 Automated guided vehicle 47 Operation panel 50 Control device 51 Operation program storage unit 52 Movement position storage unit 53 Operation posture storage unit 54 Map information storage unit 55 Work shape storage unit 56 Manual operation control unit 57 Automatic operation control unit 58 Map information Generation part 59 Position recognition part 60 Work shape recognition part Pa pallet J Mounting jig

Claims (4)

ワークに対して所定の加工を行う工作機械と、
画像を撮像するカメラを有し、前記工作機械に対して作業を行うロボットと、
前記ロボットを搭載し、前記工作機械に対して設定された作業位置に経由する無人搬送車と、
前記無人搬送車及びロボットを制御する制御装置とを備えた生産システムであって、
前記工作機械は、該工作機械で加工されるワークを保持する保持台を有し、
前記制御装置は、前記ロボット及び無人搬送車の少なくとも一方を動作させて、前記保持台に保持されるワークの画像を前記カメラにより複数の撮像方向から撮像し、得られた複数の画像を基に、該ワークの3次元形状を認識するように構成されていることを特徴とする生産システム。
Machine tools that perform predetermined machining on workpieces and
A robot that has a camera that captures images and works on the machine tool,
An automatic guided vehicle equipped with the robot and passing through a work position set for the machine tool.
A production system including the automatic guided vehicle and a control device for controlling a robot.
The machine tool has a holding table for holding a workpiece machined by the machine tool.
The control device operates at least one of the robot and the automatic guided vehicle to capture an image of the work held on the holding table from a plurality of imaging directions by the camera, and based on the obtained plurality of images. , A production system characterized in that it is configured to recognize the three-dimensional shape of the work.
ワークに対して所定の加工を行う工作機械と、
画像を撮像するカメラを有し、前記工作機械に対して作業を行うロボットと、
前記ロボットを搭載し、前記工作機械に対して設定された作業位置に経由する無人搬送車と、
前記無人搬送車及びロボットを制御する制御装置とを備えた生産システムであって、
前記工作機械は、該工作機械で加工されるワークを保持する保持台、及び該保持台を回転させる回転機構を備え、
前記制御装置は、前記回転機構を回転させる動作信号を前記工作機械に送信して前記保持台を回転させ、前記カメラにより複数の撮像方向から前記ワークの画像を撮像し、得られた複数の画像を基に、該ワークの3次元形状を認識するように構成されていることを特徴とする生産システム。
Machine tools that perform predetermined machining on workpieces and
A robot that has a camera that captures images and works on the machine tool,
An automatic guided vehicle equipped with the robot and passing through a work position set for the machine tool.
A production system including the automatic guided vehicle and a control device for controlling a robot.
The machine tool includes a holding table for holding a workpiece machined by the machine tool, and a rotating mechanism for rotating the holding table.
The control device transmits an operation signal for rotating the rotation mechanism to the machine tool to rotate the holding table, and the camera captures images of the work from a plurality of imaging directions, and a plurality of obtained images are obtained. A production system characterized in that it is configured to recognize the three-dimensional shape of the work based on the above.
ワークに対して所定の加工を行う工作機械と、
画像を撮像するカメラを有し、前記工作機械に対して作業を行うロボットと、
前記ロボットを搭載し、前記工作機械に対して設定された作業位置に経由する無人搬送車と、
前記無人搬送車及びロボットを制御する制御装置とを備えた生産システムであって、
前記工作機械は、該工作機械で加工されるワークを保持する保持台、及び該保持台を回転させる回転機構を備え、
前記制御装置は、前記回転機構を回転させる動作信号を前記工作機械に送信して前記保持台を回転させるとともに、前記ロボット及び無人搬送車の少なくとも一方を動作させて、前記保持台に保持されるワークの画像を前記カメラにより複数の撮像方向から撮像し、得られた複数の画像を基に、該ワークの3次元形状を認識するように構成されていることを特徴とする生産システム。
Machine tools that perform predetermined machining on workpieces and
A robot that has a camera that captures images and works on the machine tool,
An automatic guided vehicle equipped with the robot and passing through a work position set for the machine tool.
A production system including the automatic guided vehicle and a control device for controlling a robot.
The machine tool includes a holding table for holding a workpiece machined by the machine tool, and a rotating mechanism for rotating the holding table.
The control device transmits an operation signal for rotating the rotation mechanism to the machine tool to rotate the holding table, and at the same time, operates at least one of the robot and the automatic guided vehicle to be held by the holding table. A production system characterized in that an image of a work is imaged by the camera from a plurality of imaging directions, and the three-dimensional shape of the work is recognized based on the obtained plurality of images.
前記複数の撮像方向は、相互に直交する方向である請求項1乃至3記載のいずれかの生産システム。
The production system according to any one of claims 1 to 3, wherein the plurality of imaging directions are orthogonal to each other.
JP2020007613A 2020-01-21 2020-01-21 Production system Pending JP2021112809A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020007613A JP2021112809A (en) 2020-01-21 2020-01-21 Production system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020007613A JP2021112809A (en) 2020-01-21 2020-01-21 Production system

Publications (1)

Publication Number Publication Date
JP2021112809A true JP2021112809A (en) 2021-08-05

Family

ID=77076417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020007613A Pending JP2021112809A (en) 2020-01-21 2020-01-21 Production system

Country Status (1)

Country Link
JP (1) JP2021112809A (en)

Similar Documents

Publication Publication Date Title
JP6785931B1 (en) Production system
US10500731B2 (en) Robot system including robot supported by movable carriage
US12358148B2 (en) Robot-mounted moving device, system, and machine tool
JP7133604B2 (en) ROBOT MOVEMENT MOBILE DEVICE AND SYSTEM POSITIONING CONTROL METHOD
US8310539B2 (en) Calibration method and calibration device
JP6913833B1 (en) Work mounting system
JP2004185123A (en) 3D model data generator
JP7797558B2 (en) Robot-mounted mobile device and its control method
JP6851535B1 (en) Setting method using teaching operation
JP2022024521A (en) Transport system, transport system control method, and transport system control program
JP7012181B1 (en) Robot system
WO2022091767A1 (en) Image processing method, image processing device, robot mounted-type conveyance device, and system
JP6756941B1 (en) Automated guided vehicle and an industrial machine system equipped with the automatic guided vehicle
JP2021112809A (en) Production system
Seliger et al. Sensor-aided programming and movement adaptation for robot-guided deburring of castings
JP6937444B1 (en) Robot system positioning accuracy measurement method
JP7093881B1 (en) System and automatic guided vehicle
JP2021058980A (en) Production system
JP2024068115A (en) Robot-mounted moving device
US20250196344A1 (en) Production system, production system management method, and program recording medium having program for production system management device recorded thereon
JP2022141200A (en) Sticking position measurement device and machine tool including the same
CN120206079A (en) Welding control method and workpiece welding method
CN120306887A (en) Welding workstation and welding system