[go: up one dir, main page]

JP2011029490A - Device for mounting component, and method of mounting component - Google Patents

Device for mounting component, and method of mounting component Download PDF

Info

Publication number
JP2011029490A
JP2011029490A JP2009175291A JP2009175291A JP2011029490A JP 2011029490 A JP2011029490 A JP 2011029490A JP 2009175291 A JP2009175291 A JP 2009175291A JP 2009175291 A JP2009175291 A JP 2009175291A JP 2011029490 A JP2011029490 A JP 2011029490A
Authority
JP
Japan
Prior art keywords
component
arm
camera
mounting
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009175291A
Other languages
Japanese (ja)
Other versions
JP5481123B2 (en
Inventor
Hiroju Araseki
弘寿 荒関
Wataru Fujiwara
渉 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shindengen Electric Manufacturing Co Ltd
Akita Shindengen Co Ltd
Original Assignee
Shindengen Electric Manufacturing Co Ltd
Akita Shindengen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shindengen Electric Manufacturing Co Ltd, Akita Shindengen Co Ltd filed Critical Shindengen Electric Manufacturing Co Ltd
Priority to JP2009175291A priority Critical patent/JP5481123B2/en
Publication of JP2011029490A publication Critical patent/JP2011029490A/en
Application granted granted Critical
Publication of JP5481123B2 publication Critical patent/JP5481123B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • H10W72/0711

Landscapes

  • Die Bonding (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device for mounting a component which accurately mounts a component A on a component B, and method of mounting component; and a method of mounting a component. <P>SOLUTION: A control unit 5 of this device for mounting a component comprises: an image recognition part 101; an image recognition part 102; a reference position coordinate conversion part 103; a fixation parameter storage part 104; a calibration part 105; a frame parameter storage part 106; a first correction amount calculation part 107; a second correction amount calculation part 108; a third correction amount calculation part 109; and a mounting coordinate calculation part 110. Cameras 2-3 and an arm drive part 6 are connected to the control unit 5. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、部品の搭載装置、部品の搭載方法に関する。   The present invention relates to a component mounting apparatus and a component mounting method.

部品の搭載装置において、特許文献1の図2のように、半導体素子2(部品A)をリードフレーム9(部品B)に搭載する場合、レールの上に部品Aがあり、部品Aは部品取り付け用コレット8で吸着されて部品Bに装着される。この場合、装着精度は、レール上に置かれた部品B位置と部品取り付け用コレット8との位置関係、および部品Bの位置に依存する。このため、部品取り付け用コレット8で装着する前の部品Aの位置と部品取り付け用コレット8を画像認識により検出する。これにより、部品取り付け用コレット8は精度良く部品Aを吸着できる。次に、部品Bの中心位置を画像認識により検出し、検出された値と部品Bを撮像するカメラの画像中心位置とを比較して部品Bの中心位置のずれ量を検出する。検出された部品Bの中心位置のずれ量に基づき、コレット8が吸着した部品Aを部品Bに精度良く搭載する方法が提案されている。   In the component mounting apparatus, as shown in FIG. 2 of Patent Document 1, when the semiconductor element 2 (component A) is mounted on the lead frame 9 (component B), the component A is on the rail, and the component A is mounted on the component. It is adsorbed by the collet 8 and mounted on the component B. In this case, the mounting accuracy depends on the positional relationship between the position of the component B placed on the rail and the collet 8 for mounting the component, and the position of the component B. For this reason, the position of the component A and the component mounting collet 8 before being mounted by the component mounting collet 8 are detected by image recognition. Thereby, the component mounting collet 8 can adsorb the component A with high accuracy. Next, the center position of the component B is detected by image recognition, and the detected value is compared with the image center position of the camera that captures the component B to detect the amount of deviation of the center position of the component B. Based on the detected deviation amount of the center position of the component B, a method of mounting the component A attracted by the collet 8 on the component B with high accuracy has been proposed.

特開2004−311569号公報JP 2004-311569 A

しかしながら、従来の部品の搭載装置では、コレットで吸着する前に部品Aの位置とコレットの予め定められた始点とのずれを、撮像された画像を用いて検出して、検出されたずれ量に基づいてコレットを移動させて吸着させていた。つまり、実際にコレットに部品Aを吸着した状態でのずれ量を検出しているのではないため、吸着後にずれがある場合、部品Aを部品Bに精度良く搭載できない場合があるという課題があった。また、部品Aを搭載する部品Bの中心位置と部品Bを撮像するカメラの画像中心とを比較して部品Bの中心位置のずれ量を検出していたが、撮像するカメラの画像中心と搭載を行うコレットの始点との関係が一致していない場合には、搭載すべき目的の座標にコレットを移動できない場合もあり、部品Aを部品Bに精度良く搭載できない場合があるという課題があった。   However, in the conventional component mounting apparatus, the difference between the position of the component A and the predetermined start point of the collet is detected using the captured image before being picked up by the collet, and the detected displacement amount is obtained. Based on this, the collet was moved and adsorbed. In other words, since the amount of deviation in the state where the part A is actually attracted to the collet is not detected, there is a problem that the part A may not be accurately mounted on the part B if there is a deviation after adsorption. It was. Further, the amount of deviation of the center position of the component B is detected by comparing the center position of the component B on which the component A is mounted with the image center of the camera that captures the component B. If the relationship between the collet and the starting point of the collet does not match, the collet may not be moved to the target coordinates to be mounted, and there is a problem that the part A may not be accurately mounted on the part B. .

本発明は、上記の問題点に鑑みてなされたものであって、部品Aを部品Bに精度良く搭載する部品の搭載装置、部品の搭載方法を提供することを目的としている。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a component mounting apparatus and a component mounting method for accurately mounting the component A on the component B.

本発明の部品の搭載装置は、可動アームを用いて第1の部品に第2の部品を搭載する電子部品の搭載装置において、
前記第1の部品を撮像した画像に基づいて、前記第1の部品が所定の基準状態からどれだけずれているかを表す第1のずれ量を算出する第1ずれ量算出部と、
前記第2の部品を保持した状態の前記可動アームを撮像した画像に基づいて、前記第2の部品が所定の基準状態からどれだけずれているかを表す第2のずれ量を算出する第2ずれ量算出部と、
前記可動アームを撮像した画像に基づいて、前記可動アームの長さ及び傾き角度が所定の基準値からどれだけずれているかを表す第3のずれ量を算出する第3ずれ量算出部と、
前記可動アームが前記第2の部品を前記第1の部品に搭載する位置を前記第1のずれ量、前記第2のずれ量、および第3のずれ量に基づいて補正して、前記可動アームを駆動するアーム駆動部と、
を備えることを特徴とする。
The component mounting apparatus of the present invention is an electronic component mounting apparatus in which a second component is mounted on a first component using a movable arm.
A first deviation amount calculation unit that calculates a first deviation amount indicating how much the first component is deviated from a predetermined reference state based on an image obtained by imaging the first component;
A second shift for calculating a second shift amount indicating how much the second component is shifted from a predetermined reference state based on an image obtained by imaging the movable arm in a state where the second component is held. A quantity calculator;
A third deviation amount calculation unit that calculates a third deviation amount indicating how much the length and the inclination angle of the movable arm are deviated from a predetermined reference value based on an image obtained by imaging the movable arm;
The movable arm corrects the position where the second component is mounted on the first component based on the first deviation amount, the second deviation amount, and the third deviation amount, and the movable arm An arm drive unit for driving
It is characterized by providing.

また、本発明にかかる部品の搭載装置は、前記第1ずれ量算出部は、前記第1のずれ量を前記可動アームの座標系で算出することを特徴としている。   The component mounting apparatus according to the present invention is characterized in that the first deviation amount calculation unit calculates the first deviation amount in a coordinate system of the movable arm.

また、本発明にかかる部品の搭載装置は、前記第3ずれ量算出部は、前記可動アームを少なくとも3つの異なる角度で撮像した画像から、前記可動アームの位置と角度を抽出した情報に基づいて前記可動アームの長さ及び傾き角度が所定の基準値からどれだけずれているかを表す第3のずれ量を算出することを特徴としている。   In the component mounting apparatus according to the present invention, the third deviation amount calculation unit is based on information obtained by extracting the position and angle of the movable arm from images obtained by imaging the movable arm at at least three different angles. A third deviation amount representing how much the length and the inclination angle of the movable arm deviate from a predetermined reference value is calculated.

また、本発明は、可動アームを用いて第1の部品に第2の部品を搭載する部品の搭載方法において、
前記第1の部品を撮像した画像に基づいて、前記第1の部品が所定の基準状態からどれだけずれているかを表す第1のずれ量を算出する第1ずれ量算出工程と、
前記第2の部品を保持した状態の前記可動アームを撮像した画像に基づいて、前記第2の部品が所定の基準状態からどれだけずれているかを表す第2のずれ量を算出する第2ずれ量算出工程と、
前記可動アームを撮像した画像に基づいて、前記可動アームの長さ及び傾き角度が所定の基準値からどれだけずれているかを表す第3のずれ量を算出する第3ずれ量算出工程と、
前記可動アームが前記第2の部品を前記第1の部品に搭載する位置を前記第1のずれ量、前記第2のずれ量、および第3のずれ量に基づいて補正して、前記可動アームを駆動するアーム駆動工程と、
を備えることを特徴としている。
Further, the present invention provides a component mounting method in which the second component is mounted on the first component using the movable arm.
A first deviation amount calculating step of calculating a first deviation amount indicating how much the first component is deviated from a predetermined reference state based on an image obtained by imaging the first component;
A second shift for calculating a second shift amount indicating how much the second component is shifted from a predetermined reference state based on an image obtained by imaging the movable arm in a state where the second component is held. A quantity calculation step;
A third deviation amount calculating step for calculating a third deviation amount indicating how much the length and the inclination angle of the movable arm are deviated from a predetermined reference value based on an image obtained by imaging the movable arm;
The movable arm corrects the position where the second component is mounted on the first component based on the first deviation amount, the second deviation amount, and the third deviation amount, and the movable arm An arm driving process for driving
It is characterized by having.

本発明によれば、第1の部品が所定の基準状態からどれだけずれているかを表す第1のずれ量を求め、また、可動アームが第2の部品を保持した状態において第2の部品が所定の基準状態からどれだけずれているかを表す第2のずれ量を求め、さらに、可動アームの長さ及び傾き角度の基準値からの第3のずれ量を求める。この求められた3つのずれ量を用いて、第2の部品の搭載位置のずれ量を補正して可動アームを駆動するようにしたので、搭載される部品を搭載する部品上に精度良く搭載することが可能になる。   According to the present invention, the first deviation amount indicating how much the first component is deviated from the predetermined reference state is obtained, and the second component is in a state where the movable arm holds the second component. A second deviation amount indicating how much the deviation is from the predetermined reference state is obtained, and further, a third deviation amount from the reference value of the length and inclination angle of the movable arm is obtained. By using the obtained three displacement amounts, the displacement amount of the mounting position of the second component is corrected and the movable arm is driven, so that the mounted component is accurately mounted on the component to be mounted. It becomes possible.

本発明の実施形態に係る部品搭載装置のシステム全体の構成例を示す概略図である。It is the schematic which shows the structural example of the whole system of the component mounting apparatus which concerns on embodiment of this invention. 同実施形態に係る部品搭載装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the component mounting apparatus which concerns on the same embodiment. 同実施形態に係る部品搭載装置のアームとその先端に装着される取り付け部とキャリブレーション治具の概略図である。It is the schematic of the arm of the component mounting apparatus which concerns on the embodiment, the attaching part with which the front-end | tip is mounted | worn, and a calibration jig | tool. 同実施形態に係る部品搭載装置の搭載ロボットの概略図である。It is the schematic of the mounting robot of the component mounting apparatus which concerns on the same embodiment. 同実施形態に係る固定パラメータ記憶部に保持されているデータの一例を示す図である。It is a figure which shows an example of the data hold | maintained at the fixed parameter memory | storage part which concerns on the embodiment. 同実施形態に係る搭載フレームの概略図とフレーム・パラメータ記憶部に保持されているデータの一例を示す図である。It is a figure showing an example of data held in a schematic diagram of a mounting frame concerning the embodiment, and a frame parameter storage part. 同実施形態に係るカメラ4によるアーム8が接続子11を吸着した状態の画像の一例である。It is an example of the image of the state which the arm 8 by the camera 4 which concerns on the embodiment adsorb | sucked the connector 11. FIG. 同実施形態に係る部品搭載装置のキャリブレーションのフローチャートの一例である。It is an example of the flowchart of the calibration of the component mounting apparatus which concerns on the same embodiment. 同実施形態に係る部品搭載装置のキャリブレーションのフローチャートの一例である。It is an example of the flowchart of the calibration of the component mounting apparatus which concerns on the same embodiment. 同実施形態に係るカメラ4の撮像画像の概略図と搭載ロボットの状態の概略図である。It is the schematic of the captured image of the camera 4 which concerns on the same embodiment, and the schematic of the state of a mounting robot. 同実施形態に係るカメラ2および3の撮像画像の概略図と搭載ロボットの状態の概略図である。It is the schematic of the picked-up image of the cameras 2 and 3 which concern on the embodiment, and the schematic of the state of a mounting robot. 同実施形態に係るカメラ2,3,4の各座標系を説明する概略図である。It is the schematic explaining each coordinate system of the cameras 2, 3, and 4 which concern on the embodiment. 同実施形態に係るキャリブレーション時のアーム8の傾きのずれ量の求めかたを説明する概略図である。It is the schematic explaining how to obtain | require the deviation | shift amount of the inclination of the arm 8 at the time of the calibration which concerns on the same embodiment. 同実施形態に係るアーム8の長さのずれ量の求め方を説明する概略図である。It is the schematic explaining how to obtain | require the deviation | shift amount of the length of the arm 8 which concerns on the embodiment. 同実施形態に係るアーム8の長さのずれ量の求め方を説明する概略図である。It is the schematic explaining how to obtain | require the deviation | shift amount of the length of the arm 8 which concerns on the embodiment. 同実施形態に係るアーム8の長さのずれ量の求め方を説明する概略図である。It is the schematic explaining how to obtain | require the deviation | shift amount of the length of the arm 8 which concerns on the embodiment. 同実施形態に係るカメラ2および3が撮像した基準点の変換を説明する概略図である。It is the schematic explaining the conversion of the reference point which the cameras 2 and 3 which concern on the embodiment imaged. 同実施形態に係る搭載フレーム12の各列における補正された座標の一例を示す図である。It is a figure which shows an example of the corrected coordinate in each row | line | column of the mounting frame 12 which concerns on the embodiment. 同実施形態に係るカメラ4が撮像した接続子の基準点の変換を説明する概略図である。It is the schematic explaining conversion of the reference point of the connector which the camera 4 concerning the embodiment imaged. 同実施形態に係る搭載ロボットに指示する搭載フレームの各列への搭載位置の座標の一例を示す図である。It is a figure which shows an example of the coordinate of the mounting position to each row | line | column of the mounting frame which instruct | indicates the mounting robot which concerns on the embodiment.

以下、図1〜19を用いて本発明実施形態について詳細に説明する。なお、本発明は係る実施形態に限定されず、その技術思想の範囲内で種々の変更が可能である。   Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. In addition, this invention is not limited to the embodiment which concerns, A various change is possible within the range of the technical thought.

まず、図1〜7を用いて、本実施形態における部品搭載装置の構成について説明する。図1は、本実施形態における部品搭載装置のシステム全体の構成例を示す概略図である。また、図2は、本実施形態における部品搭載装置の構成の一例を示すブロック図である。また、図3は、本実施形態における部品搭載装置のアーム先端に取り付けるキャリブレーション治具および取り付け部の概略図である。図4は、本実施形態における部品搭載装置の搭載ロボットの概略図である。図5は、本実施形態におけるパラメータ記憶部に保持されているデータの一例を示す図である。図6は、本実施形態における搭載フレームの概略図と搭載フレームの各列の重心位置のデータの一例を示す図である。図7は、本実施形態におけるカメラによるアームが接続子を吸着した状態の画像の一例である。   First, the structure of the component mounting apparatus in this embodiment is demonstrated using FIGS. FIG. 1 is a schematic diagram showing a configuration example of the entire system of the component mounting apparatus in the present embodiment. FIG. 2 is a block diagram showing an example of the configuration of the component mounting apparatus according to this embodiment. FIG. 3 is a schematic view of a calibration jig and an attachment portion attached to the arm tip of the component mounting apparatus in the present embodiment. FIG. 4 is a schematic view of a mounting robot of the component mounting apparatus in the present embodiment. FIG. 5 is a diagram illustrating an example of data held in the parameter storage unit in the present embodiment. FIG. 6 is a diagram illustrating a schematic diagram of the mounting frame and an example of data on the center of gravity of each column of the mounting frame in the present embodiment. FIG. 7 is an example of an image in a state where the arm by the camera in this embodiment sucks the connector.

図1、2および5において、部品搭載装置は、搭載ロボット1と、カメラ2と、カメラ3と、カメラ4と、制御ユニット5と、アーム駆動部6と、ステージ7から構成されている。また、搭載ロボット1により接続子成形装置9から吸着された接続子11は、ステージ上の搭載フレーム12に搭載される。   1, 2, and 5, the component mounting apparatus includes a mounting robot 1, a camera 2, a camera 3, a camera 4, a control unit 5, an arm driving unit 6, and a stage 7. The connector 11 sucked from the connector forming apparatus 9 by the mounting robot 1 is mounted on a mounting frame 12 on the stage.

搭載ロボット1は、アーム8を備える。また、図3のように、搭載ロボット1は、アーム8の先端に装着されたキャリブレーション治具13をアーム駆動部6により、所定の位置に移動する。また、搭載ロボット1は、アーム8の先端に装着された取り付け部211により吸着した接続子11を、制御ユニット5で演算された所定の搭載位置にアーム駆動部6により移動し、接続子11を搭載フレーム12に搭載する。   The mounted robot 1 includes an arm 8. As shown in FIG. 3, the mounting robot 1 moves the calibration jig 13 attached to the tip of the arm 8 to a predetermined position by the arm driving unit 6. Further, the mounting robot 1 moves the connector 11 attracted by the mounting portion 211 attached to the tip of the arm 8 to the predetermined mounting position calculated by the control unit 5 by the arm driving unit 6, and moves the connector 11. Mounted on the mounting frame 12.

カメラ2およびカメラ3は、搭載ロボット1のアーム8の先端に装着されたキャリブレーション治具13の画像を撮像する。また、カメラ2およびカメラ3は、ステージ7上に置かれた搭載フレーム12が所定の位置で停止した後、搭載フレーム12の画像を撮像する。また、カメラ2およびカメラ3は、撮像した画像を制御ユニット5に送る。また、カメラ2およびカメラ3は、搭載フレーム12に対して、図1のように上側に設置されている。   The camera 2 and the camera 3 capture an image of the calibration jig 13 attached to the tip of the arm 8 of the mounted robot 1. In addition, the camera 2 and the camera 3 capture an image of the mounting frame 12 after the mounting frame 12 placed on the stage 7 stops at a predetermined position. Further, the camera 2 and the camera 3 send the captured image to the control unit 5. The camera 2 and the camera 3 are installed on the upper side with respect to the mounting frame 12 as shown in FIG.

カメラ4は、搭載ロボット1のアーム8の先端に装着されたキャリブレーション治具13が所定の位置にきたとき、キャリブレーション治具13の画像を撮像する。また、カメラ4は、搭載ロボット1のアーム8の先端に装着された取り付け部211が、接続子11を吸着して所定の位置で停止した後、アーム8の先端に装着された取り付け部211に吸着された接続子11の画像を撮像する。また、カメラ4は、撮像した画像を制御ユニット5に送る。また、カメラ4は、図1のように接続子11に対して下側に配置されている。また、カメラ4は、後述するロボット座標に対して、時計回りに90゜回転して取り付けられている。   The camera 4 captures an image of the calibration jig 13 when the calibration jig 13 attached to the tip of the arm 8 of the mounting robot 1 comes to a predetermined position. Further, the camera 4 is attached to the attachment portion 211 attached to the distal end of the arm 8 after the attachment portion 211 attached to the distal end of the arm 8 of the mounted robot 1 attracts the connector 11 and stops at a predetermined position. An image of the attracted connector 11 is taken. Further, the camera 4 sends the captured image to the control unit 5. Moreover, the camera 4 is arrange | positioned below with respect to the connector 11 like FIG. The camera 4 is attached by rotating 90 ° clockwise with respect to robot coordinates described later.

制御ユニット5は、予め搭載フレーム12内の複数の部品の各位置情報に関しての設定(以下、搭載フレーム12の設計値)値を制御ユニット5内に記憶する。また、制御ユニット5は、カメラ2、カメラ3およびカメラ4から撮像された画像を受け取る。また制御ユニット5は、撮像された画像から撮像された部品位置の情報を検出する。また、制御ユニット5は、キャリブレーション処理時に、アーム8を所定の位置に制御する信号をアーム駆動部6に送る。また、制御ユニット5は、接続子11の搭載時に、アーム駆動部6に、接続子11を吸着するために接続子成形装置9の所定の移動指示を行う。また、制御ユニット5は、接続子11の搭載時に、後述する手順により、カメラ2〜4から受け取った画像と記憶されている搭載フレーム12の設計値を用いて、アーム8の先端に装着された取り付け部211が吸着した接続子11の移動先の補正値を演算する。また、制御ユニット5は、演算された補正値に基づき、アーム8の先端に装着された取り付け部211が吸着した接続子11の搭載フレーム12上への移動先座標を演算して、求めた移動先座標をアーム駆動部6に送る。   The control unit 5 stores in advance in the control unit 5 a setting value (hereinafter referred to as a design value of the mounting frame 12) related to position information of a plurality of components in the mounting frame 12. The control unit 5 receives images taken from the camera 2, the camera 3, and the camera 4. Moreover, the control unit 5 detects the information of the imaged part position from the imaged image. Further, the control unit 5 sends a signal for controlling the arm 8 to a predetermined position to the arm drive unit 6 during the calibration process. Further, when the connector 11 is mounted, the control unit 5 instructs the arm driving unit 6 to move the connector molding device 9 in order to attract the connector 11. Further, when the connector 11 is mounted, the control unit 5 is mounted on the tip of the arm 8 using the image received from the cameras 2 to 4 and the stored design value of the mounting frame 12 according to the procedure described later. The correction value of the movement destination of the connector 11 attracted by the attachment unit 211 is calculated. The control unit 5 calculates the movement coordinates obtained by calculating the movement destination coordinates on the mounting frame 12 of the connector 11 attracted by the mounting portion 211 attached to the tip of the arm 8 based on the calculated correction value. The previous coordinates are sent to the arm drive unit 6.

アーム駆動部6は、キャリブレーション処理時に、アーム8の先端に取り付けられたキャリブレーション治具13を、制御ユニットからの制御によりカメラ2、カメラ3およびカメラ4の画面内の所定位置に移動させる。また、アーム駆動部6は、アーム8と装着された取り付け部211を、制御ユニットからの制御により接続子11を成形する接続子成形装置9の所定の位置に移動させ、接続子11を吸着する。また、アーム駆動部6は、接続子11を吸着後、制御ユニットからの制御によりカメラ4の画面内の所定位置に移動する。また、アーム駆動部6は、制御ユニット5が算出した搭載位置への制御信号を受け取り、受け取った制御信号に基づいて搭載ロボット1のアーム8と装着された取り付け部211を搭載位置に駆動する。   The arm driving unit 6 moves the calibration jig 13 attached to the tip of the arm 8 to a predetermined position in the screens of the camera 2, the camera 3, and the camera 4 by the control from the control unit during the calibration process. Moreover, the arm drive part 6 moves the attachment part 211 with which the arm 8 was mounted | worn to the predetermined position of the connector shaping | molding apparatus 9 which shape | molds the connector 11 by control from a control unit, and adsorb | sucks the connector 11 . Further, the arm drive unit 6 moves to a predetermined position in the screen of the camera 4 under the control of the control unit after attracting the connector 11. The arm driving unit 6 receives a control signal for the mounting position calculated by the control unit 5, and drives the arm 8 of the mounting robot 1 and the mounting unit 211 attached to the mounting position based on the received control signal.

ステージ7は、ステージ7上に置かれている搭載フレーム12を所定の位置で停止させる。   The stage 7 stops the mounting frame 12 placed on the stage 7 at a predetermined position.

アーム8は、搭載ロボット1のメンテナンス作業時等に取り外し可能な部品であり、搭載ロボット1に装着されている。また、アーム8は、図3のように、先端にキャリブレーション処理時にキャリブレーション治具13が装着され、接続子11を搭載フレーム12に搭載する時に取り付け部211を装着される。   The arm 8 is a component that can be removed during maintenance work of the mounted robot 1, and is mounted on the mounted robot 1. Further, as shown in FIG. 3, the arm 8 has a calibration jig 13 attached to the tip at the time of calibration processing, and an attachment portion 211 attached to the connector 8 when the connector 11 is mounted on the mounting frame 12.

接続子成形装置9は、接続子11が金型を用いて切断等により成型される装置である。   The connector molding device 9 is a device in which the connector 11 is molded by cutting or the like using a mold.

次に、制御ユニット5の構成について、図2のブロックを用いて説明する。制御ユニット5は、画像認識部101と、画像認識部102と、基準位置座標変換部103と、固定パラメータ記憶部104と、キャリブレーション部105と、フレーム・パラメータ記憶部106と、第1補正量算出部107と、第2補正量算出部108と、第3補正量算出部109と、搭載座標算出部110とから構成されている。   Next, the configuration of the control unit 5 will be described using the blocks in FIG. The control unit 5 includes an image recognition unit 101, an image recognition unit 102, a reference position coordinate conversion unit 103, a fixed parameter storage unit 104, a calibration unit 105, a frame parameter storage unit 106, and a first correction amount. The calculation unit 107, the second correction amount calculation unit 108, the third correction amount calculation unit 109, and the mounted coordinate calculation unit 110 are configured.

画像認識部101は、カメラ2とカメラ3で撮像された画像を受け取る。また、キャリブレーション処理時、画像認識部101は、受け取った画像からアーム8の先端に装着されたキャリブレーション治具13の基準マーク213を、カメラ座標による位置および基準方向に対する角度を検出する。また、画像認識部101は、検出された基準マーク213のカメラ座標による位置および基準方向に対する角度を固定パラメータ記憶部104に記憶する。また、接続子11の搭載時、画像認識部101は、受け取った画像から搭載フレーム12の基準点を、カメラ座標による位置および基準方向に対する角度を検出する。基準方向は、各カメラ画像において水平方向か垂直方向など一意の方向を用いる。   The image recognition unit 101 receives images captured by the camera 2 and the camera 3. In the calibration process, the image recognition unit 101 detects the reference mark 213 of the calibration jig 13 attached to the tip of the arm 8 from the received image and the angle with respect to the position and the reference direction according to the camera coordinates. Further, the image recognition unit 101 stores the detected position of the reference mark 213 in the camera coordinates and the angle with respect to the reference direction in the fixed parameter storage unit 104. When the connector 11 is mounted, the image recognition unit 101 detects the reference point of the mounting frame 12 from the received image and the angle with respect to the position in the camera coordinates and the reference direction. As the reference direction, a unique direction such as a horizontal direction or a vertical direction is used in each camera image.

図3は、アーム8とその先端に装着される取り付け部211とキャリブレーション治具13の概略図である。図3(a)において、接続子11を搭載フレーム12に搭載時、アーム8の先端には取り付け部211が装着される。また、取り付け部211の下側には、接続子11を吸着する吸着部212を備える。また、搭載フレーム12の基準点は、図3(a)において、1列目の重心GD1(xD1,yD1,θD1)と、30列目の重心GD30(xD30,yD30,θD30)である。
図3(b)において、キャリブレーション時、アーム8の先端にキャリブレーション治具13が装着される。また、キャリブレーション治具13には、キャリブレーション時に位置検出される十字の穴(基準マーク)213が備えられている。
FIG. 3 is a schematic view of the arm 8, the attachment portion 211 attached to the tip thereof, and the calibration jig 13. In FIG. 3A, when the connector 11 is mounted on the mounting frame 12, the mounting portion 211 is mounted on the tip of the arm 8. Further, a suction part 212 that sucks the connector 11 is provided below the attachment part 211. In addition, in FIG. 3A, the reference points of the mounting frame 12 are the center of gravity G D1 (x D1 , y D1 , θ D1 ) of the first column and the center of gravity G D30 (x D30 , y D30 , θ D30 ).
In FIG. 3B, the calibration jig 13 is attached to the tip of the arm 8 during calibration. Further, the calibration jig 13 is provided with a cross hole (reference mark) 213 whose position is detected during calibration.

画像認識部102は、カメラ4で撮影された画像を受け取る。また、画像認識部102は、キャリブレーション処理時、受け取った画像からアーム8の先端に装着されたキャリブレーション治具13の基準マーク213を、カメラ座標による位置および基準方向に対する角度を検出する。また、画像認識部102は、検出された基準マーク213のカメラ座標による位置および基準方向に対する角度を固定パラメータ記憶部104に記憶する。
また、接続子11を搭載フレーム12へ搭載時、画像認識部101は、受け取った画像から接続子11の基準点を、カメラ座標による位置および基準方向に対する角度を検出する。
The image recognition unit 102 receives an image captured by the camera 4. Further, during the calibration process, the image recognition unit 102 detects the reference mark 213 of the calibration jig 13 attached to the tip of the arm 8 from the received image and the angle with respect to the position and the reference direction according to the camera coordinates. Further, the image recognition unit 102 stores the detected position of the reference mark 213 in the camera coordinates and the angle with respect to the reference direction in the fixed parameter storage unit 104.
When the connector 11 is mounted on the mounting frame 12, the image recognition unit 101 detects the reference point of the connector 11 from the received image and the angle with respect to the position and the reference direction based on the camera coordinates.

基準位置座標変換部103は、画像認識部101および画像認識部102により検出されたアーム8の先端に装着されたキャリブレーション治具13の基準マーク213の位置および基準方向に対する角度を各カメラ座標の値で受け取る。また、基準位置座標変換部103は、画像認識部101と102から受け取った基準マーク213の各座標および基準方向に対する各角度を、搭載ロボット1の定められた位置cr(x,y)を基準にしたロボット座標値に変換する。また、基準位置座標変換部103は、ロボット座標に変換された基準マーク213の各座標および基準方向に対する各角度を固定パラメータ記憶部104に記憶する。   The reference position coordinate conversion unit 103 converts the position of the reference mark 213 of the calibration jig 13 attached to the tip of the arm 8 detected by the image recognition unit 101 and the image recognition unit 102 and the angle with respect to the reference direction of each camera coordinate. Receive by value. Further, the reference position coordinate conversion unit 103 uses the coordinates of the reference mark 213 received from the image recognition units 101 and 102 and the angles with respect to the reference direction with reference to the position cr (x, y) determined by the mounted robot 1. Convert to the robot coordinate value. The reference position coordinate conversion unit 103 stores the coordinates of the reference mark 213 converted into robot coordinates and the angles with respect to the reference direction in the fixed parameter storage unit 104.

図4は、本実施形態における搭載ロボット1の概略図である。図4において、搭載ロボット1は、搭載ロボット本体201と、可動部202と、アーム8から構成されている。アーム8は、アーム駆動部6からの駆動信号により可動部202が可動して、所定の位置に駆動される。また、図4において、cr(x,y)はアーム8を搭載ロボット本体201に対して垂直な位置にした線状の可動部202と搭載ロボット本体201との間の一意の位置に設定されている。   FIG. 4 is a schematic diagram of the mounting robot 1 in the present embodiment. In FIG. 4, the mounting robot 1 includes a mounting robot main body 201, a movable unit 202, and an arm 8. The arm 8 is driven to a predetermined position by the movable part 202 being moved by a drive signal from the arm driving part 6. In FIG. 4, cr (x, y) is set at a unique position between the linear movable unit 202 and the mounting robot body 201 with the arm 8 positioned perpendicular to the mounting robot body 201. Yes.

固定パラメータ記憶部104は、画像認識部101で検出された基準マーク213のカメラ座標による位置および基準方向に対する角度と、画像認識部102で検出された基準マーク213のカメラ座標による位置および基準方向に対する角度と、基準位置座標変換部103でロボット座標に変換された基準マーク213のカメラ座標による各位置および基準方向に対する各角度と、後述するアーム8の長さと、アーム8の傾きずれ量と、キャリブレーション治具13と取り付け部211との座標差および傾き角度差が保持する。   The fixed parameter storage unit 104 has an angle with respect to the position and reference direction of the reference mark 213 detected by the image recognition unit 101 and the position and reference direction of the reference mark 213 detected by the image recognition unit 102 with respect to the position and reference direction. The angle, each angle of the reference mark 213 converted to the robot coordinate by the reference position coordinate conversion unit 103 with respect to each position and reference direction according to the camera coordinates, the length of the arm 8 to be described later, the tilt deviation amount of the arm 8, and the calibration The coordinate difference and inclination angle difference between the motion jig 13 and the attachment portion 211 are held.

図5は、本実施形態における固定パラメータ記憶部104に保持されているデータの構成例である。固定パラメータ記憶部104には、カメラ2で撮像された基準マーク213の中心位置のカメラ2上での座標値と、カメラ2で撮像された基準マーク213の中心位置をロボット座標に変換した座標値と、カメラ2の分解能と、カメラ3で撮像された基準マークの中心位置のカメラ3上での座標値と、カメラ3で撮像された基準マーク213の中心位置をロボット座標に変換した座標値と、カメラ3の分解能と、カメラ4で撮像された基準マーク213の中心位置のカメラ4上での座標値と、カメラ4で撮像された基準マーク213の中心位置をロボット座標に変換した座標値と、カメラ4の取り付け角度と、カメラ4の分解能、およびステップS2で実測されたアーム8の長さと、後述するアーム8の傾きのずれ量が関連付けられて保持されている。   FIG. 5 is a configuration example of data held in the fixed parameter storage unit 104 in the present embodiment. The fixed parameter storage unit 104 stores coordinate values of the center position of the reference mark 213 captured by the camera 2 on the camera 2 and coordinate values obtained by converting the center position of the reference mark 213 captured by the camera 2 into robot coordinates. And the resolution of the camera 2, the coordinate value of the center position of the reference mark imaged by the camera 3 on the camera 3, and the coordinate value obtained by converting the center position of the reference mark 213 imaged by the camera 3 into robot coordinates. The resolution of the camera 3, the coordinate value on the camera 4 of the center position of the reference mark 213 captured by the camera 4, and the coordinate value obtained by converting the center position of the reference mark 213 captured by the camera 4 into robot coordinates The mounting angle of the camera 4, the resolution of the camera 4, the length of the arm 8 actually measured in step S <b> 2, and the tilt deviation amount of the arm 8 to be described later are associated and held. To have.

キャリブレーション部105は、キャリブレーション時に、後述する手順で、アーム8を所定の位置に移動させるための制御信号をアーム駆動部6に送信する。また、キャリブレーション部105は、アーム駆動部6に送信した制御信号に基づき、アーム8の移動先の座標を第3補正量算出部109に送信する。   The calibration unit 105 transmits a control signal for moving the arm 8 to a predetermined position to the arm driving unit 6 at the time of calibration in the procedure described later. Further, the calibration unit 105 transmits the coordinates of the movement destination of the arm 8 to the third correction amount calculation unit 109 based on the control signal transmitted to the arm driving unit 6.

フレーム・パラメータ記憶部106は、図6(a)のように、搭載フレーム12を構成する複数の子部品において、搭載フレームの重心G(x,y,θ)を原点として、各列の重心位置の各座標と各傾き角度を保持する。また、フレーム・パラメータ記憶部106に保持されているデータは、搭載フレーム12についての設計値から求めた各値が保持されている。図6(b)は、フレーム・パラメータ記憶部106に保持されているデータ構造の一例である。搭載フレーム12の各列の重心の座標GDi(xDi,yDi)と傾きθDiが保持されている。なお、x軸に関しては下から上方向を正方向とし、y軸に関しては右から左方向を正方向とし、角度については、時計回りを正と定義する。 As shown in FIG. 6A, the frame parameter storage unit 106 uses the center of gravity G (x, y, θ) of the mounting frame as the origin and the center of gravity position of each column in a plurality of child parts constituting the mounting frame 12. Each coordinate and each tilt angle are held. Further, the data held in the frame parameter storage unit 106 holds values obtained from the design values for the mounting frame 12. FIG. 6B is an example of a data structure held in the frame parameter storage unit 106. The coordinates G Di (x Di , y Di ) of the center of gravity of each column of the mounting frame 12 and the inclination θ Di are held. For the x axis, the upward direction from the bottom is defined as the positive direction, for the y axis, the right direction from the right is defined as the positive direction, and for the angle, clockwise is defined as positive.

第1補正量算出部107は、搭載フレーム12に接続子11を搭載する時、画像認識部101で検出された搭載フレーム12の基準点GD1(xD1,yD1,θD1)とGD30(xD30,yD30,θD30)を、カメラ座標による位置および基準方向に対する角度として受け取る。また、基準点GD1とGD30の位置および基準方向に対する角度として受け取った後、固定パラメータ記憶部104に記憶されているデータと、フレーム・パラメータ記憶部106に記憶されているデータを用いて、後述する手順により第1の補正量を算出する。また、第1補正量算出部107は、算出された第1の補正量を搭載座標算出部110に送信する。 When the connector 11 is mounted on the mounting frame 12, the first correction amount calculation unit 107 uses the reference points G D1 (x D1 , y D1 , θ D1 ) and G D30 of the mounting frame 12 detected by the image recognition unit 101. (X D30 , y D30 , θ D30 ) is received as a position in camera coordinates and an angle with respect to a reference direction. Further, after being received as the positions of the reference points G D1 and G D30 and the angle with respect to the reference direction, using the data stored in the fixed parameter storage unit 104 and the data stored in the frame parameter storage unit 106, The first correction amount is calculated according to the procedure described later. In addition, the first correction amount calculation unit 107 transmits the calculated first correction amount to the mounting coordinate calculation unit 110.

すなわち、第1補正量算出部107は、固定パラメータ記憶部104に保持されている搭載フレーム12の設計値と、実際にカメラ2および3で撮像された画像から検出された搭載フレーム12の左右の基準点GD1およびGD30とを用いて、搭載フレーム12のずれ量である第1の補正量を算出する。 That is, the first correction amount calculation unit 107 determines the left and right sides of the mounting frame 12 detected from the design values of the mounting frame 12 held in the fixed parameter storage unit 104 and the images actually captured by the cameras 2 and 3. by using the reference point G D1 and G D30, and calculates the first correction amount which is the amount of deviation of mounting frame 12.

第2補正量算出部108は、アーム8の先端に装着された取り付け部211により接続子11が吸着された後、画像認識部102で検出された複数の接続子11の基準点G(x,y,θ)を、カメラ座標による位置および基準方向に対する角度として受け取る。また、基準点Gの位置および基準方向に対する角度として受け取った後、固定パラメータ記憶部104に記憶されているデータを用いて、後述する手順により第2の補正量を算出する。また、 第2補正量算出部108は、算出された第2の補正量を搭載座標算出部110に送信する。 The second correction amount calculation unit 108 uses the reference points G C (x) of the plurality of connectors 11 detected by the image recognition unit 102 after the connector 11 is adsorbed by the attachment unit 211 attached to the tip of the arm 8. C 1 , y C , θ C ) is received as a position in camera coordinates and an angle with respect to a reference direction. Further, after receiving the angle with respect to the position and reference direction of the reference point G C, using the data stored in the fixed parameter storing unit 104, calculates a second correction amount according to the procedure described below. Further, the second correction amount calculation unit 108 transmits the calculated second correction amount to the mounting coordinate calculation unit 110.

図7は、本実施形態におけるカメラ4によるアーム8が接続子11を吸着した状態の画像の一例である。アーム8に装着された取り付け部211の下側にある吸着部212は、図7のように、一度に10個の接続子11が吸着する。制御ユニットによる制御により、アーム8が、この10個の接続子11を図6(a)で説明した搭載アーム12の各列に後述する手順で同時に搭載する。   FIG. 7 is an example of an image in a state where the arm 8 by the camera 4 in this embodiment attracts the connector 11. As shown in FIG. 7, the suction part 212 on the lower side of the attachment part 211 attached to the arm 8 attracts ten connectors 11 at a time. Under the control of the control unit, the arm 8 simultaneously mounts the ten connectors 11 on each column of the mounting arm 12 described with reference to FIG.

すなわち、第2補正量算出部108は、カメラ4で撮像された画像から検出されたアーム8に装着された取り付け部211に吸着された状態の接続子11の基準点Gを用いて、接続子11のずれ量である第2の補正量を算出する。 That is, the second correction amount calculating unit 108 uses the reference point G C of connectors 11 in a state of being adsorbed to the mounting portion 211 mounted on the arm 8, which is detected from the image captured by the camera 4, connected A second correction amount that is a shift amount of the child 11 is calculated.

第3補正量算出部109は、キャリブレーション時、画像認識部101と画像認識部102で検出されたアーム8に装着されているキャリブレーション治具13の基準マーク213のカメラ座標による各位置と各傾き角度と、キャリブレーション部105からアーム8の移動先の座標を受け取る。また、第3補正量算出部109は、受け取った基準マーク213のカメラ座標による各位置と各傾き角度と、アーム8の移動先の座標を用いて、具述する方法でアーム8の傾きずれ量とアーム8の長さを第3の補正量として算出する。また、第3補正量算出部109は、算出された第3の補正量を搭載座標算出部110に送信する。また、第3補正量算出部109は、算出された第3の補正量を固定パラメータ記憶部104に記憶する。   The third correction amount calculation unit 109 detects each position and each position according to the camera coordinates of the reference mark 213 of the calibration jig 13 attached to the arm 8 detected by the image recognition unit 101 and the image recognition unit 102 during calibration. The tilt angle and the coordinates of the movement destination of the arm 8 are received from the calibration unit 105. In addition, the third correction amount calculation unit 109 uses the position and angle of inclination of the received reference mark 213 in the camera coordinates and the coordinates of the movement destination of the arm 8 to describe the amount of inclination deviation of the arm 8 by a method described below. And the length of the arm 8 is calculated as a third correction amount. In addition, the third correction amount calculation unit 109 transmits the calculated third correction amount to the mounting coordinate calculation unit 110. The third correction amount calculation unit 109 stores the calculated third correction amount in the fixed parameter storage unit 104.

すなわち、第3補正量算出部109は、カメラ4で撮像された画像から検出されたアーム8に装着されたキャリブレーション治具13の基準マーク213の基準点Gを用いて、アーム8のずれ量である第3の補正量を算出する。 That is, the third correction amount calculating unit 109 uses the reference point G C of the reference marks 213 of the calibration jig 13 mounted on the arm 8, which is detected from the image captured by the camera 4, displacement of the arm 8 A third correction amount that is an amount is calculated.

搭載座標算出部110は、第1補正量算出部107により算出された第1の補正量と、第2補正量算出部108により算出された第2の補正量と、第3補正量算出部108により算出された第3の補正量を受け取る。また、搭載座標算出部110は、受け取った補正量を用いて、接続子11を吸着したアーム8の搭載フレーム12への搭載位置を算出する。また、搭載座標算出部110は、算出された搭載位置をアーム駆動部6に送信する。
以上で、制御ユニット5の説明を終了する。
The mounted coordinate calculation unit 110 includes a first correction amount calculated by the first correction amount calculation unit 107, a second correction amount calculated by the second correction amount calculation unit 108, and a third correction amount calculation unit 108. The third correction amount calculated by is received. Also, the mounting coordinate calculation unit 110 calculates the mounting position of the arm 8 that has attracted the connector 11 on the mounting frame 12 using the received correction amount. In addition, the mounting coordinate calculation unit 110 transmits the calculated mounting position to the arm driving unit 6.
Above, description of the control unit 5 is complete | finished.

次に、本実施形態における部品搭載装置の搭載手順を、図8〜20を用いて説明する。まず、接続子11を搭載フレーム12に搭載する前に行うキャリブレーションの手順を図8〜図12を用いて説明する。図8および9は、本実施形態における部品搭載装置のキャリブレーションのフローチャートの一例である。図10は、本実施形態におけるカメラ4の撮像画像の概略図と搭載ロボットの状態の概略図である。図11は、本実施形態におけるカメラ2および3の撮像画像の概略図と搭載ロボットの状態の概略図である。図12は、本実施形態におけるカメラ2〜4における座標を説明する概略図である。まず、搭載ロボット1のアーム8先端にキャリブレーション治具13を装着する(S1)。   Next, the mounting procedure of the component mounting apparatus in the present embodiment will be described with reference to FIGS. First, a calibration procedure performed before mounting the connector 11 on the mounting frame 12 will be described with reference to FIGS. 8 and 9 are examples of a flowchart of calibration of the component mounting apparatus in the present embodiment. FIG. 10 is a schematic diagram of a captured image of the camera 4 and a schematic diagram of the state of the mounted robot in the present embodiment. FIG. 11 is a schematic diagram of captured images of the cameras 2 and 3 and a schematic diagram of the state of the mounted robot in the present embodiment. FIG. 12 is a schematic diagram illustrating coordinates in the cameras 2 to 4 in the present embodiment. First, the calibration jig 13 is attached to the tip of the arm 8 of the mounting robot 1 (S1).

次に、本部品搭載装置の利用者がアーム8の長さL[mm]をメジャー等で実測して、実測された値を制御ユニット5の固定パラメータ記憶部104に記憶する(S2)。   Next, the user of the component mounting apparatus actually measures the length L [mm] of the arm 8 with a measure or the like, and stores the actually measured value in the fixed parameter storage unit 104 of the control unit 5 (S2).

次に、制御ユニット5のキャリブレーション部105からの指示により、アーム駆動部6が、キャリブレーション治具13が装着されたアーム8を、所定の角度で所定の位置に移動させる(S3)。以下、アーム8は、アーム駆動部6がキャリブレーション部105からの制御信号により制御されて移動する。   Next, according to an instruction from the calibration unit 105 of the control unit 5, the arm driving unit 6 moves the arm 8 on which the calibration jig 13 is mounted to a predetermined position at a predetermined angle (S3). Hereinafter, the arm 8 moves as the arm driving unit 6 is controlled by a control signal from the calibration unit 105.

まず、キャリブレーション部105から指示されたカメラ4の中心座標に、アーム8の傾き角度θ=−90゜にし、アーム駆動部6が可動部202とアーム8を可変させて移動させる。指示された位置にアーム8が移動した後、カメラ4は、撮像データを取得する(S4)。なお、アームの傾き角度は、図10のように、図4の状態を初期状態のθ=0゜とし、時計回り方向をマイナス角度とする。また、図10(a)は、アーム8の傾き角度θ=−135゜の時の可動部202とアーム8の状態概略図とカメラ4に映し出された画像の概略図である。また、図10(a)のように、アーム8の下側に設置されているカメラ4上の画像は、θ=−90゜の時にアーム8先端部に装着されているキャリブレーション治具13が水平に映し出される角度で設置されている。
次に、キャリブレーション部105から指示されたカメラ4の中心座標に、アーム8の傾き角度θ=−135゜にし、アーム駆動部6が可動部202とアーム8を可変させて移動させる。指示された位置にアーム8が移動した後、カメラ4は、撮像データを取得する(S4)。図10(b)は、アーム8の傾き角度θ=−135゜の時の可動部202とアーム8の状態概略図とカメラ4に映し出された画像の概略図である。アーム8の傾き角度をカメラ4の画像で左右が反転している理由は、カメラ4がアーム8の下側に設置されていて下側から撮像しているためである。
次に、キャリブレーション部105から指示されたカメラ4の中心座標に、アーム8の傾き角度θ=−45゜にし、アーム駆動部6が可動部202とアーム8を可変させて移動させる。指示された位置にアーム8が移動した後、カメラ4は、撮像データを取得する(S4)。図10(c)は、アーム8の傾き角度θ=−45゜の時の可動部202とアーム8の状態概略図とカメラ4に映し出される画像の概略図である。
First, the tilt angle θ of the arm 8 is set to the center coordinate of the camera 4 instructed from the calibration unit 105, and the arm driving unit 6 moves the movable unit 202 and the arm 8 variably. After the arm 8 has moved to the instructed position, the camera 4 acquires imaging data (S4). As shown in FIG. 10, the inclination angle of the arm is θ = 0 ° in the initial state in FIG. 4 and a minus angle in the clockwise direction. FIG. 10A is a schematic diagram of the state of the movable unit 202 and the arm 8 when the tilt angle θ of the arm 8 is −135 °, and a schematic diagram of an image displayed on the camera 4. Further, as shown in FIG. 10A, the image on the camera 4 installed on the lower side of the arm 8 is obtained by the calibration jig 13 attached to the tip of the arm 8 when θ = −90 °. It is installed at an angle that is projected horizontally.
Next, the tilt angle θ of the arm 8 is set to the center coordinate of the camera 4 instructed from the calibration unit 105, and the arm driving unit 6 moves the movable unit 202 and the arm 8 while changing them. After the arm 8 has moved to the instructed position, the camera 4 acquires imaging data (S4). FIG. 10B is a schematic diagram of the state of the movable unit 202 and the arm 8 when the inclination angle θ of the arm 8 is −135 °, and a schematic diagram of an image displayed on the camera 4. The reason why the tilt angle of the arm 8 is reversed left and right in the image of the camera 4 is that the camera 4 is installed on the lower side of the arm 8 and images from the lower side.
Next, the tilt angle θ of the arm 8 is set to the central coordinate of the camera 4 instructed from the calibration unit 105, and the arm driving unit 6 moves the movable unit 202 and the arm 8 in a variable manner. After the arm 8 has moved to the instructed position, the camera 4 acquires imaging data (S4). FIG. 10C is a schematic diagram of the state of the movable portion 202 and the arm 8 when the tilt angle θ of the arm 8 is −45 °, and a schematic diagram of an image displayed on the camera 4.

次に、キャリブレーション部105から指示されたカメラ2の中心座標に、アーム駆動部6が可動部202とアーム8を可変させて移動させる。指示された位置にアーム8が移動した後、カメラ2は、撮像データを取得する(S4)。図11(a)は、搭載フレーム12の左の基準位置GD1における可動部202とアーム8の状態概略図とカメラ2に映し出される画像の概略図である。なお、カメラ2の撮影倍率がカメラ5より高いため、キャリブレーション治具13の基準マークの十字の穴がカメラ2に写しだされている。
次に、キャリブレーション部105から指示されたカメラ3の中心座標に、アーム駆動部6が可動部202とアーム8を可変させて移動させる。指示された位置にアーム8が移動した後、カメラ3は、撮像データを取得する(S4)。図11(b)は、搭載フレーム12の右基準位置GD30における可動部202とアーム8の状態概略図とカメラ3に映し出される画像の概略図である。
Next, the arm drive unit 6 moves the movable unit 202 and the arm 8 in a variable manner to the center coordinates of the camera 2 instructed from the calibration unit 105. After the arm 8 moves to the instructed position, the camera 2 acquires imaging data (S4). FIG. 11A is a schematic diagram of the state of the movable unit 202 and the arm 8 at the left reference position GD1 of the mounting frame 12, and a schematic diagram of an image displayed on the camera 2. FIG. Note that since the shooting magnification of the camera 2 is higher than that of the camera 5, the cross hole of the reference mark of the calibration jig 13 is copied to the camera 2.
Next, the arm driving unit 6 moves the movable unit 202 and the arm 8 in a variable manner to the center coordinates of the camera 3 instructed from the calibration unit 105. After the arm 8 moves to the instructed position, the camera 3 acquires imaging data (S4). FIG. 11B is a schematic diagram of the state of the movable unit 202 and the arm 8 at the right reference position GD30 of the mounting frame 12, and a schematic diagram of an image displayed on the camera 3. FIG.

次に、カメラ2、3で撮像された画像を画像認識部101が受け取り、受け取った画像(図11)からキャリブレーション治具13の基準マーク213の中心座標c(x,y)およびc30(x30,y30)を検出する(S5)。また、カメラ4で撮像された画像を画像認識部102が受け取り、受け取った画像のうちθ=−90゜の画像(図10(a))からキャリブレーション治具13の基準マーク213の中心座標p1(xP1,yP1)を検出する(S5)。
図12を用いて、各カメラ座標について説明する。図12は、本実施形態におけるカメラ2,3,4の各座標系を説明する概略図である。図11と12において検出される基準マーク213の中心座標c(x,y)とc30(x30,y30)およびp1(xP1,yP1)は、図12のように各カメラにおける座標であり、右下を原点として、カメラ2および3は縦軸の最大値479ピクセル、横軸の最大値639ピクセルであり、カメラ4は縦軸の最大値1023ピクセル、横軸の最大値767ピクセルである。また、縦軸をx軸として、原点から上方向を正方向とし、横軸をy軸として、原点から左方向をプラス方向と本実施形態では定義する。
本実施形態では、カメラ2が撮像した画像から基準マーク213の中心座標c(x,y)=(314.082,249.794)が検出され、カメラ3が撮像した画像から基準マーク213の中心座標c30(x30,y30)=(297.818,198.282)が検出され、カメラ4が撮像したθ=−90゜の画像からら基準マーク213の中心座標p1(xP1,yP1)(508.181,412.719)が検出される。
ただし、カメラ4は、ロボット座標に対して時計回りに90゜回転して取り付けられているため、カメラ4から取得された画像は図12(c)のような座標関係になっている。
また、画像認識部101および画像認識部102は、各画像から検出された各基準マーク213の中心座標を固定パラメータ記憶部104に記憶する。
Next, the image recognition unit 101 receives images captured by the cameras 2 and 3, and the center coordinates c 1 (x 1 , y 1 ) of the reference mark 213 of the calibration jig 13 and the received image (FIG. 11) and c 30 (x 30 , y 30 ) is detected (S5). Further, the image recognition unit 102 receives an image captured by the camera 4, and the center coordinates p <b> 1 of the reference mark 213 of the calibration jig 13 from the image of θ = −90 ° (FIG. 10A) among the received images. ( XP1 , yP1 ) is detected (S5).
Each camera coordinate is demonstrated using FIG. FIG. 12 is a schematic diagram for explaining the coordinate systems of the cameras 2, 3, and 4 in the present embodiment. The center coordinates c 1 (x 1 , y 1 ) and c 30 (x 30 , y 30 ) and p 1 (x P1 , y P1 ) of the reference mark 213 detected in FIGS. 11 and 12 are as shown in FIG. The coordinates in the camera, with the lower right as the origin, cameras 2 and 3 have a maximum value of 479 pixels on the vertical axis and a maximum value of 639 pixels on the horizontal axis, and camera 4 has a maximum value of 1023 pixels on the vertical axis and a maximum on the horizontal axis The value is 767 pixels. In this embodiment, the vertical axis is defined as the x axis, the upward direction from the origin is defined as the positive direction, the horizontal axis is defined as the y axis, and the left direction from the origin is defined as the plus direction.
In the present embodiment, the center coordinates c 1 (x 1 , y 1 ) = (314.082, 249.794) of the reference mark 213 are detected from the image captured by the camera 2, and the reference mark is detected from the image captured by the camera 3. The central coordinates c 30 (x 30 , y 30 ) = (297.818, 198.282) of the 213 are detected, and the central coordinates p 1 (x of the reference mark 213 are detected from the θ = −90 ° image captured by the camera 4. P1, y P1) (508.181,412.719) is detected.
However, since the camera 4 is attached by rotating 90 ° clockwise relative to the robot coordinates, the image acquired from the camera 4 has a coordinate relationship as shown in FIG.
Further, the image recognition unit 101 and the image recognition unit 102 store the center coordinates of each reference mark 213 detected from each image in the fixed parameter storage unit 104.

次に、画像認識部101および画像認識部102は、検出された基準マーク213の中心座標を基準位置座標変換部103に送信する。また、図10において、キャリブレーション部105は、各キャリブレーション状態における各アーム8の根元の座標b1(x,y)とb2(x,y)およびb3(x,y)を第3補正量算出部109に送信する。第3補正量算出部109は、キャリブレーション部105から各キャリブレーション状態における各アーム8の根元の座標を受け取る(S6)。   Next, the image recognition unit 101 and the image recognition unit 102 transmit the detected center coordinates of the reference mark 213 to the reference position coordinate conversion unit 103. In FIG. 10, the calibration unit 105 calculates the third correction amount of the coordinates b1 (x, y), b2 (x, y), and b3 (x, y) of each arm 8 in each calibration state. To the unit 109. The third correction amount calculation unit 109 receives the base coordinates of each arm 8 in each calibration state from the calibration unit 105 (S6).

次に、基準位置座標変換部103は受け取った基準マーク213の中心座標を、ロボット座標に変換する(S7)。本実施形態では、ロボット座標は、図4のように、搭載ロボット1に対して予め定められた一意の座標cr(x,y)を原点(基準点)として、アーム8の可動範囲内を単位mmで表すものと定義する。これにより、本実施形態では、カメラ2が撮像した画像から基準マークの中心座標(314.082,249.794)[pixel]は(170.970,−59.424)[mm]に変換され、カメラ3が撮像した画像から基準マークの中心座標c(297.818,198.282)[pixel]は(170.980,−249.755)[mm]に変換され、カメラ4が撮像したθ=−90゜の画像からら基準マークの中心座標(508.181、412.719)[pixel]は(241.490,−107.815)[mm]に変換される。
また、基準位置座標変換部103は、カメラ4の取り付け角度をロボット座標に対して時計回りに90゜回転して取り付けられているため、傾き−90゜すなわち−π/2=−1.571とする。また、基準位置座標変換部103は、変換された各座標およびカメラ4の取り付け角度を固定パラメータ記憶部104に記憶する。
Next, the reference position coordinate conversion unit 103 converts the received center coordinates of the reference mark 213 into robot coordinates (S7). In the present embodiment, as shown in FIG. 4, the robot coordinates are expressed in units within the movable range of the arm 8 with a unique coordinate cr (x, y) predetermined for the mounted robot 1 as an origin (reference point). It is defined as expressed in mm. Thereby, in the present embodiment, the center coordinates (314.082, 249.794) [pixel] of the reference mark are converted to (170.970, −59.424) [mm] from the image captured by the camera 2, The center coordinate c (297.818, 198.282) [pixel] of the reference mark is converted into (170.980, −249.755) [mm] from the image captured by the camera 3, and θ = From the −90 ° image, the center coordinates (508.181, 412.719) [pixel] of the reference mark are converted into (241.490, −107.815) [mm].
Further, since the reference position coordinate conversion unit 103 is attached by rotating the attachment angle of the camera 4 by 90 ° clockwise with respect to the robot coordinates, the inclination is −90 °, that is, −π / 2 = −1.571. To do. The reference position coordinate conversion unit 103 stores the converted coordinates and the attachment angle of the camera 4 in the fixed parameter storage unit 104.

図13(a)のように、θ=−135゜の時、第3補正量算出部109は、キャリブレーション部105から受け取ったアーム8の根元の座標b2(x,y)と、固定パラメータ記憶部104に記憶されている基準マーク213の中心座標p2(xp2,yp2)とを用いて、アーム8の根元の座標を始点とし基準マーク213の中心を終点とする直線P2を生成する。また、θ=−45゜の時、第3補正量算出部109は、キャリブレーション部105から取得したアーム8の根元の座標b3(x,y)と、固定パラメータ記憶部105基準マークの中心座標p3(xp3,yp3)とを用いて、アーム8の根元の座標を始点とし基準マークの中心を終点とする直線P3を生成する。
次に、図13(b)のように、第3補正量算出部109は、直線P2の始点b2(x,y)と、直線P3の始点b3(x,y)を重ねる演算を行う。
次に、図13(c)のように、第3補正量算出部109は、直線P2の終点p2(xp2,yp2)と、直線P3の終点p3(xp3,yp3)を直線で結ぶ直線を生成する。
次に、図13(d)のように、第3補正量算出部109は、生成されたp2とp3を結ぶ直線と、x軸とのなす角θを式(1)より求める。
θ=tan−1((yp2−yp3)/|xp2−xp3|)・・・式(1)
式(1)で求めたなす角θは、アーム8の傾きずれ量にあたる。式(1)において、解が正なら反時計回りの傾きずれであり、解が負なら時計回りの傾きずれを意味する。
As shown in FIG. 13A, when θ = −135 °, the third correction amount calculation unit 109 stores the coordinates b2 (x, y) of the base of the arm 8 received from the calibration unit 105 and fixed parameters. Using the center coordinates p2 (x p2 , y p2 ) of the reference mark 213 stored in the unit 104, a straight line P2 is generated with the coordinates of the base of the arm 8 as the start point and the center of the reference mark 213 as the end point. In addition, when θ = −45 °, the third correction amount calculation unit 109 calculates the base coordinates b3 (x, y) of the arm 8 acquired from the calibration unit 105 and the center coordinates of the fixed parameter storage unit 105 reference mark. Using p3 (x p3 , y p3 ), a straight line P3 is generated with the coordinates of the base of the arm 8 as the start point and the center of the reference mark as the end point.
Next, as shown in FIG. 13B, the third correction amount calculation unit 109 performs an operation of overlapping the start point b2 (x, y) of the straight line P2 and the start point b3 (x, y) of the straight line P3.
Next, as illustrated in FIG. 13C, the third correction amount calculation unit 109 sets the end point p2 (x p2 , y p2 ) of the straight line P2 and the end point p3 (x p3 , y p3 ) of the straight line P3 in a straight line. Generate a connecting straight line.
Next, as shown in FIG. 13 (d), the third correction amount calculation unit 109 obtains an angle θ formed by the generated straight line connecting p2 and p3 and the x-axis from the equation (1).
θ = tan −1 ((y p2 −y p3 ) / | x p2 −x p3 |) Expression (1)
The angle θ obtained by the equation (1) corresponds to the amount of tilt deviation of the arm 8. In equation (1), if the solution is positive, it means a counterclockwise tilt shift, and if the solution is negative, it means a clockwise tilt shift.

次に、第3補正量算出部109は、求めたアーム8の傾きずれ量θが、ずれ量の許容範囲=±0.5゜以内か否か判別する(S9)。ステップS9の判別結果、ずれ量θが許容範囲より大きい場合(S9:No)、ステップS1に戻りアーム8の先端に調整治具13を装着し直して、ステップS2〜S8を繰り返す。ステップS9の判別結果、ずれ量θが許容範囲以内の場合(S9:Yes)、第3補正量算出部109はずれ量θを固定パラメータ記憶部104に記憶し、ステップS10のアーム8の長さのずれ量演算処理に進む。例えば、アーム8の傾きがθ=0.271009[deg]と算出され、図5のように算出された傾きはロボット座標として角度の単位が変換されて0.00473[rad]も合わせて固定パラメータ記憶部103に記憶される。   Next, the third correction amount calculation unit 109 determines whether or not the obtained inclination deviation amount θ of the arm 8 is within an allowable range of deviation amount = ± 0.5 ° (S9). As a result of the determination in step S9, if the deviation amount θ is larger than the allowable range (S9: No), the process returns to step S1 and the adjustment jig 13 is remounted on the tip of the arm 8, and steps S2 to S8 are repeated. As a result of the determination in step S9, when the deviation amount θ is within the allowable range (S9: Yes), the third correction amount calculation unit 109 stores the deviation amount θ in the fixed parameter storage unit 104, and determines the length of the arm 8 in step S10. Proceed to shift amount calculation processing. For example, the inclination of the arm 8 is calculated as θ = 0.271709 [deg], and the calculated inclination as shown in FIG. 5 is converted to a robot coordinate unit of angle, and 0.00473 [rad] is also fixed parameter. It is stored in the storage unit 103.

次に、アームの長さのずれ量の求め方を、図14〜16を用いて説明する。図14〜16は、本実施形態におけるアーム8の長さのずれ量の求め方を説明する概略図である。なお、座標はロボット座標を用いて行う。また、アーム8の傾きずれ量で生成された直線P2と直線P3も用いる。図14(a)のように、θ=−90゜の時、第3補正量算出部109は、キャリブレーション部105から受け取ったアーム8の根元の座標b1(x,y)と、固定パラメータ記憶部105基準マークの中心座標p1(xp1,yp1)とを用いて、アーム8の根元の座標を始点とし基準マークの中心を終点とする直線P1を生成する。
次に、図14(b)のように、第3補正量算出部109は、直線P1とP2とP3を、終点p1とp2とp3を中心としてそれぞれ反時計回りに90゜回転させる。
次に、図14(c)のように、第3補正量算出部109は、90゜回転させた直線P1とP2とP3を重ね合わせる。アーム8の長さのずれ量が無い場合、90゜回転させた直線P1とP2とP3の終点p1とp2とp3の座標は一致するため図14(d)のようになり、アーム8の長さのずれ量がある場合は、図14(c)のようになる。以下、アーム8の長さのずれ量があった場合について図15〜16を用いて説明を行う。
Next, how to determine the amount of deviation of the arm length will be described with reference to FIGS. 14 to 16 are schematic diagrams for explaining how to obtain the amount of deviation of the length of the arm 8 in the present embodiment. The coordinates are performed using robot coordinates. Further, the straight line P2 and the straight line P3 generated by the amount of tilt deviation of the arm 8 are also used. As shown in FIG. 14A, when θ = −90 °, the third correction amount calculation unit 109 stores the coordinates b1 (x, y) of the base of the arm 8 received from the calibration unit 105 and the fixed parameters. Using the center coordinates p1 (x p1 , y p1 ) of the part 105 reference mark, a straight line P1 is generated with the base coordinates of the arm 8 as the start point and the center of the reference mark as the end point.
Next, as shown in FIG. 14B, the third correction amount calculation unit 109 rotates the straight lines P1, P2, and P3 by 90 degrees counterclockwise about the end points p1, p2, and p3, respectively.
Next, as shown in FIG. 14C, the third correction amount calculation unit 109 superimposes the straight lines P1, P2, and P3 rotated by 90 °. When there is no deviation in the length of the arm 8, the coordinates of the end points p1, p2, and p3 of the straight lines P1, P2, and P3 rotated by 90 ° coincide with each other, so that the result is as shown in FIG. When there is a deviation amount, it is as shown in FIG. Hereinafter, the case where there is a deviation in the length of the arm 8 will be described with reference to FIGS.

図15(a)において、p1(xp1,yp1)とp2(xp2,yp2)の中点(xQ1,yp1)は、式(2)のように表される。
(xQ1,yQ1)=((xp1+xp2)/2,(yp1+yp2)/2)・・・式(2)
また、図15(b)において、中点(xQ1,yQ1)を通る垂線と、y軸とのなす角θは、式(3)のように表される。
θ=tan−1((yp2−yp1)/(xp2−xp1))・・・式(3)
また、図15(c)において、p2(xp2,yp2)とp3(xp3,yp3)の中点(xQ2,yp2)は、式(4)のように表される。
(xQ2,yQ2)=((xp2+xp3)/2,(yp2+yp3)/2)・・・式(4)
また、図15(d)において、中点(xQ2,yQ2)を通る垂線と、y軸とのなす角θは、式(5)のように表される。
θ=tan−1((yp3−yp2)/(xp3−xp2))・・・式(5)
また、図16(a)において、中点(xQ1,yQ1)を通り傾きtanθの直線は式(6)のように表される。
y=x・tanθ+(yQ1−xQ1・tanθ)・・・式(6)
同様に、中点(xQ2,yp2)を通り傾きtanθの直線は式(7)のように表される。
y=x・tanθ+(yQ2−xQ2・tanθ)・・・式(7)
また、図16(b)において、式(6)と式(7)の交点(x,y)は、式(8)〜(9)のように表される。
=((yQ2−xQ2・tanθ)−(yQ1−xQ1・tanθ))/(tanθ−tanθ
=xQ1+((yQ2−yQ1)−(xQ2−xQ1)・tanθ)/(tanθ−tanθ)・・・式(8)
=x・tanθ+(yQ1−xQ1・tanθ)・・・式(9)
次に、p1(xp1,yp1)と交点(x,y)から、アームの長さLを求める。
L=yp1−(yp1−y
=yp1−(yp1−x・tanθ+(yQ1−xQ1・tanθ))
=yp1−(yp1−xQ1+((yQ2−yQ1)−(xQ2−xQ1)・tanθ)/(tanθ−tanθ)・tanθ+(yQ1−xQ1・tanθ))・・・式(10)
上記の演算により求めたアーム8の長さのL[mm]を、第3補正量演算部109が、実測値と置き換えて、固定パラメータ記憶部104に記憶する。例えば、アーム8の長さは、以上の演算によりL=112.125[mm]と算出され、図5のように固定パラメータ記憶部103に記憶される。
以上で、搭載ロボット1のアーム8のキャリブレーション処理を終了する。
In FIG. 15A, the midpoint (x Q1 , y p1 ) of p1 (x p1 , y p1 ) and p2 (x p2 , y p2 ) is expressed as in equation (2).
(X Q1 , y Q1 ) = ((x p1 + x p2 ) / 2, (y p1 + y p2 ) / 2) Equation (2)
In FIG. 15B, an angle θ A formed by a perpendicular line passing through the midpoint (x Q1 , y Q1 ) and the y axis is expressed as shown in Expression (3).
θ A = tan −1 ((y p2 −y p1 ) / (x p2 −x p1 )) (3)
Further, in FIG. 15 (c), p2 (x p2, y p2) and p3 (x p3, y p3) of the middle point (x Q2, y p2) is expressed by formula (4).
(X Q2 , y Q2 ) = ((x p2 + x p3 ) / 2, (y p2 + y p3 ) / 2) Equation (4)
Further, in FIG. 15D, an angle θ B formed by a perpendicular passing through the midpoint (x Q2 , y Q2 ) and the y axis is expressed as in Expression (5).
θ B = tan −1 ((y p3 −y p2 ) / (x p3 −x p2 )) (5)
In addition, in FIG. 16A, a straight line having an inclination tan θ A passing through the midpoint (x Q1 , y Q1 ) is expressed as in Expression (6).
y = x · tan θ A + (y Q1 −x Q1 · tan θ A ) (6)
Similarly, a straight line passing through the midpoint (x Q2 , y p2 ) and having an inclination tan θ B is expressed as in Expression (7).
y = x · tan θ B + (y Q2 −x Q2 · tan θ B ) (7)
Further, in FIG. 16B, the intersection (x c , y c ) between the expressions (6) and (7) is expressed as the expressions (8) to (9).
x c = ((y Q2 -x Q2 · tanθ B) - (y Q1 -x Q1 · tanθ A)) / (tanθ A -tanθ B)
= X Q1 + ((y Q2 -y Q1) - (x Q2 -x Q1) · tanθ B) / (tanθ A -tanθ B) ··· Equation (8)
y c = x c · tan θ A + (y Q1 −x Q1 · tan θ A ) (9)
Then, p1 (x p1, y p1 ) and the intersection point (x c, y c) from obtaining the length L of the arm.
L = y p1 − (y p1 −y c )
= Y p1 − (y p1 −x c · tan θ A + (y Q1 −x Q1 · tan θ A ))
= Y p1 − (y p1 −x Q1 + ((y Q2 −y Q1 ) − (x Q2 −x Q1 ) · tan θ B ) / (tan θ A −tan θ B ) · tan θ A + (y Q1 −x Q1 · tan θ A )) ... Formula (10)
The length L [mm] of the arm 8 obtained by the above calculation is stored in the fixed parameter storage unit 104 by the third correction amount calculation unit 109 replacing the measured value. For example, the length of the arm 8 is calculated as L = 112.125 [mm] by the above calculation, and is stored in the fixed parameter storage unit 103 as shown in FIG.
This completes the calibration process of the arm 8 of the mounted robot 1.

すなわち、キャリブレーション処理では、アーム8に装着されたキャリブレーション治具13をカメラ2〜4で撮像し、画像認識部101および102が撮像された画像からキャリブレーション治具13に設けられている基準マーク213の位置と基準方向に対する傾きを検出する。また、画像認識部101および102は、検出された基準マーク213の位置と基準方向に対する傾きを固定パラメータ記憶部104に記憶する。また、基準位置座標変換部103は、画像認識部101および102から受け取った基準マーク213の中心座標をロボット座標に変換し、固定パラメータ記憶部104に記憶する。
さらに、第3補正量算出部109は、固定パラメータ記憶部104に保持されている基準マーク213の中心座標と、キャリブレーション部105から受け取ったアーム8の根元の座標を用いて、アーム8の基準方向に対する傾きのずれ量とアーム8の長さを、第3の補正量として算出して、固定パラメータ記憶部104に記憶する。
That is, in the calibration process, the calibration jig 13 mounted on the arm 8 is imaged by the cameras 2 to 4, and the reference provided in the calibration jig 13 from the images captured by the image recognition units 101 and 102. The position of the mark 213 and the inclination with respect to the reference direction are detected. In addition, the image recognition units 101 and 102 store the detected position of the reference mark 213 and the inclination with respect to the reference direction in the fixed parameter storage unit 104. In addition, the reference position coordinate conversion unit 103 converts the center coordinates of the reference mark 213 received from the image recognition units 101 and 102 into robot coordinates and stores them in the fixed parameter storage unit 104.
Further, the third correction amount calculation unit 109 uses the center coordinates of the reference mark 213 held in the fixed parameter storage unit 104 and the coordinates of the base of the arm 8 received from the calibration unit 105, so that the reference of the arm 8 is obtained. The deviation amount of the inclination with respect to the direction and the length of the arm 8 are calculated as the third correction amount and stored in the fixed parameter storage unit 104.

次に、図6の搭載フレームの概略図を用いて、搭載フレーム12の設計値の登録について説明する。図6(a)のように、搭載フレーム12には縦軸のx方向に10行、横軸のy方向に30列、すなわち300個の子部品301から構成されている。後述するように、アーム8に吸着される接続子11は、この1列分の10個の接続子11を同時に吸着して、搭載フレーム12の各列に、同時に搭載を行う。
この搭載フレーム12の中心である重心G(x,y、θ)を原点として、各列の重心の座標GDi(xDi,yDi)(1≦i≦30)と、x軸に対する各列の傾きθ=−90゜(−1.5708[rad])を設計値フレーム・パラメータとして、本部品搭載装置の利用者が予めフレーム・パラメータ記憶部106に記憶する(S11)。
Next, registration of the design value of the mounting frame 12 will be described using the schematic diagram of the mounting frame of FIG. As shown in FIG. 6A, the mounting frame 12 includes 10 rows in the x direction on the vertical axis and 30 columns in the y direction on the horizontal axis, that is, 300 child components 301. As will be described later, the connector 11 attracted to the arm 8 simultaneously attracts the ten connectors 11 for one row and simultaneously mounts them on each row of the mounting frame 12.
The center of gravity G (x, y, θ) that is the center of the mounting frame 12 is used as the origin, and the coordinates G Di (x Di , y Di ) (1 ≦ i ≦ 30) of the center of gravity of each column and each column with respect to the x axis Is stored in the frame parameter storage unit 106 in advance as a design value frame parameter (S11).

次に、アーム8の先端に装着されている調整治具13を取り外し、図5(a)のように、取り付け部211を装着する。また、治具13の基準マーク213の位置に対する取り付け部211の定められた位置との座標差を実測し、利用者が固定パラメータ記憶部104に記憶する(S12)。例えば、キャリブレーション治具13と取り付け部211との差がx軸成分はXOC=0.270[mm]、y軸成分はYOC=0.000[mm]、傾き成分はθ=0.000[rad]を測定された場合、図5のように固定パラメータ記憶部104に記憶される。 Next, the adjustment jig 13 attached to the tip of the arm 8 is removed, and the attachment portion 211 is attached as shown in FIG. Further, the coordinate difference between the position of the attachment portion 211 and the position of the reference mark 213 of the jig 13 is measured, and the user stores it in the fixed parameter storage unit 104 (S12). For example, the difference is x-axis component of the mounting portion 211 and the calibration jig 13 X OC = 0.270 [mm], y -axis component Y OC = 0.000 [mm], the slope component theta = 0. When 000 [rad] is measured, it is stored in the fixed parameter storage unit 104 as shown in FIG.

次に、図6に戻って、第1補正処理であるフレーム位置補正処理を行う(S13)。以下、図17〜18を用いてフレーム位置補正処理の説明を行う。図17は、本実施形態におけるカメラ2および3が撮像した基準点の変換を説明する概略図である。
まず、ステージ7上の搭載フレーム12を図示しないステージ7の駆動部により、所定の位置まで移動して停止する。カメラ2およびカメラ3は、搭載フレーム12の左右に設定されている1列目と30列目の重心である基準点GD1(xD1,yD1)とGD30(xD30,yD30)を撮像し、撮像された画像データを画像認識部101に送る。
画像認識部101は、受け取った画像データからカメラ座標上の基準点GD1とGD30の座標を検出し、第1補正量算出部107に送る。
次に、第1補正量算出部107は、受け取った基準点GD1とGD30の座標と、固定パラメータ記憶部104に記憶されているカメラ座標系の各カメラ位置の座標とを比較してずれ量を求める。
例えば、図17のように、第1補正量算出部107が、カメラ2で撮像された搭載フレーム12の基準点がGD1(xF1,yF1,θF1)=(267.808,245.945,0.0000)と、固定パラメータ記憶部104に記憶されているカメラ系の基準マーク213の中心位置GD1(xF1,yF1,θF1)=(314.082,249.794,0.0000)を比較し、その差(ずれ量)(xMF1,yMF1,θMF1)=(−46.274,−3.849,0.0000)を求める。同様に、第1補正量算出部107が、カメラ3で撮像された搭載フレーム12の基準点がGD30(xF30,yF30,θF30)=(243.643,193.202,0.0000)と、固定パラメータ記憶部104に記憶されているカメラ系の基準マーク213の中心位置GD20(xF30,yF30,θF30)=(297.818,193.202,0.0000)を比較し、その差(ずれ量)(xMF2,yMF2,θMF2)=(−54.175,−5.080,0.0000)を求める。
Next, returning to FIG. 6, the frame position correction process as the first correction process is performed (S13). Hereinafter, the frame position correction process will be described with reference to FIGS. FIG. 17 is a schematic diagram illustrating the conversion of the reference points captured by the cameras 2 and 3 in the present embodiment.
First, the mounting frame 12 on the stage 7 is moved to a predetermined position and stopped by a drive unit of the stage 7 (not shown). The camera 2 and the camera 3 use the reference points G D1 (x D1 , y D1 ) and G D30 (x D30 , y D30 ) that are the center of gravity of the first row and the 30th row set on the left and right of the mounting frame 12. The captured image data is sent to the image recognition unit 101.
The image recognition unit 101 detects the coordinates of the reference points G D1 and G D30 on the camera coordinates from the received image data, and sends them to the first correction amount calculation unit 107.
Next, the first correction amount calculation unit 107 compares the received coordinates of the reference points G D1 and G D30 with the coordinates of each camera position in the camera coordinate system stored in the fixed parameter storage unit 104 and shifts them. Find the amount.
For example, as illustrated in FIG. 17, the first correction amount calculation unit 107 determines that the reference point of the mounting frame 12 captured by the camera 2 is G D1 (x F1 , y F1 , θ F1 ) = (267.808, 245. 945,0.0000) and the center position G D1 (x F1 , y F1 , θ F1 ) = (314.082, 249.794) of the camera system reference mark 213 stored in the fixed parameter storage unit 104 .0000) and the difference (deviation amount) (x MF1 , y MF1 , θ MF1 ) = (− 46.274, −3.849, 0.0000) is obtained. Similarly, the first correction amount calculation unit 107 determines that the reference point of the mounting frame 12 captured by the camera 3 is G D30 (x F30 , y F30 , θ F30 ) = (243.643, 193.202, 0.0000. ) And the center position G D20 (x F30 , y F30 , θ F30 ) = (297.818, 193.202, 0.0000) of the reference mark 213 of the camera system stored in the fixed parameter storage unit 104. Then, the difference (deviation amount) (x MF2 , y MF2 , θ MF2 ) = (− 54.175, −5.080, 0.0000) is obtained.

次に、第1補正量算出部107は、固定パラメータ104に保持されている各カメラの分解能MF1およびMF2と、算出された搭載フレーム12のずれ量(xMF1,yMF1,θMF1)および(xMF2,yMF2,θMF2)の座標を用いて、ロボット座標に以下の式(11)〜(16)を用いて変換する。
=(−yMF1・MF1)cos(θFF1)−(−xMF1・MF1)sin(θFF1)+xRF1・・・式(11)
=(−yMF1・MF1)sin(θFF1)−(−xMF1・MF1)cos(θFF1)+yRF1・・・式(12)
θ=Θ+θFF1・・・式(13)
30=(−yMF2・MF2)cos(θFF2)−(−xMF2・MF2)sin(θFF2)+xRF2・・・式(14)
30=(−yMF2・MF2)sin(θFF2)−(−xMF2・MF2)cos(θFF2)+yRF2・・・式(15)
θ30=Θ+θFF2・・・式(16)
例えば、カメラ2で撮像された基準位置の座標は、式(14)〜式(16)を用いて変換すると、a=171.007[mm]、b=−58.974[mm]、θ=0.0000[rad]。同様に、カメラ3で撮像されたステージ7上の搭載フレーム12の基準位置の座標も、それぞれa30=−171.0029[mm]、b30=−249.237[mm]、θ30=0.0000[rad]のように求まる。
Next, the first correction amount calculation unit 107 calculates the displacements (x MF1 , y MF1 , θ MF1 ) of the resolutions M F1 and M F2 of each camera held in the fixed parameter 104 and the calculated mounting frame 12. Using the coordinates of (x MF2 , y MF2 , θ MF2 ), the robot coordinates are converted using the following equations (11) to (16).
a 1 = (- y MF1 · M F1) cos (θ FF1) - (- x MF1 · M F1) sin (θ FF1) + x RF1 ··· formula (11)
b 1 = (- y MF1 · M F1) sin (θ FF1) - (- x MF1 · M F1) cos (θ FF1) + y RF1 ··· formula (12)
θ 1 = Θ + θ FF1 Formula (13)
a 30 = (- y MF2 · M F2) cos (θ FF2) - (- x MF2 · M F2) sin (θ FF2) + x RF2 ··· formula (14)
b 30 = (- y MF2 · M F2) sin (θ FF2) - (- x MF2 · M F2) cos (θ FF2) + y RF2 ··· (15)
θ 30 = Θ + θ FF2 (16)
For example, when the coordinates of the reference position imaged by the camera 2 are converted using the equations (14) to (16), a 1 = 171.007 [mm], b 1 = −58.974 [mm], θ 1 = 0.0000 [rad]. Similarly, the coordinates of the reference position of the mounting frame 12 on the stage 7 captured by the camera 3 are also a 30 = −171.0029 [mm], b 30 = −249.237 [mm], and θ 30 = 0, respectively. .0000 [rad].

次に、第1補正量算出部108は、求められたカメラ2および3で撮像されたロボット座標での基準点(a,b)および(a30,b30)と、以下の式(17)〜(19)を用いてロボット座標における搭載フレーム12の重心を求める。
Flame=(a+a30)/2[mm]・・・式(17)
Flame=(b+b30)/2[mm]・・・式(18)
θFlame=−tan−1((a−a30)/(b−b30))[rad]・・・式(19)
例えば、式(13)〜(15)を用いて、xFlame=171.018[mm]、yFlame=−153.105[mm]、θFlame=0.000116[rad]が求められる。このように求められた搭載フレーム12の重心は、具体的には列15と16の間G(xFlame,yFlame,θFlame)を表す。
Next, the first correction amount calculation unit 108 calculates the reference points (a 1 , b 1 ) and (a 30 , b 30 ) in the robot coordinates captured by the cameras 2 and 3 and the following formula ( The center of gravity of the mounting frame 12 in the robot coordinates is obtained using 17) to (19).
x Frame = (a 1 + a 30 ) / 2 [mm] (17)
y Frame = (b 1 + b 30 ) / 2 [mm] (18)
θ Frame = −tan −1 ((a 1 −a 30 ) / (b 1 −b 30 )) [rad] Expression (19)
For example, using Equation (13) ~ (15), x Flame = 171.018 [mm], y Flame = -153.105 [mm], θ Flame = 0.000116 [rad] is found. Centroid of the thus determined was mounting frame 12 specifically represent the G between columns 15 and 16 (x Flame, y Flame, θ Flame).

次に、第1補正量算出部108は、求められた搭載フレーム12の左位置(カメラ2が撮像する位置)(a,b,θ)、搭載フレーム12の右位置(カメラ3が撮像する位置)(a30,b30,θ30)および重心位置G(xFlame,yFlame,θFlame)の値を用いて、搭載フレーム12の列1〜30における傾きθ(1≦i≦30)を、以下の式(20)を用いて求める
θ=θDi+θFlame・・・式(20)
例えば、θ=−1.57068が求められる。
また、搭載フレーム12の列2〜29の座標(a,b)を、左右の座標(a,b)と(a30,b30)および傾きθFlameを用いて演算する。
これらの演算の結果、搭載フレーム12の各列における補正された座標は図18のようになる。
Next, the first correction amount calculation unit 108 calculates the left position of the mounting frame 12 (position taken by the camera 2) (a 1 , b 1 , θ 1 ) and the right position of the mounting frame 12 (camera 3 imaging position) (a 30, b 30, θ 30) and the gravity center position G (x Flame, y Flame, using the value of θFlame), the inclination θ i (1 ≦ i ≦ in columns 1 to 30 of the mounting frame 12 30) is obtained using the following equation (20): θ i = θ Di + θ Frame ... Equation (20)
For example, θ i = −1.57068 is obtained.
Further, the coordinates (a i , b i ) of the columns 2 to 29 of the mounting frame 12 are calculated using the left and right coordinates (a 1 , b 1 ) and (a 30 , b 30 ) and the inclination θ Flame .
As a result of these calculations, the corrected coordinates in each column of the mounting frame 12 are as shown in FIG.

図18は、本実施形態における搭載フレーム12の各列における補正された座標の一例を示す図である。搭載フレーム12の列1〜30までの各列の重心GDiが。第1の補正量を用いて補正されたデータである。 FIG. 18 is a diagram illustrating an example of corrected coordinates in each column of the mounting frame 12 in the present embodiment. The center of gravity G Di of each of the rows 1 to 30 of the mounting frame 12 is obtained. The data is corrected using the first correction amount.

次に、第1補正量算出部108は、フレーム・パラメータ記憶部106に記憶されている値と、求めたずれ量を用いて、ステージ7上に置かれている搭載フレーム12上の搭載位置である重心位置を補正する。
まず、フレーム・パラメータ記憶部106に記憶されている設計値である搭載フレーム12の重心の座標は(0,0,−1.5708)であり、求められた重心位置の位置は(171.018,−154.105,0.000116)である。このため、搭載位置の基準となる重心の位置は、両方の値を加算し(171.018,−154.105,−1.57068)が求める。
次に、この重心位置に基づき、フレーム・パラメータ記憶部106に記憶されている搭載フレーム12の各列の重心値を補正する。これにより、フレーム・パラメータ記憶部106に記憶されているデータ(図6(b))は、図18のように補正される。
以上により、第1補正処理である搭載フレーム12の位置補正処理を終了する。
Next, the first correction amount calculation unit 108 uses the value stored in the frame parameter storage unit 106 and the obtained deviation amount at the mounting position on the mounting frame 12 placed on the stage 7. A certain center of gravity is corrected.
First, the coordinates of the center of gravity of the mounting frame 12 that is the design value stored in the frame parameter storage unit 106 are (0, 0, −1.5708), and the position of the center of gravity obtained is (171.018). , −154.105, 0.000116). For this reason, the position of the center of gravity serving as a reference for the mounting position is obtained by adding both values (171.018, −154.105, −1.57068).
Next, based on this barycentric position, the barycentric value of each column of the mounting frame 12 stored in the frame / parameter storage unit 106 is corrected. As a result, the data (FIG. 6B) stored in the frame parameter storage unit 106 is corrected as shown in FIG.
Thus, the position correction process of the mounting frame 12 that is the first correction process is completed.

次に、図6に戻って、接続子位置補正である第2補正処理を行う(S14)。以下、図1,7および19を用いて接続子位置補正処理の説明を行う。図19は、本実施形態におけるカメラ4が撮像した接続子11の基準点の変換を説明する概略図である。
まず、アーム駆動部8は制御ユニット5からの指示により、搭載ロボット1に、接続子成形装置9から接続子11を吸着するように駆動する。
次に、アーム8に装着された取り付け部211の吸着部212が、接続子成形装置9から接続子11を吸着する。接続子11を吸着後、アーム駆動部8は制御ユニット5からの指示により、カメラ4の中心位置に吸着された複数の接続子11の重心が来るように駆動する。例えば、図7のように、吸着部212に接続子11が10個吸着された場合、接続子11の10個の重心であるG(x,y,θ)を、カメラ4の中心に来る所定の位置にアーム駆動部8は制御ユニット5からの指示によりアーム8を駆動する。
次に、カメラ4は、吸着部212に吸着されている接続子11を撮像する。次に、カメラ4で撮像された画像を画像認識部102が受け取り、各接続子311の重心座標を検出する。第2補正量算出部109は、検出された各接続子311の重心座標を受け取り、さらに10個の接続子311から構成される接続子11の重心座標を求める。重心座標は、例えば、各接続子311のすべての重心座標に対して最小二乗法を行い一次直線の式y=a・x+b(aとbは定数)を算出する。次に、第2補正量算出部109は、各接続子311のすべてのxとyの平均値を求め、さらに算出された一次直線の式に代入して、接続子11の重心座標を求める。また、算出された一次直線の式y=a・x+bの傾きaが、接続子11の重心の傾きθとなる。
例えば、図19のように、重心座標(xFCT,yFCT,θFCT)=(506.790[pixel],382.060[pixel],−0.180[deg])が求められる。
次に、第2補正量算出部109は、固定パラメータ記憶部104に記憶されている基準マーク213の位置を読み出して、求めた重心座標とのずれ量を算出する。
例えば、図19のように、重心座標(xMCT,yMCT,θMCT)=(−1.391[mm],−30.659[mm],−0.0031[rad])が求められる。
次に、第2補正量算出部109は、以下の式(21)〜(18)を用いて、ずれ量をロボット座標系に変換する。また、式(16)〜(18)において、接続子12を撮像しているカメラ4の傾き90゜を0゜に置き換えて演算を行う。式(21)〜(23)において、MCTはカメラ4の分解能、θRCTは固定パラメータ記憶部104に記憶されている基準マークの重心の傾き(カメラ4の傾き)である。
CT=((−yMCT)cos(θRCT+π/2)−(−xMCT)sin(θRCT+π/2))・MCT・・・式(21)
CT=((−yMCT)sin(θRCT+π/2)−(−xMCT)cos(θRCT+π/2))・MCT・・・式(22)
θCT=Θ+θRCT+π/2・・・式(23)
例えば、式(21)〜(23)を用いて変換した結果、図19のように、(xCT,yCT,θCT)=(0.883,0.040,−0.0031)が求められる。
次に、第2補正量算出部109は、アーム8に取り付けられている取り付け部211とキャリブレーション処理で使用した調整治具13とのずれ量を、式(24)〜(26)を用いて補正する。なお、図10のように、(xOC,yOC,θOC)は、固定パラメータ記憶部104に記憶されている取り付け部211と調整治具との差である。
Δa=−xCT+xOC・・・式(24)
Δb=−yCT+yOC・・・式(25)
Δθ=−θCT+θOC・・・式(26)
例えば、式(24)〜(26)を用いて補正した結果、図19のように、(Δa,Δb,Δθ)=(−0.613,−0.040,0.0031)が求められる。
以上により、第2補正処理である接続子11の位置補正処理を終了する。
Next, returning to FIG. 6, the second correction process, which is the connector position correction, is performed (S14). Hereinafter, the connector position correction process will be described with reference to FIGS. FIG. 19 is a schematic diagram for explaining the conversion of the reference point of the connector 11 captured by the camera 4 in the present embodiment.
First, the arm drive unit 8 drives the mounting robot 1 so as to attract the connector 11 from the connector molding device 9 according to an instruction from the control unit 5.
Next, the suction portion 212 of the attachment portion 211 attached to the arm 8 sucks the connector 11 from the connector molding device 9. After attracting the connector 11, the arm driving unit 8 is driven by the instruction from the control unit 5 so that the centers of gravity of the plurality of connectors 11 attracted to the center position of the camera 4 come. For example, as shown in FIG. 7, when 10 connectors 11 are attracted to the attracting portion 212, G C (x C , y C , θ C ), which is the center of gravity of the 10 connectors 11, The arm driving unit 8 drives the arm 8 in accordance with an instruction from the control unit 5 at a predetermined position at the center.
Next, the camera 4 images the connector 11 sucked by the suction unit 212. Next, the image recognition unit 102 receives an image captured by the camera 4 and detects the barycentric coordinates of each connector 311. The second correction amount calculation unit 109 receives the detected center-of-gravity coordinates of each connector 311 and further obtains the center-of-gravity coordinates of the connector 11 including ten connectors 311. For the barycentric coordinates, for example, the least square method is performed on all barycentric coordinates of each connector 311 to calculate a linear equation y = a · x + b (a and b are constants). Next, the second correction amount calculation unit 109 calculates an average value of all x and y of each connector 311 and further substitutes it into the calculated linear equation to determine the barycentric coordinates of the connector 11. Further, the calculated inclination a of the linear equation y = a · x + b is the inclination θ of the center of gravity of the connector 11.
For example, as shown in FIG. 19, barycentric coordinates (x FCT , y FCT , θ FCT ) = (506.790 [pixel], 382.060 [pixel], −0.180 [deg]) are obtained.
Next, the second correction amount calculation unit 109 reads the position of the reference mark 213 stored in the fixed parameter storage unit 104 and calculates the amount of deviation from the obtained barycentric coordinates.
For example, as shown in FIG. 19, the barycentric coordinates (x MCT , y MCT , θ MCT ) = (− 1.391 [mm], −30.659 [mm], −0.0031 [rad]) are obtained.
Next, the second correction amount calculation unit 109 converts the deviation amount into the robot coordinate system using the following equations (21) to (18). Further, in the equations (16) to (18), the calculation is performed by replacing the tilt 90 ° of the camera 4 capturing the connector 12 with 0 °. In equations (21) to (23), M CT is the resolution of the camera 4 and θ RCT is the inclination of the center of gravity of the reference mark stored in the fixed parameter storage unit 104 (the inclination of the camera 4).
x CT = ((− y MCT ) cos (θ RCT + π / 2) − (− x MCT ) sin (θ RCT + π / 2)) · M CT (21)
y CT = ((− y MCT ) sin (θ RCT + π / 2) − (− x MCT ) cos (θ RCT + π / 2)) · M CT (22)
θ CT = Θ + θ RCT + π / 2 Formula (23)
For example, as a result of conversion using the equations (21) to (23), (x CT , y CT , θ CT ) = (0.883, 0.040, −0.0031) is obtained as shown in FIG. It is done.
Next, the second correction amount calculation unit 109 uses the expressions (24) to (26) to calculate the deviation amount between the attachment part 211 attached to the arm 8 and the adjustment jig 13 used in the calibration process. to correct. As shown in FIG. 10, (x OC , y OC , θ OC ) is the difference between the mounting part 211 and the adjustment jig stored in the fixed parameter storage part 104.
Δa = −x CT + x OC Expression (24)
Δb = −y CT + y OC Expression (25)
Δθ = −θ CT + θ OC Expression (26)
For example, as a result of correction using the equations (24) to (26), (Δa, Δb, Δθ) = (− 0.613, −0.040, 0.0031) is obtained as shown in FIG.
Thus, the position correction process of the connector 11 as the second correction process is completed.

次に、図6に戻って、搭載座標算出部110は、接続子11を搭載フレームに搭載する位置補正である総合補正処理を行う(S15)。搭載座標算出部110は、これまで第1補正処理、第2補正処理および第3補正処理で求められた値を用いて、式(31)〜(33)を用いて(x,y,θ)のオフセット量(Δx,Δy,Δθ)を求める。なお、図18のように、i(1≦i≦30)は変数であり、搭載フレーム12上の各列を表し、θiは各列における重心(a,bi)の傾きを表す。また、(ΔHxi,ΔHyi)はアーム8に装着されている取り付け部211における吸着された接続子11のずれ量に実際に搭載する搭載フレーム12の傾きずれ量θiを加味した値を表し、(ΔRxi,ΔRyi)はアームの長さLを加味した接続子11の搭載位置の補正値を表す。
ΔHxi=Δa・cos(θ+Δθ)−Δb・sin(θ+Δθ)・・・式(27)
ΔHyi=Δa・sin(θ+Δθ)+Δb・cos(θ+Δθ)・・・式(28)
ΔRxi=−L・(cos(θ+Δθ)−cos(θ))・・・式(29)
ΔRyi=−L・(sin(θ+Δθ)−sin(θ))・・・式(30)
例えば、ΔHxi=−0.042[mm]、ΔHyi=0.613[mm]、ΔRxi=−0.3523[mm]、ΔRyi=―0.0006[mm]が算出される。
さらに、式(27)〜(30)により算出された値を用いて、式(31)〜(33)により搭載オフセット量を算出する。
Δx=ΔHxi+ΔRxi・・・式(31)
Δy=ΔHyi+ΔRyi・・・式(32)
Δθ=Δθ・・・式(33)
例えば、Δx=−0.394[mm]、Δy=0.613[mm]、Δθ=0.0031[rad]が算出される。
Next, returning to FIG. 6, the mounting coordinate calculation unit 110 performs comprehensive correction processing that is position correction for mounting the connector 11 on the mounting frame (S <b> 15). The mounted coordinate calculation unit 110 uses the values obtained in the first correction process, the second correction process, and the third correction process so far, and uses the expressions (31) to (33) to (x, y, θ). Offset amounts (Δx i , Δy i , Δθ i ) are obtained. As shown in FIG. 18, i (1 ≦ i ≦ 30) is a variable and represents each column on the mounting frame 12, and θi represents the inclination of the center of gravity (a i , bi) in each column. Further, (ΔH xi , ΔH yi ) represents a value obtained by adding the inclination displacement amount θi of the mounting frame 12 actually mounted to the displacement amount of the attracted connector 11 in the attachment portion 211 attached to the arm 8, (ΔR xi , ΔR yi ) represents a correction value of the mounting position of the connector 11 in consideration of the arm length L.
ΔH xi = Δa · cos (θ i + Δθ) −Δb · sin (θ i + Δθ) (27)
ΔH yi = Δa · sin (θ i + Δθ) + Δb · cos (θ i + Δθ) (28)
ΔR xi = −L · (cos (θ i + Δθ) −cos (θ i )) (29)
ΔR yi = −L · (sin (θ i + Δθ) −sin (θ i )) (30)
For example, ΔH xi = −0.042 [mm], ΔH yi = 0.613 [mm], ΔR xi = −0.3523 [mm], and ΔR yi = −0.0006 [mm] are calculated.
Further, the mounting offset amount is calculated by equations (31) to (33) using the values calculated by equations (27) to (30).
Δx i = ΔH xi + ΔR xi (31)
Δy i = ΔH yi + ΔR yi (32)
Δθ i = Δθ Formula (33)
For example, Δx i = −0.394 [mm], Δy i = 0.613 [mm], and Δθ i = 0.0031 [rad] are calculated.

次に、搭載座標算出部110は、求めた搭載オフセット量(Δx,Δy,Δθ)と、搭載フレーム12の各列の座標(a,b,θ)を用いて、以下の式(34)〜(36)により、搭載ロボットに指示する搭載フレーム12の各列への接続子11の搭載位置の座標(x,y,Θ)を演算する。
=a+Δx・・・式(34)
=b+Δy・・・式(35)
Θ=θ+Δθ・・・式(36)
例えば、搭載フレーム12の1列目について式(34)〜(36)を計算すると、x=170.0613[mm]、y=−54.892[mm]、Θ=−1.56758[deg](=−89.616[deg])が算出される。
図20は、式(34)〜(36)を用いて算出された本実施形態における搭載ロボットに指示する搭載フレーム12の各列への搭載位置(x,y,Θ)の座標の一例を示す図である。
以上により、搭載位置演算の処理を終了する。
Next, the mounting coordinate calculation unit 110 uses the calculated mounting offset amount (Δx i , Δy i , Δθ i ) and the coordinates (a i , b i , θ i ) of each column of the mounting frame 12 to Equations (34) to (36) are used to calculate the coordinates (x i , y i , Θ i ) of the mounting position of the connector 11 on each column of the mounting frame 12 instructed to the mounting robot.
x i = a i + Δx i Expression (34)
y i = b i + Δy i Expression (35)
Θ i = θ i + Δθ i (36)
For example, when Expressions (34) to (36) are calculated for the first row of the mounting frame 12, x i = 170.0613 [mm], y i = −54.892 [mm], Θ i = −1.56758 [Deg] (= −89.616 [deg]) is calculated.
FIG. 20 shows the coordinates of the mounting position (x i , y i , Θ i ) on each column of the mounting frame 12 instructed to the mounting robot in the present embodiment calculated using the equations (34) to (36). It is a figure which shows an example.
The mounting position calculation process is thus completed.

本発明を実施した場合、例えば、従来の部品搭載装置では、接続子11を搭載フレーム12へ搭載する搭載精度が±0.06[mm]であったが、本実施形態の部品搭載装置を用いて搭載を行ったところ、搭載精度は±0.03[mm]に改善された。   When the present invention is implemented, for example, in the conventional component mounting apparatus, the mounting accuracy for mounting the connector 11 on the mounting frame 12 is ± 0.06 [mm], but the component mounting apparatus of the present embodiment is used. As a result, the mounting accuracy was improved to ± 0.03 [mm].

以上のように、まずキャリブレーション処理を行い、画像認識部101および102が各カメラ2〜4で撮像された画像から基準点の座標を検出して、検出されたそれぞれの基準点の座標と基準方向に対する傾きを固定パラメータ記憶部104に記憶する。次に基準位置座標変換部103は、画像認識部101および102で検出された座標を、ロボット座標に変換して固定パラメータ記憶部104に記憶する。また、第3補正量算出部109は、キャリブレーション処理時、固定パラメータ記憶部104に保持されている基準点の座標を用いて、第3のずれ量であるアーム8の基準方向に対する傾きとアーム8の長さを求めて、固定パラメータ記憶部104に記憶する。
さらに、第1補正量算出部107は、予めフレーム・パラメータ記憶部106に保持されている値と、固定パラメータ記憶部104に保持されている値と、レール7上の搭載フレーム12における左右の予め定められた部品位置の撮像された画像から検出された座標とをロボット座標で比較して、第1のずれ量である搭載フレーム12のずれ量を算出する。
さらに、第2補正量算出部108は、接続子11を吸着した後、固定パラメータ記憶部104に保持されている値と、カメラ4で撮像された画像から検出された複数の接続子11の重心位置とをロボット座標で比較して、第2のずれ量である接続子11に対するずれ量を算出する。
そして、搭載座標算出部110は、第1補正量算出部107で算出された搭載フレーム12に対するずれ量(第1のずれ量)と、第2補正量算出部108で算出された接続子11に対するずれ量(第2のずれ量)と、第3補正量算出部109で算出されたアーム8に対するずれ量(第3のずれ量)とを用いて、接続子11を搭載フレーム12に搭載する位置を算出し、算出された搭載位置へアーム駆動部6によりアーム8を駆動して、接続子11を搭載フレームに精度良く搭載することが可能になった。
As described above, first, calibration processing is performed, and the image recognition units 101 and 102 detect the coordinates of the reference points from the images captured by the cameras 2 to 4, and the detected coordinates and reference points of the respective reference points are detected. The inclination with respect to the direction is stored in the fixed parameter storage unit 104. Next, the reference position coordinate conversion unit 103 converts the coordinates detected by the image recognition units 101 and 102 into robot coordinates and stores them in the fixed parameter storage unit 104. In addition, the third correction amount calculation unit 109 uses the coordinates of the reference point held in the fixed parameter storage unit 104 during the calibration process, and the inclination and arm of the arm 8 as the third deviation amount with respect to the reference direction. 8 is obtained and stored in the fixed parameter storage unit 104.
Further, the first correction amount calculation unit 107 preliminarily stores the values stored in the frame parameter storage unit 106 in advance, the values stored in the fixed parameter storage unit 104, and the left and right in the mounting frame 12 on the rail 7. The coordinates detected from the captured image of the determined part position are compared with the robot coordinates, and the displacement amount of the mounting frame 12 as the first displacement amount is calculated.
Further, the second correction amount calculation unit 108 sucks the connector 11 and then the values held in the fixed parameter storage unit 104 and the centroids of the plurality of connectors 11 detected from the image captured by the camera 4. The position is compared with the robot coordinates, and a deviation amount with respect to the connector 11 as the second deviation amount is calculated.
Then, the mounting coordinate calculation unit 110 calculates the shift amount (first shift amount) with respect to the mounting frame 12 calculated by the first correction amount calculation unit 107 and the connector 11 calculated by the second correction amount calculation unit 108. The position at which the connector 11 is mounted on the mounting frame 12 using the shift amount (second shift amount) and the shift amount (third shift amount) with respect to the arm 8 calculated by the third correction amount calculation unit 109. And the arm 8 is driven to the calculated mounting position by the arm driving unit 6 so that the connector 11 can be mounted on the mounting frame with high accuracy.

また、本実施形態では、アーム8にキャリブレーション治具13を装着してキャリブレーション処理を行う例について説明したが、アーム8に装着する取り付け部211に基準マーク213を設け、この基準マークを各カメラ2〜4で検出するようにしても同様の効果が得られる。   Further, in the present embodiment, the example in which the calibration jig 13 is mounted on the arm 8 and the calibration process is performed has been described. However, the reference mark 213 is provided in the mounting portion 211 to be mounted on the arm 8, and the reference mark is set to each The same effect can be obtained by detecting with the cameras 2 to 4.

さらにまた、本実施形態では、搭載フレーム12は複数の子部品301により構成される例について説明したが、搭載フレーム12は1つ以上の部品で構成されていても良い。またこの場合、搭載される接続子11も搭載フレームの部品数に合わせた個数でも良い。   Furthermore, in the present embodiment, the example in which the mounting frame 12 is configured by a plurality of child components 301 has been described, but the mounting frame 12 may be configured by one or more components. In this case, the number of connectors 11 to be mounted may be the same as the number of components of the mounting frame.

さらにまた、本実施形態では、複数の子部品311で構成されている搭載フレーム12について、キャリブレーション処理時と搭載時にそれぞれ基準点の位置として、一番左の列(1列目)と一番右の列(30列目)を使用する例について説明したが、基準点の位置はこれに限られるものではなく、カメラ2,3で撮像可能な他の列でも良く、さらには列と列の間でも同様の効果が得られる。   Furthermore, in the present embodiment, for the mounting frame 12 composed of a plurality of child parts 311, the leftmost column (first column) and the first column are used as reference point positions during calibration processing and mounting, respectively. Although an example using the right column (30th column) has been described, the position of the reference point is not limited to this, and may be another column that can be imaged by the cameras 2 and 3, and further, The same effect can be obtained even between.

さらにまた、本実施形態では、搭載フレーム12についてカメラ2,3を用いて撮像する方法について説明したが、搭載フレーム12の大きさやカメラの解像度によっては1台のカメラで行っても良い。   Furthermore, in the present embodiment, the method of imaging the mounting frame 12 using the cameras 2 and 3 has been described. However, depending on the size of the mounting frame 12 and the resolution of the camera, a single camera may be used.

なお、実施形態の図2の機能の全て、もしくは一部の回路を、制御ユニット5内の図示しないCPU(中央演算装置)に接続されたROM(Read Only Memory)、HDD(Hard Disk Drive)もしくはUSB(Universal Serial Bus) I/Fを介して接続されるUSBメモリー等に保存されているプログラムにより実行することも可能である。   Note that all or some of the functions in FIG. 2 of the embodiment are implemented by a ROM (Read Only Memory), HDD (Hard Disk Drive), or HDD connected to a CPU (Central Processing Unit) (not shown) in the control unit 5. It can also be executed by a program stored in a USB memory or the like connected via a USB (Universal Serial Bus) I / F.

1・・・搭載ロボット
2、3、4・・・カメラ
5・・・制御ユニット
6・・・アーム駆動部
7・・・ステージ
8・・・アーム
9・・・接続子成形装置
11・・・接続子
12・・・搭載フレーム
13・・・キャリブレーション治具
101、102・・・画像認識部
103・・・基準位置座標変換部
104・・・固定パラメータ記憶部
105・・・キャリブレーション部
106・・・フレーム・パラメータ記憶部
107・・・第1補正量算出部
108・・・第2補正量算出部
109・・・第3補正量算出部
110・・・搭載座標算出部
DESCRIPTION OF SYMBOLS 1 ... Mounting robot 2, 3, 4 ... Camera 5 ... Control unit 6 ... Arm drive part 7 ... Stage 8 ... Arm 9 ... Connector shaping | molding apparatus 11 ... Connector 12 ... Mounting frame 13 ... Calibration jigs 101, 102 ... Image recognition unit 103 ... Reference position coordinate conversion unit 104 ... Fixed parameter storage unit 105 ... Calibration unit 106 ... Frame parameter storage unit 107 ... First correction amount calculation unit 108 ... Second correction amount calculation unit 109 ... Third correction amount calculation unit 110 ... Mounted coordinate calculation unit

Claims (4)

可動アームを用いて第1の部品に第2の部品を搭載する電子部品の搭載装置において、
前記第1の部品を撮像した画像に基づいて、前記第1の部品が所定の基準状態からどれだけずれているかを表す第1のずれ量を算出する第1ずれ量算出部と、
前記第2の部品を保持した状態の前記可動アームを撮像した画像に基づいて、前記第2の部品が所定の基準状態からどれだけずれているかを表す第2のずれ量を算出する第2ずれ量算出部と、
前記可動アームを撮像した画像に基づいて、前記可動アームの長さ及び傾き角度が所定の基準値からどれだけずれているかを表す第3のずれ量を算出する第3ずれ量算出部と、
前記可動アームが前記第2の部品を前記第1の部品に搭載する位置を前記第1のずれ量、前記第2のずれ量、および第3のずれ量に基づいて補正して、前記可動アームを駆動するアーム駆動部と、
を備えることを特徴とする部品の搭載装置。
In an electronic component mounting apparatus that mounts a second component on a first component using a movable arm,
A first deviation amount calculation unit that calculates a first deviation amount indicating how much the first component is deviated from a predetermined reference state based on an image obtained by imaging the first component;
A second shift for calculating a second shift amount indicating how much the second component is shifted from a predetermined reference state based on an image obtained by imaging the movable arm in a state where the second component is held. A quantity calculator;
A third deviation amount calculation unit that calculates a third deviation amount indicating how much the length and the inclination angle of the movable arm are deviated from a predetermined reference value based on an image obtained by imaging the movable arm;
The movable arm corrects the position where the second component is mounted on the first component based on the first deviation amount, the second deviation amount, and the third deviation amount, and the movable arm An arm drive unit for driving
A component mounting apparatus comprising:
前記第1ずれ量算出部は、前記第1のずれ量を前記可動アームの座標系で算出すること
を特徴とする請求項1に記載の部品の搭載装置。
The component mounting apparatus according to claim 1, wherein the first deviation amount calculation unit calculates the first deviation amount in a coordinate system of the movable arm.
前記第3ずれ量算出部は、前記可動アームを少なくとも3つの異なる角度で撮像した画像から、前記可動アームの位置と角度を抽出した情報に基づいて前記可動アームの長さ及び傾き角度が所定の基準値からどれだけずれているかを表す第3のずれ量を算出する
ことを特徴とする請求項1から2いずれか1項に記載の部品の搭載装置。
The third deviation amount calculation unit has a predetermined length and inclination angle of the movable arm based on information obtained by extracting the position and angle of the movable arm from images obtained by imaging the movable arm at at least three different angles. The component mounting apparatus according to any one of claims 1 to 2, wherein a third shift amount representing how much the shift is from a reference value is calculated.
可動アームを用いて第1の部品に第2の部品を搭載する部品の搭載方法において、
前記第1の部品を撮像した画像に基づいて、前記第1の部品が所定の基準状態からどれだけずれているかを表す第1のずれ量を算出する第1ずれ量算出工程と、
前記第2の部品を保持した状態の前記可動アームを撮像した画像に基づいて、前記第2の部品が所定の基準状態からどれだけずれているかを表す第2のずれ量を算出する第2ずれ量算出工程と、
前記可動アームを撮像した画像に基づいて、前記可動アームの長さ及び傾き角度が所定の基準値からどれだけずれているかを表す第3のずれ量を算出する第3ずれ量算出工程と、
前記可動アームが前記第2の部品を前記第1の部品に搭載する位置を前記第1のずれ量、前記第2のずれ量、および第3のずれ量に基づいて補正して、前記可動アームを駆動するアーム駆動工程と、
を備えることを特徴とする部品の搭載方法。
In the component mounting method of mounting the second component on the first component using the movable arm,
A first deviation amount calculating step of calculating a first deviation amount indicating how much the first component is deviated from a predetermined reference state based on an image obtained by imaging the first component;
A second shift for calculating a second shift amount indicating how much the second component is shifted from a predetermined reference state based on an image obtained by imaging the movable arm in a state where the second component is held. A quantity calculation step;
A third deviation amount calculating step for calculating a third deviation amount indicating how much the length and the inclination angle of the movable arm are deviated from a predetermined reference value based on an image obtained by imaging the movable arm;
The movable arm corrects the position where the second component is mounted on the first component based on the first deviation amount, the second deviation amount, and the third deviation amount, and the movable arm An arm driving process for driving
A component mounting method characterized by comprising:
JP2009175291A 2009-07-28 2009-07-28 Component mounting device and component mounting method Active JP5481123B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009175291A JP5481123B2 (en) 2009-07-28 2009-07-28 Component mounting device and component mounting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009175291A JP5481123B2 (en) 2009-07-28 2009-07-28 Component mounting device and component mounting method

Publications (2)

Publication Number Publication Date
JP2011029490A true JP2011029490A (en) 2011-02-10
JP5481123B2 JP5481123B2 (en) 2014-04-23

Family

ID=43637878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009175291A Active JP5481123B2 (en) 2009-07-28 2009-07-28 Component mounting device and component mounting method

Country Status (1)

Country Link
JP (1) JP5481123B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016166872A (en) * 2015-03-03 2016-09-15 コグネックス・コーポレイション Vision system for training assembly system by virtual assembly of object
CN115958602A (en) * 2022-12-30 2023-04-14 南京埃斯顿软件技术有限公司 Machine vision-based method and system for aligning and attaching top and bottom covers

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03248444A (en) * 1990-02-26 1991-11-06 Nec Corp Semiconductor device
JPH05315400A (en) * 1992-05-12 1993-11-26 Hitachi Ltd Bonder for electronic circuit device
JPH0677246U (en) * 1993-03-30 1994-10-28 安藤電気株式会社 High precision IC alignment mechanism
JPH10270896A (en) * 1997-03-26 1998-10-09 Matsushita Electric Works Ltd Apparatus and method for transfer
JP2002190483A (en) * 2000-12-22 2002-07-05 Shibaura Mechatronics Corp Electronic component bonding method and apparatus
JP2004146785A (en) * 2002-08-30 2004-05-20 Murata Mfg Co Ltd Component mounting method and component mounting device
JP2005142388A (en) * 2003-11-07 2005-06-02 Nidec Tosok Corp Concentricity corrector
JP2007150267A (en) * 2005-10-31 2007-06-14 Juki Corp Method for correcting head position of component mounting apparatus and dummy nozzle

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03248444A (en) * 1990-02-26 1991-11-06 Nec Corp Semiconductor device
JPH05315400A (en) * 1992-05-12 1993-11-26 Hitachi Ltd Bonder for electronic circuit device
JPH0677246U (en) * 1993-03-30 1994-10-28 安藤電気株式会社 High precision IC alignment mechanism
JPH10270896A (en) * 1997-03-26 1998-10-09 Matsushita Electric Works Ltd Apparatus and method for transfer
JP2002190483A (en) * 2000-12-22 2002-07-05 Shibaura Mechatronics Corp Electronic component bonding method and apparatus
JP2004146785A (en) * 2002-08-30 2004-05-20 Murata Mfg Co Ltd Component mounting method and component mounting device
JP2005142388A (en) * 2003-11-07 2005-06-02 Nidec Tosok Corp Concentricity corrector
JP2007150267A (en) * 2005-10-31 2007-06-14 Juki Corp Method for correcting head position of component mounting apparatus and dummy nozzle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016166872A (en) * 2015-03-03 2016-09-15 コグネックス・コーポレイション Vision system for training assembly system by virtual assembly of object
US10223589B2 (en) 2015-03-03 2019-03-05 Cognex Corporation Vision system for training an assembly system through virtual assembly of objects
CN115958602A (en) * 2022-12-30 2023-04-14 南京埃斯顿软件技术有限公司 Machine vision-based method and system for aligning and attaching top and bottom covers

Also Published As

Publication number Publication date
JP5481123B2 (en) 2014-04-23

Similar Documents

Publication Publication Date Title
TWI494535B (en) Object control system, object control method and program, and rotational center position specification device
KR102680413B1 (en) Semiconductor device manufacturing apparatus, and semiconductor device manufacturing method
JP2009241247A (en) Stereo-image type detection movement device
JP6576655B2 (en) Stage mechanism
JP5545737B2 (en) Component mounter and image processing method
JP6190229B2 (en) Component mounting equipment
JP2017168619A (en) Component mounting method and component mounting apparatus
JP4494922B2 (en) Method and apparatus for detecting mounting error of electronic component mounting apparatus
JP6807450B2 (en) Articulated robot parallelism determination method and articulated robot tilt adjustment device
JP5481123B2 (en) Component mounting device and component mounting method
CN114945450B (en) Robotic system
CN108605432B (en) Surface Mounting Machine, Recognition Error Correction Method
JPH106264A (en) Robot arm state detection method and detection system
JP5141075B2 (en) Image processing device
JP2008294065A (en) Electronic component mounting method and apparatus
JP2008045983A (en) Stereo camera adjustment device
JP6565367B2 (en) Position correction system
JP4401193B2 (en) Electronic component mounting equipment
JP6965422B2 (en) Camera parallelism judgment method
CN115194761B (en) Cleaning robot zero position and hand-eye matrix calibration method and system
JP5098846B2 (en) Robot system
JP3779118B2 (en) Method for detecting displacement of camera in imaging apparatus, method for detecting tilt of camera in imaging apparatus, and method for correcting movement amount of camera in imaging apparatus
KR20030092914A (en) Device and mark alignment method for flip chip bonder comprising up and down mark
JP2007281312A (en) Component mounting method
JP2005078441A (en) Comparative verifier

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140217

R150 Certificate of patent or registration of utility model

Ref document number: 5481123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250