[go: up one dir, main page]

JP7630101B2 - Parts Imaging Device - Google Patents

Parts Imaging Device Download PDF

Info

Publication number
JP7630101B2
JP7630101B2 JP2021017019A JP2021017019A JP7630101B2 JP 7630101 B2 JP7630101 B2 JP 7630101B2 JP 2021017019 A JP2021017019 A JP 2021017019A JP 2021017019 A JP2021017019 A JP 2021017019A JP 7630101 B2 JP7630101 B2 JP 7630101B2
Authority
JP
Japan
Prior art keywords
camera
component
imaging
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021017019A
Other languages
Japanese (ja)
Other versions
JP2022120244A (en
Inventor
康一 岡田
秀雄 森
鷹則 松田
純一 秦
猛 韓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2021017019A priority Critical patent/JP7630101B2/en
Publication of JP2022120244A publication Critical patent/JP2022120244A/en
Application granted granted Critical
Publication of JP7630101B2 publication Critical patent/JP7630101B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Supply And Installment Of Electrical Components (AREA)

Description

本発明は、部品を撮像する撮像装置に関する。 The present invention relates to an imaging device for imaging parts.

部品実装装置は、部品供給部が供給する部品を水平方向に移動する実装ヘッドが有するノズルで取り出し、基板搬送コンベアに保持された基板に実装する。このような部品実装装置には、部品の実装精度を向上するためにノズルが保持する部品の位置を撮像する部品認識カメラ(部品撮像装置)と、実装ヘッドと一体となって移動して基板上に形成されたマークを撮像する基板認識カメラを備えるものが知られている(例えば、特許文献1)。 The component mounting device uses a nozzle on a mounting head that moves horizontally to pick up components supplied by a component supply unit and mounts them on a board held by a board transport conveyor. Some such component mounting devices are known to be equipped with a component recognition camera (component imaging device) that captures the position of the component held by the nozzle to improve component mounting accuracy, and a board recognition camera that moves together with the mounting head to capture an image of a mark formed on the board (for example, Patent Document 1).

特許文献1では、着脱可能な実装ヘッドのノズルと基板認識カメラの位置関係を補正して部品の実装精度を確保するため、部品認識カメラの上面に、基準マークが形成されたガラス板を基準マークが部品認識カメラの視野内に入るように載置し、さらにこの視野内にノズルが入るように実装ヘッドを移動している。そして、この状態で部品認識カメラによってノズルと基準マークの位置を検出し、基板認識カメラによって撮像した基準マークと基板認識カメラの光軸の位置からノズルと基板認識カメラの位置関係を算出している。 In Patent Document 1, in order to ensure component mounting accuracy by correcting the positional relationship between the nozzle of a detachable mounting head and the board recognition camera, a glass plate with a reference mark formed thereon is placed on the top surface of the component recognition camera so that the reference mark is within the field of view of the component recognition camera, and the mounting head is moved so that the nozzle is within this field of view. In this state, the positions of the nozzle and the reference mark are detected by the component recognition camera, and the positional relationship between the nozzle and the board recognition camera is calculated from the reference mark imaged by the board recognition camera and the position of the optical axis of the board recognition camera.

特開2004-179636号公報JP 2004-179636 A

ところで、部品認識カメラは、カメラの光軸の位置からノズルが保持する部品の位置を検出しているが、継続して実装基板を生産する過程において、部品認識カメラが備える撮像素子の発熱などによる経時変化によってカメラの光軸がずれる(歪む)ことがあり、部品の実装精度を維持するためには部品認識カメラの光軸のずれを定期的に検出して適切に補正する必要がある。しかしながら特許文献1を含む従来技術では、実装基板の生産中に部品認識カメラの光軸のずれを検出する方法は開示されておらず、部品の実装精度を向上するためにはさらなる改善の余地があった。 The component recognition camera detects the position of the component held by the nozzle from the position of the camera's optical axis. However, during the continuous production of mounting boards, the camera's optical axis may become misaligned (distorted) due to changes over time caused by heat generation in the imaging element of the component recognition camera, and in order to maintain component mounting accuracy, it is necessary to periodically detect and appropriately correct the misalignment of the optical axis of the component recognition camera. However, conventional technologies including Patent Document 1 do not disclose a method for detecting the misalignment of the optical axis of the component recognition camera during the production of mounting boards, and there is room for further improvement in order to improve component mounting accuracy.

そこで本発明は、部品を撮像するカメラの光軸のずれを補正することができる部品撮像装置を提供することを目的とする。 The present invention aims to provide a component imaging device that can correct the misalignment of the optical axis of a camera that images a component.

本発明の部品撮像装置は、直列に撮像視野が並び、部品を撮像する複数のカメラと、前記複数のカメラと前記部品との間に配置された透明板と、前記透明板の、前記複数のカメラの撮像視野内で、かつ、前記複数のカメラが部品を撮像する際の撮像範囲の外に設けられたマークと、前記複数のカメラがそれぞれ前記マークを撮像した撮像結果に基づいて、前記複数のカメラの撮像視野の位置ずれ量を算出する位置ずれ量算出部と、を備える。 The component imaging device of the present invention comprises a plurality of cameras whose imaging fields of view are arranged in series and which image a component, a transparent plate arranged between the plurality of cameras and the component, a mark on the transparent plate within the imaging fields of view of the plurality of cameras but outside the imaging range when the plurality of cameras image the component, and a positional deviation calculation unit that calculates a positional deviation amount of the imaging fields of view of the plurality of cameras based on the imaging results of the plurality of cameras each capturing an image of the mark.

本発明によれば、部品を撮像するカメラの光軸のずれを補正することができることができる。 The present invention makes it possible to correct misalignment of the optical axis of a camera that captures an image of a part.

本発明の一実施の形態の部品実装装置の平面図FIG. 1 is a plan view of a component mounting apparatus according to an embodiment of the present invention; 本発明の一実施の形態の部品実装装置の構成説明図FIG. 1 is a configuration explanatory diagram of a component mounting device according to an embodiment of the present invention; 本発明の一実施の形態の部品実装装置が備える部品認識カメラの内部を透視して示す斜視図FIG. 1 is a perspective view showing the inside of a component recognition camera provided in a component mounting apparatus according to an embodiment of the present invention; 本発明の一実施の形態の部品実装装置が備える部品認識カメラが有する(a)第1カメラユニットの要部を透視して示す斜視図(b)第2カメラユニットの要部を透視して示す斜視図1A is a perspective view showing a main part of a first camera unit of a component recognition camera provided in a component mounting apparatus according to an embodiment of the present invention; FIG. 1B is a perspective view showing a main part of a second camera unit of the component recognition camera; 本発明の一実施の形態の部品実装装置が備える部品認識カメラの要部を透視して示す斜視図FIG. 1 is a perspective view showing a main part of a component recognition camera provided in a component mounting apparatus according to an embodiment of the present invention; 本発明の一実施の形態の部品実装装置が備える部品認識カメラの要部を透視して示す(a)平面図(b)正面図(c)側面図1A is a plan view, FIG. 1B is a front view, and FIG. 1C is a side view showing a main part of a component recognition camera provided in a component mounting apparatus according to an embodiment of the present invention. 本発明の一実施の形態の部品実装装置が備える部品認識カメラが有する(a)第1カメラユニットの光学系の説明図(b)第2カメラユニットの光学系の説明図FIG. 2A is an explanatory diagram of an optical system of a first camera unit of a component recognition camera provided in a component mounting apparatus according to an embodiment of the present invention; FIG. 2B is an explanatory diagram of an optical system of a second camera unit of the component recognition camera; 本発明の一実施の形態の部品実装装置が備える部品認識カメラが有する第1カメラユニットの光学系の他の実施例の説明図FIG. 13 is an explanatory diagram of another example of the optical system of the first camera unit of the component recognition camera provided in the component mounting device according to the embodiment of the present invention; (a)(b)本発明の一実施の形態の部品実装装置が備える部品認識カメラの撮像視野の説明図1A and 1B are explanatory diagrams illustrating an imaging field of a component recognition camera provided in a component mounting device according to an embodiment of the present invention; (a)(b)本発明の一実施の形態の部品実装装置が備える第2の部品認識カメラの撮像視野の説明図1A and 1B are explanatory diagrams of an imaging field of a second component recognition camera provided in a component mounting apparatus according to an embodiment of the present invention; 本発明の一実施の形態の部品実装装置の制御系の構成を示すブロック図FIG. 1 is a block diagram showing a configuration of a control system of a component mounting apparatus according to an embodiment of the present invention. (a)(b)本発明の一実施の形態の部品実装装置が備える部品認識カメラによるノズルが保持する部品の撮像の説明図1A and 1B are explanatory diagrams illustrating an image of a component held by a nozzle by a component recognition camera provided in a component mounting device according to an embodiment of the present invention; (a)(b)本発明の一実施の形態の部品実装装置が備える第2の部品認識カメラによるノズルが保持する部品の撮像の説明図1A and 1B are explanatory diagrams illustrating an image of a component held by a nozzle by a second component recognition camera provided in a component mounting apparatus according to an embodiment of the present invention; (a)(b)本発明の一実施の形態の部品実装装置が備える第2の部品認識カメラによって撮像されたマークの撮像画像の例を示す図1A and 1B are diagrams showing examples of images of marks captured by a second component recognition camera included in a component mounting device according to an embodiment of the present invention; 本発明の一実施の形態の部品実装装置が備える第2の部品認識カメラによって撮像されたノズルが保持する部品の結合画像の例を示す図FIG. 13 is a diagram showing an example of a combined image of components held by a nozzle captured by a second component recognition camera provided in the component mounting apparatus according to the embodiment of the present invention; 本発明の一実施の形態の部品実装装置が備える他の光軸屈折部を有する部品認識カメラの要部を透視して示す斜視図FIG. 13 is a perspective view showing a main part of a component recognition camera having another optical axis bending unit provided in the component mounting apparatus according to the embodiment of the present invention; 本発明の一実施の形態の部品実装装置が備える他の光軸屈折部を有する部品認識カメラの要部を透視して示す(a)平面図(b)正面図(c)側面図1A is a plan view, FIG. 1B is a front view, and FIG. 1C is a side view showing a main part of a component recognition camera having another optical axis bending unit provided in a component mounting device according to an embodiment of the present invention. 本発明の一実施の形態の部品実装装置が備える第3の部品認識カメラの要部を透視して示す斜視図FIG. 13 is a perspective view showing a main part of a third component recognition camera provided in the component mounting apparatus according to the embodiment of the present invention; 本発明の一実施の形態の部品実装装置が備える(a)(b)第3の部品認識カメラの撮像視野の説明図(c)第3の部品認識カメラによるノズルが保持する部品の撮像の説明図FIG. 1A is an explanatory diagram of an imaging field of a third component recognition camera provided in a component mounting device according to an embodiment of the present invention; FIG. 1C is an explanatory diagram of an imaging of a component held by a nozzle by the third component recognition camera;

以下に図面を用いて、本発明の一実施の形態を詳細に説明する。以下で述べる構成、形状等は説明のための例示であって、部品実装装置、部品認識カメラの仕様に応じ、適宜変更が可能である。以下では、全ての図面において対応する要素には同一符号を付し、重複する説明を省略する。図1、及び後述する一部では、水平面内で互いに直交する2軸として、基板搬送方向のX軸(図1における左右方向)、基板搬送方向に直交するY軸(図1における上下方向)が示される。図2、及び後述する一部では、水平面と直交する高さ方向としてZ軸(図2における上下方向)が示される。 An embodiment of the present invention will be described in detail below with reference to the drawings. The configurations, shapes, etc. described below are examples for explanatory purposes and can be modified as appropriate depending on the specifications of the component mounting device and component recognition camera. In the following, the same reference numerals are used for corresponding elements in all drawings, and duplicated explanations will be omitted. In FIG. 1 and in some parts described below, the X-axis in the board transport direction (left-right direction in FIG. 1) and the Y-axis orthogonal to the board transport direction (up-down direction in FIG. 1) are shown as two axes that are orthogonal to each other in the horizontal plane. In FIG. 2 and in some parts described below, the Z-axis (up-down direction in FIG. 2) is shown as the height direction that is orthogonal to the horizontal plane.

まず図1、図2を参照して、部品実装装置1の構成を説明する。なお図2は、図1における部品実装装置1の一部を模式的に示している。部品実装装置1は、部品供給部から供給された部品を基板に装着する部品実装作業を実行する機能を有する。基台1aの中央には、基板搬送機構2がX軸に沿って配置されている。基板搬送機構2は、上流側から搬送された基板3を、実装作業位置に搬入して位置決めして保持する。また、基板搬送機構2は、部品実装作業が完了した基板3を下流側に搬出する。 First, the configuration of the component mounting device 1 will be described with reference to Figures 1 and 2. Note that Figure 2 shows a schematic view of a portion of the component mounting device 1 in Figure 1. The component mounting device 1 has the function of performing component mounting work, which involves attaching components supplied from a component supply unit to a board. A board transport mechanism 2 is disposed along the X-axis in the center of the base 1a. The board transport mechanism 2 transports the board 3 transported from the upstream side to the mounting work position, positions it, and holds it. In addition, the board transport mechanism 2 transports the board 3 downstream after the component mounting work has been completed.

基板搬送機構2の両側(Y軸の前後方向)には、部品供給部4が配置されている。それぞれの部品供給部4には、複数のテープフィーダ5がX軸に沿って並列に装着されている。テープフィーダ5は、部品Dを格納するポケットが形成された部品テープを部品供給部4の外側から基板搬送機構2に向かう方向(テープ送り方向)にピッチ送りすることにより、以下に説明する実装ヘッドによって部品Dが取り出される部品供給位置5aに部品Dを供給する。 Component supply units 4 are arranged on both sides of the board transport mechanism 2 (front and rear directions of the Y axis). Each component supply unit 4 has multiple tape feeders 5 attached in parallel along the X axis. The tape feeders 5 feed a component tape, on which pockets for storing components D are formed, at a pitch rate in a direction (tape feed direction) from the outside of the component supply unit 4 toward the board transport mechanism 2, thereby supplying components D to a component supply position 5a from which the components D are picked up by a mounting head, which will be described below.

図1、図2において、基台1a上面においてX軸における両端部には、リニア駆動機構を備えたY軸テーブル6がY軸に沿って配置されている。Y軸テーブル6には、同様にリニア駆動機構を備えたビーム7が、Y軸に沿って移動自在に結合されている。ビーム7はX軸に沿って配置されている。ビーム7には、実装ヘッド8がX軸に沿って移動自在に装着されている。実装ヘッド8は、部品Dを吸着保持して昇降可能な吸着ユニット8aを備えている。吸着ユニット8aのそれぞれの下端部には、部品Dを吸着保持するノズル8bが装着されている。 In Figures 1 and 2, a Y-axis table 6 equipped with a linear drive mechanism is arranged along the Y-axis at both ends of the X-axis on the top surface of the base 1a. A beam 7 similarly equipped with a linear drive mechanism is connected to the Y-axis table 6 so that it can move freely along the Y-axis. The beam 7 is arranged along the X-axis. A mounting head 8 is attached to the beam 7 so that it can move freely along the X-axis. The mounting head 8 is equipped with a suction unit 8a that can lift and lower while suctioning and holding a component D. A nozzle 8b that suctions and holds the component D is attached to the lower end of each suction unit 8a.

図1において、Y軸テーブル6およびビーム7は、実装ヘッド8をX軸およびY軸に沿って移動させるヘッド移動機構9を構成する。ヘッド移動機構9および実装ヘッド8は、部品供給部4に配置されたテープフィーダ5の部品供給位置5aから部品Dをノズル8bによって吸着して取り出して、基板搬送機構2に位置決めされた基板3の実装位置に装着する実装ターンを実行する。すなわち、Y軸テーブル6、ビーム7および実装ヘッド8は、テープフィーダ5の部品供給位置5aに供給される部品Dをノズル8bで保持して基板3に装着する部品実装手段を構成する。 In FIG. 1, the Y-axis table 6 and the beam 7 constitute a head movement mechanism 9 that moves the mounting head 8 along the X-axis and Y-axis. The head movement mechanism 9 and the mounting head 8 perform a mounting turn in which the nozzle 8b picks up and removes the component D from the component supply position 5a of the tape feeder 5 arranged in the component supply section 4, and mounts it at the mounting position of the board 3 positioned by the board transport mechanism 2. In other words, the Y-axis table 6, the beam 7 and the mounting head 8 constitute a component mounting means that holds the component D supplied to the component supply position 5a of the tape feeder 5 with the nozzle 8b and mounts it on the board 3.

図1、図2において、部品供給部4と基板搬送機構2との間には、部品認識カメラ20が配置されている。部品供給部4から部品Dを取り出した実装ヘッド8が部品認識カメラ20の上方を移動する際に、部品認識カメラ20は実装ヘッド8に保持された状態の部品Dを撮像して部品Dの保持姿勢を認識する。実装ヘッド8が取り付けられたプレート7aには基板認識カメラ10が取り付けられている。基板認識カメラ10は、実装ヘッド8と一体的に移動する。 In Figures 1 and 2, a component recognition camera 20 is disposed between the component supply unit 4 and the board transport mechanism 2. When the mounting head 8, which has picked up a component D from the component supply unit 4, moves above the component recognition camera 20, the component recognition camera 20 captures an image of the component D held by the mounting head 8 to recognize the holding posture of the component D. A board recognition camera 10 is attached to the plate 7a to which the mounting head 8 is attached. The board recognition camera 10 moves integrally with the mounting head 8.

実装ヘッド8が移動することにより、基板認識カメラ10は基板搬送機構2に位置決めされた基板3の上方に移動し、基板3に設けられた基板マーク3aを撮像して基板3の位置を認識する。実装ヘッド8による基板3への部品実装動作においては、部品認識カメラ20による部品Dの認識結果と、基板認識カメラ10による基板位置の認識結果とを加味して実装位置の補正が行われる。 As the mounting head 8 moves, the board recognition camera 10 moves above the board 3 positioned by the board transport mechanism 2, and captures an image of the board mark 3a provided on the board 3 to recognize the position of the board 3. When the mounting head 8 mounts components on the board 3, the mounting position is corrected taking into account the recognition results of the component D by the component recognition camera 20 and the recognition results of the board position by the board recognition camera 10.

図2において、部品供給部4にはフィーダベース11aに予め複数のテープフィーダ5が装着された状態の台車11がセットされる。台車11には、部品Dを保持した部品テープ12を巻回状態で収納するテープリール13が保持されている。テープリール13から引き出された部品テープ12は、テープフィーダ5によって部品供給位置5aまでピッチ送りされる。 In FIG. 2, a cart 11 with multiple tape feeders 5 already attached to a feeder base 11a is set in the component supply unit 4. The cart 11 holds a tape reel 13 that stores a component tape 12 holding components D in a wound state. The component tape 12 pulled out from the tape reel 13 is pitch-fed by the tape feeder 5 to the component supply position 5a.

図1において、部品実装装置1の前面で作業者が作業する位置には、作業者が操作するタッチパネル14が設置されている。タッチパネル14は、その表示部に各種情報を表示し、また表示部に表示される操作ボタンなどを使って作業者がデータ入力や部品実装装置1の操作を行う。 In FIG. 1, a touch panel 14 operated by the worker is installed at the position where the worker works on the front side of the component mounting device 1. The touch panel 14 displays various information on its display, and the worker inputs data and operates the component mounting device 1 using operation buttons displayed on the display.

次に図3を参照して、部品認識カメラ20の構成の概要について説明する。図3は、部品認識カメラ20の筐体21を透視した部品認識カメラ20の内部を模式的に示している。部品認識カメラ20には、X軸に沿って直線に並ぶ複数(ここでは4個)の第1カメラユニット22が設置されている。複数の第1カメラユニット22は、第1カメラ群G1を構成する。また、部品認識カメラ20には、X軸に沿って直線に並ぶ複数(ここでは4個)の第2カメラユニット23が設置されている。複数の第2カメラユニット23は、第2カメラ群G2を構成する。 Next, referring to FIG. 3, an overview of the configuration of the part recognition camera 20 will be described. FIG. 3 shows a schematic view of the inside of the part recognition camera 20 seen through the housing 21 of the part recognition camera 20. The part recognition camera 20 is provided with a plurality of first camera units 22 (four in this case) arranged in a straight line along the X-axis. The plurality of first camera units 22 constitute a first camera group G1. The part recognition camera 20 is also provided with a plurality of second camera units 23 (four in this case) arranged in a straight line along the X-axis. The plurality of second camera units 23 constitute a second camera group G2.

第1カメラ群G1と第2カメラ群G2は、Y軸に沿って隣接する位置に配置されている。また、第1カメラ群G1の第1カメラユニット22と第2カメラ群G2の第2カメラユニット23は、X軸方向の位置が互い違いになるように配置(千鳥配置)されている。すなわち、X軸方向において、隣接する2個の第1カメラユニット22の境界の位置に第2カメラユニット23の中央が位置するように配置されている。同様に、隣接する2個の第2カメラユニット23の境界の位置に第1カメラユニット22の中央が位置するように配置されている。第1カメラユニット22と第2カメラユニット23の一部が交互に配置された所定の位置の上方には、複数のマーク25が形成された透明板24が配置されている。 The first camera group G1 and the second camera group G2 are arranged adjacent to each other along the Y axis. The first camera unit 22 of the first camera group G1 and the second camera unit 23 of the second camera group G2 are arranged so that their positions in the X axis direction are staggered (staggered arrangement). That is, the second camera unit 23 is arranged so that its center is located at the boundary position between two adjacent first camera units 22 in the X axis direction. Similarly, the first camera unit 22 is arranged so that its center is located at the boundary position between two adjacent second camera units 23. A transparent plate 24 on which a number of marks 25 are formed is arranged above a predetermined position where parts of the first camera unit 22 and the second camera unit 23 are arranged alternately.

次に図4~図7を参照して、部品認識カメラ20の構成の詳細について説明する。図5~図7は、便宜上、第1カメラユニット22の筐体22aと第2カメラユニット23の筐体23aの記載を省略して、部品認識カメラ20の内部の構成要素の位置関係を分かりやすく表示している。 Next, the details of the configuration of the part recognition camera 20 will be described with reference to Figures 4 to 7. For convenience, Figures 5 to 7 omit the illustration of the housing 22a of the first camera unit 22 and the housing 23a of the second camera unit 23 to clearly show the positional relationship of the internal components of the part recognition camera 20.

図6(b)、図6(c)において、透明板24は、部品認識カメラ20の筐体21の上部21aを切り欠いて形成された開口部21bの上に配置されている。透明板24は、光を透過する板状のガラスなどで形成されている。図6(a)において、透明板24のY軸方向の中央部には、第1カメラユニット22および第2カメラユニット23がノズル8bに保持された部品Dを撮像する際にカメラの光軸が通過する部品撮像視野24aが設定されている。透明板24には、X軸に沿って直列に並ぶ複数のマーク25が、部品撮像視野24aを挟んでY軸方向に2列配置されてる。すなわち、複数のマーク25は、第1カメラユニット22および第2カメラユニット23による部品Dの撮像を妨害しない位置に配置されている。 6(b) and 6(c), the transparent plate 24 is disposed on the opening 21b formed by cutting out the upper portion 21a of the housing 21 of the part recognition camera 20. The transparent plate 24 is formed of a plate-like glass that transmits light. In FIG. 6(a), a part imaging field of view 24a is set in the center of the transparent plate 24 in the Y-axis direction, through which the optical axes of the cameras pass when the first camera unit 22 and the second camera unit 23 image the part D held by the nozzle 8b. On the transparent plate 24, a plurality of marks 25 are arranged in series along the X-axis, and are arranged in two rows in the Y-axis direction, sandwiching the part imaging field of view 24a. In other words, the plurality of marks 25 are disposed in positions that do not interfere with the imaging of the part D by the first camera unit 22 and the second camera unit 23.

次に図4(a)、図7(a)を参照して、第1カメラユニット22の光学系について説明する。図4(a)は、第1カメラユニット22の筐体22aを透視した第1カメラユニット22の内部を模式的に示している。図7(a)には、便宜上、部品認識カメラ20の内部に第1カメラユニット22に関連する構成のみ表示している。第1カメラユニット22は、筐体22aの内部に2次元CMOSセンサなどの撮像素子を有する第1撮像部22bと、撮像対象の部品Dと第1撮像部22bとの間に位置する第1レンズ22cを有している。 Next, the optical system of the first camera unit 22 will be described with reference to Fig. 4(a) and Fig. 7(a). Fig. 4(a) shows a schematic diagram of the inside of the first camera unit 22 seen through the housing 22a of the first camera unit 22. For convenience, Fig. 7(a) shows only the configuration related to the first camera unit 22 inside the component recognition camera 20. The first camera unit 22 has a first imaging section 22b having an imaging element such as a two-dimensional CMOS sensor inside the housing 22a, and a first lens 22c located between the component D to be imaged and the first imaging section 22b.

第1カメラユニット22は、光軸22dを上方に向けて設置されており、撮像対象の部品Dを下方から撮像する。第1レンズ22cの上方であって、第1カメラユニット22による撮像を妨害しない位置には、第1照明部26が設置されている。第1照明部26は、複数のLEDチップなどを備えて構成されており、撮像対象物(部品Dなど)、または、透明板24のマーク25を照らす光26aを下方から照射する。 The first camera unit 22 is installed with its optical axis 22d facing upward, and captures the target part D from below. The first illumination unit 26 is installed above the first lens 22c in a position that does not interfere with the imaging by the first camera unit 22. The first illumination unit 26 is configured with multiple LED chips, etc., and emits light 26a from below, which illuminates the target part (such as part D) or the mark 25 on the transparent plate 24.

次に図4(b)、図7(b)を参照して、第2カメラユニット23の光学系について説明する。図4(b)は、第2カメラユニット23の筐体23aを透視した第2カメラユニット23の内部を模式的に示している。図7(b)には、便宜上、部品認識カメラ20の内部に第2カメラユニット23に関連する構成のみ表示している。第2カメラユニット23は、筐体23aの内部に2次元CMOSセンサなどの撮像素子を有する第2撮像部23bと、撮像対象の部品Dと第2撮像部23bとの間に位置する第2レンズ23cを有している。 Next, the optical system of the second camera unit 23 will be described with reference to Fig. 4(b) and Fig. 7(b). Fig. 4(b) shows a schematic diagram of the inside of the second camera unit 23 seen through the housing 23a of the second camera unit 23. For convenience, Fig. 7(b) shows only the configuration related to the second camera unit 23 inside the component recognition camera 20. The second camera unit 23 has a second imaging section 23b having an imaging element such as a two-dimensional CMOS sensor inside the housing 23a, and a second lens 23c located between the component D to be imaged and the second imaging section 23b.

第2カメラユニット23は、光軸23dを上方に向けて設置されている。第2カメラユニット23において、透明板24の下方には、第1の鏡27が配置されている。第1の鏡27からY軸に沿う位置であって、第2レンズ23cの上方には、第2の鏡28が配置されている。第2カメラユニット23の光軸23dは、第2の鏡28によって第1の鏡27の方向に屈折される。さらに、光軸23dは、第1の鏡27によって上方に屈折される。 The second camera unit 23 is installed with its optical axis 23d facing upward. In the second camera unit 23, a first mirror 27 is disposed below the transparent plate 24. A second mirror 28 is disposed above the second lens 23c, at a position along the Y axis from the first mirror 27. The optical axis 23d of the second camera unit 23 is refracted by the second mirror 28 toward the first mirror 27. Furthermore, the optical axis 23d is refracted upward by the first mirror 27.

このように、光軸23dが第2の鏡28と第1の鏡27によって屈折されることにより、第2カメラユニット23は、撮像対象の部品Dを下方から撮像する。すなわち、第1の鏡27と第2の鏡28(鏡)は、ノズル8bに保持された部品Dの像を第2カメラユニット23(第2カメラ群のカメラ)に導く光軸屈折部Rを構成する。また、部品認識カメラ20において、第1の鏡27と第2の鏡28は、第2カメラ群G2のカメラ(第2カメラユニット23)毎に配置されている(図5、図6参照)。 In this way, the optical axis 23d is refracted by the second mirror 28 and the first mirror 27, and the second camera unit 23 captures the image of the target part D from below. That is, the first mirror 27 and the second mirror 28 (mirrors) form an optical axis refraction section R that guides the image of the part D held in the nozzle 8b to the second camera unit 23 (camera of the second camera group). In the part recognition camera 20, the first mirror 27 and the second mirror 28 are arranged for each camera (second camera unit 23) of the second camera group G2 (see Figures 5 and 6).

図7(b)において、第2レンズ23cの上方であって、第2カメラユニット23による撮像を妨害しない位置には、第2照明部29が設置されている。第2照明部29は、複数のLEDチップなどを備えて構成されており、撮像対象物(部品Dなど)、または、透明板24のマーク25を照らす光29aを照射する。第2照明部29から照射された光29aは、第2の鏡28と第1の鏡27によって屈折されることにより、撮像対象物(部品Dなど)、または、透明板24のマーク25を下方から照らす。 In FIG. 7(b), a second illumination unit 29 is installed above the second lens 23c at a position that does not interfere with imaging by the second camera unit 23. The second illumination unit 29 is configured with a plurality of LED chips, etc., and emits light 29a that illuminates the imaging target (such as component D) or the mark 25 on the transparent plate 24. The light 29a emitted from the second illumination unit 29 is refracted by the second mirror 28 and the first mirror 27, thereby illuminating the imaging target (such as component D) or the mark 25 on the transparent plate 24 from below.

図7(a)、図7(b)において、部品認識カメラ20(部品撮像装置)がノズル8bに保持された部品Dを撮像する際は、第1照明部26および第2照明部29から光26a,29aを照射している状態で、部品Dを保持しているノズル8bをY軸に沿って移動させる(矢印a)。第1カメラユニット22および第2カメラユニット23は、部品Dが透明板24の部品撮像視野24aの上方を通過する際に、部品Dを下方から撮像(スキャン撮像)する。 In Figures 7(a) and 7(b), when the part recognition camera 20 (part imaging device) images the part D held by the nozzle 8b, the nozzle 8b holding the part D is moved along the Y axis (arrow a) while the first lighting unit 26 and the second lighting unit 29 are irradiating the part with light 26a and 29a. The first camera unit 22 and the second camera unit 23 image (scan image) the part D from below as the part D passes above the part imaging field of view 24a of the transparent plate 24.

ここで図8を参照して、第1カメラユニット22の光学系の他の実施例について説明する。第1カメラユニット22の光学系の他の実施例は、第1レンズ22cの上方にハーフミラー30が配置されているところが前述の第1カメラユニット22の光学系とは異なる。第1カメラユニット22の光軸22dはハーフミラー30を透過し、第1カメラユニット22は撮像対象の部品Dを下方から撮像する。 Now, referring to FIG. 8, another embodiment of the optical system of the first camera unit 22 will be described. This embodiment of the optical system of the first camera unit 22 differs from the optical system of the first camera unit 22 described above in that a half mirror 30 is disposed above the first lens 22c. The optical axis 22d of the first camera unit 22 passes through the half mirror 30, and the first camera unit 22 captures an image of the target part D from below.

ハーフミラー30からY軸に沿う位置には、第3照明部31が設置されている。第3照明部31は、複数のLEDチップなどを備えて構成されており、撮像対象物(部品Dなど)、または、透明板24のマーク25を照らす光31aを横向きに照射する。第3照明部31から照射された光31aは、ハーフミラー30によって上方に屈折されることにより、撮像対象物(部品Dなど)、または、透明板24のマーク25を下方から照らす。このように、部品認識カメラ20は、複数のカメラ(第1カメラユニット22、第2カメラユニット23)毎に配置され、ノズル8bが保持する部品Dおよび透明板24のマーク25を照らす照明部(第1照明部26、第2照明部29、第3照明部31)を備えている。 The third illumination unit 31 is installed at a position along the Y axis from the half mirror 30. The third illumination unit 31 is configured with a plurality of LED chips and the like, and emits light 31a sideways to illuminate the imaging object (such as part D) or the mark 25 on the transparent plate 24. The light 31a emitted from the third illumination unit 31 is refracted upward by the half mirror 30, thereby illuminating the imaging object (such as part D) or the mark 25 on the transparent plate 24 from below. In this way, the part recognition camera 20 is provided with illumination units (first illumination unit 26, second illumination unit 29, third illumination unit 31) that are arranged for each of the plurality of cameras (first camera unit 22, second camera unit 23) and illuminate the part D held by the nozzle 8b and the mark 25 on the transparent plate 24.

次に図9を参照して、部品認識カメラ20の撮像視野について説明する。図9では、第1カメラ群G1の4個の第1カメラユニット22をX軸方向の左側から順に第1カメラユニット22A~第1カメラユニット22Dと称する。また、第2カメラ群G2の4個の第2カメラユニット23をX軸方向の左側から順に第1カメラユニット23A~第1カメラユニット23Dと称する。 Next, the imaging field of view of the part recognition camera 20 will be described with reference to FIG. 9. In FIG. 9, the four first camera units 22 in the first camera group G1 are referred to as first camera unit 22A to first camera unit 22D, starting from the left in the X-axis direction. Additionally, the four second camera units 23 in the second camera group G2 are referred to as first camera unit 23A to first camera unit 23D, starting from the left in the X-axis direction.

図9(a)、図9(b)において、X軸方向において隣接する第1カメラユニット22Aと第1カメラユニット22Bの境界の位置に第2カメラユニット23AのX軸方向の中心が位置している。また、X軸方向において隣接する第2カメラユニット23Aと第2カメラユニット23Bの境界の位置に第1カメラユニット23BのX軸方向の中心が位置している。以下同様に、第1カメラユニット22A~22Dと第2カメラユニット23A~23Dが設置されている。 In Figures 9(a) and 9(b), the center of the second camera unit 23A in the X-axis direction is located at the boundary between the first camera unit 22A and the first camera unit 22B, which are adjacent in the X-axis direction. Also, the center of the first camera unit 23B in the X-axis direction is located at the boundary between the second camera unit 23A and the second camera unit 23B, which are adjacent in the X-axis direction. Similarly, the first camera units 22A to 22D and the second camera units 23A to 23D are installed.

これによって、部品撮像視野24a(図9(b)中にドットのハッチングを付している)を含む透明板24には、X軸方向の左側から第1カメラユニット22Aの撮像視野A1、第2カメラユニット23Aの撮像視野A2、第1カメラユニット22Bの撮像視野A3、第2カメラユニット23Bの撮像視野A4のように、第1カメラユニット22A~22Dの撮像視野A1,A3,A5,A7と第2カメラユニット23A~23Dの撮像視野A2,A4,A6,A8が交互に配置される。 As a result, on the transparent plate 24 including the component imaging field 24a (hatched with dots in FIG. 9B), the imaging fields A1, A3, A5, A7 of the first camera units 22A to 22D and the imaging fields A2, A4, A6, A8 of the second camera units 23A to 23D are alternately arranged, such as the imaging field A1 of the first camera unit 22A, the imaging field A2 of the second camera unit 23A, the imaging field A3 of the first camera unit 22B, and the imaging field A4 of the second camera unit 23B from the left in the X-axis direction.

図9(b)において、第1カメラユニット22A~22Dの撮像視野A1,A3,A5,A7のX軸方向の幅LX1およびY軸方向の幅LY1は、第2カメラユニット23A~23Dの撮像視野A2,A4,A6,A8のX軸方向の幅LX2およびY軸方向の幅LY2と同じである。また、X軸方向において、第2カメラユニット23Aの撮像視野A2は、左右に隣接する第1カメラユニット22Aの撮像視野A1と第1カメラユニット22Bの撮像視野A3と接している。すなわち、第1カメラユニット22A~22Dの撮像視野A1,A3,A5,A7と第2カメラユニット23A~23Dの撮像視野A2,A4,A6,A8は、一の方向(X軸方向)に交互に接して並ぶように配置されている。 In FIG. 9(b), the width LX1 in the X-axis direction and the width LY1 in the Y-axis direction of the imaging fields A1, A3, A5, and A7 of the first camera units 22A to 22D are the same as the width LX2 in the X-axis direction and the width LY2 in the Y-axis direction of the imaging fields A2, A4, A6, and A8 of the second camera units 23A to 23D. In addition, in the X-axis direction, the imaging field A2 of the second camera unit 23A is in contact with the imaging field A1 of the first camera unit 22A and the imaging field A3 of the first camera unit 22B, which are adjacent to the left and right. In other words, the imaging fields A1, A3, A5, and A7 of the first camera units 22A to 22D and the imaging fields A2, A4, A6, and A8 of the second camera units 23A to 23D are arranged so that they are alternately in contact with each other in one direction (the X-axis direction).

第1カメラユニット22A~22Dの第1レンズ22cおよび第1撮像部22bと第2カメラユニット23A~23Dの第2レンズ23cおよび第2撮像部23bは、主光線と光軸22d,23dが平行であるテレセントリック光学系である。すなわち、第1カメラ群G1の複数のカメラ(第1カメラユニット22A~22D)および第2カメラ群G2の複数のカメラ(第2カメラユニット23A~23D)は、テレセントリック光学系を有している。 The first lens 22c and the first imaging section 22b of the first camera units 22A-22D and the second lens 23c and the second imaging section 23b of the second camera units 23A-23D are telecentric optical systems in which the chief ray is parallel to the optical axes 22d, 23d. In other words, the multiple cameras of the first camera group G1 (first camera units 22A-22D) and the multiple cameras of the second camera group G2 (second camera units 23A-23D) have telecentric optical systems.

または、複数のカメラ(第1カメラユニット22A~22D、第2カメラユニット23A~23D)は、主光線と光軸22d,23dがほぼ平行で画角が小さい(狭い)光学系である。このように、部品認識カメラ20は、画角が小さい光学系のカメラ(第1カメラユニット22A~22D、第2カメラユニット23A~23D)を一の方向(X軸方向)に撮像視野A1~A8が交互に並ぶように配置することで、径の大きなレンズを用いることなく一の方向に長い部品撮像視野24aを実現している。 Alternatively, the multiple cameras (first camera units 22A-22D, second camera units 23A-23D) are optical systems in which the chief ray and the optical axes 22d, 23d are nearly parallel and the angle of view is small (narrow). In this way, the component recognition camera 20 realizes a component imaging field of view 24a that is long in one direction without using a lens with a large diameter by arranging the cameras (first camera units 22A-22D, second camera units 23A-23D) with an optical system having a small angle of view so that the imaging fields of view A1-A8 are alternately arranged in one direction (X-axis direction).

上記のように、部品認識カメラ20は、一の方向(X軸方向)に直列に並び、部品Dを撮像する複数のカメラ(第1カメラユニット22A~22D)から成る第1カメラ群G1と、第1カメラ群G1と並行に一の方向に直列に並び、部品Dを撮像する複数のカメラ(第2カメラユニット23A~23D)から成る第2カメラ群G2と、第1カメラ群G1のカメラの撮像視野A1,A3,A5,A7と、第2カメラ群のカメラの撮像視野A2,A4,A6,A8を、直列に並べる光軸屈折部Rと、を備える、部品撮像装置である。また、部品認識カメラ20は、第1カメラ群G1のカメラと、第2カメラ群G2のカメラは、撮像視野A1~A8が交互に並ぶように配置されている。 As described above, the part recognition camera 20 is a part imaging device that includes a first camera group G1 consisting of a plurality of cameras (first camera units 22A to 22D) arranged in series in one direction (X-axis direction) and imaging part D, a second camera group G2 consisting of a plurality of cameras (second camera units 23A to 23D) arranged in series in one direction parallel to the first camera group G1 and imaging part D, and an optical axis refraction section R that arranges the imaging fields A1, A3, A5, and A7 of the cameras of the first camera group G1 and the imaging fields A2, A4, A6, and A8 of the cameras of the second camera group in series. In addition, the part recognition camera 20 is arranged such that the cameras of the first camera group G1 and the cameras of the second camera group G2 are arranged so that the imaging fields A1 to A8 are arranged alternately.

次に、図10を参照して、第2の部品認識カメラ32(以下、単に「部品認識カメラ32」と称する)について説明する。部品認識カメラ32は、第1レンズ33bおよび第1撮像部33aを有するX軸方向に並ぶ4個の第1カメラユニット33A~33Dと、第2レンズ34bおよび第2撮像部34aを有するX軸方向に並ぶ4個の第2カメラユニット34A~34Dを備えている。部品認識カメラ32の第1カメラユニット33A~33Dおよび第2カメラユニット34A~34Dの画角は、図9の例よりも大きい(広い)ところが部品認識カメラ20とは異なっている。以下、部品認識カメラ20と同じ構成には同じ符号を付して詳細な説明は省略する。 Next, the second component recognition camera 32 (hereinafter simply referred to as "component recognition camera 32") will be described with reference to FIG. 10. The component recognition camera 32 includes four first camera units 33A-33D arranged in the X-axis direction and each having a first lens 33b and a first imaging section 33a, and four second camera units 34A-34D arranged in the X-axis direction and each having a second lens 34b and a second imaging section 34a. The angle of view of the first camera units 33A-33D and second camera units 34A-34D of the component recognition camera 32 is larger (wider) than in the example of FIG. 9, which is different from the component recognition camera 20. Hereinafter, the same components as those of the component recognition camera 20 are denoted by the same reference numerals, and detailed description will be omitted.

図10(a)、図10(b)において、第1カメラユニット33A~33Dの撮像視野B1,B3,B5,B7のX軸方向の幅LX3および第2カメラユニット34A~34Dの撮像視野B2,B4,B6,B8のX軸方向の幅LX4は、図9(b)の撮像視野A1~A8のX軸方向の幅LX1,LX2よりも大きい。これにより、部品認識カメラ32は、第1カメラユニット33A~33Dおよび第2カメラユニット34A~34Dの隣接する撮像視野B1~B8の一部が一の方向(X軸方向)で相互に重なっている。 In Figures 10(a) and 10(b), the width LX3 in the X-axis direction of the imaging fields B1, B3, B5, and B7 of the first camera units 33A to 33D and the width LX4 in the X-axis direction of the imaging fields B2, B4, B6, and B8 of the second camera units 34A to 34D are greater than the widths LX1 and LX2 in the X-axis direction of the imaging fields A1 to A8 in Figure 9(b). As a result, in the component recognition camera 32, adjacent imaging fields B1 to B8 of the first camera units 33A to 33D and the second camera units 34A to 34D partially overlap each other in one direction (X-axis direction).

部品認識カメラ32は、撮像視野B1~B8の一部が相互に重ねることで、後述するように部品認識カメラ32の発熱や製造に起因して第1カメラユニット33A~33Dまたは第2カメラユニット34A~34Dの光軸33c,34cにずれが発生しても、隣接する撮像視野B1~B8の間(一の方向に長い部品撮像視野24a)に隙間が生じることが防止できる。 The component recognition camera 32 has imaging fields of view B1 to B8 that partially overlap each other, so that even if the optical axes 33c, 34c of the first camera units 33A to 33D or the second camera units 34A to 34D are misaligned due to heat generation or manufacturing of the component recognition camera 32 as described below, it is possible to prevent gaps from occurring between adjacent imaging fields of view B1 to B8 (component imaging fields of view 24a that are long in one direction).

次に図11を参照して、部品認識カメラ20(部品撮像装置)を備える部品実装装置1の制御系の構成について説明する。なお、第2の部品認識カメラ32(部品撮像装置)を備える部品実装装置1の制御系の構成も同様であり、詳細な説明は省略する。部品実装装置1は、制御部40、基板搬送機構2、テープフィーダ5、実装ヘッド8、ヘッド移動機構9、部品認識カメラ20、基板認識カメラ10、タッチパネル14を備えている。制御部40は、実装動作処理部41、部品撮像処理部42、画像処理部43、吸着部品位置算出部44、マーク撮像処理部45、位置ずれ量算出部46、実装記憶部47を備えている。実装記憶部47は記憶装置であり、実装データ48、部品撮像結果49、実装補正値50、マーク撮像結果51、撮像視野位置ずれ量52などが記憶されている。 Next, referring to FIG. 11, the configuration of the control system of the component mounting device 1 equipped with the component recognition camera 20 (component imaging device) will be described. The configuration of the control system of the component mounting device 1 equipped with the second component recognition camera 32 (component imaging device) is similar, and detailed description will be omitted. The component mounting device 1 is equipped with a control unit 40, a board conveying mechanism 2, a tape feeder 5, a mounting head 8, a head moving mechanism 9, a component recognition camera 20, a board recognition camera 10, and a touch panel 14. The control unit 40 is equipped with a mounting operation processing unit 41, a component imaging processing unit 42, an image processing unit 43, a pickup component position calculation unit 44, a mark imaging processing unit 45, a position deviation amount calculation unit 46, and a mounting memory unit 47. The mounting memory unit 47 is a storage device, and stores mounting data 48, component imaging results 49, mounting correction values 50, mark imaging results 51, imaging field position deviation amount 52, etc.

実装データ48には、基板3の種類(基板種)毎に、基板3のサイズ、実装される部品Dの種類と実装位置(XY座標)、実装ヘッド8の種類など、部品実装作業に必要な情報が記憶されている。実装動作処理部41は、実装データ48に基づいて部品実装装置1の各部を制御して、テープフィーダ5が供給する部品Dを実装ヘッド8のノズル8bで保持して、後述する実装補正値50に基づいてノズル8bの位置(X軸方向、Y軸方向)を補正して、実装作業位置に保持された基板3の実装位置に部品Dを実装する部品実装作業を制御する。 The mounting data 48 stores information necessary for component mounting work, such as the size of the board 3, the type and mounting position (XY coordinates) of the component D to be mounted, and the type of mounting head 8, for each type of board 3 (board type). The mounting operation processing unit 41 controls each part of the component mounting device 1 based on the mounting data 48, holds the component D supplied by the tape feeder 5 with the nozzle 8b of the mounting head 8, corrects the position (X-axis direction, Y-axis direction) of the nozzle 8b based on a mounting correction value 50 described later, and controls the component mounting work to mount the component D at the mounting position on the board 3 held at the mounting work position.

図11において、部品撮像処理部42は、部品実装作業においてヘッド移動機構9と部品認識カメラ20を制御して、ノズル8bに部品Dを保持した実装ヘッド8を部品認識カメラ20の上方で移動させながらノズル8bが保持している部品Dを撮像(スキャン撮像)させる。その際、部品撮像処理部42は、第1照明部26と第2照明部29で部品Dを照らしながら、第1カメラユニット22と第2カメラユニット23で部品Dを撮像させる。部品Dの撮像結果は、画像処理部43により画像処理された後に部品撮像結果49として実装記憶部47に記憶される。吸着部品位置算出部44は、記憶された部品撮像結果49に基づいて、ノズル8bの中心(吸着位置)から見た部品Dの中心の位置を算出して、実装補正値50として実装記憶部47に記憶させる。 In FIG. 11, the component imaging processing unit 42 controls the head moving mechanism 9 and the component recognition camera 20 during the component mounting operation to image (scan) the component D held by the nozzle 8b while moving the mounting head 8 holding the component D on the nozzle 8b above the component recognition camera 20. At that time, the component imaging processing unit 42 images the component D with the first camera unit 22 and the second camera unit 23 while illuminating the component D with the first illumination unit 26 and the second illumination unit 29. The imaging result of the component D is processed by the image processing unit 43 and then stored in the mounting storage unit 47 as the component imaging result 49. The pickup component position calculation unit 44 calculates the position of the center of the component D as seen from the center (pickup position) of the nozzle 8b based on the stored component imaging result 49, and stores it in the mounting storage unit 47 as the mounting correction value 50.

ここで、図12、図13を参照して、図9に示す部品認識カメラ20または部品認識カメラ32(部品撮像装置)による部品Dの撮像について詳細に説明する。図12は図9に示す撮像視野A1~A8を有する部品認識カメラ20による撮像の例を、図13は図10に示す撮像視野B1~B8を有する部品認識カメラ32による撮像の例を示している。図12は、小型の部品D1を保持するノズル8bを16本有する実装ヘッド8(以下、「16ノズル実装ヘッド」と称する。)を使用する例を示している。16ノズル実装ヘッドは、X軸に沿って直列に並ぶ8本のノズル8bをY軸方向に前後に2列有している。X軸に並ぶノズル8bのピッチ(間隔)は、部品認識カメラ20の撮像視野A1~A8の中心(光軸22d,23d)のX軸方向のピッチと同一となるように設計されている。 Now, referring to Figs. 12 and 13, the imaging of component D by the component recognition camera 20 or component recognition camera 32 (component imaging device) shown in Fig. 9 will be described in detail. Fig. 12 shows an example of imaging by the component recognition camera 20 having the imaging fields A1 to A8 shown in Fig. 9, and Fig. 13 shows an example of imaging by the component recognition camera 32 having the imaging fields B1 to B8 shown in Fig. 10. Fig. 12 shows an example of using a mounting head 8 having 16 nozzles 8b that hold small components D1 (hereinafter referred to as a "16-nozzle mounting head"). The 16-nozzle mounting head has two rows of eight nozzles 8b arranged in series along the X-axis, front to back in the Y-axis direction. The pitch (spacing) of the nozzles 8b arranged along the X-axis is designed to be the same as the pitch in the X-axis direction of the centers (optical axes 22d, 23d) of the imaging fields A1 to A8 of the component recognition camera 20.

図12(b)において、部品撮像処理部42は、まず、16ノズル実装ヘッドのX軸方向の左端のノズル8bの中心が撮像視野A1の中心を通過する位置まで移動させる。次いで、部品撮像処理部42は、16ノズル実装ヘッドをY軸に沿って移動させながら(矢印b)、前側の8本のノズル8bがそれぞれ保持する部品D1をスキャン撮像する。次いで、部品撮像処理部42は、16ノズル実装ヘッドをY軸に沿って移動させながら(矢印b)、後側の8本のノズル8bがそれぞれ保持する部品D1をスキャン撮像する。画像処理部43は、後述する撮像視野位置ずれ量52に基づいて各カメラによる部品D1の撮像結果を補正して、部品撮像結果49として実装記憶部47に記憶させる。 In FIG. 12(b), the component imaging processing unit 42 first moves the 16-nozzle mounting head to a position where the center of the nozzle 8b at the left end in the X-axis direction passes through the center of the imaging field A1. Next, the component imaging processing unit 42 scans and images the component D1 held by each of the eight nozzles 8b on the front side while moving the 16-nozzle mounting head along the Y-axis (arrow b). Next, the component imaging processing unit 42 scans and images the component D1 held by each of the eight nozzles 8b on the rear side while moving the 16-nozzle mounting head along the Y-axis (arrow b). The image processing unit 43 corrects the imaging results of the component D1 by each camera based on the imaging field position deviation amount 52 described later, and stores the result as the component imaging result 49 in the mounting storage unit 47.

この例では、撮像する部品D1の位置に対応して複数のカメラ(第1カメラユニット22A~22D、第2カメラユニット23A~23D)が配置されているため、各カメラの撮像視野A1~A8で複数のノズル8bが保持する部品D1を一度に撮像することができる。例えば、16ノズル実装ヘッドのX軸方向の左端のノズル8bが保持する部品D1は、撮像視野A1を通過する際に第1カメラユニット22Aによって撮像される。撮像視野A1~A8の中央付近はレンズ(第1レンズ22c、第2レンズ23c)の歪みが小さいため、ノズル8bが保持する部品D1のノズル8bの付近をより正確に撮像(認識)することができる。 In this example, multiple cameras (first camera units 22A-22D, second camera units 23A-23D) are positioned corresponding to the position of the component D1 to be imaged, so that the components D1 held by multiple nozzles 8b can be imaged at once in the imaging fields A1-A8 of each camera. For example, the component D1 held by the nozzle 8b at the left end in the X-axis direction of the 16-nozzle mounting head is imaged by the first camera unit 22A as it passes through the imaging field A1. Since the distortion of the lenses (first lens 22c, second lens 23c) is small near the center of the imaging fields A1-A8, the area around the nozzle 8b of the component D1 held by the nozzle 8b can be imaged (recognized) more accurately.

図13は、大型の部品D2を保持するノズル8bを4本有する実装ヘッド8(以下、「4ノズル実装ヘッド」と称する。)を使用する例を示している。4ノズル実装ヘッドは、X軸に沿って直列に並ぶ4本のノズル8bを有している。X軸に並ぶノズル8bのピッチ(間隔)は、部品認識カメラ32の撮像視野B1~B8の中心(光軸33c,34c)のX軸方向のピッチの2倍となるように設計されている。 Figure 13 shows an example of using a mounting head 8 having four nozzles 8b that hold a large component D2 (hereinafter referred to as a "four-nozzle mounting head"). The four-nozzle mounting head has four nozzles 8b that are arranged in series along the X-axis. The pitch (spacing) of the nozzles 8b arranged along the X-axis is designed to be twice the pitch in the X-axis direction of the centers (optical axes 33c, 34c) of the imaging fields B1 to B8 of the component recognition camera 32.

図13(b)において、部品撮像処理部42は、まず、4ノズル実装ヘッドのX軸方向の左端のノズル8bの中心が撮像視野B1の中心と撮像視野B2の中心の中間点を通過する位置まで移動させる。次いで、部品撮像処理部42は、4ノズル実装ヘッドをY軸に沿って移動させながら(矢印c)、4本のノズル8bがそれぞれ保持する部品D2をスキャン撮像する。画像処理部43は、撮像視野位置ずれ量52に基づいて各カメラによる部品D2の撮像結果を補正し、さらに結合して、部品撮像結果49として実装記憶部47に記憶させる。 In FIG. 13(b), the component imaging processing unit 42 first moves the center of the nozzle 8b at the left end in the X-axis direction of the four-nozzle mounting head to a position where it passes through the midpoint between the center of the imaging field of view B1 and the center of the imaging field of view B2. Next, the component imaging processing unit 42 scans and images the component D2 held by each of the four nozzles 8b while moving the four-nozzle mounting head along the Y-axis (arrow c). The image processing unit 43 corrects the imaging results of the component D2 taken by each camera based on the imaging field of view position deviation amount 52, and further combines and stores the result in the mounting memory unit 47 as the component imaging result 49.

この例では、4ノズル実装ヘッドのX軸方向の左端のノズル8bが保持する部品D2は、撮像視野B1と撮像視野B2を通過する際に第1カメラユニット33Aと第2カメラユニット34Aによって撮像される。すなわち、部品認識カメラ32は、第1カメラ群G1のカメラ(第1カメラユニット33A)と第2カメラ群G2のカメラ(第2カメラユニット34A)で、一の部品D2を撮像する。第1カメラユニット33Aと第2カメラユニット34Aによる撮像結果は、画像処理部43によって撮像視野位置ずれ量52に基づいてそれぞれ補正された後に結合されて部品D2が写る1つの画像に合成されて、部品撮像結果49として記憶される(図15参照)。 In this example, component D2 held by nozzle 8b at the left end in the X-axis direction of the four-nozzle mounting head is imaged by first camera unit 33A and second camera unit 34A as it passes through imaging field of view B1 and imaging field of view B2. That is, the component recognition camera 32 images one component D2 with a camera of the first camera group G1 (first camera unit 33A) and a camera of the second camera group G2 (second camera unit 34A). The imaging results by the first camera unit 33A and the second camera unit 34A are corrected by the image processing unit 43 based on the imaging field position deviation amount 52, and then combined into one image that shows component D2, and stored as component imaging result 49 (see FIG. 15).

このように、部品認識カメラ32(部品撮像装置)は、複数のノズル8bが保持する部品D2を一度に撮像することができる。また、部品D2より大きな部品を撮像する場合は、その部品が通過する撮像視野のカメラの画像に基づいて、その部品が認識される。例えば、撮像視野B1~B4を跨いで通過する大きさの部品は、第1カメラ群G1の2個の第1カメラユニット33A,33Bと第2カメラ群G2の2個の第2カメラユニット34A,34Bが撮像した4つの撮像結果を画像処理(補正、結合)して1つの部品の画像が作成される。 In this way, the part recognition camera 32 (part imaging device) can simultaneously image the part D2 held by multiple nozzles 8b. Furthermore, when imaging a part larger than part D2, the part is recognized based on the image of the camera in the imaging field of view through which the part passes. For example, for a part large enough to pass across imaging fields B1 to B4, the four imaging results captured by the two first camera units 33A, 33B of the first camera group G1 and the two second camera units 34A, 34B of the second camera group G2 are image processed (corrected and combined) to create an image of a single part.

図11において、マーク撮像処理部45は、撮像視野の補正の際に、第1照明部26と第2照明部29により1枚の透明板24の部品撮像視野24aの外に設けられたマーク25を照らしながら、第1カメラユニット22と第2カメラユニット23でマーク25を撮像(静止撮像)させる。また、マーク撮像処理部45は、マーク25の撮像結果を複数のカメラ(第1カメラユニット22A~22D、第2カメラユニット23A~23D)毎にマーク撮像結果51として実装記憶部47に記憶させる。位置ずれ量算出部46は、記憶されたマーク撮像結果51に基づいて、複数のカメラの撮像視野の理想状態からの位置ずれ量を算出する。算出された位置ずれ量は、撮像視野位置ずれ量52として実装記憶部47に記憶される。 In FIG. 11, when correcting the imaging field of view, the mark imaging processing unit 45 uses the first illumination unit 26 and the second illumination unit 29 to illuminate the mark 25 provided outside the component imaging field of view 24a of one transparent plate 24, while causing the first camera unit 22 and the second camera unit 23 to capture an image (still image) of the mark 25. The mark imaging processing unit 45 also stores the imaging results of the mark 25 as mark imaging results 51 for each of the multiple cameras (first camera units 22A-22D, second camera units 23A-23D) in the mounting storage unit 47. The positional deviation amount calculation unit 46 calculates the positional deviation amount from the ideal state of the imaging fields of view of the multiple cameras based on the stored mark imaging results 51. The calculated positional deviation amount is stored in the mounting storage unit 47 as the imaging field of view positional deviation amount 52.

ここで図14を参照して、撮像視野の補正の際の部品認識カメラ32によるマーク25の撮像について説明する。なお、部品認識カメラ20によるマーク25を使用する撮像視野の補正方法も部品認識カメラ32と同様であり、説明は省略する。部品認識カメラ32の第1カメラユニット33A~33Dと第2カメラユニット34A~34Dは、部品実装作業においてノズル8bに保持された部品の撮像を繰り返し実行する過程において、撮像素子の発熱や照明部(第1照明部26、第2照明部29)の発熱に起因して、部品認識カメラ32の筐体や各ユニットの筐体などに経時的な歪が発生することがある。 Now, referring to FIG. 14, the imaging of the mark 25 by the component recognition camera 32 when correcting the imaging field of view will be described. The method of correcting the imaging field of view using the mark 25 by the component recognition camera 20 is similar to that of the component recognition camera 32, and so a description thereof will be omitted. In the process of repeatedly capturing images of the component held by the nozzle 8b during component mounting work, the first camera units 33A-33D and second camera units 34A-34D of the component recognition camera 32 may experience distortion over time in the housing of the component recognition camera 32 and the housings of each unit due to heat generated by the imaging element and the illumination units (first illumination unit 26, second illumination unit 29).

マーク25は、第1カメラユニット33A~33Dと第2カメラユニット34A~34Dの歪を打ち消すための撮像視野位置ずれ量52を取得するために、1枚の透明板24における複数のカメラ(第1カメラユニット33A~33D、第2カメラユニット34A~34D)の撮像視野B1~B8内で、かつ、複数のカメラが部品を撮像する際の撮像範囲(部品撮像視野24a)の外に設けられている。透明板24は、複数のカメラと撮像対象となるノズル8bが保持する部品との間に配置されている。 The marks 25 are provided within the imaging fields B1-B8 of the multiple cameras (first camera units 33A-33D, second camera units 34A-34D) on one transparent plate 24, but outside the imaging range (component imaging field 24a) when the multiple cameras image the component, in order to obtain the imaging field position shift amount 52 for canceling out the distortion of the first camera units 33A-33D and the second camera units 34A-34D. The transparent plate 24 is disposed between the multiple cameras and the component held by the nozzle 8b to be imaged.

図14(a)は、図9に示す撮像視野B1~B8を有する部品認識カメラ32において、マーク撮像処理部45が第1カメラユニット33Aにマーク25を静止撮像させた撮像画像60である。すなわち、撮像画像60は、第1カメラユニット33Aの撮像視野B1の範囲の画像である。図14(b)は、マーク撮像処理部45が第2カメラユニット34Aにマーク25を静止撮像させた撮像画像61である。すなわち、撮像画像61は、第2カメラユニット34Aの撮像視野B2の範囲の画像である。 Figure 14(a) shows an image 60 obtained by the mark imaging processing unit 45 causing the first camera unit 33A to capture a still image of the mark 25 in the part recognition camera 32 having the imaging fields of view B1 to B8 shown in Figure 9. That is, the captured image 60 is an image within the imaging field of view B1 of the first camera unit 33A. Figure 14(b) shows an image 61 obtained by the mark imaging processing unit 45 causing the second camera unit 34A to capture a still image of the mark 25. That is, the captured image 61 is an image within the imaging field of view B2 of the second camera unit 34A.

この例では、複数のカメラ(第1カメラユニット33A~33D、第2カメラユニット34A~34D)の撮像視野B1~B8の範囲内に、部品認識カメラ32に歪がない状態でそれぞれ4個のマーク25が写るように配置されている。すなわち、透明板24には、複数のカメラの撮像視野B1~B8のそれぞれに、少なくとも2個のマーク25が設けられている。図14(a)、図14(b)において、点線で示す4個の円は理想状態のマーク25の位置を示している。実線で示す4個の円(または、円の一部)は第1カメラユニット33Aと第2カメラユニット34Aが撮像したマーク25を示している。歪により光軸33c、34cがずれているため撮像されたマーク25の位置は、理想状態からずれている。 In this example, the multiple cameras (first camera units 33A-33D, second camera units 34A-34D) are positioned so that within the imaging fields B1-B8 of the multiple cameras, four marks 25 are captured by the component recognition camera 32 without distortion. That is, at least two marks 25 are provided on the transparent plate 24 in each of the imaging fields B1-B8 of the multiple cameras. In Figures 14(a) and 14(b), the four dotted circles indicate the positions of the marks 25 in an ideal state. The four solid circles (or parts of the circles) indicate the marks 25 captured by the first camera unit 33A and the second camera unit 34A. The optical axes 33c and 34c are misaligned due to distortion, so the positions of the captured marks 25 are shifted from the ideal state.

図14(a)において、撮像視野B1に写る4個のマーク25を、左上から時計回りに順番にマーク25A~25Dと称する。撮像画像60の中心60cは、第1カメラユニット33Aの撮像視野B1の中心である。また、図14(b)において、撮像視野B1に写る4個のマーク25を、左上から時計回りに順番にマーク25E~25Hと称する。撮像画像61の中心61cは、第2カメラユニット34Aの撮像視野B2の中心である。 In FIG. 14(a), the four marks 25 captured in the imaging field of view B1 are referred to as marks 25A to 25D in order, moving clockwise from the top left. The center 60c of the captured image 60 is the center of the imaging field of view B1 of the first camera unit 33A. In FIG. 14(b), the four marks 25 captured in the imaging field of view B1 are referred to as marks 25E to 25H in order, moving clockwise from the top left. The center 61c of the captured image 61 is the center of the imaging field of view B2 of the second camera unit 34A.

ここで、図14(a)を参照して、位置ずれ量算出部46による、第1カメラユニット33Aがマーク25A~25Dを撮像した撮像画像60(撮像結果)に基づいて、第1カメラユニット33Aの撮像視野B1の位置ずれ量を算出する撮像視野位置ずれ量算出処理について説明する。撮像視野位置ずれ量算出処理では、まず位置ずれ量算出部46は、撮像画像60を画像処理して、マーク25A~25Dの中心の位置を抽出する。この例では、マーク25Bは、一部が撮像視野B1からはみ出しているため、中心の位置が抽出できない。 Now, referring to FIG. 14(a), the imaging field of view positional deviation calculation process performed by the positional deviation calculation unit 46 to calculate the amount of positional deviation in the imaging field of view B1 of the first camera unit 33A based on the captured image 60 (imaging result) of the marks 25A to 25D captured by the first camera unit 33A will be described. In the imaging field of view positional deviation calculation process, the positional deviation calculation unit 46 first processes the captured image 60 to extract the center positions of the marks 25A to 25D. In this example, the mark 25B is partially outside the imaging field of view B1, so the center position cannot be extracted.

位置ずれ量算出部46は、中心の位置が抽出できた3個のマーク25A,25C,25Dの中から2個のマーク25Aとマーク25Dを選択する。次いで位置ずれ量算出部46は、撮像画像60の中心60c(撮像視野B1の中心)を原点とする選択したマーク25Aの中心の位置(XA,YA)と、マーク25Dの中心の位置(XD,YD)を算出する。 The positional deviation calculation unit 46 selects two marks, 25A and 25D, from the three marks 25A, 25C, and 25D whose center positions have been extracted. The positional deviation calculation unit 46 then calculates the center position (XA, YA) of the selected mark 25A and the center position (XD, YD) of the mark 25D, with the center 60c of the captured image 60 (the center of the imaging field of view B1) as the origin.

図14(a)において、次いで位置ずれ量算出部46は、算出されたマーク25Aの中心の位置(XA,YA)、マーク25Dの中心の位置(XD,YD)、および理想状態のマーク25Aの中心の位置(XA0,YA0)、マーク25Dの中心の位置(XD0,YD0)から、4個のマーク25A~25Dの重心K1の位置の撮像画像60の中心60c(撮像視野B1の中心)からの位置ずれ量(ΔXK1,ΔYK1)とZ軸を回転軸とするθ方向のずれ量ΔθK1を算出する。位置ずれ量算出部46は、算出した重心K1の位置ずれ量(ΔXK1,ΔYK1)とθ方向のずれ量ΔθK1を撮像視野位置ずれ量52として実装記憶部47に記憶させる。なお、理想状態の4個のマーク25A~25Dの重心K1は、撮像画像60の中心60c(撮像視野B1の中心)と一致する。 14(a), the positional deviation calculation unit 46 then calculates the positional deviation (ΔXK1, ΔYK1) of the position of the center K1 of the four marks 25A to 25D from the center 60c (center of the imaging field of view B1) of the captured image 60 and the deviation ΔθK1 in the θ direction with the Z axis as the rotation axis from the calculated center position (XA, YA) of the mark 25A, the center position (XD, YD) of the mark 25D, and the center position (XA0, YA0) of the mark 25A in the ideal state and the center position (XD0, YD0) of the mark 25D. The positional deviation calculation unit 46 stores the calculated positional deviation (ΔXK1, ΔYK1) of the center K1 and the deviation ΔθK1 in the θ direction as the imaging field of view positional deviation 52 in the implementation storage unit 47. Note that the center K1 of the four marks 25A to 25D in the ideal state coincides with the center 60c (center of the imaging field of view B1) of the captured image 60.

図14(b)において、第2カメラユニット34Aの場合、位置ずれ量算出部46は、中心の位置が抽出できた4個のマーク25E~25Hの中から2個のマーク25Eとマーク25Fを選択して、4個のマーク25E~25Hの重心K2の位置の位置ずれ量(ΔXK2,ΔYK2)とθ方向のずれ量ΔθK2を算出している。このように、位置ずれ量算出部46は、第2カメラユニット34A(複数のカメラのうちの一のカメラ)の撮像視野B2に写る少なくとも2個のマーク25E,25Fの中心の位置から撮像視野位置ずれ量52(一のカメラの撮像視野の位置ずれ量)を算出している。2個のマーク25E,25Fの中心の位置を使用することで、重心K2の位置ずれ量(ΔXK2,ΔYK2)に加えて、θ方向のずれ量ΔθK2も算出することができる。 In FIG. 14B, in the case of the second camera unit 34A, the positional deviation amount calculation unit 46 selects two marks, 25E and 25F, from the four marks 25E to 25H whose center positions have been extracted, and calculates the positional deviation amount (ΔXK2, ΔYK2) of the position of the center of gravity K2 of the four marks 25E to 25H and the deviation amount in the θ direction ΔθK2. In this way, the positional deviation amount calculation unit 46 calculates the imaging field positional deviation amount 52 (the positional deviation amount of the imaging field of one camera) from the center positions of at least two marks 25E, 25F that appear in the imaging field of view B2 of the second camera unit 34A (one of the multiple cameras). By using the center positions of the two marks 25E, 25F, in addition to the positional deviation amount (ΔXK2, ΔYK2) of the center of gravity K2, the deviation amount in the θ direction ΔθK2 can also be calculated.

マーク撮像処理部45による部品認識カメラ32が有する複数のカメラ(第1カメラユニット33A~33D、第2カメラユニット34A~34D)によるマーク25の静止撮像と、位置ずれ量算出部46による撮像視野位置ずれ量52の算出、すなわち、撮像視野B1~B8の補正は、部品実装作業の空き時間に実行される。例えば、実装ヘッド8によるテープフィーダ5からの部品Dの取り出しや基板3への部品Dの実装の間など、実装ヘッド8が部品認識カメラ32の上方にない空き時間に実行される。 The mark imaging processing unit 45 captures still images of the marks 25 using the multiple cameras (first camera units 33A-33D, second camera units 34A-34D) of the component recognition camera 32, and the positional deviation calculation unit 46 calculates the image viewing field positional deviation amount 52, i.e., corrects the image viewing fields B1-B8, during idle time during component mounting work. For example, these are performed during idle time when the mounting head 8 is not above the component recognition camera 32, such as while the mounting head 8 is removing the component D from the tape feeder 5 or mounting the component D on the board 3.

すなわち、空き時間にマーク撮像処理部45がマーク25を撮像し、位置ずれ量算出部46が最新の撮像視野位置ずれ量52を算出して実装記憶部47のデータが更新される。これにより、部品実装作業の効率を落とすことなく部品Dを撮像するカメラ(部品認識カメラ32の複数のカメラ)の光軸33c,34cのずれ(撮像視野位置ずれ量52)を補正して、部品Dを高精度に実装位置に装着することができる。なお、ノズル8bが保持した部品Dを撮像する際に、同時にマーク25も撮像して撮像視野B1~B8の位置ずれ量を算出してもよい。 That is, during free time, the mark imaging processing unit 45 images the mark 25, and the position deviation amount calculation unit 46 calculates the latest imaging field position deviation amount 52, and the data in the mounting memory unit 47 is updated. This allows the deviation (imaging field position deviation amount 52) of the optical axes 33c, 34c of the cameras (multiple cameras of the component recognition camera 32) that image the component D to be corrected without reducing the efficiency of the component mounting work, and the component D can be mounted in the mounting position with high precision. Note that when imaging the component D held by the nozzle 8b, the mark 25 may also be imaged at the same time to calculate the position deviation amount of the imaging fields B1 to B8.

次に図15を参照して、画像処理部43による撮像結果の画像処理について説明する。図15は、図13に示す4ノズル実装ヘッドのX軸方向の左端のノズル8bが保持する部品D2を第1カメラユニット33Aと第2カメラユニット34Aが撮像した撮像結果を画像処理部43が画像処理した結合画像62である。ここでは、ノズル8bの中心と部品D2の中心の位置は一致している、すなわち、ノズル8bに対する部品D2の吸着位置の位置ずれはゼロとする。また、第1カメラユニット33Aと第2カメラユニット34Aは、図14(a)と図14(b)に示すように、光軸33c,34cが撮像視野位置ずれ量52だけずれているとする。 Next, referring to FIG. 15, the image processing of the imaging results by the image processing unit 43 will be described. FIG. 15 shows a combined image 62 obtained by the image processing unit 43 processing the imaging results of the first camera unit 33A and the second camera unit 34A imaging the component D2 held by the nozzle 8b at the left end in the X-axis direction of the four-nozzle mounting head shown in FIG. 13. Here, the positions of the center of the nozzle 8b and the center of the component D2 are the same, that is, the positional deviation of the suction position of the component D2 relative to the nozzle 8b is zero. Also, the optical axes 33c, 34c of the first camera unit 33A and the second camera unit 34A are offset by the imaging field positional deviation amount 52, as shown in FIG. 14(a) and FIG. 14(b).

図15において、結合画像62の左側は、部品D2が撮像視野B1を通過する際に第1カメラユニット33Aによってスキャン撮像された撮像結果を、画像処理部43が撮像視野位置ずれ量52(ΔXK1,ΔYK1,ΔθK1)に基づいて補正したものである。また、結合画像62の右側は、部品D2が撮像視野B2を通過する際に第2カメラユニット34Aによってスキャン撮像された撮像結果を、画像処理部43が撮像視野位置ずれ量52(ΔXK2,ΔYK2,ΔθK2)に基づいて補正したものである。 In FIG. 15, the left side of the combined image 62 is the result of the image processing unit 43 correcting the image obtained by scanning and imaging the part D2 by the first camera unit 33A when the part D2 passes through the imaging field of view B1 based on the imaging field position deviation amount 52 (ΔXK1, ΔYK1, ΔθK1) after the scanning and imaging result is obtained by the first camera unit 33A when the part D2 passes through the imaging field of view B2 based on the imaging field position deviation amount 52 (ΔXK2, ΔYK2, ΔθK2).

結合画像62に左側に点線で示す図形63は、第1カメラユニット33Aによって撮像された撮像結果を撮像視野位置ずれ量52で補正しない場合の部品D2の画像を示している。また、結合画像62の右に点線で示す図形64は、第2カメラユニット34Aによって撮像された撮像結果を撮像視野位置ずれ量52で補正しない場合の部品D2の画像を示している。画像処理部43が撮像視野位置ずれ量52に基づいて光軸33c,34cのずれを補正した後に結合することで、結合画像62の中にノズル8bが保持する部品D2の歪みがない画像を得ることができる。この例では、結合画像62の中心62cとノズル8bの中心、および、部品D2の中心は一致している。 The dotted figure 63 on the left side of the combined image 62 shows an image of the part D2 when the image captured by the first camera unit 33A is not corrected by the image viewing field position shift amount 52. The dotted figure 64 on the right side of the combined image 62 shows an image of the part D2 when the image captured by the second camera unit 34A is not corrected by the image viewing field position shift amount 52. By combining the images after the image processing unit 43 corrects the shift of the optical axes 33c and 34c based on the image viewing field position shift amount 52, an image without distortion of the part D2 held by the nozzle 8b can be obtained in the combined image 62. In this example, the center 62c of the combined image 62, the center of the nozzle 8b, and the center of the part D2 are aligned.

画像処理部43は、結合画像62を部品撮像結果49として実装記憶部47に記憶させる。吸着部品位置算出部44は、記憶された部品撮像結果49(結合画像62)に基づいて、ノズル8bの中心(吸着位置)から見た部品D2の中心の位置を算出する。このように、隣接する複数の撮像視野B1,B2を跨ぐ部品D2の場合、マーク25の撮像視野B1,B2における位置ずれ量(撮像視野位置ずれ量52)に基づいて光軸33c,34cのずれが補正された、歪のない部品D2の画像から部品D2の吸着位置が算出される。このように、1枚の透明板24に精度よく設けられたマーク25を用いて光軸22d,23dのずれを補正することで、部品D2の実装精度を向上させることができる。 The image processing unit 43 stores the combined image 62 as the component imaging result 49 in the mounting storage unit 47. The pickup component position calculation unit 44 calculates the position of the center of the component D2 as viewed from the center of the nozzle 8b (pickup position) based on the stored component imaging result 49 (combined image 62). In this way, in the case of the component D2 that straddles multiple adjacent imaging fields B1 and B2, the pickup position of the component D2 is calculated from an image of the component D2 without distortion in which the shift of the optical axes 33c and 34c is corrected based on the position shift amount (imaging field position shift amount 52) of the mark 25 in the imaging fields B1 and B2. In this way, the mounting accuracy of the component D2 can be improved by correcting the shift of the optical axes 22d and 23d using the mark 25 that is precisely provided on one transparent plate 24.

上記のように、直列に撮像視野B1~B8が並び、部品D2を撮像する複数のカメラ(第1カメラユニット33A~33D、第2カメラユニット34A~34D)と、複数のカメラの撮像視野B1~B8内で、かつ、複数のカメラが部品D2を撮像する際の撮像範囲(部品撮像視野24a)の外に設けられたマーク25を有する部品認識カメラ32と、複数のカメラがそれぞれマーク25を撮像した撮像結果(マーク撮像結果51)に基づいて、複数のカメラの撮像視野B1~B8の位置ずれ量(撮像視野位置ずれ量52)を算出する位置ずれ量算出部46は、部品D2を撮像するカメラの光軸33c,34cのずれを補正することができる部品撮像装置を構成する。 As described above, the imaging fields B1 to B8 are arranged in series, and the multiple cameras (first camera units 33A to 33D, second camera units 34A to 34D) that image the component D2, the component recognition camera 32 that has the mark 25 that is within the imaging fields B1 to B8 of the multiple cameras but outside the imaging range (component imaging field 24a) when the multiple cameras image the component D2, and the position deviation amount calculation unit 46 that calculates the position deviation amount (imaging field position deviation amount 52) of the imaging fields B1 to B8 of the multiple cameras based on the imaging results (mark imaging results 51) of the multiple cameras each capturing an image of the mark 25 constitute a component imaging device that can correct the deviation of the optical axes 33c, 34c of the cameras that image the component D2.

次に、図16、図17を参照して、他の光軸屈折部R1(以下、単に「光軸屈折部R1」と称する。)を有する部品認識カメラ70の構成について説明する。以下、部品認識カメラ20と同じ構成要素には同じ符号を付して、詳細な説明を省略する。部品認識カメラ70の筐体71内部には、複数の第1カメラユニット22により構成される第1カメラ群G1と複数の第2カメラユニット23による構成される第2カメラ群G2が配置されている。 Next, the configuration of the component recognition camera 70 having another optical axis refraction section R1 (hereinafter simply referred to as "optical axis refraction section R1") will be described with reference to Figures 16 and 17. Hereinafter, the same components as those in the component recognition camera 20 are given the same reference numerals, and detailed description will be omitted. Inside the housing 71 of the component recognition camera 70, a first camera group G1 consisting of a plurality of first camera units 22 and a second camera group G2 consisting of a plurality of second camera units 23 are arranged.

複数の第2カメラユニット23の光軸23dは、第2カメラユニット23の上方に配置された第2の鏡73によって透明板24の下方に配置された第1の鏡72の方向に屈折される。さらに、光軸23dは、第1の鏡72によって上方に屈折される。第1の鏡72と第2の鏡73は、それぞれX軸方向に伸びる1枚の鏡であり、複数の第2カメラユニット23で共用される。また、第1の鏡72は、複数の第1カメラユニット22の光軸22dが透過するハーフミラーであり、複数の第1カメラユニット22で共用される。 The optical axis 23d of the multiple second camera units 23 is refracted in the direction of the first mirror 72 arranged below the transparent plate 24 by the second mirror 73 arranged above the second camera units 23. Furthermore, the optical axis 23d is refracted upward by the first mirror 72. The first mirror 72 and the second mirror 73 are each a single mirror extending in the X-axis direction, and are shared by the multiple second camera units 23. Furthermore, the first mirror 72 is a half mirror through which the optical axis 22d of the multiple first camera units 22 passes, and is shared by the multiple first camera units 22.

図16、図17において、第1の鏡72からY軸に沿う位置には、第3照明部31が設置されている。第3照明部31から照射された光31aは、第1の鏡72によって上方に屈折される。このように、第1の鏡72と第2の鏡73(鏡)は、ノズル8bに保持された部品Dの像を第2カメラユニット23(第2カメラ群のカメラ)に導く光軸屈折部R1を構成する。また、第1の鏡72と第2の鏡73は、それぞれ第2カメラ群G2の複数のカメラ(第2カメラユニット23)で共通に使用される1枚の鏡である。 In Figures 16 and 17, the third illumination unit 31 is installed at a position along the Y axis from the first mirror 72. The light 31a emitted from the third illumination unit 31 is refracted upward by the first mirror 72. In this way, the first mirror 72 and the second mirror 73 (mirrors) form an optical axis refraction unit R1 that guides the image of the part D held in the nozzle 8b to the second camera unit 23 (camera of the second camera group). In addition, the first mirror 72 and the second mirror 73 are each a single mirror that is shared by multiple cameras (second camera unit 23) of the second camera group G2.

次に、図18、図19を参照して、第3の部品認識カメラ80(以下、単に「部品認識カメラ80」と称する。)の構成について説明する。部品認識カメラ80は、一の方向(X軸方向)に直列に並び、部品Dを撮像する複数のカメラ(第3カメラユニット82)から成る第3カメラ群G3のみを有するところが、交互に配置された第1カメラ群G1の第1カメラユニット22と第2カメラ群G2の第2カメラユニット23を有する部品認識カメラ20とは異なる。以下、部品認識カメラ20と同じ構成には同じ符号を付して、詳細な説明は省略する。 Next, the configuration of the third component recognition camera 80 (hereinafter simply referred to as "component recognition camera 80") will be described with reference to Figures 18 and 19. The component recognition camera 80 has only a third camera group G3 consisting of multiple cameras (third camera units 82) arranged in series in one direction (X-axis direction) that capture images of the component D, and differs from the component recognition camera 20, which has the first camera units 22 of the first camera group G1 and the second camera units 23 of the second camera group G2 arranged alternately. Hereinafter, the same components as those of the component recognition camera 20 are given the same reference numerals, and detailed descriptions will be omitted.

図18は、部品認識カメラ80の筐体81と第3カメラユニット82の筐体を透視した部品認識カメラ80の内部を模式的に示している。部品認識カメラ80には、X軸に沿って直線に並び、第3カメラ群G3を構成する複数(ここでは4個)の第3カメラユニット82が設置されている。第3カメラユニット82は、筐体の内部に2次元CMOSセンサなどの撮像素子を有する第3撮像部82aと、撮像対象の部品Dと第3撮像部82aとの間に位置する第3レンズ82bを有している。第3レンズ82bの上方には、マーク25を有する透明板24が設置されている。 Figure 18 shows a schematic diagram of the inside of the component recognition camera 80 seen through the housing 81 of the component recognition camera 80 and the housing of the third camera unit 82. The component recognition camera 80 is equipped with a plurality of third camera units 82 (four in this example) that are arranged in a straight line along the X-axis and form a third camera group G3. The third camera unit 82 has a third imaging section 82a that has an imaging element such as a two-dimensional CMOS sensor inside the housing, and a third lens 82b that is positioned between the component D to be imaged and the third imaging section 82a. A transparent plate 24 having a mark 25 is installed above the third lens 82b.

図18、図19において、第3カメラユニット82は、光軸82cを上方に向けて設置されており、撮像対象の部品Dを下方から撮像する。第3レンズ82bの上方であって、第3カメラユニット82による撮像を妨害しない位置には、第4照明部83が設置されている。第4照明部83は、複数のLEDチップなどを備えて構成されており、撮像対象物(部品Dなど)、または、透明板24のマーク25を照らす光を下方から照射する。 In Figures 18 and 19, the third camera unit 82 is installed with its optical axis 82c facing upward, and captures the target part D from below. A fourth illumination unit 83 is installed above the third lens 82b in a position that does not interfere with the imaging by the third camera unit 82. The fourth illumination unit 83 is configured with multiple LED chips, etc., and emits light from below to illuminate the target part (such as part D) or the mark 25 on the transparent plate 24.

図19(a)では、第3カメラ群G3の4個の第3カメラユニット82をX軸方向の左側から順に第3カメラユニット82A~第3カメラユニット82Dと称する。図19(a)、図19(b)において、第3カメラユニット82A~82Dの第3撮像部82aと第3レンズ82bは画角が大きい(広い)光学系である。第3カメラユニット82A~82Dの撮像視野C1~C4のX軸方向の幅は、第1カメラユニット22A~22Dの撮像視野A1,A3,A5,A7のX軸方向の幅LX1の約2倍の大きさである。部品認識カメラ80は、第3カメラユニット82A~82Dの隣接する撮像視野C1~C4の一部が一の方向(X軸方向)で相互に重なっている。 In FIG. 19(a), the four third camera units 82 of the third camera group G3 are referred to as third camera unit 82A to third camera unit 82D in order from the left in the X-axis direction. In FIG. 19(a) and FIG. 19(b), the third imaging section 82a and the third lens 82b of the third camera units 82A to 82D are optical systems with a large (wide) angle of view. The width in the X-axis direction of the imaging fields C1 to C4 of the third camera units 82A to 82D is approximately twice the size of the width LX1 in the X-axis direction of the imaging fields A1, A3, A5, and A7 of the first camera units 22A to 22D. In the component recognition camera 80, adjacent imaging fields C1 to C4 of the third camera units 82A to 82D partially overlap each other in one direction (X-axis direction).

図19(c)は、部品認識カメラ80による小型の部品D1を16本のノズル8bにそれぞれ保持する16ノズル実装ヘッドの撮像例を示している。第3カメラユニット82A~82Dの撮像視野C1~C4には、それぞれ、2個の部品D1が通過するように設計されている。部品撮像処理部42、画像処理部43、吸着部品位置算出部44、マーク撮像処理部45による処理は前述の部品認識カメラ20と同様であり説明を省略する。位置ずれ量算出部46は、複数のカメラ(第3カメラユニット82A~82D)がそれぞれマーク25を静止撮像した撮像結果に基づいて、複数のカメラの撮像視野C1~C4の位置ずれ量(撮像視野位置ずれ量52)を算出する。これにより、第3カメラユニット82A~82Dの光軸82cのずれが補正される。 Figure 19 (c) shows an example of imaging of a 16-nozzle mounting head in which a small component D1 is held by each of 16 nozzles 8b by the component recognition camera 80. The imaging fields C1 to C4 of the third camera units 82A to 82D are designed so that two components D1 pass through each of them. The processing by the component imaging processing unit 42, image processing unit 43, component pickup position calculation unit 44, and mark imaging processing unit 45 is similar to that of the component recognition camera 20 described above, and a description thereof will be omitted. The position deviation amount calculation unit 46 calculates the position deviation amount (imaging field position deviation amount 52) of the imaging fields C1 to C4 of the multiple cameras based on the imaging results of the multiple cameras (third camera units 82A to 82D) each capturing a still image of the mark 25. This corrects the deviation of the optical axis 82c of the third camera units 82A to 82D.

このように、直列に撮像視野C1~C4が並び、部品Dを撮像する複数のカメラ(第3カメラユニット82A~82D)と、複数のカメラの撮像視野C1~C4内で、かつ、複数のカメラが部品D1を撮像する際の撮像範囲(部品撮像視野24a)の外に設けられたマーク25を有する部品認識カメラ80と、位置ずれ量算出部46は、部品D1を撮像するカメラの光軸82cのずれを補正することができる部品撮像装置を構成する。 In this way, the imaging fields C1 to C4 are arranged in series, and multiple cameras (third camera units 82A to 82D) that image part D, the part recognition camera 80 having a mark 25 that is located within the imaging fields C1 to C4 of the multiple cameras but outside the imaging range (part imaging field 24a) when the multiple cameras image part D1, and the position deviation calculation unit 46 constitute a part imaging device that can correct the deviation of the optical axis 82c of the camera that images part D1.

本発明の部品撮像装置は、部品を撮像するカメラの光軸のずれを補正することができることができるという効果を有し、部品を基板に実装する分野において有用である。 The component imaging device of the present invention has the effect of being able to correct the misalignment of the optical axis of the camera that images the component, and is useful in the field of mounting components on a circuit board.

20、32、70、80 部品認識カメラ(部品撮像装置)
22、22A~22D、33A~33D 第1カメラユニット(カメラ)
23、23A~23D、34A~34D 第2カメラユニット(カメラ)
24 透明板
24a 部品撮像視野(撮像範囲)
25、25A~25H マーク
26 第1照明部(照明部)
29 第2照明部(照明部)
31 第3照明部(照明部)
82、82A~82D 第3カメラユニット(カメラ)
83 第4照明部(照明部)
A1~A8、B1~B8、C1~C4 撮像視野
D、D1、D2 部品
20, 32, 70, 80: Part recognition camera (part imaging device)
22, 22A to 22D, 33A to 33D First camera unit (camera)
23, 23A to 23D, 34A to 34D Second camera unit (camera)
24 Transparent plate 24a Component imaging field of view (imaging range)
25, 25A to 25H Mark 26 First lighting section (lighting section)
29 Second lighting unit (lighting unit)
31 Third lighting section (lighting section)
82, 82A to 82D Third camera unit (camera)
83 4th lighting section (lighting section)
A1-A8, B1-B8, C1-C4 Imaging field of view D, D1, D2 Parts

Claims (5)

直列に撮像視野が並び、部品を撮像する複数のカメラと、
前記複数のカメラと前記部品との間に配置された透明板と、
前記透明板の、前記複数のカメラの撮像視野内で、かつ、前記複数のカメラが部品を撮像する際の撮像範囲の外に設けられたマークと、
前記複数のカメラがそれぞれ前記マークを撮像した撮像結果に基づいて、前記複数のカメラの撮像視野の位置ずれ量を算出する位置ずれ量算出部と、を備える、部品撮像装置。
A plurality of cameras each having an imaging field of view arranged in series for imaging a component;
a transparent plate disposed between the plurality of cameras and the component;
a mark provided on the transparent plate within the imaging field of view of the plurality of cameras and outside the imaging range when the plurality of cameras images an image of a component;
and a positional deviation amount calculation unit that calculates a positional deviation amount of the imaging fields of the multiple cameras based on imaging results of the multiple cameras capturing images of the marks.
前記マークを照らす照明部を備える、請求項1に記載の部品撮像装置。 The part imaging device according to claim 1 , further comprising an illumination unit that illuminates the mark. 前記照明部は、前記複数のカメラ毎に配置されている、請求項に記載の部品撮像装置。 The component imaging device according to claim 2 , wherein the illumination unit is provided for each of the plurality of cameras. 前記透明板には、前記複数のカメラの撮像視野のそれぞれに少なくとも2個の前記マークが設けられている、請求項1からのいずれかに記載の部品撮像装置。 4. The component imaging device according to claim 1 , wherein at least two of the marks are provided on the transparent plate in each of the imaging fields of the plurality of cameras. 前記位置ずれ量算出部は、前記複数のカメラのうちの一のカメラの撮像視野に写る少なくとも2個の前記マークの位置から前記一のカメラの撮像視野の位置ずれ量を算出する、請求項に記載の部品撮像装置。 The component imaging device according to claim 4 , wherein the positional deviation amount calculation unit calculates a positional deviation amount of an imaging field of one of the plurality of cameras from positions of at least two of the marks captured in the imaging field of the one of the plurality of cameras.
JP2021017019A 2021-02-05 2021-02-05 Parts Imaging Device Active JP7630101B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021017019A JP7630101B2 (en) 2021-02-05 2021-02-05 Parts Imaging Device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021017019A JP7630101B2 (en) 2021-02-05 2021-02-05 Parts Imaging Device

Publications (2)

Publication Number Publication Date
JP2022120244A JP2022120244A (en) 2022-08-18
JP7630101B2 true JP7630101B2 (en) 2025-02-17

Family

ID=82849264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021017019A Active JP7630101B2 (en) 2021-02-05 2021-02-05 Parts Imaging Device

Country Status (1)

Country Link
JP (1) JP7630101B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003060395A (en) 2001-08-10 2003-02-28 Matsushita Electric Ind Co Ltd Electronic component mounting method and mounting device
JP2004179636A (en) 2002-11-13 2004-06-24 Fuji Mach Mfg Co Ltd Method and device of calibration in electronic part packaging apparatus
JP2008270649A (en) 2007-04-24 2008-11-06 Juki Corp Surface mounter and camera position correction method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003060395A (en) 2001-08-10 2003-02-28 Matsushita Electric Ind Co Ltd Electronic component mounting method and mounting device
JP2004179636A (en) 2002-11-13 2004-06-24 Fuji Mach Mfg Co Ltd Method and device of calibration in electronic part packaging apparatus
JP2008270649A (en) 2007-04-24 2008-11-06 Juki Corp Surface mounter and camera position correction method thereof

Also Published As

Publication number Publication date
JP2022120244A (en) 2022-08-18

Similar Documents

Publication Publication Date Title
JP5134740B2 (en) Component mounting apparatus and component mounting method
CN101574025B (en) Component identification device, surface mount machine and component testing device
JP2014203938A (en) Component mounting device
JP6411663B2 (en) Component mounting equipment
JP2001230597A (en) Detection method for electrical component position
JP2015070176A (en) Component mounting equipment
JP7555036B2 (en) Parts Imaging Device
KR20080005410A (en) Method and device for obtaining workpiece position information
JP7630101B2 (en) Parts Imaging Device
JP7535734B2 (en) Component imaging device and component mounting device
JP4437686B2 (en) Surface mount machine
JP7664552B2 (en) Component mounting device and component mounting method
KR102432607B1 (en) surface mount machine
JP4401193B2 (en) Electronic component mounting equipment
JPWO2019202678A1 (en) Parts recognition device, parts mounting machine and parts recognition method
WO2024190128A1 (en) Component imaging device
JP4358015B2 (en) Surface mount machine
CN114747308B (en) Component photographing device and component mounting device
JP2013251346A (en) Electronic component mounting device
JP3818029B2 (en) Electronic component mounting apparatus and mounting method
JP4386425B2 (en) Surface mount machine
JP2009212166A (en) Part transfer device, and part recognizing method therefor
JP4368709B2 (en) Surface mount machine
JP6636393B2 (en) Imaging device and surface mounter
JP4332714B2 (en) Electronic component mounting equipment

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20221021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231208

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20240213

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20240222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250123

R150 Certificate of patent or registration of utility model

Ref document number: 7630101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150