JP2025047138A - Three-dimensional measurement device and three-dimensional measurement method - Google Patents
Three-dimensional measurement device and three-dimensional measurement method Download PDFInfo
- Publication number
- JP2025047138A JP2025047138A JP2023155445A JP2023155445A JP2025047138A JP 2025047138 A JP2025047138 A JP 2025047138A JP 2023155445 A JP2023155445 A JP 2023155445A JP 2023155445 A JP2023155445 A JP 2023155445A JP 2025047138 A JP2025047138 A JP 2025047138A
- Authority
- JP
- Japan
- Prior art keywords
- recognition target
- recognition
- image
- image data
- measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Supply And Installment Of Electrical Components (AREA)
Abstract
【課題】1つの部品に光反射率が高い認識対象と光反射率が低い認識対象とが含まれる場合でも、各認識対象を同じ計測装置で適切に認識可能とすること。【解決手段】3次元計測装置は、第1認識対象である電極と、電極よりも光反射率が低い第2認識対象とを有する部品に、周期が異なるパターン光を投影する投影装置と、パターン光が投影された第1認識対象及び第2認識対象の撮像を別々に行う撮像装置と、第1認識対象の第1画像データに基づいて第1認識対象を画像認識し、第2認識対象の第2画像データに基づいて第2認識対象を画像認識する処理装置と、を備え、撮像条件と画像認識条件とを含む計測条件が、第1認識対象と第2認識対象とで異なる。【選択図】図2[Problem] To enable proper recognition of each recognition target using the same measurement device, even when a single component contains recognition targets with high and low optical reflectance. [Solution] A three-dimensional measurement device includes a projection device that projects patterned light with different periods onto a component having a first recognition target, an electrode, and a second recognition target with a lower optical reflectance than the electrode, an imaging device that separately images the first recognition target and the second recognition target onto which the patterned light is projected, and a processing device that performs image recognition of the first recognition target based on first image data of the first recognition target and image recognition of the second recognition target based on second image data of the second recognition target, and the measurement conditions, including the imaging conditions and the image recognition conditions, differ for the first recognition target and the second recognition target. [Selected Figure] Figure 2
Description
本開示は、3次元計測装置及び3次元計測方法に関する。 This disclosure relates to a three-dimensional measurement device and a three-dimensional measurement method.
物体の3次元計測方法として、特許文献1に開示されているような位相シフト法が知られている。位相シフト法に基づいて物体の3次元形状を計測する場合、正弦波状の明度分布の縞パターン(パターン光)が位相シフトしながら物体に投影される。縞パターンが投影された物体が撮像されることにより、物体の画像が取得される。
The phase shift method disclosed in
3次元計測方法の用途の1つに、電子機器への部品装着がある。部品の電極などの認識対象を3次元計測し、計測結果に基づいて基板などへの部品装着が行われる。部品の電極は、光反射率が高く、認識しやすい一方、過剰な光反射によりサチレーション(画像の輝度値の飽和)が発生しやすい。一方、部品の樹脂部などは、電極と比べて光反射率が低く、コントラストが付きにくいため認識が困難である。そのため、1つの部品に光反射率が高い認識対象と光反射率が低い認識対象とが含まれる場合、それぞれの認識に適した専用の計測装置を別々に設ける必要がある。 One application of 3D measurement methods is the mounting of components on electronic devices. Recognition targets, such as component electrodes, are measured in 3D, and the components are mounted on a circuit board or the like based on the measurement results. Component electrodes have a high light reflectance and are easy to recognize, but are prone to saturation (saturation of image brightness values) due to excessive light reflection. On the other hand, component resin parts have a lower light reflectance than electrodes, and are difficult to recognize because they do not have as much contrast. Therefore, when a single component contains recognition targets with high light reflectance and those with low light reflectance, it is necessary to provide separate dedicated measurement devices suitable for recognizing each.
本発明の態様は、1つの部品に光反射率が高い認識対象と光反射率が低い認識対象とが含まれる場合でも、各認識対象を同じ計測装置で適切に認識可能とすることを目的とする。 The objective of this aspect of the present invention is to make it possible to properly recognize each recognition target using the same measurement device, even when a single part contains recognition targets with high and low optical reflectance.
本発明の第1の態様に従えば、第1認識対象と、前記第1認識対象よりも光反射率が低い第2認識対象とを有する部品に、位相が異なるパターン光を投影する投影装置と、前記パターン光が投影された前記第1認識対象及び前記第2認識対象の撮像を別々に行う撮像装置と、前記第1認識対象の第1画像データに基づいて前記第1認識対象を画像認識し、前記第2認識対象の第2画像データに基づいて前記第2認識対象を画像認識する処理装置と、を備え、撮像条件と画像認識条件とを含む計測条件が、前記第1認識対象と前記第2認識対象とで異なる、3次元計測装置が提供される。 According to a first aspect of the present invention, there is provided a three-dimensional measuring device comprising: a projection device that projects pattern light with different phases onto a part having a first recognition target and a second recognition target having a lower light reflectance than the first recognition target; an imaging device that separately images the first recognition target and the second recognition target onto which the pattern light is projected; and a processing device that performs image recognition of the first recognition target based on first image data of the first recognition target and image recognition of the second recognition target based on second image data of the second recognition target, in which measurement conditions including imaging conditions and image recognition conditions are different for the first recognition target and the second recognition target.
本発明の第2の態様に従えば、第1認識対象と、前記第1認識対象よりも光反射率が低い第2認識対象とを有する部品に、位相が異なるパターン光を投影し、前記パターン光が投影された前記第1認識対象の第1撮像を行うステップと、前記部品に、前記パターン光を投影し、前記パターン光が投影された前記第2認識対象の第2撮像を行うステップと、前記第1認識対象の第1画像データに基づいて前記第1認識対象を画像認識し、前記第2認識対象の第2画像データに基づいて前記第2認識対象を画像認識するステップと、を備え、撮像条件と画像認識条件とを含む計測条件が、前記第1認識対象と前記第2認識対象とで異なる、3次元計測方法が提供される。 According to a second aspect of the present invention, there is provided a three-dimensional measurement method comprising the steps of: projecting pattern light having different phases onto a part having a first recognition target and a second recognition target having a lower light reflectance than the first recognition target, and taking a first image of the first recognition target onto which the pattern light is projected; projecting the pattern light onto the part, and taking a second image of the second recognition target onto which the pattern light is projected; and performing image recognition of the first recognition target based on first image data of the first recognition target, and performing image recognition of the second recognition target based on second image data of the second recognition target, in which measurement conditions including imaging conditions and image recognition conditions are different for the first recognition target and the second recognition target.
本発明の態様によれば、1つの部品に光反射率が高い認識対象と光反射率が低い認識対象とが含まれる場合でも、各認識対象を同じ計測装置で適切に認識できる。 According to this aspect of the present invention, even if a single part contains recognition targets with high light reflectance and recognition targets with low light reflectance, each recognition target can be properly recognized using the same measurement device.
以下、本発明に係る実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下で説明する実施形態の構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。 The following describes an embodiment of the present invention with reference to the drawings, but the present invention is not limited to this. The components of the embodiments described below can be combined as appropriate. Also, some components may not be used.
以下の説明においては、XYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。所定面のX軸と平行な方向をX軸方向とし、所定面においてX軸と直交するY軸と平行な方向をY軸方向とし、所定面と直交するZ軸と平行な方向をZ軸方向とする。Z軸を中心とする回転方向をθZ方向とする。また、以下の説明においては、所定面を適宜、XY平面、と称する。本実施形態においては、XY平面と水平面とが平行であることとする。 In the following explanation, an XYZ Cartesian coordinate system is set, and the positional relationship of each part is explained with reference to this XYZ Cartesian coordinate system. The direction parallel to the X-axis of a specified plane is defined as the X-axis direction, the direction parallel to the Y-axis perpendicular to the X-axis on the specified plane is defined as the Y-axis direction, and the direction parallel to the Z-axis perpendicular to the specified plane is defined as the Z-axis direction. The direction of rotation about the Z-axis is defined as the θZ direction. In the following explanation, the specified plane is appropriately referred to as the XY plane. In this embodiment, the XY plane and the horizontal plane are parallel to each other.
[実施形態]
<電子部品実装システム>
実施形態について説明する。図1は、実施形態に係る電子部品実装システム100の一例を模式的に示す図である。図1は、電子部品実装システム100を-Y方向から見た図である。
[Embodiment]
<Electronic component mounting system>
An embodiment will now be described. Fig. 1 is a diagram that illustrates an example of an electronic
図1に示すように、電子部品実装システム100は、3次元計測装置1と、電子部品実装装置2と、を備える。電子部品実装システム100は、3次元計測装置1で部品Cの形状を3次元計測し、計測結果に基づいて、電子部品実装装置2で部品Cを基板Pに実装する。以下において、先に電子部品実装装置2について説明してから、本実施形態に係る3次元計測装置1を説明する。
As shown in FIG. 1, the electronic
<電子部品実装装置>
電子部品実装装置2は、部品Cを基板Pに実装する。電子部品実装装置2は、部品Cを保持するノズル11を保持する実装ヘッド22と、部品Cを供給する電子部品供給装置23と、部品Cが実装される基板Pを搬送する基板搬送装置24と、電子部品実装装置2を制御する制御装置29と、を備える。
<Electronic component mounting equipment>
The electronic component mounting device 2 mounts the component C on the substrate P. The electronic component mounting device 2 includes a mounting
電子部品供給装置23は、例えば、複数の部品Cを保持するトレイを水平方向に移動させる移動機構を有する。電子部品供給装置23は、部品Cを供給位置SPに供給する。電子部品供給装置23は、テープに保持されている部品Cを供給するテープ供給方式の部品供給装置でもよい。その場合、電子部品供給装置23は、テープを支持するテープリールと、テープリールから繰り出されたテープに保持されている部品Cを搬送するフィーダとを含む。
The electronic
基板搬送装置24は、基板Pを搬送するコンベアベルトと、実装位置MPに搬送された基板Pの位置を固定するクランプ機構とを有する。
The
実装ヘッド22は、ノズル11に保持された部品Cを基板Pに実装する。実装ヘッド22は、ヘッド駆動装置25により、X軸方向及びY軸方向のそれぞれに移動する。ノズル11は、実装ヘッド22に設けられているノズル駆動装置26により、実装ヘッド22に対してZ軸方向及びθZ方向のそれぞれに移動する。ノズル11は、ヘッド駆動装置25及びノズル駆動装置26により、X軸方向、Y軸方向、Z軸方向、及びθZ方向の4つの方向に移動可能である。実装ヘッド22は、電子部品供給装置23に規定される供給位置SPと、基板Pに規定される実装位置MPとの間を移動可能である。
The mounting
実装ヘッド22は、電子部品供給装置23から供給された部品Cを供給位置SPにおいてノズル11で保持した後、実装位置MPに配置されている基板Pに搬送する。実装ヘッド22は、ノズル11に保持されている部品Cを実装位置MPに配置されている基板Pに実装する。
The mounting
ノズル11は、部品Cを着脱可能に保持する。ノズル11は、部品Cを吸着して保持する吸着ノズルでもよいし、部品Cを挟んで保持する把持ノズルでもよい。
The
実装ヘッド22は、部品Cを供給位置SPにおいてノズル11で保持した後、基板Pに搬送する前に、3次元計測装置1の計側位置TPに部品Cを配置する。3次元計測装置1の計側位置TPとは、3次元計測装置1のパターン光PL(図2参照)が照射可能な位置をいう。
After the mounting
基板搬送装置24には、実装位置MPに配置される基板Pに形成された貫通孔の位置を計測する位置計測装置27が設けられている。基板Pに形成された貫通孔の位置を示す位置計測装置27の計測データは、制御装置29に出力される。
The
制御装置29は、ヘッド駆動装置25、ノズル駆動装置26、位置計測装置27、及び後述する3次元計測装置1の処理装置5のそれぞれに接続される。制御装置29は、部品Cを基板Pに実装する前に、3次元計測装置1により部品Cの3次元形状を計測する。実装ヘッド22は、3次元計測装置1による部品Cの測定結果に基づいて、後述するように、部品Cと基板Pとの相対位置を調整して、部品Cを基板Pに実装する。
The
<3次元計測装置>
図1に示すように、3次元計測装置1は、部品Cにパターン光PLを投影する投影装置3と、パターン光PLが投影された部品Cを撮像する撮像装置4と、撮像された画像データに基づいて画像認識を行う処理装置5と、を備える。図1の例では、3次元計測装置1は、計測位置TPの下方(-Z方向)に配置される。3次元計測装置1は、ノズル11によって保持された部品Cの下面を撮像するように、撮像方向を上方(+Z方向)に向けて設置される。
<3D measuring device>
As shown in Fig. 1, the three-
3次元計測装置1は、供給位置SPと実装位置MPとの間の実装ヘッド22の移動経路に、ノズル11で保持して計測位置TPに配置された状態の部品Cにパターン光PLを照射可能な位置に配置される。
The three-
図2は、実施形態に係る3次元計測装置1の一例を示す模式図である。図3は、実施形態に係る3次元計測装置1の一例を示す模式図である。図2は、3次元計測装置1の構成要素である3次元計測装置1を、図1と同様の方向から見た図である。図3は、3次元計測装置1の構成要素である3次元計測装置1を、鉛直方向上側、すなわち+Z方向から見た図である。
Figure 2 is a schematic diagram showing an example of a three-
実施形態では、部品Cは、第1認識対象R1と、第1認識対象R1よりも光反射率が低い第2認識対象R2とを有する。3次元計測装置1は、第1認識対象R1及び第2認識対象R2の両方の3次元計測を行う。部品C、第1認識対象R1及び第2認識対象R2の詳細については、後述する。
In this embodiment, the part C has a first recognition target R1 and a second recognition target R2 that has a lower light reflectance than the first recognition target R1. The three-
図2に示すように、投影装置3は、部品Cに、位相が異なるパターン光PLを投影する。投影装置3は、光を発生する光源31と、光源31から発生した光を光変調してパターン光PLを生成する光変調素子32と、光変調素子32で生成されたパターン光PLを射出する射出光学系33とを有する。
As shown in FIG. 2, the
光変調素子32は、デジタルミラーデバイス(Digital Mirror Device:DMD)を含む。なお、光変調素子32は、透過型の液晶パネルを含んでもよいし、反射型の液晶パネルを含んでもよい。光変調素子32は、処理装置5から出力されるパターンデータに基づいてパターン光PLを生成する。投影装置3は、パターンデータに基づいてパターン化されたパターン光PLを射出する。
The
投影装置3は、部品Cに複数方向から別々にパターン光PLの投影を行う。投影装置3は、出射した光を反射させることにより、投影方向を変化させる反射部材6を備える。反射部材6は、投影装置3から射出されたパターン光PLを反射して部品Cに照射する。反射部材6の反射面は、平面状である。
The
撮像装置4は、部品Cで反射したパターン光PLを結像する結像光学系41と、結像光学系41を介して部品Cの画像データを取得する撮像素子42とを有する。撮像素子42は、CMOSイメージセンサ(Complementary Metal Oxide Semiconductor Image Sensor)又はCCDイメージセンサ(Charge Coupled Device Image Sensor)を含む固体撮像素子である。
The
実施形態では、結像光学系41は、テレセントリック光学系である。テレセントリック光学系は、主光線が光軸AXに平行となる光学系である。このため、撮像装置4の撮像視野内に入射して画像化される光(主光線)は、光軸AXと平行であるとみなせる。
In this embodiment, the imaging
実施形態では、撮像装置4は、パターン光PLが投影された第1認識対象R1及び第2認識対象R2の撮像を別々に行う。撮像装置4は、第1撮像によって、パターン光PLが投影された第1認識対象R1を撮像した第1画像データ61(図7参照)を生成する。撮像装置4は、第2撮像によって、パターン光PLが投影された第2認識対象R2を撮像した第2画像データ62(図7参照)を生成する。
In the embodiment, the
処理装置5は、コンピュータシステムを含み、投影装置3及び撮像装置4を制御する。処理装置5は、CPU(Central Processing Unit)のようなプロセッサを含む演算処理装置と、ROM(Read Only Memory)又はRAM(Random Access Memory)のようなメモリ及びストレージを含む記憶装置と、信号及びデータを入出力可能な入出力回路を含む入出力インターフェースと、を有する。演算処理装置は、記憶装置に記憶されているコンピュータプログラムに従って演算処理を実施する。
The
実施形態では、処理装置5は、第1認識対象R1の第1画像データ61に基づいて第1認識対象R1を画像認識し、第2認識対象R2の第2画像データ62に基づいて第2認識対象R2を画像認識する。なお、本明細書において、画像認識とは、3次元計測によって認識対象の位置及び形状の少なくとも一方を取得することを意味する。画像認識を行うことは、3次元計測を行うことを含む。
In the embodiment, the
3次元計測装置1は、パターン投影法に基づいて、ノズル11で保持して計測位置TPに配置された状態の部品Cの認識対象(第1認識対象R1、第2認識対象R2)の3次元形状を計測する。投影装置3は、パターン光PLとして、例えば正弦波状の明度分布の縞パターン光を位相シフトさせながら部品Cに照射する。上記の通り、パターン光PLは、複数の方向から部品Cに照射される。
The three-
撮像装置4は、パターン光PLが投影された部品Cの画像データを取得する。撮像装置4は、少なくとも、第1パターン光PL1が投影された部品Cの画像データと、第2パターン光PL2が投影された部品Cの画像データとを取得する。部品Cに入射する第1パターン光PL1の入射方向と第2パターン光PL2の入射方向とは異なる。
The
図2に示すように、第1パターン光PL1は、投影装置3から射出され部品Cにダイレクトに照射されるパターン光PLである。第2パターン光PL2は、投影装置3から射出され反射部材6で反射して部品Cに照射されるパターン光PLである。
As shown in FIG. 2, the first pattern light PL1 is pattern light PL emitted from the
処理装置5は、投影装置3からの第1パターン光PL1が部品Cに照射される第1照射状態と、反射部材6からの第2パターン光PL2が部品Cに照射される第2照射状態との一方から他方に変化するように、光変調素子32を制御する。
The
部品Cに第1パターン光PL1を照射するとき、処理装置5は、射出光学系33の射出面33Sの第1領域331からパターン光PLが射出され、射出面33Sの第2領域332からパターン光PLが射出されないように、光変調素子32を制御する。第1領域331から射出されたパターン光PLは、反射部材6を介さずに、第1パターン光PL1として部品Cにダイレクトに照射される。
When irradiating the part C with the first pattern light PL1, the
部品Cに第2パターン光PL2を照射するとき、処理装置5は、射出光学系33の射出面33Sの第2領域332からパターン光PLが射出され、射出面33Sの第1領域331からパターン光PLが射出されないように、光変調素子32を制御する。第2領域332から射出されたパターン光PLは、光軸AXを通過して反射部材6に照射される。第2領域332から射出されたパターン光PLは、反射部材6を介して、第2パターン光PL2として部品Cに照射される。
When irradiating the part C with the second pattern light PL2, the
図1及び図2に示す例において、第1領域331は、射出光学系33の光軸よりも+X側の射出面33Sの半分の領域であり、第2領域332は、射出光学系33の光軸よりも-X側の射出面33Sの半分の領域である。第1領域331から射出されたパターン光PLは、ノズル11で保持して計測位置TPに配置された状態の部品Cに照射される。第2領域332から射出されたパターン光PLは、反射部材6の反射面に照射され、反射部材6の反射面で反射した後、ノズル11で保持して計測位置TPに配置された状態の部品Cに照射される。
In the example shown in FIG. 1 and FIG. 2, the
図1及び図2に示すように、投影装置3、撮像装置4及び反射部材6は、ハウジング7に支持される。投影装置3と撮像装置4と反射部材6との相対位置は、ハウジング7により固定される。撮像装置4の入射面41Sは、計測位置TPに配置される部品Cと対向可能である。
As shown in Figures 1 and 2, the
反射部材6は、入射面41Sと計測位置TPに配置される部品Cとの間の結像光学系41の光軸AXの周囲の少なくとも一部に配置される。投影装置3は、入射面41Sと計測位置TPに配置される部品Cとの間の結像光学系41の光軸AXの周囲の少なくとも一部に配置される。反射部材6は、投影装置3よりも計測位置TPに近い位置に配置される。
The reflecting
図3に示すように、投影装置3は、光軸AXの周囲に2つ配置される。また、反射部材6は、光軸AXの周囲に2つ配置される。
As shown in FIG. 3, two
第1の反射部材6は、光軸AXの-X側に配置される。第1の投影装置3は、光軸AXの+X側に配置される。第1の投影装置3は、第1の反射部材6に第2パターン光PL2を照射可能である。第1の反射部材6で反射した第2パターン光PL2は、計測位置TPに配置された部品Cに照射される。また、第1の投影装置3は、計測位置TPに配置された部品Cにダイレクトに第1パターン光PL1を照射可能である。
The first reflecting
第2の反射部材6は、光軸AXの+Y側に配置される。第2の投影装置3は、光軸AXの-Y側に配置される。第2の投影装置3は、第2の反射部材6に第2パターン光PL2を照射可能である。第2の反射部材6で反射した第2パターン光PL2は、計測位置TPに配置された部品Cに照射される。また、第2の投影装置3は、計測位置TPに配置された部品Cにダイレクトに第1パターン光PL1を照射可能である。
The second reflecting
このように、第1及び第2の投影装置3と、第1及び第2の反射部材6とは、計測位置TPに配置された部品Cに、4つの方向からパターン光PLを投影可能である。撮像装置4は、第1の投影装置3からの第1パターン光PL1が投影された部品Cの画像データ、第1の反射部材6からの第2パターン光PL2が投影された部品Cの画像データ、第2の投影装置3からの第1パターン光PL1が投影された部品Cの画像データ、及び第2の反射部材6からの第2パターン光PL2が投影された部品Cの画像データのそれぞれを取得する。
In this way, the first and
上記したように、投影装置3と反射部材6とは、本実施形態では、互いにX軸方向に対向して設けられた1組と、互いにY軸方向に対向して設けられた1組との合計2組を有しているが、本発明ではこれに限定されることなく、1組でも、3組以上有していてもよい。また、3次元計測装置1は、投影方向毎に単独で(反射部材6なしで)設けられた複数の投影装置3を備えていてもよい。
As described above, in this embodiment, there are two pairs of
なお、本実施形態では、投影装置3と反射部材6とによる投影装置3と、撮像装置4と、を含む位相シフト法を用いる形態の3次元計測装置1を好ましい形態のものとして使用しているが、本発明ではこれに限定されず、撮像画像解析法を用いる形態のものを使用してもよい。
In this embodiment, a three-
<制御装置>
図4は、実施形態に係る処理装置5の一例を示す機能ブロック図である。処理装置5は、入出力部51と、パターン生成部52と、画像データ取得部53と、位相値算出部54と、3次元形状算出部55と、を有する。また、処理装置5は、記憶部56を有する。
<Control device>
4 is a functional block diagram showing an example of the
入出力部51は、処理装置5の入出力インターフェースが、実施形態に係る3次元計測装置1が実施形態に係る3次元計測方法を実行するための3次元計測プログラムを実行することにより、実現される機能部である。
The input/
パターン生成部52、画像データ取得部53、位相値算出部54及び3次元形状算出部55は、処理装置5の演算処理装置が、実施形態に係る3次元計測装置1が実施形態に係る3次元計測方法を実行するための3次元計測プログラムを実行することにより、実現される機能部である。演算処理装置は、CPU(Central Processing Unit)のようなプロセッサと、ROM(Read Only Memory)のような不揮発性メモリ及びRAM(Random Access Memory)のような揮発性メモリを含むメインメモリとを有する。
The pattern generation unit 52, image
記憶部56は、半導体メモリのような不揮発性記憶装置を含む。記憶部56は、入出力部51と、パターン生成部52と、画像データ取得部53と、位相値算出部54と、3次元形状算出部55とにおいて実行されるプログラムを記憶する。記憶部56は、部品Cの設計情報である部品データを記憶する。部品データには、部品Cの形状、寸法などの情報が記録されている。
The storage unit 56 includes a non-volatile storage device such as a semiconductor memory. The storage unit 56 stores programs executed by the input/
パターン生成部52は、パターンデータを生成する。パターン生成部52で生成されたパターンデータは、入出力部51を介して光変調素子32に出力される。光変調素子32は、パターン生成部52で生成されたパターンデータに基づいて、パターン光PLを生成する。パターン生成部52に生成されるパターンデータは、反射部材6を介さずに投影装置3からの第1パターン光PL1を部品Cに照射するための第1パターンデータと、反射部材6を介して投影装置3からの第2パターン光PL2を部品Cに照射するための第2パターンデータとを含む。
The pattern generation unit 52 generates pattern data. The pattern data generated by the pattern generation unit 52 is output to the
図5は、本実施形態に係るパターンデータの一例を示す模式図である。図5において、光を出射しない領域を黒色で示し、光を出射する領域を白色で示す。パターン生成部52は、図5(A)に示すように、部品Cに第1パターン光PL1を照射させるとき、射出光学系33の射出面33Sの第1領域331からパターン光PLを射出させ、射出面33Sの第2領域332からパターン光PLを射出させないように、第1パターンデータを生成し、光変調素子32を制御する。
Figure 5 is a schematic diagram showing an example of pattern data according to this embodiment. In Figure 5, areas that do not emit light are shown in black, and areas that emit light are shown in white. As shown in Figure 5 (A), when the first pattern light PL1 is irradiated onto the part C, the pattern generation unit 52 generates first pattern data and controls the
パターン生成部52は、図5(B)に示すように、部品Cに第2パターン光PL2を照射させるとき、射出光学系33の射出面33Sの第2領域332からパターン光PLを射出させ、射出面33Sの第1領域331からパターン光PLを射出させないように、第2パターンデータを生成し、光変調素子32を制御する。
As shown in FIG. 5(B), when the second pattern light PL2 is irradiated onto the part C, the pattern generation unit 52 generates second pattern data and controls the
画像データ取得部53は、入出力部51を介して、撮像素子42から画像データを取得する。画像データ取得部53は、第1及び第2の投影装置3により第1パターン光PL1が投影された部品Cの画像データ、及び第1及び第2の反射部材6からの第2パターン光PL2が投影された部品Cの画像データを取得する。
The image
位相値算出部54は、画像データの輝度(画素値)に基づいて、画像データの複数の画素それぞれの位相値を算出する。位相値算出部54は、位相シフトされたパターン光PLのそれぞれが投影された部品Cの複数の画像データの同一の点の輝度に基づいて、その点に対応する画像データの画素の位相値を算出する。位相値算出部54は、画像データの複数の点それぞれの輝度に基づいて、画像データの複数の画素それぞれの位相値を算出する。
The phase
3次元形状算出部55は、画像データの複数の画素それぞれの位相値に基づいて、画像データの複数の画素それぞれに対応する部品Cの複数の点それぞれの位置データを算出して、部品Cの3次元形状を算出する。
The three-dimensional
3次元形状算出部55は、より詳細には、部品Cの先端における位置データに基づいて、第1認識対象R1および第2認識対象R2の高さ(突出長さ)を算出し、部品Cの鉛直方向の全体の長さである部品高さと、第1認識対象R1の高さデータおよび第2認識対象R2の高さデータを算出する。
More specifically, the three-dimensional
<部品>
図6は、実施形態に係る部品Cの一例を示した側面図(A)および下面図(B)である。一例において、部品Cは、基板Pに装着されるコネクタ部品である。部品Cは、ボディC1と、ボディC1から延びる電極C2と、を有する。ボディC1は、位置決め用のボスC3と、固定用のねじ孔C4と、を有する。部品Cは、全体として所定方向に長い、直線形状を有する。
<Parts>
6A and 6B are a side view and a bottom view showing an example of a component C according to an embodiment. In the example, the component C is a connector component to be mounted on a substrate P. The component C has a body C1 and electrodes C2 extending from the body C1. The body C1 has a boss C3 for positioning and a screw hole C4 for fixing. The component C has a linear shape that is long in a predetermined direction as a whole.
部品Cは、複数の電極C2が配列された2つの端子部C11と、部品Cを固定する3つの固定部C12と、を有する。3つの固定部C12は、間隔を隔てて直線状に配置されている。中央および一端の2つの固定部C12の間に1つの端子部C11が配置され、中央と他端の2つの固定部C12の間に他の1つの端子部C11が配置されている。 Component C has two terminal portions C11 on which multiple electrodes C2 are arranged, and three fixing portions C12 that fix component C. The three fixing portions C12 are arranged in a straight line at intervals. One terminal portion C11 is arranged between the two fixing portions C12 at the center and one end, and another terminal portion C11 is arranged between the two fixing portions C12 at the center and the other end.
ボディC1は、黒色の暗色樹脂からなる。ボスC3及びねじ孔C4は、ボディC1の下面C13に設けられている。ボスC3及びねじ孔C4は、3つの固定部C12に、それぞれ1つずつ設けられている。ボスC3は、ボディC1の下面C13から下向きに突出する円柱状の突起である。ボスC3は、ボディC1と一体形成されていて、黒色の暗色樹脂からなる。ねじ孔C4は、金属製のめねじパーツが、ボディC1に形成された取付穴に固定されることによりボディC1に設けられる。 The body C1 is made of dark-colored resin. The boss C3 and the screw hole C4 are provided on the bottom surface C13 of the body C1. One boss C3 and one screw hole C4 are provided on each of the three fixing parts C12. The boss C3 is a cylindrical protrusion that protrudes downward from the bottom surface C13 of the body C1. The boss C3 is formed integrally with the body C1 and is made of dark-colored resin. The screw hole C4 is provided in the body C1 by fixing a metal female thread part to a mounting hole formed in the body C1.
電極C2は、部品CのボディC1から突出するリード電極である。電極C2は、金属製である。電極C2は、2つの端子部C11の各々に、多数配置されている。各電極C2は、端子部C11におけるボディC1の下面C13から、部品Cの幅方向に広がるように、斜め下方に向けて突出する。電極C2の先端(下端)は、基板Pの配線パターンと接続可能なように、平板状で、概ね水平(ボディC1の下面C13と平行)となっている。 The electrodes C2 are lead electrodes that protrude from the body C1 of the component C. The electrodes C2 are made of metal. A large number of electrodes C2 are arranged on each of the two terminal portions C11. Each electrode C2 protrudes diagonally downward from the bottom surface C13 of the body C1 at the terminal portion C11 so as to extend in the width direction of the component C. The tip (bottom end) of the electrode C2 is flat and generally horizontal (parallel to the bottom surface C13 of the body C1) so that it can be connected to the wiring pattern of the substrate P.
実施形態において、第1認識対象R1は、部品CのボディC1から突出するリード電極(すなわち、電極C2)の先端部である。第1認識対象R1は、複数の電極C2の各々の先端部(下面部)である。第2認識対象R2は、暗色樹脂からなるボディC1から突出するボスC3の先端部である。第2認識対象R2は、3つのボスC3の各々の先端部(下面部)である。 In the embodiment, the first recognition target R1 is the tip of a lead electrode (i.e., electrode C2) protruding from the body C1 of the component C. The first recognition target R1 is the tip (lower surface) of each of the multiple electrodes C2. The second recognition target R2 is the tip of a boss C3 protruding from the body C1 made of dark resin. The second recognition target R2 is the tip (lower surface) of each of the three bosses C3.
図6に示す例では、部品Cは、所定方向に延びる長尺部品であり、部品Cの長手寸法は、撮像装置4の視野よりも大きい。そこで、3次元計測装置1は、部品Cの全体を複数領域に分割して、分割領域毎に画像認識(3次元計測)を行う。部品Cの分割領域数は、部品Cのサイズと、撮像装置4の視野サイズとに応じる。図7は、実施形態に係る部品Cの撮像を説明する説明図である。図7は、部品Cの全体を3つの分割領域に分割した例を示す。図7では、部品Cの全体が、分割領域CA1、CA2及びCA3に分割されている。分割領域CA1は、部品Cの一端部を含む約1/3の領域である。分割領域CA2は、部品Cの中央の約1/3の領域である。分割領域CA3は、部品Cの他端部を含む約1/3の領域である。図7に示す矩形の破線部は、撮像装置4の視野範囲4Sを示す。図7では、説明の便宜上、視野範囲4Sが分割領域CA1、CA2及びCA3の3か所に位置しているかのように示しているが、実際は、分割領域CA1、CA2及びCA3の各々が視野範囲4S内に収まるように、部品Cが実装ヘッド22によって移動される。
In the example shown in FIG. 6, the part C is a long part extending in a predetermined direction, and the longitudinal dimension of the part C is larger than the field of view of the
撮像装置4は、分割領域CA1が視野範囲4S内に配置された状態で、第1認識対象R1及び第2認識対象R2の撮像を別個に行う。撮像装置4は、分割領域CA2が視野範囲4S内に配置された状態で、第1認識対象R1及び第2認識対象R2の撮像を別個に行う。撮像装置4は、分割領域CA3が視野範囲4S内に配置された状態で、第1認識対象R1及び第2認識対象R2の撮像を別個に行う。これにより、分割領域CA1、CA2及びCA3内の第1認識対象R1の第1画像データ61がそれぞれ取得され、分割領域CA1、CA2及びCA3内の第2認識対象R2の第2画像データ62がそれぞれ取得される。
The
実施形態では、第1画像データ61と第2画像データ62とは、部品Cの同一の範囲を撮像した画像であるが、後述する計測条件70に応じて、異なる撮像条件で撮像された画像である。
In this embodiment, the
<計測条件>
第1認識対象R1を含む電極C2の全体は、金属製であるため、相対的に高い光反射率を有する。第2認識対象R2を含むボスC3は、ボディC1に一体形成された暗色樹脂製であるため、相対的に低い光反射率を有する。図7では、光反射率の相違を説明するため、暗色樹脂製の低い光反射率の部分(ボディC1)を着色して示している。但し、ボスC3(第2認識対象R2)は、低い光反射率の部分であるが、図の視認性の観点で、着色を省略した。電極C2などの金属パーツは、高い光反射率を有するため、撮像するとサチレーション(画素値の飽和)が生じやすい。サチレーションが生じた画素は、正しい画素値(輝度値)が得られないため位相値(高さデータ)を取得できない。そのため、第1認識対象R1の3次元計測では、第1画像データ61にサチレーションを発生させないことが重要となる。一方、第2認識対象R2を含むボディC1は、電極C2の認識の妨げとならないように暗色樹脂で形成され、コントラストが付きにくい。そのため、ボスC3にパターン光PLを投影しても、位相値を算出可能なコントラスト(輝度分布)が得にくい。このように、第1認識対象R1と第2認識対象R2とは、一方ではサチレーションが発生しやすく過剰輝度の抑制が重要となり、他方ではコントラストが付きにくく輝度向上が重要となることから、通常、同一の撮像系、同一の光学系での3次元計測は困難である。
<Measurement conditions>
The electrode C2 including the first recognition target R1 is made of metal as a whole, and therefore has a relatively high light reflectance. The boss C3 including the second recognition target R2 is made of dark resin integrally formed with the body C1, and therefore has a relatively low light reflectance. In FIG. 7, the dark resin part with low light reflectance (body C1) is colored to explain the difference in light reflectance. However, although the boss C3 (second recognition target R2) is a part with low light reflectance, coloring is omitted from the viewpoint of visibility in the figure. Metal parts such as the electrode C2 have high light reflectance, and therefore saturation (saturation of pixel values) is likely to occur when imaged. A pixel where saturation occurs cannot obtain a correct pixel value (brightness value), and therefore a phase value (height data) cannot be obtained. Therefore, in the three-dimensional measurement of the first recognition target R1, it is important not to generate saturation in the
実施形態では、撮像条件と画像認識条件とを含む計測条件70(図8参照)が、第1認識対象R1と第2認識対象R2とで異なる。これにより、実施形態では、同一の3次元計測装置1(投影装置3および撮像装置4)による、第1認識対象R1と第2認識対象R2との両方の3次元計測を可能とした。
In the embodiment, the measurement conditions 70 (see FIG. 8), which include the imaging conditions and the image recognition conditions, are different for the first recognition target R1 and the second recognition target R2. This makes it possible to perform 3D measurements of both the first recognition target R1 and the second recognition target R2 using the same 3D measurement device 1 (
図8は、実施形態に係る計測条件70の具体例を示す図である。図8の例では、計測条件70は、カメラゲイン、閾値、画像合成枚数を含む。カメラゲインは、撮像装置4(撮像素子42)の感度である。カメラゲインが高いほど、同一入射光量に対して画像データにおける輝度値(画素値)が高くなる。閾値は、画像中の認識対象領域と背景領域とを区分する閾値処理に適用される閾値である。認識対象領域は、第1認識対象R1の領域や第2認識対象R2の領域である。背景は、認識対象以外の領域である。閾値は、認識対象の輝度値の範囲と、背景の輝度値の範囲との間の値に設定される。画像合成枚数は、後述する合成処理において合成する画像データの数である。合成枚数を多くするほど、合成画像の輝度値(画素値)が高くなる。
FIG. 8 is a diagram showing a specific example of the
計測条件70は、第1認識対象R1用の第1計測条件70Aと、第2認識対象R2用の第2計測条件70Bとを含む。第1計測条件70Aは、カメラゲインが低値(あるいは標準値)に設定される。第2認識対象R2の第2計測条件70Bは、第1認識対象R1の第1計測条件70Aと比べて、撮像装置4のカメラゲインが高い。これにより、第2認識対象R2の輝度値(画素値)が高くなり、コントラストが付きやすくなる。
The
第1計測条件70Aは、閾値が高値(あるいは標準値)に設定される。処理装置5は、第1計測条件70Aに規定された閾値を用いた閾値処理によって、第1画像データ61から画像認識を行う画像部分を切り出す。第1計測条件70Aの閾値は、閾値処理によって第1認識対象R1の全体を含む画像部分が切り出されるように設定される。処理装置5は、第2計測条件70Bに規定された閾値を用いた閾値処理によって、第2画像データ62から画像認識を行う画像部分を切り出す。第2計測条件70Bの閾値は、閾値処理によって第2認識対象R2の全体を含む画像部分が切り出されるように設定される。第2認識対象R2の第2計測条件70Bは、第1認識対象R1の第1計測条件70Aと比べて、閾値が低い。これにより、第2認識対象R2の輝度値が得にくい第2画像データ62において、第2認識対象R2の領域が背景領域として処理されてしまう可能性が低減される。
The
第1計測条件70Aは、画像合成枚数が所定の標準枚数に設定される。第2認識対象R2の第2計測条件70Bは、第1認識対象R1の第1計測条件70Aと比べて、画像合成枚数が多い。一例では、第1計測条件70Aの画像合成枚数は1枚とされ、第2計測条件70Bの画像合成枚数は2枚以上の所定枚数とされる。そのため、処理装置5は、少なくとも第2認識対象R2の画像認識において、複数の第2画像データ62の合成処理を行う。なお、画像合成処理は、画像合成枚数が2枚以上に設定された場合に行われる。画像合成枚数が1枚とは、画像合成を行わないことを意味する。
In the
図9は、実施形態に係る画像合成処理を説明するための模式図である。投影装置3は、正弦波状の明度分布の縞パターンを位相シフトさせながら部品Cに投影する。投影装置3は、位相が相互に異なる少なくとも3種類の縞パターンを部品Cに投影する。一例では、投影装置3は、位相がπ/2ずつ異なる4種類の縞パターンを部品Cに投影する。つまり、縞パターンは、位相シフト量が0°(初期位相=0)である第1縞パターンと、位相シフト量が90°(初期位相=π/2)である第2縞パターンと、位相シフト量が180°(初期位相=π)である第3縞パターンと、位相シフト量が270°(初期位相=3π/2)である第4縞パターンとを含む。投影装置3は、第1縞パターン、第2縞パターン、第3縞パターン、及び第4縞パターンのそれぞれを部品Cに順次投影する。
9 is a schematic diagram for explaining the image synthesis process according to the embodiment. The
ここでは、画像合成前の画像データを、基礎画像と呼ぶ。画像合成後の画像データを、合成画像と呼ぶ。撮像装置4は、複数種類の縞パターンのそれぞれの投影において、計測条件70に設定された画像合成枚数だけ、基礎画像の撮像を行う。第2計測条件70Bの画像合成枚数をN枚とすると、基礎画像がN回撮像される。図9では、N=4の例を示す。
Here, image data before image synthesis is called a basic image. Image data after image synthesis is called a synthesized image. When projecting each of the multiple types of stripe patterns, the
画像データ取得部53は、第1縞パターンが部品Cに投影された場合、第1縞パターンが投影された部品CをN回撮像するように、撮像装置4および投影装置3を制御する。第2縞パターンが部品Cに投影された場合、画像データ取得部53は、第2縞パターンが投影された部品CをN回撮像するように、撮像装置4を制御する。第3縞パターンが部品Cに投影された場合及び第4縞パターンが部品Cに投影された場合も同様である。画像データ取得部53は、第1縞パターンで撮像した第1基礎画像、第2縞パターンで撮像した第2基礎画像、第3縞パターンで撮像した第3基礎画像、第4縞パターンで撮像した第4基礎画像のそれぞれを、画像合成枚数N(=4)と同じ数ずつ取得する。
When the first stripe pattern is projected onto the part C, the image
画像データ取得部53は、画像合成枚数Nと同じ数の基礎画像を合成して、複数種類の縞パターンのそれぞれに対応する合成画像を生成する。画像データ取得部53は、N枚の第1基礎画像を合成して、第1縞パターンに対応する第1合成画像を生成する。画像データ取得部53は、N枚の第2基礎画像を合成して、第2縞パターンに対応する第2合成画像を生成する。画像データ取得部53は、N枚の第3基礎画像を合成して、第3縞パターンに対応する第3合成画像を生成する。画像データ取得部53は、N枚の第4基礎画像を合成して、第4縞パターンに対応する第4合成画像を生成する。
The image
実施形態において、複数の基礎画像を合成することは、複数の基礎画像を加算処理することを含む。複数の基礎画像の加算処理は、複数の基礎画像の同一画素の輝度値を加算することを含む。これにより、合成画像において、高い輝度値の画素が得られる。各合成画像では、縞パターンの明部と暗部との輝度差(すなわち、コントラスト)が大きくなる。そのため、コントラストが付き難い第2認識対象R2の部分でも、位相値を算出しやすくなる。 In an embodiment, combining the multiple basic images includes adding the multiple basic images. The adding process of the multiple basic images includes adding the luminance values of the same pixel in the multiple basic images. This results in pixels with high luminance values in the combined image. In each combined image, the luminance difference (i.e., contrast) between the light and dark areas of the stripe pattern becomes large. This makes it easier to calculate the phase value even in the part of the second recognition target R2 where contrast is difficult to achieve.
以上の計測条件70は、記憶部56に記憶されている。処理装置5は、第1認識対象R1の3次元計測を行う場合、記憶部56から第1計測条件70Aを取得して、第1計測条件70Aに基づく撮像制御および画像認識を行う。処理装置5は、第2認識対象R2の3次元計測を行う場合、記憶部56から第2計測条件70Bを取得して、第2計測条件70Bに基づく撮像制御および画像認識を行う。
The
<画像認識>
図10は、実施形態の処理装置5が実行する画像認識処理の認識アルゴリズムを説明するための説明図である。処理装置5は、第1認識対象R1と第2認識対象R2とで、異なる認識アルゴリズムを実行して画像認識を行う。
<Image Recognition>
10 is an explanatory diagram for explaining a recognition algorithm of the image recognition process executed by the
位相値算出部54は、第1認識対象R1の3次元計測を行う場合、電極認識用アルゴリズム71Aを実行する。電極認識用アルゴリズム71Aは、第1認識対象R1、すなわち部品Cの電極C2の先端部の認識に最適化されている。電極認識用アルゴリズム71Aは、部品データに基づく既知形状の第1認識対象R1の認識に適している。第1認識対象R1の形状は、例えば矩形状である。
When performing three-dimensional measurement of the first recognition target R1, the phase
位相値算出部54は、第2認識対象R2の3次元計測を行う場合、ボス認識用アルゴリズム71Bを実行する。ボス認識用アルゴリズム71Bは、第2認識対象R2、すなわち部品CのボディC1に形成されたボスC3の先端部の認識に最適化されている。ボス認識用アルゴリズム71Bは、部品データに基づく既知形状の第2認識対象R2の認識に適している。第2認識対象R2の形状は、例えば円形状である。
When performing three-dimensional measurement of the second recognition target R2, the phase
これらの電極認識用アルゴリズム71A及びボス認識用アルゴリズム71Bは、記憶部56に記憶されている。処理装置5は、認識対象に応じた認識用アルゴリズムを記憶部56から選択的に読み出し、画像認識を実行する。位相値算出部54は、画像認識により、認識対象(第1認識対象R1及び第2認識対象R2)を構成する各画素の位相値を表す計測データを生成する。
The
<補完処理>
図11は、実施形態の処理装置5による画像認識の第1補完処理の一例を示す説明図である。上述の通り、実施形態では、投影装置3により4方向からパターン光PLが照射可能であり、パターン光PLの照射方向を異ならせた4つの画像データが取得される。つまり、図9に示した基礎画像の取得、合成画像の生成(合成処理を行う場合のみ)及び3次元形状の算出が、方向毎に4回実施される。その結果、処理装置5は、図11に示すように、方向毎の4種類の計測データを生成する。図11は、1つの認識対象の画像認識により生成された、第1方向計測データ81A、第2方向計測データ81B、第3方向計測データ81C、及び第4方向計測データ81Dの例を示す。
<Complementary processing>
FIG. 11 is an explanatory diagram showing an example of the first complementation process of image recognition by the
各計測データでは、パターン光PLの照射方向の相違に起因して、高さデータ(位相値と言い換えてもよい)を算出できないエラー領域82が発生し得る。エラー領域82は、認識対象の形状及び向きと、パターン光PLの照射方向との関係により、正反射光が撮像装置4に直接入射して発生するサチレーション領域や、部品Cの他の部位に光が遮られて影になる領域などである。
In each measurement data, an
実施形態では、処理装置5は、複数方向のパターン光PLによる画像データのいずれか一部で認識に失敗した場合、認識に成功した他の画像データに基づいて画像認識を行う。つまり、処理装置5は、第1方向計測データ81A、第2方向計測データ81B、第3方向計測データ81C、及び第4方向計測データ81Dのいずれかにエラー領域82が発生した場合でも、他の方向の計測データにおける同じ領域の高さデータが算出できた場合には、その高さデータに基づいて計測結果(高さデータ)を補完する第1補完処理を行う。
In the embodiment, when the
例えば、図11の上段に示す円形状を、認識対象(例えば第2認識対象R2)の真の形状と仮定する。図11の中段に示す各計測データにおいて、白色の領域が、高さデータが算出できた(認識に成功した)、認識領域83を示す。各計測データにおいて、認識領域83に隣接する点線で囲んだ領域(真の形状と、認識領域83との差分の領域)が、エラー領域82である。各計測データにおいて、認識領域83及びエラー領域82の外部(黒色の領域)は背景部分である。
For example, assume that the circular shape shown in the top row of Figure 11 is the true shape of the recognition target (e.g., second recognition target R2). In each piece of measurement data shown in the middle row of Figure 11, the white area indicates the
図11の例では、第1方向計測データ81Aでは図中下側にエラー領域82が形成され、第2方向計測データ81Bでは図中上側にエラー領域82が形成され、第3方向計測データ81Cでは図中右側にエラー領域82が形成され、第4方向計測データ81Dでは図中左側にエラー領域82が形成される。図11の例では、いずれの計測データにも部分的にエラー領域82が形成されており、認識対象の真の形状を取得できた計測データが存在しない。
In the example of FIG. 11, an
処理装置5は、第1方向計測データ81A、第2方向計測データ81B、第3方向計測データ81C、及び第4方向計測データ81Dの各認識領域83の論理和を求める手法で、各方向の計測データを合成し、図11の下段に示す合成された計測データ80を生成する。処理装置5は、例えば、第1方向計測データ81Aのエラー領域82に属する位置(画素)の高さデータについて、第2方向計測データ81B、第3方向計測データ81C、及び第4方向計測データ81Dの認識領域83の高さデータを用いて生成する。処理装置5は、同一位置について、複数の高さデータが取得できている場合、複数の高さデータの代表値(例えば平均値など)を求めて、その位置の高さデータとする。処理装置5は、同一位置について、1つの高さデータのみ取得できている場合、その高さデータの値を、その位置の高さデータとして採用する。この結果、合成された計測データ80では、図11の上段に示した認識対象の真の形状に相当する領域の全体についての高さデータが取得される。
The
図12は、実施形態の処理装置5による画像認識の第2補完処理の一例を示す説明図である。上述の第1補完処理は、4方向の計測データの少なくともいずれかで画像認識が成功し、高さデータ(位相値)が取得できたエラー領域82に適用される。一方、例えば電極C2の先端部(第1認識対象R1)が鏡面状の場合などでは、サチレーションの発生により、4方向の計測データの全てで高さデータ(位相値)が取得できなくなる場合があり得る。
Figure 12 is an explanatory diagram showing an example of the second complementation process of image recognition by the
そこで、実施形態では、処理装置5は、第1画像データ61の一部にサチレーション領域84が含まれることに起因してサチレーション領域84の認識に失敗した場合、第2補完処理を実行する。第2補完処理では、処理装置5は、部品Cの形状データに基づいて、サチレーション領域84が第1認識対象R1の一部であるか否かを判定する。そして、処理装置5は、サチレーション領域84が第1認識対象R1の一部であると判定した場合に、第1認識対象R1の認識結果を用いてサチレーション領域84を補完する処理を行う。なお、サチレーション領域84は、画像データ(第1画像データ61)中で、輝度値(画素値)が最大値に達している画素領域である。
In the embodiment, the
具体的には、図12に示すように、第1画像データ61の一部にサチレーション領域84が存在すると仮定する。図12の第1画像データ61において、中央部の矩形範囲と外周部とで縞状パターンの位相が異なる。中央部の矩形範囲が第1認識対象R1(つまり、電極C2の下面)を示し、外周部が背景領域BGである。図12では、第1認識対象R1の図中左端の一部が、サチレーション領域84となっている。サチレーション領域84に含まれる各画素の画素値(輝度値)は最大値であるため、縞状パターンの位相が認識できない。図12は、いずれか1つの照射方向での第1画像データ61を例示するが、他の照射方向の第1画像データ61でも同じ位置にサチレーション領域84が形成されるものとする。
Specifically, as shown in FIG. 12, assume that a saturation region 84 exists in a part of the
この場合、各方向の計測データ(第1方向計測データ81A~第4方向計測データ81D)では、サチレーション領域84で高さデータ(位相値)が取得できないため、エラー領域82となる。図12では、第1方向計測データ81Aだけを例示する。第1認識対象R1のうち、エラー領域82以外は、高さデータ(位相値)が取得できた認識領域83となる。サチレーション領域84が4方向の全ての計測データ(第1方向計測データ81A~第4方向計測データ81D)でエラー領域82となる場合、上述の第1補完処理が適用できない。
In this case, in the measurement data for each direction (first
この場合に、処理装置5は、記憶部56に記憶された部品データ72に基づいて、サチレーション領域84が第1認識対象R1の一部であるか否かの判定処理を行う。処理装置5は、部品データ72から得られる第1認識対象R1の位置、及び背景領域BG(ボディC1など)の位置と、撮像装置4の位置との関係に基づいて、部品Cのうちで第1画像データ61に写り込む部位を特定する。つまり、処理装置5は、サチレーション領域84の画素位置に相当する位置から、光軸AX(図2参照)に沿って伸ばした光路上に第1認識対象R1が存在するか否かの演算を行い、第1認識対象R1が存在する場合にはサチレーション領域84が第1認識対象R1の一部であると判定する。処理装置5は、光路上に第1認識対象R1が存在しない場合にはサチレーション領域84が第1認識対象R1の一部ではないと判定する。実施形態では、結像光学系41がテレセントリック光学系であり、主光線が光軸AXと非平行となる他の光学系と異なりレンズの画角等の補正が不要となるので、判定処理の演算量を軽減できる。
In this case, the
処理装置5は、サチレーション領域84が第1認識対象R1の一部であると判定した場合に、サチレーション領域84の高さデータ(位相値)を、第1認識対象R1の他の認識領域83の高さデータ(位相値)の値によって補完する。この結果、第2補完処理後の計測データ80では、サチレーション領域84を含む第1認識対象R1の全体の高さデータが算出される。
When the
一方、処理装置5は、サチレーション領域84が第1認識対象R1の一部ではないと判定した場合、サチレーション領域84をエラー領域82のままとする。この場合、第2補完処理後の計測データ80では、サチレーション領域84の部分については背景領域BGとして処理される。
On the other hand, if the
<3次元計測方法>
実施形態に係る3次元計測装置1の作用について、以下に説明する。図13は、実施形態に係る3次元計測方法を示すフローチャートである。3次元計測装置1によって実行される実施形態に係る3次元計測方法について、図13を用いて説明する。
<3D measurement method>
The operation of the three-
図13に示すように、実施形態に係る3次元計測方法は、概略で、撮像ステップS10と、画像合成ステップS20、画像認識ステップS30と、補完処理ステップS40と、を有する。 As shown in FIG. 13, the three-dimensional measurement method according to the embodiment generally includes an imaging step S10, an image synthesis step S20, an image recognition step S30, and an interpolation processing step S40.
撮像ステップS10では、3次元計測装置1は、部品Cの第1認識対象R1の第1撮像(ステップS11)と、第2認識対象R2の第2撮像(ステップS12)と、を行う。図13では、第1撮像(ステップS11)、第2撮像(ステップS12)の順序で処理を実行するが、逆の順序、すなわち第2撮像、第1撮像の順序でこれらの処理を実行してもよい。
In the imaging step S10, the three-
まず、3次元計測装置1は、実装ヘッド22によって部品Cのいずれかの分割領域(例えば分割領域CA1)が視野範囲4S内に配置された状態で、第1撮像(ステップS11)を行う。処理装置5は、第1計測条件70Aに基づいて、第1認識対象R1の第1画像データ61を取得する制御を行う。
First, the
処理装置5は、第1及び第2の投影装置3を制御して、パターン生成部52が作成した第1パターンデータ及び第2パターンデータのそれぞれに基づく第1パターン光PL1及び第2パターン光PL2をそれぞれ射出させ、部品Cに向けて照射させる。画像データ取得部53は、第1計測条件70Aに規定されたカメラゲインで、4方向の第1パターン光PL1及び第2パターン光PL2がそれぞれ投影された部品Cの第1画像データ61を取得する。画像データ取得部53は、4方向の第1画像データ61の各々を、第1計測条件70Aに規定された画像合成枚数に等しい枚数ずつ取得する。第1計測条件70Aの画像合成枚数Nは、例えば1枚(画像合成なし)である。
The
処理装置5は、第1及び第2の投影装置3を制御して、第1縞パターンから第4縞パターンの、位相が異なる4種類の縞パターンを投影した第1画像データ61を取得する。つまり、4つの照射方向のそれぞれについて、4つの位相パターンの第1画像データ61が、画像合成枚数N(=1枚)ずつ取得される。
The
3次元計測装置1は、同じ分割領域(例えば分割領域CA1)について、第2撮像(ステップS12)を行う。処理装置5は、第2計測条件70Bに基づいて、第2認識対象R2の第2画像データ62を取得する制御を行う。
The three-
処理装置5は、第1及び第2の投影装置3を制御して、第1パターン光PL1及び第2パターン光PL2をそれぞれ射出させ、部品Cに向けて照射させる。画像データ取得部53は、第2計測条件70Bに規定されたカメラゲインで、4方向の第1パターン光PL1及び第2パターン光PL2がそれぞれ投影された部品Cの第2画像データ62を取得する。画像データ取得部53は、4方向の第2画像データ62の各々を、第2計測条件70Bに規定された画像合成枚数Nに等しい枚数ずつ取得する。第2計測条件70Bの画像合成枚数Nは、例えば4枚である。これにより、第2画像データ62の基礎画像が撮像される。
The
処理装置5は、第1及び第2の投影装置3を制御して、第1縞パターンから第4縞パターンの、位相が異なる4種類の縞パターンを投影した第2画像データ62を取得する。つまり、4つの照射方向のそれぞれについて、4つの位相パターンの第1画像データ61(基礎画像)が、画像合成枚数N(=4枚)ずつ取得される。
The
処理装置5は、取得すべき全ての画像データを取得したか否かを判断する(ステップS13)。処理装置5は、部品Cの3つの分割領域CA1、CA2及びCA3の撮像が完了した場合、全ての画像データを取得したと判断する。処理装置5は、撮像していない分割領域が存在する場合、全ての画像データを取得完了していないと判断する。この場合、処理装置5は、制御装置29により実装ヘッド22を制御して、次の分割領域(例えば分割領域CA2)が視野範囲4S内に配置されるように部品Cの位置を変更させる(ステップS14)。
The
処理装置5は、分割領域CA2について、第1撮像(ステップS11)および第2撮像(ステップS12)を実施する。処理装置5は、ステップS13を経て、次の分割領域(例えば分割領域CA3)が視野範囲4S内に配置されるように撮像位置を変更させる(ステップS14)。同様に、処理装置5は、分割領域CA3について、第1撮像(ステップS11)および第2撮像(ステップS12)を実施する。これにより、全ての分割領域について撮像が完了するので、処理装置5は、ステップS13を経て、画像合成ステップS20に処理を進める。
The
処理装置5は、測定条件において画像合成枚数が2以上となっている場合に、それらの画像データの合成処理を行う(画像合成ステップS20)。実施形態では、第1計測条件70Aにおいて画像合成枚数N=1と設定されているため、処理装置5は、第1画像データ61について画像合成を行わない。処理装置5は、第1画像データ61として、第1縞パターンから第4縞パターンの4枚の画像セットを、照射方向毎に4組生成する。
When the number of combined images under the measurement conditions is two or more, the
第2計測条件70Bにおいて画像合成枚数N=4と設定されているため、処理装置5は、第2画像データ62について画像合成の処理を行う。図9に示したように、処理装置5は、第1縞パターンから第4縞パターンのN枚ずつの基礎画像を合成し、第1合成画像から第4合成画像を生成する。処理装置5は、第1縞パターンから第4縞パターンの各基礎画像の合成処理を、4つの照射方向の各第2画像データ62について実施する。処理装置5は、第2画像データ62として、第1合成画像から第4合成画像を、照射方向毎に4組生成する。
Since the number of image combinations N=4 is set in the
処理装置5は、第1画像データ61および第2画像データ62について、画像認識を行う(画像認識ステップS30)。位相値算出部54は、照射方向毎の、第1縞パターンから第4縞パターンの各画像データの輝度(画素値)に基づいて、画像データ中の複数の画素それぞれの位相値を算出する。位相値算出部54は、第1画像データ61について、第1計測条件70Aに規定された閾値で認識対象領域を切り出し、電極認識用アルゴリズム71Aを実行することにより、第1認識対象R1の高さデータ(位相値)を算出する。処理装置5は、第2画像データ62について、第2計測条件70Bに規定された閾値で認識対象領域を切り出し、ボス認識用アルゴリズム71Bを実行することにより、第2認識対象R2の位相値を算出する。
The
3次元形状算出部55は、位相値に基づいて、三角測量の原理により、各認識対象に対応する画像データの各画素の高さデータを算出する。ここで、画像データの各画素における高さデータと部品Cの認識対象における各点の高さデータとは1対1で対応する。部品Cの認識対象における各点の高さデータは、3次元空間における部品Cの認識対象における各点の座標値を示す。3次元形状算出部55は、第1認識対象R1の計測データおよび第2認識対象R2の計測データをそれぞれ生成する。
The three-dimensional
処理装置5は、第1認識対象R1の計測データおよび第2認識対象R2の計測データに、エラー領域82が存在する場合に、エラー領域82に属する画素の補完処理を実行する(補完処理ステップS40)。処理装置5は、4つの照射方向毎の計測データのいずれか一部にエラー領域82が存在している場合で、同一領域について認識に成功した他の照射方向の計測データが存在する場合、第1補完処理を行う。処理装置5は、第1画像データ61の一部にサチレーション領域84が含まれることに起因して、4つの照射方向の全ての計測データでサチレーション領域84の認識に失敗した場合、第2補完処理を行う。処理装置5は、サチレーション領域84が第1認識対象R1の一部であるか否かを判定し、サチレーション領域84が第1認識対象R1の一部であると判定した場合に、第1認識対象R1の認識結果を用いてサチレーション領域84を補完する処理を行う第2補完処理を行う。なお、処理装置5は、エラー領域82(サチレーション領域84)が存在しない場合、第1及び第2補完処理を行わない。
When an
これらの結果、処理装置5は、第1認識対象R1および第2認識対象R2の各点における高さデータに基づいて、第1認識対象R1および第2認識対象R2の3次元形状を算出する。
As a result, the
<実装方法>
図14は、実施形態に係る電子部品実装システム100の動作を説明するフローチャートである。実施形態に係る電子部品実装システム100の動作について、以下に説明する。図14に示すように、電子部品実装システム100は、検出ステップS60と、近接ステップS70と、挿入ステップS80と、を実行する。
<Implementation method>
14 is a flowchart illustrating the operation of the electronic
3次元計測装置1は、実施形態に係る3次元計測方法を実行することで、部品Cの第1認識対象R1(電極C2)及び第2認識対象R2(ボスC3)を認識する。処理装置5は、第1認識対象R1及び第2認識対象R2の計測データを制御装置29に送信する。制御装置29が、第1認識対象R1及び第2認識対象R2の高さデータに基づいて部品Cと基板Pとの相対位置を調整して、部品Cを基板Pに装着するように、実装ヘッド22を制御する(検出ステップS60)。
The three-
制御装置29は、3次元計測装置1からの指令に基づいて、実装ヘッド22のヘッド駆動装置25及びノズル駆動装置26を制御することで、ノズル11で保持した部品Cの鉛直方向下側の先端を基板Pの上面に近接させる(近接ステップS70)。
Based on a command from the
近接ステップS70では、制御装置29が、実装ヘッド22のノズル駆動装置26を制御して、3次元計測装置1から受信した部品Cの第1認識対象R1及び第2認識対象R2の高さデータに基づき、ノズル11で保持した部品Cの鉛直方向下側の先端を基板Pの上面に近接させるように、ノズル11を鉛直方向下側に下降移動させる。
In the proximity step S70, the
近接ステップS70では、また、制御装置29が、実装ヘッド22のヘッド駆動装置25及びノズル駆動装置26を制御して、ノズル11で保持した部品Cの3次元形状の計測データと、基板Pに形成された貫通孔の位置を示す位置計測装置27の計測データとに基づいて、ノズル11で保持した部品Cの第1認識対象R1及び第2認識対象R2の位置と、基板Pに形成された電極接続位置および貫通孔の水平方向の位置とを一致させるように、実装ヘッド22を水平方向に移動させるとともに、ノズル11を鉛直方向回りに回転させる。
In the approach step S70, the
制御装置29は、3次元計測装置1からの指令に基づいて、実装ヘッド22のノズル駆動装置26を制御することで、ノズル11で保持した部品Cを基板Pに形成された貫通孔に挿入させる(挿入ステップS80)。制御装置29が、実装ヘッド22のノズル駆動装置26を制御して、ノズル11を鉛直方向下側に下降移動させる。これにより、部品Cの3つのボスC3が基板Pの対応する貫通孔内にそれぞれ挿入されることで、部品Cが基板P上に位置決めされる。それにより、部品Cの各電極C2が、基板Pの電極接続位置に位置決めされる。なお、部品Cの各電極C2は、基板Pの電極挿入孔に挿入されるピンタイプの電極であってもよい。
Based on a command from the three-
<効果>
以上説明したように、本実施形態によれば、3次元計測装置1は、第1認識対象R1と、第1認識対象R1よりも光反射率が低い第2認識対象R2とを有する部品Cに、位相が異なるパターン光PLを投影する投影装置3と、パターン光PLが投影された第1認識対象R1及び第2認識対象R2の撮像を別々に行う撮像装置4と、第1認識対象R1の第1画像データ61に基づいて第1認識対象R1を画像認識し、第2認識対象R2の第2画像データ62に基づいて第2認識対象R2を画像認識する処理装置5と、を備え、撮像条件と画像認識条件とを含む計測条件70が、第1認識対象R1と第2認識対象R2とで異なる。これにより、相対的に光反射率が高い第1認識対象R1と光反射率が低い第2認識対象R2とを、それぞれに適した計測条件で別々に撮像するので、サチレーションが生じやすい第1認識対象R1の画像認識に適した第1画像データ61と、コントラストが付きにくい第2認識対象R2の画像認識に適した第2画像データ62とが得られる。そして、第1画像データ61と第2画像データ62とを、それぞれに適した計測条件で画像認識することによって、第1認識対象R1及び第2認識対象R2の3次元計測ができる。これらにより、1つの部品に光反射率が高い認識対象と光反射率が低い認識対象とが含まれる場合でも、各認識対象を同じ計測装置で適切に認識できる。
<Effects>
As described above, according to this embodiment, the three-
本実施形態によれば、第2認識対象R2の計測条件である第2計測条件70Bは、第1認識対象R1の計測条件である第1計測条件70Aと比べて、撮像装置4のカメラゲインが高い。第2計測条件70Bは、第1計測条件70Aと比べて、画像中の認識対象領域と背景領域とを区分する閾値が低い。第2計測条件70Bは、第1計測条件70Aと比べて、画像合成枚数が多い。これらにより、サチレーションが生じやすい第1認識対象R1の第1画像データ61を、相対的に低いゲイン、高い閾値、少ない合成枚数で生成できる。それにより、第1認識対象R1の画像データにおけるサチレーションを抑制し、第1認識対象R1と背景との区別をより正確に行える。コントラストが付きにくい第2認識対象R2の第2画像データ62を、相対的に高いゲイン、低い閾値、多い合成枚数で生成できる。それにより、第2認識対象R2の画像データのコントラストが付きやすくなり、第2認識対象R2と背景との区別をより正確に行える。
According to this embodiment, the
本実施形態によれば、処理装置5は、複数方向のパターン光PLによる画像データのいずれか一部で認識に失敗した場合、認識に成功した他の画像データに基づいて画像認識(第1補完処理)を行う。これにより、画像データ中の認識対象の一部で画像認識が失敗してエラー領域82が生じた場合でも、他の照射方向の画像データで画像認識が成功していれば、計測データを補完することにより、計測データの部分的な欠如であるエラー領域82の発生を抑制できる。
According to this embodiment, if the
本実施形態によれば、処理装置5は、第1画像データ61の一部にサチレーション領域84が含まれることに起因してサチレーション領域84の認識に失敗した場合、部品Cの形状データに基づいて、サチレーション領域84が第1認識対象R1の一部であるか否かを判定し、サチレーション領域84が第1認識対象R1の一部であると判定した場合に、第1認識対象R1の認識結果を用いてサチレーション領域84を補完する処理(第2補完処理)を行う。これにより、第1画像データ61中で、光反射率が高い第1認識対象R1の部分にサチレーション領域84が発生して計測データが得られない場合でも、そのサチレーション領域84の認識結果を補完できる。これにより、高い光反射率に起因してサチレーションが生じやすい第1認識対象R1であっても、第1認識対象R1の輪郭形状を正確に取得できる。
According to this embodiment, when the
本実施形態によれば、第1認識対象R1は、部品CのボディC1から突出する電極C2の先端部である。第2認識対象R2は、暗色樹脂からなるボディC1から突出するボスC3の先端部である。これにより、本来、電極C2の画像認識の妨げとならないように、コントラストが付きにくい暗色樹脂で形成されたボディC1の一部でも、同じ計測装置で、電極C2と共に画像認識を実行できる。 According to this embodiment, the first recognition target R1 is the tip of the electrode C2 protruding from the body C1 of the component C. The second recognition target R2 is the tip of the boss C3 protruding from the body C1 made of dark-colored resin. This allows image recognition to be performed together with the electrode C2 using the same measuring device, even on a part of the body C1 made of dark-colored resin that does not have much contrast, so as not to interfere with image recognition of the electrode C2.
[他の実施形態]
上述の実施形態において、3次元計測装置1を、電子部品実装装置2を備えた電子部品実装システム100に設けた例を示したが、3次元計測装置1は、例えば部品Cの検査を行う検査装置などに設けてもよい。
[Other embodiments]
In the above-described embodiment, an example was shown in which the three-
1…3次元計測装置、2…電子部品実装装置、3…投影装置、4…撮像装置、4S…視野範囲、5…処理装置、6…反射部材、7…ハウジング、11…ノズル、22…実装ヘッド、23…電子部品供給装置、24…基板搬送装置、25…ヘッド駆動装置、26…ノズル駆動装置、27…位置計測装置、29…制御装置、31…光源、32…光変調素子、33…射出光学系、33S…射出面、41…結像光学系、41S…入射面、42…撮像素子、51…入出力部、52…パターン生成部、53…画像データ取得部、54…位相値算出部、55…3次元形状算出部、56…記憶部、61…第1画像データ、62…第2画像データ、70…計測条件、70A…第1計測条件、70B…第2計測条件、71A…電極認識用アルゴリズム、71B…ボス認識用アルゴリズム、72…部品データ、80…計測データ、81A…第1方向計測データ、81B…第2方向計測データ、81C…第3方向計測データ、81D…第4方向計測データ、82…エラー領域、83…認識領域、84…サチレーション領域、100…電子部品実装システム、331…第1領域、332…第2領域、AX…光軸、BG…背景領域、C…部品、C1…ボディ、C2…電極、C3…ボス、C4…ねじ孔、C11…端子部、C12…固定部、C13…下面、CA1、CA2、CA3…分割領域、MP…実装位置、N…画像合成枚数、P…基板、PL…パターン光、PL1…第1パターン光、PL2…第2パターン光、R1…第1認識対象、R2…第2認識対象、SP…供給位置、TP…計測位置。 1...3D measurement device, 2...electronic component mounting device, 3...projection device, 4...imaging device, 4S...field of view, 5...processing device, 6...reflective member, 7...housing, 11...nozzle, 22...mounting head, 23...electronic component supply device, 24...substrate transport device, 25...head drive device, 26...nozzle drive device, 27...position measurement device, 29...control device, 31...light source, 32...light modulation element, 33...emission optical system, 33S...emission surface, 41...imaging optical system, 41S...incident surface, 42...imaging element, 51...input/output unit, 52...pattern generation unit, 53...image data acquisition unit, 54...phase value calculation unit, 55...3D shape calculation unit, 56...storage unit, 61...first image data, 62...second image data, 70...measurement conditions, 70A...first measurement conditions, 70B...second measurement conditions, 71A...electrode recognition algorithm, 71B... boss recognition algorithm, 72... component data, 80... measurement data, 81A... first direction measurement data, 81B... second direction measurement data, 81C... third direction measurement data, 81D... fourth direction measurement data, 82... error region, 83... recognition region, 84... saturation region, 100... electronic component mounting system, 331... first region, 332... second region, AX... optical axis, BG... background Area, C... component, C1... body, C2... electrode, C3... boss, C4... screw hole, C11... terminal part, C12... fixing part, C13... bottom surface, CA1, CA2, CA3... divided area, MP... mounting position, N... number of images to be combined, P... board, PL... pattern light, PL1... first pattern light, PL2... second pattern light, R1... first recognition target, R2... second recognition target, SP... supply position, TP... measurement position.
Claims (8)
前記パターン光が投影された前記第1認識対象及び前記第2認識対象の撮像を別々に行う撮像装置と、
前記第1認識対象の第1画像データに基づいて前記第1認識対象を画像認識し、前記第2認識対象の第2画像データに基づいて前記第2認識対象を画像認識する処理装置と、を備え、
撮像条件と画像認識条件とを含む計測条件が、前記第1認識対象と前記第2認識対象とで異なる、
3次元計測装置。 A projection device that projects pattern light having different phases onto a part having a first recognition target and a second recognition target having a lower light reflectance than the first recognition target;
an imaging device that separately images the first recognition target and the second recognition target onto which the pattern light is projected;
a processing device that performs image recognition of the first recognition target based on first image data of the first recognition target, and performs image recognition of the second recognition target based on second image data of the second recognition target,
Measurement conditions including imaging conditions and image recognition conditions are different between the first recognition target and the second recognition target.
3D measuring device.
請求項1に記載の3次元計測装置。 the measurement condition of the second recognition target is higher than the measurement condition of the first recognition target, and a camera gain of the imaging device is higher.
The three-dimensional measuring apparatus according to claim 1 .
請求項1に記載の3次元計測装置。 The measurement condition of the second recognition target has a lower threshold value for dividing a recognition target region and a background region in an image than the measurement condition of the first recognition target.
The three-dimensional measuring apparatus according to claim 1 .
前記処理装置は、複数の前記第2画像データの合成処理を行う、
請求項1に記載の3次元計測装置。 The measurement condition of the second recognition target includes a larger number of times of imaging than the measurement condition of the first recognition target,
The processing device performs a synthesis process on the plurality of second image data.
The three-dimensional measuring apparatus according to claim 1 .
前記撮像装置は、前記複数方向からの前記パターン光により別々に撮像を行い、
前記処理装置は、前記複数方向の前記パターン光による画像データのいずれか一部で認識に失敗した場合、認識に成功した他の画像データに基づいて画像認識を行う、
請求項1から4のいずれか1項に記載の3次元計測装置。 the projection device projects the pattern light onto the component from a plurality of directions separately,
the imaging device captures images of the pattern light from the plurality of directions separately,
when the processing device fails to recognize any part of the image data obtained by the pattern light in the multiple directions, the processing device performs image recognition based on other image data that has been successfully recognized.
The three-dimensional measuring apparatus according to claim 1 .
前記部品の形状データに基づいて、前記サチレーション領域が前記第1認識対象の一部であるか否かを判定し、
前記サチレーション領域が前記第1認識対象の一部であると判定した場合に、前記第1認識対象の認識結果を用いて前記サチレーション領域を補完する処理を行う、
請求項1から4のいずれか1項に記載の3次元計測装置。 When the processing device fails to recognize the saturation region due to a saturation region being included in a part of the first image data,
determining whether the saturation region is a part of the first recognition target based on shape data of the part;
When it is determined that the saturation region is a part of the first recognition target, a process of complementing the saturation region using a recognition result of the first recognition target is performed.
The three-dimensional measuring apparatus according to claim 1 .
前記第2認識対象は、暗色樹脂からなる前記ボディから突出するボスの先端部である、
請求項1から4のいずれか1項に記載の3次元計測装置。 the first recognition target is a tip portion of an electrode protruding from a body of the component,
the second recognition target is a tip portion of a boss protruding from the body made of a dark-colored resin;
The three-dimensional measuring apparatus according to claim 1 .
前記部品に、前記パターン光を投影し、前記パターン光が投影された前記第2認識対象の第2撮像を行うステップと、
前記第1認識対象の第1画像データに基づいて前記第1認識対象を画像認識し、前記第2認識対象の第2画像データに基づいて前記第2認識対象を画像認識するステップと、を備え、
撮像条件と画像認識条件とを含む計測条件が、前記第1認識対象と前記第2認識対象とで異なる、
3次元計測方法。 A step of projecting pattern light having different phases onto a component having a first recognition target and a second recognition target having a lower light reflectance than the first recognition target, and capturing a first image of the first recognition target onto which the pattern light is projected;
projecting the pattern light onto the component and capturing a second image of the second recognition target onto which the pattern light is projected;
performing image recognition on the first recognition target based on first image data of the first recognition target, and performing image recognition on the second recognition target based on second image data of the second recognition target;
Measurement conditions including imaging conditions and image recognition conditions are different between the first recognition target and the second recognition target.
3D measurement method.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023155445A JP2025047138A (en) | 2023-09-21 | 2023-09-21 | Three-dimensional measurement device and three-dimensional measurement method |
| CN202411303995.9A CN119665862A (en) | 2023-09-21 | 2024-09-19 | Three-dimensional measuring device and three-dimensional measuring method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023155445A JP2025047138A (en) | 2023-09-21 | 2023-09-21 | Three-dimensional measurement device and three-dimensional measurement method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2025047138A true JP2025047138A (en) | 2025-04-03 |
Family
ID=94995153
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023155445A Pending JP2025047138A (en) | 2023-09-21 | 2023-09-21 | Three-dimensional measurement device and three-dimensional measurement method |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2025047138A (en) |
| CN (1) | CN119665862A (en) |
-
2023
- 2023-09-21 JP JP2023155445A patent/JP2025047138A/en active Pending
-
2024
- 2024-09-19 CN CN202411303995.9A patent/CN119665862A/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| CN119665862A (en) | 2025-03-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101615946B1 (en) | Three-dimensional shape measuring apparatus | |
| US20100007896A1 (en) | Inspection system and method | |
| KR101782336B1 (en) | Inspection apparatus and inspection method | |
| KR102515369B1 (en) | 3D measurement device | |
| US9594028B2 (en) | Method and apparatus for determining coplanarity in integrated circuit packages | |
| JP6198312B2 (en) | Three-dimensional measuring apparatus, three-dimensional measuring method, and substrate manufacturing method | |
| JP2009092485A (en) | Print solder inspection device | |
| US10657665B2 (en) | Apparatus and method for generating three-dimensional information | |
| JP2025047138A (en) | Three-dimensional measurement device and three-dimensional measurement method | |
| JP2000018919A (en) | Imaging device, optical measuring apparatus, and optical system inspecting apparatus | |
| TWI854334B (en) | System and method for determining contact height of a packaged chip | |
| JP2018109550A (en) | Electronic component conveying device and electronic component inspection device | |
| JP7253914B2 (en) | Electronic component mounting system | |
| JP7303069B2 (en) | inspection equipment | |
| JP3868860B2 (en) | 3D measuring device | |
| WO2023032095A1 (en) | Workpiece height measurement device, and mounting substrate inspection device using same | |
| JP3645340B2 (en) | Flat package pin bending detection device | |
| JP2001217599A (en) | Surface mounting component attaching device and electronic component detecting method thereof | |
| JP7540170B2 (en) | 3D shape measuring device | |
| JP2004061460A (en) | Device for inspecting external lead shape of electronic component | |
| JP2739739B2 (en) | Misalignment inspection device | |
| JP2024172253A (en) | Component mounting system and component mounting method | |
| JP2013170987A (en) | Component mounted circuit board production apparatus and three-dimensional shape measurement apparatus | |
| JP2022138210A (en) | 3D camera | |
| JP2004317246A (en) | Range finder |