[go: up one dir, main page]

JP2025047138A - Three-dimensional measurement device and three-dimensional measurement method - Google Patents

Three-dimensional measurement device and three-dimensional measurement method Download PDF

Info

Publication number
JP2025047138A
JP2025047138A JP2023155445A JP2023155445A JP2025047138A JP 2025047138 A JP2025047138 A JP 2025047138A JP 2023155445 A JP2023155445 A JP 2023155445A JP 2023155445 A JP2023155445 A JP 2023155445A JP 2025047138 A JP2025047138 A JP 2025047138A
Authority
JP
Japan
Prior art keywords
recognition target
recognition
image
image data
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023155445A
Other languages
Japanese (ja)
Inventor
隆弘 大橋
Takahiro Ohashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2023155445A priority Critical patent/JP2025047138A/en
Priority to CN202411303995.9A priority patent/CN119665862A/en
Publication of JP2025047138A publication Critical patent/JP2025047138A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Supply And Installment Of Electrical Components (AREA)

Abstract

【課題】1つの部品に光反射率が高い認識対象と光反射率が低い認識対象とが含まれる場合でも、各認識対象を同じ計測装置で適切に認識可能とすること。【解決手段】3次元計測装置は、第1認識対象である電極と、電極よりも光反射率が低い第2認識対象とを有する部品に、周期が異なるパターン光を投影する投影装置と、パターン光が投影された第1認識対象及び第2認識対象の撮像を別々に行う撮像装置と、第1認識対象の第1画像データに基づいて第1認識対象を画像認識し、第2認識対象の第2画像データに基づいて第2認識対象を画像認識する処理装置と、を備え、撮像条件と画像認識条件とを含む計測条件が、第1認識対象と第2認識対象とで異なる。【選択図】図2[Problem] To enable proper recognition of each recognition target using the same measurement device, even when a single component contains recognition targets with high and low optical reflectance. [Solution] A three-dimensional measurement device includes a projection device that projects patterned light with different periods onto a component having a first recognition target, an electrode, and a second recognition target with a lower optical reflectance than the electrode, an imaging device that separately images the first recognition target and the second recognition target onto which the patterned light is projected, and a processing device that performs image recognition of the first recognition target based on first image data of the first recognition target and image recognition of the second recognition target based on second image data of the second recognition target, and the measurement conditions, including the imaging conditions and the image recognition conditions, differ for the first recognition target and the second recognition target. [Selected Figure] Figure 2

Description

本開示は、3次元計測装置及び3次元計測方法に関する。 This disclosure relates to a three-dimensional measurement device and a three-dimensional measurement method.

物体の3次元計測方法として、特許文献1に開示されているような位相シフト法が知られている。位相シフト法に基づいて物体の3次元形状を計測する場合、正弦波状の明度分布の縞パターン(パターン光)が位相シフトしながら物体に投影される。縞パターンが投影された物体が撮像されることにより、物体の画像が取得される。 The phase shift method disclosed in Patent Document 1 is known as a method for measuring three-dimensional objects. When measuring the three-dimensional shape of an object based on the phase shift method, a stripe pattern (pattern light) with a sinusoidal brightness distribution is projected onto the object while undergoing a phase shift. The object onto which the stripe pattern is projected is imaged, and an image of the object is obtained.

特開2001-124534号公報JP 2001-124534 A

3次元計測方法の用途の1つに、電子機器への部品装着がある。部品の電極などの認識対象を3次元計測し、計測結果に基づいて基板などへの部品装着が行われる。部品の電極は、光反射率が高く、認識しやすい一方、過剰な光反射によりサチレーション(画像の輝度値の飽和)が発生しやすい。一方、部品の樹脂部などは、電極と比べて光反射率が低く、コントラストが付きにくいため認識が困難である。そのため、1つの部品に光反射率が高い認識対象と光反射率が低い認識対象とが含まれる場合、それぞれの認識に適した専用の計測装置を別々に設ける必要がある。 One application of 3D measurement methods is the mounting of components on electronic devices. Recognition targets, such as component electrodes, are measured in 3D, and the components are mounted on a circuit board or the like based on the measurement results. Component electrodes have a high light reflectance and are easy to recognize, but are prone to saturation (saturation of image brightness values) due to excessive light reflection. On the other hand, component resin parts have a lower light reflectance than electrodes, and are difficult to recognize because they do not have as much contrast. Therefore, when a single component contains recognition targets with high light reflectance and those with low light reflectance, it is necessary to provide separate dedicated measurement devices suitable for recognizing each.

本発明の態様は、1つの部品に光反射率が高い認識対象と光反射率が低い認識対象とが含まれる場合でも、各認識対象を同じ計測装置で適切に認識可能とすることを目的とする。 The objective of this aspect of the present invention is to make it possible to properly recognize each recognition target using the same measurement device, even when a single part contains recognition targets with high and low optical reflectance.

本発明の第1の態様に従えば、第1認識対象と、前記第1認識対象よりも光反射率が低い第2認識対象とを有する部品に、位相が異なるパターン光を投影する投影装置と、前記パターン光が投影された前記第1認識対象及び前記第2認識対象の撮像を別々に行う撮像装置と、前記第1認識対象の第1画像データに基づいて前記第1認識対象を画像認識し、前記第2認識対象の第2画像データに基づいて前記第2認識対象を画像認識する処理装置と、を備え、撮像条件と画像認識条件とを含む計測条件が、前記第1認識対象と前記第2認識対象とで異なる、3次元計測装置が提供される。 According to a first aspect of the present invention, there is provided a three-dimensional measuring device comprising: a projection device that projects pattern light with different phases onto a part having a first recognition target and a second recognition target having a lower light reflectance than the first recognition target; an imaging device that separately images the first recognition target and the second recognition target onto which the pattern light is projected; and a processing device that performs image recognition of the first recognition target based on first image data of the first recognition target and image recognition of the second recognition target based on second image data of the second recognition target, in which measurement conditions including imaging conditions and image recognition conditions are different for the first recognition target and the second recognition target.

本発明の第2の態様に従えば、第1認識対象と、前記第1認識対象よりも光反射率が低い第2認識対象とを有する部品に、位相が異なるパターン光を投影し、前記パターン光が投影された前記第1認識対象の第1撮像を行うステップと、前記部品に、前記パターン光を投影し、前記パターン光が投影された前記第2認識対象の第2撮像を行うステップと、前記第1認識対象の第1画像データに基づいて前記第1認識対象を画像認識し、前記第2認識対象の第2画像データに基づいて前記第2認識対象を画像認識するステップと、を備え、撮像条件と画像認識条件とを含む計測条件が、前記第1認識対象と前記第2認識対象とで異なる、3次元計測方法が提供される。 According to a second aspect of the present invention, there is provided a three-dimensional measurement method comprising the steps of: projecting pattern light having different phases onto a part having a first recognition target and a second recognition target having a lower light reflectance than the first recognition target, and taking a first image of the first recognition target onto which the pattern light is projected; projecting the pattern light onto the part, and taking a second image of the second recognition target onto which the pattern light is projected; and performing image recognition of the first recognition target based on first image data of the first recognition target, and performing image recognition of the second recognition target based on second image data of the second recognition target, in which measurement conditions including imaging conditions and image recognition conditions are different for the first recognition target and the second recognition target.

本発明の態様によれば、1つの部品に光反射率が高い認識対象と光反射率が低い認識対象とが含まれる場合でも、各認識対象を同じ計測装置で適切に認識できる。 According to this aspect of the present invention, even if a single part contains recognition targets with high light reflectance and recognition targets with low light reflectance, each recognition target can be properly recognized using the same measurement device.

図1は、実施形態に係る電子部品実装システムの一例を模式的に示す図である。FIG. 1 is a diagram illustrating an example of an electronic component mounting system according to an embodiment. 図2は、実施形態に係る3次元計測装置の一例を示す模式図である。FIG. 2 is a schematic diagram illustrating an example of a three-dimensional measuring apparatus according to an embodiment. 図3は、実施形態に係る3次元計測装置の一例を示す模式図である。FIG. 3 is a schematic diagram illustrating an example of a three-dimensional measuring apparatus according to an embodiment. 図4は、実施形態に係る処理装置の一例を示す機能ブロック図である。FIG. 4 is a functional block diagram illustrating an example of a processing device according to the embodiment. 図5は、本実施形態に係るパターンデータの一例を示す模式図である。FIG. 5 is a schematic diagram showing an example of pattern data according to the present embodiment. 図6は、実施形態に係る部品の一例を示した側面図(A)および下面図(B)である。FIG. 6A is a side view and FIG. 6B is a bottom view showing an example of a component according to the embodiment. 図7は、実施形態に係る部品の撮像を説明する説明図である。FIG. 7 is an explanatory diagram for explaining imaging of a component according to the embodiment. 図8は、実施形態に係る計測条件の具体例を示す図である。FIG. 8 is a diagram showing a specific example of the measurement conditions according to the embodiment. 図9は、実施形態に係る画像合成処理を説明するための模式図である。FIG. 9 is a schematic diagram for explaining the image synthesis process according to the embodiment. 図10は、実施形態の処理装置が実行する画像認識処理の認識アルゴリズムを説明するための説明図である。FIG. 10 is an explanatory diagram for explaining a recognition algorithm of the image recognition process executed by the processing device of the embodiment. 図11は、実施形態の処理装置による画像認識の第1補完処理の一例を示す説明図である。FIG. 11 is an explanatory diagram illustrating an example of the first complementation process of the image recognition by the processing device of the embodiment. 図12は、実施形態の処理装置による画像認識の第2補完処理の一例を示す説明図である。FIG. 12 is an explanatory diagram illustrating an example of the second complementation process of the image recognition by the processing device of the embodiment. 図13は、実施形態に係る3次元計測方法を示すフローチャートである。FIG. 13 is a flowchart showing a three-dimensional measurement method according to the embodiment. 図14は、実施形態に係る電子部品実装システムの動作を説明するフローチャートである。FIG. 14 is a flowchart illustrating the operation of the electronic component mounting system according to the embodiment.

以下、本発明に係る実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下で説明する実施形態の構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。 The following describes an embodiment of the present invention with reference to the drawings, but the present invention is not limited to this. The components of the embodiments described below can be combined as appropriate. Also, some components may not be used.

以下の説明においては、XYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。所定面のX軸と平行な方向をX軸方向とし、所定面においてX軸と直交するY軸と平行な方向をY軸方向とし、所定面と直交するZ軸と平行な方向をZ軸方向とする。Z軸を中心とする回転方向をθZ方向とする。また、以下の説明においては、所定面を適宜、XY平面、と称する。本実施形態においては、XY平面と水平面とが平行であることとする。 In the following explanation, an XYZ Cartesian coordinate system is set, and the positional relationship of each part is explained with reference to this XYZ Cartesian coordinate system. The direction parallel to the X-axis of a specified plane is defined as the X-axis direction, the direction parallel to the Y-axis perpendicular to the X-axis on the specified plane is defined as the Y-axis direction, and the direction parallel to the Z-axis perpendicular to the specified plane is defined as the Z-axis direction. The direction of rotation about the Z-axis is defined as the θZ direction. In the following explanation, the specified plane is appropriately referred to as the XY plane. In this embodiment, the XY plane and the horizontal plane are parallel to each other.

[実施形態]
<電子部品実装システム>
実施形態について説明する。図1は、実施形態に係る電子部品実装システム100の一例を模式的に示す図である。図1は、電子部品実装システム100を-Y方向から見た図である。
[Embodiment]
<Electronic component mounting system>
An embodiment will now be described. Fig. 1 is a diagram that illustrates an example of an electronic component mounting system 100 according to an embodiment. Fig. 1 is a diagram of the electronic component mounting system 100 as viewed from the -Y direction.

図1に示すように、電子部品実装システム100は、3次元計測装置1と、電子部品実装装置2と、を備える。電子部品実装システム100は、3次元計測装置1で部品Cの形状を3次元計測し、計測結果に基づいて、電子部品実装装置2で部品Cを基板Pに実装する。以下において、先に電子部品実装装置2について説明してから、本実施形態に係る3次元計測装置1を説明する。 As shown in FIG. 1, the electronic component mounting system 100 includes a three-dimensional measuring device 1 and an electronic component mounting device 2. The electronic component mounting system 100 uses the three-dimensional measuring device 1 to three-dimensionally measure the shape of a component C, and based on the measurement results, the electronic component mounting device 2 mounts the component C on a substrate P. Below, the electronic component mounting device 2 will be described first, and then the three-dimensional measuring device 1 according to this embodiment will be described.

<電子部品実装装置>
電子部品実装装置2は、部品Cを基板Pに実装する。電子部品実装装置2は、部品Cを保持するノズル11を保持する実装ヘッド22と、部品Cを供給する電子部品供給装置23と、部品Cが実装される基板Pを搬送する基板搬送装置24と、電子部品実装装置2を制御する制御装置29と、を備える。
<Electronic component mounting equipment>
The electronic component mounting device 2 mounts the component C on the substrate P. The electronic component mounting device 2 includes a mounting head 22 that holds the nozzle 11 that holds the component C, an electronic component supply device 23 that supplies the component C, a substrate transport device 24 that transports the substrate P on which the component C is to be mounted, and a control device 29 that controls the electronic component mounting device 2.

電子部品供給装置23は、例えば、複数の部品Cを保持するトレイを水平方向に移動させる移動機構を有する。電子部品供給装置23は、部品Cを供給位置SPに供給する。電子部品供給装置23は、テープに保持されている部品Cを供給するテープ供給方式の部品供給装置でもよい。その場合、電子部品供給装置23は、テープを支持するテープリールと、テープリールから繰り出されたテープに保持されている部品Cを搬送するフィーダとを含む。 The electronic component supply device 23 has, for example, a movement mechanism that moves a tray holding multiple components C in a horizontal direction. The electronic component supply device 23 supplies the components C to a supply position SP. The electronic component supply device 23 may be a component supply device of a tape supply type that supplies the components C held on a tape. In that case, the electronic component supply device 23 includes a tape reel that supports the tape, and a feeder that transports the components C held on the tape unwound from the tape reel.

基板搬送装置24は、基板Pを搬送するコンベアベルトと、実装位置MPに搬送された基板Pの位置を固定するクランプ機構とを有する。 The substrate transport device 24 has a conveyor belt that transports the substrate P and a clamping mechanism that fixes the position of the substrate P transported to the mounting position MP.

実装ヘッド22は、ノズル11に保持された部品Cを基板Pに実装する。実装ヘッド22は、ヘッド駆動装置25により、X軸方向及びY軸方向のそれぞれに移動する。ノズル11は、実装ヘッド22に設けられているノズル駆動装置26により、実装ヘッド22に対してZ軸方向及びθZ方向のそれぞれに移動する。ノズル11は、ヘッド駆動装置25及びノズル駆動装置26により、X軸方向、Y軸方向、Z軸方向、及びθZ方向の4つの方向に移動可能である。実装ヘッド22は、電子部品供給装置23に規定される供給位置SPと、基板Pに規定される実装位置MPとの間を移動可能である。 The mounting head 22 mounts the component C held by the nozzle 11 onto the substrate P. The mounting head 22 is moved in the X-axis direction and the Y-axis direction by the head driving device 25. The nozzle 11 is moved in the Z-axis direction and the θZ direction relative to the mounting head 22 by the nozzle driving device 26 provided on the mounting head 22. The nozzle 11 can be moved in four directions, the X-axis direction, the Y-axis direction, the Z-axis direction, and the θZ direction, by the head driving device 25 and the nozzle driving device 26. The mounting head 22 can be moved between a supply position SP defined by the electronic component supply device 23 and a mounting position MP defined on the substrate P.

実装ヘッド22は、電子部品供給装置23から供給された部品Cを供給位置SPにおいてノズル11で保持した後、実装位置MPに配置されている基板Pに搬送する。実装ヘッド22は、ノズル11に保持されている部品Cを実装位置MPに配置されている基板Pに実装する。 The mounting head 22 holds the component C supplied from the electronic component supply device 23 with the nozzle 11 at the supply position SP, and then transports it to the board P placed at the mounting position MP. The mounting head 22 mounts the component C held by the nozzle 11 onto the board P placed at the mounting position MP.

ノズル11は、部品Cを着脱可能に保持する。ノズル11は、部品Cを吸着して保持する吸着ノズルでもよいし、部品Cを挟んで保持する把持ノズルでもよい。 The nozzle 11 removably holds the part C. The nozzle 11 may be a suction nozzle that suctions and holds the part C, or a gripping nozzle that clamps and holds the part C.

実装ヘッド22は、部品Cを供給位置SPにおいてノズル11で保持した後、基板Pに搬送する前に、3次元計測装置1の計側位置TPに部品Cを配置する。3次元計測装置1の計側位置TPとは、3次元計測装置1のパターン光PL(図2参照)が照射可能な位置をいう。 After the mounting head 22 holds the component C with the nozzle 11 at the supply position SP, it places the component C at the measurement side position TP of the three-dimensional measuring device 1 before transporting it to the substrate P. The measurement side position TP of the three-dimensional measuring device 1 refers to a position where the pattern light PL (see Figure 2) of the three-dimensional measuring device 1 can be irradiated.

基板搬送装置24には、実装位置MPに配置される基板Pに形成された貫通孔の位置を計測する位置計測装置27が設けられている。基板Pに形成された貫通孔の位置を示す位置計測装置27の計測データは、制御装置29に出力される。 The substrate transport device 24 is provided with a position measuring device 27 that measures the position of the through-hole formed in the substrate P placed at the mounting position MP. Measurement data from the position measuring device 27 indicating the position of the through-hole formed in the substrate P is output to the control device 29.

制御装置29は、ヘッド駆動装置25、ノズル駆動装置26、位置計測装置27、及び後述する3次元計測装置1の処理装置5のそれぞれに接続される。制御装置29は、部品Cを基板Pに実装する前に、3次元計測装置1により部品Cの3次元形状を計測する。実装ヘッド22は、3次元計測装置1による部品Cの測定結果に基づいて、後述するように、部品Cと基板Pとの相対位置を調整して、部品Cを基板Pに実装する。 The control device 29 is connected to the head driving device 25, the nozzle driving device 26, the position measuring device 27, and the processing device 5 of the three-dimensional measuring device 1 described below. Before mounting the component C on the substrate P, the control device 29 measures the three-dimensional shape of the component C using the three-dimensional measuring device 1. Based on the measurement results of the component C by the three-dimensional measuring device 1, the mounting head 22 adjusts the relative position between the component C and the substrate P, as described below, and mounts the component C on the substrate P.

<3次元計測装置>
図1に示すように、3次元計測装置1は、部品Cにパターン光PLを投影する投影装置3と、パターン光PLが投影された部品Cを撮像する撮像装置4と、撮像された画像データに基づいて画像認識を行う処理装置5と、を備える。図1の例では、3次元計測装置1は、計測位置TPの下方(-Z方向)に配置される。3次元計測装置1は、ノズル11によって保持された部品Cの下面を撮像するように、撮像方向を上方(+Z方向)に向けて設置される。
<3D measuring device>
As shown in Fig. 1, the three-dimensional measuring apparatus 1 includes a projection device 3 that projects pattern light PL onto a part C, an imaging device 4 that images the part C onto which the pattern light PL is projected, and a processing device 5 that performs image recognition based on the captured image data. In the example of Fig. 1, the three-dimensional measuring apparatus 1 is disposed below (in the -Z direction) the measurement position TP. The three-dimensional measuring apparatus 1 is installed with the imaging direction facing upward (in the +Z direction) so as to image the bottom surface of the part C held by the nozzle 11.

3次元計測装置1は、供給位置SPと実装位置MPとの間の実装ヘッド22の移動経路に、ノズル11で保持して計測位置TPに配置された状態の部品Cにパターン光PLを照射可能な位置に配置される。 The three-dimensional measuring device 1 is positioned on the movement path of the mounting head 22 between the supply position SP and the mounting position MP at a position where it can irradiate the pattern light PL onto the component C held by the nozzle 11 and placed at the measurement position TP.

図2は、実施形態に係る3次元計測装置1の一例を示す模式図である。図3は、実施形態に係る3次元計測装置1の一例を示す模式図である。図2は、3次元計測装置1の構成要素である3次元計測装置1を、図1と同様の方向から見た図である。図3は、3次元計測装置1の構成要素である3次元計測装置1を、鉛直方向上側、すなわち+Z方向から見た図である。 Figure 2 is a schematic diagram showing an example of a three-dimensional measuring device 1 according to an embodiment. Figure 3 is a schematic diagram showing an example of a three-dimensional measuring device 1 according to an embodiment. Figure 2 is a diagram of the three-dimensional measuring device 1, which is a component of the three-dimensional measuring device 1, viewed from the same direction as in Figure 1. Figure 3 is a diagram of the three-dimensional measuring device 1, which is a component of the three-dimensional measuring device 1, viewed from the vertically upward side, i.e., from the +Z direction.

実施形態では、部品Cは、第1認識対象R1と、第1認識対象R1よりも光反射率が低い第2認識対象R2とを有する。3次元計測装置1は、第1認識対象R1及び第2認識対象R2の両方の3次元計測を行う。部品C、第1認識対象R1及び第2認識対象R2の詳細については、後述する。 In this embodiment, the part C has a first recognition target R1 and a second recognition target R2 that has a lower light reflectance than the first recognition target R1. The three-dimensional measuring device 1 performs three-dimensional measurement of both the first recognition target R1 and the second recognition target R2. Details of the part C, the first recognition target R1, and the second recognition target R2 will be described later.

図2に示すように、投影装置3は、部品Cに、位相が異なるパターン光PLを投影する。投影装置3は、光を発生する光源31と、光源31から発生した光を光変調してパターン光PLを生成する光変調素子32と、光変調素子32で生成されたパターン光PLを射出する射出光学系33とを有する。 As shown in FIG. 2, the projection device 3 projects pattern light PL with different phases onto the part C. The projection device 3 has a light source 31 that generates light, a light modulation element 32 that optically modulates the light generated from the light source 31 to generate the pattern light PL, and an emission optical system 33 that emits the pattern light PL generated by the light modulation element 32.

光変調素子32は、デジタルミラーデバイス(Digital Mirror Device:DMD)を含む。なお、光変調素子32は、透過型の液晶パネルを含んでもよいし、反射型の液晶パネルを含んでもよい。光変調素子32は、処理装置5から出力されるパターンデータに基づいてパターン光PLを生成する。投影装置3は、パターンデータに基づいてパターン化されたパターン光PLを射出する。 The light modulation element 32 includes a digital mirror device (DMD). The light modulation element 32 may include a transmissive liquid crystal panel or a reflective liquid crystal panel. The light modulation element 32 generates the pattern light PL based on the pattern data output from the processing device 5. The projection device 3 emits the pattern light PL that is patterned based on the pattern data.

投影装置3は、部品Cに複数方向から別々にパターン光PLの投影を行う。投影装置3は、出射した光を反射させることにより、投影方向を変化させる反射部材6を備える。反射部材6は、投影装置3から射出されたパターン光PLを反射して部品Cに照射する。反射部材6の反射面は、平面状である。 The projection device 3 projects the pattern light PL onto the part C from multiple directions separately. The projection device 3 is equipped with a reflecting member 6 that changes the projection direction by reflecting the emitted light. The reflecting member 6 reflects the pattern light PL emitted from the projection device 3 and irradiates it onto the part C. The reflecting surface of the reflecting member 6 is flat.

撮像装置4は、部品Cで反射したパターン光PLを結像する結像光学系41と、結像光学系41を介して部品Cの画像データを取得する撮像素子42とを有する。撮像素子42は、CMOSイメージセンサ(Complementary Metal Oxide Semiconductor Image Sensor)又はCCDイメージセンサ(Charge Coupled Device Image Sensor)を含む固体撮像素子である。 The imaging device 4 has an imaging optical system 41 that forms an image of the pattern light PL reflected by the component C, and an imaging element 42 that acquires image data of the component C via the imaging optical system 41. The imaging element 42 is a solid-state imaging element including a CMOS image sensor (Complementary Metal Oxide Semiconductor Image Sensor) or a CCD image sensor (Charge Coupled Device Image Sensor).

実施形態では、結像光学系41は、テレセントリック光学系である。テレセントリック光学系は、主光線が光軸AXに平行となる光学系である。このため、撮像装置4の撮像視野内に入射して画像化される光(主光線)は、光軸AXと平行であるとみなせる。 In this embodiment, the imaging optical system 41 is a telecentric optical system. A telecentric optical system is an optical system in which the chief ray is parallel to the optical axis AX. Therefore, the light (chief ray) that enters the imaging field of view of the imaging device 4 and is imaged can be considered to be parallel to the optical axis AX.

実施形態では、撮像装置4は、パターン光PLが投影された第1認識対象R1及び第2認識対象R2の撮像を別々に行う。撮像装置4は、第1撮像によって、パターン光PLが投影された第1認識対象R1を撮像した第1画像データ61(図7参照)を生成する。撮像装置4は、第2撮像によって、パターン光PLが投影された第2認識対象R2を撮像した第2画像データ62(図7参照)を生成する。 In the embodiment, the imaging device 4 separately captures images of the first recognition target R1 and the second recognition target R2 onto which the pattern light PL is projected. The imaging device 4 generates first image data 61 (see FIG. 7) by capturing an image of the first recognition target R1 onto which the pattern light PL is projected, through the first imaging. The imaging device 4 generates second image data 62 (see FIG. 7) by capturing an image of the second recognition target R2 onto which the pattern light PL is projected, through the second imaging.

処理装置5は、コンピュータシステムを含み、投影装置3及び撮像装置4を制御する。処理装置5は、CPU(Central Processing Unit)のようなプロセッサを含む演算処理装置と、ROM(Read Only Memory)又はRAM(Random Access Memory)のようなメモリ及びストレージを含む記憶装置と、信号及びデータを入出力可能な入出力回路を含む入出力インターフェースと、を有する。演算処理装置は、記憶装置に記憶されているコンピュータプログラムに従って演算処理を実施する。 The processing device 5 includes a computer system and controls the projection device 3 and the imaging device 4. The processing device 5 has an arithmetic processing device including a processor such as a CPU (Central Processing Unit), a storage device including memory and storage such as a ROM (Read Only Memory) or a RAM (Random Access Memory), and an input/output interface including an input/output circuit capable of inputting and outputting signals and data. The arithmetic processing device performs arithmetic processing according to a computer program stored in the storage device.

実施形態では、処理装置5は、第1認識対象R1の第1画像データ61に基づいて第1認識対象R1を画像認識し、第2認識対象R2の第2画像データ62に基づいて第2認識対象R2を画像認識する。なお、本明細書において、画像認識とは、3次元計測によって認識対象の位置及び形状の少なくとも一方を取得することを意味する。画像認識を行うことは、3次元計測を行うことを含む。 In the embodiment, the processing device 5 performs image recognition of the first recognition target R1 based on the first image data 61 of the first recognition target R1, and performs image recognition of the second recognition target R2 based on the second image data 62 of the second recognition target R2. Note that in this specification, image recognition means acquiring at least one of the position and shape of the recognition target by three-dimensional measurement. Performing image recognition includes performing three-dimensional measurement.

3次元計測装置1は、パターン投影法に基づいて、ノズル11で保持して計測位置TPに配置された状態の部品Cの認識対象(第1認識対象R1、第2認識対象R2)の3次元形状を計測する。投影装置3は、パターン光PLとして、例えば正弦波状の明度分布の縞パターン光を位相シフトさせながら部品Cに照射する。上記の通り、パターン光PLは、複数の方向から部品Cに照射される。 The three-dimensional measuring device 1 uses a pattern projection method to measure the three-dimensional shape of the recognition targets (first recognition target R1, second recognition target R2) of the part C held by the nozzle 11 and positioned at the measurement position TP. The projection device 3 irradiates the part C with pattern light PL, for example, a stripe pattern light with a sinusoidal brightness distribution, while shifting the phase. As described above, the pattern light PL is irradiated onto the part C from multiple directions.

撮像装置4は、パターン光PLが投影された部品Cの画像データを取得する。撮像装置4は、少なくとも、第1パターン光PL1が投影された部品Cの画像データと、第2パターン光PL2が投影された部品Cの画像データとを取得する。部品Cに入射する第1パターン光PL1の入射方向と第2パターン光PL2の入射方向とは異なる。 The imaging device 4 acquires image data of the part C onto which the pattern light PL is projected. The imaging device 4 acquires at least image data of the part C onto which the first pattern light PL1 is projected and image data of the part C onto which the second pattern light PL2 is projected. The direction of incidence of the first pattern light PL1 and the second pattern light PL2 incident on the part C are different.

図2に示すように、第1パターン光PL1は、投影装置3から射出され部品Cにダイレクトに照射されるパターン光PLである。第2パターン光PL2は、投影装置3から射出され反射部材6で反射して部品Cに照射されるパターン光PLである。 As shown in FIG. 2, the first pattern light PL1 is pattern light PL emitted from the projection device 3 and directly irradiated onto the part C. The second pattern light PL2 is pattern light PL emitted from the projection device 3, reflected by the reflecting member 6, and irradiated onto the part C.

処理装置5は、投影装置3からの第1パターン光PL1が部品Cに照射される第1照射状態と、反射部材6からの第2パターン光PL2が部品Cに照射される第2照射状態との一方から他方に変化するように、光変調素子32を制御する。 The processing device 5 controls the light modulation element 32 so as to change from one of a first irradiation state in which the first pattern light PL1 from the projection device 3 is irradiated onto the part C to a second irradiation state in which the second pattern light PL2 from the reflecting member 6 is irradiated onto the part C, to the other.

部品Cに第1パターン光PL1を照射するとき、処理装置5は、射出光学系33の射出面33Sの第1領域331からパターン光PLが射出され、射出面33Sの第2領域332からパターン光PLが射出されないように、光変調素子32を制御する。第1領域331から射出されたパターン光PLは、反射部材6を介さずに、第1パターン光PL1として部品Cにダイレクトに照射される。 When irradiating the part C with the first pattern light PL1, the processing device 5 controls the light modulation element 32 so that the pattern light PL is emitted from the first region 331 of the emission surface 33S of the emission optical system 33 and is not emitted from the second region 332 of the emission surface 33S. The pattern light PL emitted from the first region 331 is irradiated directly to the part C as the first pattern light PL1 without passing through the reflecting member 6.

部品Cに第2パターン光PL2を照射するとき、処理装置5は、射出光学系33の射出面33Sの第2領域332からパターン光PLが射出され、射出面33Sの第1領域331からパターン光PLが射出されないように、光変調素子32を制御する。第2領域332から射出されたパターン光PLは、光軸AXを通過して反射部材6に照射される。第2領域332から射出されたパターン光PLは、反射部材6を介して、第2パターン光PL2として部品Cに照射される。 When irradiating the part C with the second pattern light PL2, the processing device 5 controls the light modulation element 32 so that the pattern light PL is emitted from the second region 332 of the emission surface 33S of the emission optical system 33 and is not emitted from the first region 331 of the emission surface 33S. The pattern light PL emitted from the second region 332 passes through the optical axis AX and is irradiated onto the reflecting member 6. The pattern light PL emitted from the second region 332 is irradiated onto the part C as the second pattern light PL2 via the reflecting member 6.

図1及び図2に示す例において、第1領域331は、射出光学系33の光軸よりも+X側の射出面33Sの半分の領域であり、第2領域332は、射出光学系33の光軸よりも-X側の射出面33Sの半分の領域である。第1領域331から射出されたパターン光PLは、ノズル11で保持して計測位置TPに配置された状態の部品Cに照射される。第2領域332から射出されたパターン光PLは、反射部材6の反射面に照射され、反射部材6の反射面で反射した後、ノズル11で保持して計測位置TPに配置された状態の部品Cに照射される。 In the example shown in FIG. 1 and FIG. 2, the first region 331 is half the area of the emission surface 33S on the +X side of the optical axis of the emission optical system 33, and the second region 332 is half the area of the emission surface 33S on the -X side of the optical axis of the emission optical system 33. The pattern light PL emitted from the first region 331 is irradiated onto the component C that is held by the nozzle 11 and placed at the measurement position TP. The pattern light PL emitted from the second region 332 is irradiated onto the reflecting surface of the reflecting member 6, reflected by the reflecting surface of the reflecting member 6, and then irradiated onto the component C that is held by the nozzle 11 and placed at the measurement position TP.

図1及び図2に示すように、投影装置3、撮像装置4及び反射部材6は、ハウジング7に支持される。投影装置3と撮像装置4と反射部材6との相対位置は、ハウジング7により固定される。撮像装置4の入射面41Sは、計測位置TPに配置される部品Cと対向可能である。 As shown in Figures 1 and 2, the projection device 3, the imaging device 4, and the reflecting member 6 are supported by a housing 7. The relative positions of the projection device 3, the imaging device 4, and the reflecting member 6 are fixed by the housing 7. The incident surface 41S of the imaging device 4 can face a component C placed at the measurement position TP.

反射部材6は、入射面41Sと計測位置TPに配置される部品Cとの間の結像光学系41の光軸AXの周囲の少なくとも一部に配置される。投影装置3は、入射面41Sと計測位置TPに配置される部品Cとの間の結像光学系41の光軸AXの周囲の少なくとも一部に配置される。反射部材6は、投影装置3よりも計測位置TPに近い位置に配置される。 The reflecting member 6 is disposed at least partially around the optical axis AX of the imaging optical system 41 between the incident surface 41S and the part C disposed at the measurement position TP. The projection device 3 is disposed at least partially around the optical axis AX of the imaging optical system 41 between the incident surface 41S and the part C disposed at the measurement position TP. The reflecting member 6 is disposed at a position closer to the measurement position TP than the projection device 3.

図3に示すように、投影装置3は、光軸AXの周囲に2つ配置される。また、反射部材6は、光軸AXの周囲に2つ配置される。 As shown in FIG. 3, two projection devices 3 are arranged around the optical axis AX. In addition, two reflection members 6 are arranged around the optical axis AX.

第1の反射部材6は、光軸AXの-X側に配置される。第1の投影装置3は、光軸AXの+X側に配置される。第1の投影装置3は、第1の反射部材6に第2パターン光PL2を照射可能である。第1の反射部材6で反射した第2パターン光PL2は、計測位置TPに配置された部品Cに照射される。また、第1の投影装置3は、計測位置TPに配置された部品Cにダイレクトに第1パターン光PL1を照射可能である。 The first reflecting member 6 is disposed on the -X side of the optical axis AX. The first projection device 3 is disposed on the +X side of the optical axis AX. The first projection device 3 can irradiate the first reflecting member 6 with the second pattern light PL2. The second pattern light PL2 reflected by the first reflecting member 6 is irradiated onto the component C placed at the measurement position TP. The first projection device 3 can also irradiate the first pattern light PL1 directly onto the component C placed at the measurement position TP.

第2の反射部材6は、光軸AXの+Y側に配置される。第2の投影装置3は、光軸AXの-Y側に配置される。第2の投影装置3は、第2の反射部材6に第2パターン光PL2を照射可能である。第2の反射部材6で反射した第2パターン光PL2は、計測位置TPに配置された部品Cに照射される。また、第2の投影装置3は、計測位置TPに配置された部品Cにダイレクトに第1パターン光PL1を照射可能である。 The second reflecting member 6 is disposed on the +Y side of the optical axis AX. The second projection device 3 is disposed on the -Y side of the optical axis AX. The second projection device 3 is capable of irradiating the second reflecting member 6 with the second pattern light PL2. The second pattern light PL2 reflected by the second reflecting member 6 is irradiated onto the component C placed at the measurement position TP. In addition, the second projection device 3 is capable of irradiating the first pattern light PL1 directly onto the component C placed at the measurement position TP.

このように、第1及び第2の投影装置3と、第1及び第2の反射部材6とは、計測位置TPに配置された部品Cに、4つの方向からパターン光PLを投影可能である。撮像装置4は、第1の投影装置3からの第1パターン光PL1が投影された部品Cの画像データ、第1の反射部材6からの第2パターン光PL2が投影された部品Cの画像データ、第2の投影装置3からの第1パターン光PL1が投影された部品Cの画像データ、及び第2の反射部材6からの第2パターン光PL2が投影された部品Cの画像データのそれぞれを取得する。 In this way, the first and second projection devices 3 and the first and second reflecting members 6 can project the pattern light PL from four directions onto the part C placed at the measurement position TP. The imaging device 4 acquires image data of the part C onto which the first pattern light PL1 from the first projection device 3 is projected, image data of the part C onto which the second pattern light PL2 from the first reflecting member 6 is projected, image data of the part C onto which the first pattern light PL1 from the second projection device 3 is projected, and image data of the part C onto which the second pattern light PL2 from the second reflecting member 6 is projected.

上記したように、投影装置3と反射部材6とは、本実施形態では、互いにX軸方向に対向して設けられた1組と、互いにY軸方向に対向して設けられた1組との合計2組を有しているが、本発明ではこれに限定されることなく、1組でも、3組以上有していてもよい。また、3次元計測装置1は、投影方向毎に単独で(反射部材6なしで)設けられた複数の投影装置3を備えていてもよい。 As described above, in this embodiment, there are two pairs of projection devices 3 and reflecting members 6, one pair facing each other in the X-axis direction and one pair facing each other in the Y-axis direction, but the present invention is not limited to this and may have one pair, or three or more pairs. In addition, the three-dimensional measuring device 1 may have multiple projection devices 3 provided independently (without reflecting members 6) for each projection direction.

なお、本実施形態では、投影装置3と反射部材6とによる投影装置3と、撮像装置4と、を含む位相シフト法を用いる形態の3次元計測装置1を好ましい形態のものとして使用しているが、本発明ではこれに限定されず、撮像画像解析法を用いる形態のものを使用してもよい。 In this embodiment, a three-dimensional measuring device 1 using a phase shift method including a projection device 3 consisting of a projection device 3 and a reflecting member 6, and an imaging device 4 is used as a preferred embodiment, but the present invention is not limited to this, and a form using an imaging image analysis method may also be used.

<制御装置>
図4は、実施形態に係る処理装置5の一例を示す機能ブロック図である。処理装置5は、入出力部51と、パターン生成部52と、画像データ取得部53と、位相値算出部54と、3次元形状算出部55と、を有する。また、処理装置5は、記憶部56を有する。
<Control device>
4 is a functional block diagram showing an example of the processing device 5 according to the embodiment. The processing device 5 includes an input/output unit 51, a pattern generating unit 52, an image data acquiring unit 53, a phase value calculating unit 54, and a three-dimensional shape calculating unit 55. The processing device 5 also includes a storage unit 56.

入出力部51は、処理装置5の入出力インターフェースが、実施形態に係る3次元計測装置1が実施形態に係る3次元計測方法を実行するための3次元計測プログラムを実行することにより、実現される機能部である。 The input/output unit 51 is a functional unit that is realized by the input/output interface of the processing device 5 executing a three-dimensional measurement program for the three-dimensional measurement device 1 according to the embodiment to execute the three-dimensional measurement method according to the embodiment.

パターン生成部52、画像データ取得部53、位相値算出部54及び3次元形状算出部55は、処理装置5の演算処理装置が、実施形態に係る3次元計測装置1が実施形態に係る3次元計測方法を実行するための3次元計測プログラムを実行することにより、実現される機能部である。演算処理装置は、CPU(Central Processing Unit)のようなプロセッサと、ROM(Read Only Memory)のような不揮発性メモリ及びRAM(Random Access Memory)のような揮発性メモリを含むメインメモリとを有する。 The pattern generation unit 52, image data acquisition unit 53, phase value calculation unit 54, and three-dimensional shape calculation unit 55 are functional units that are realized by the arithmetic processing unit of the processing device 5 executing a three-dimensional measurement program for the three-dimensional measurement device 1 according to the embodiment to execute the three-dimensional measurement method according to the embodiment. The arithmetic processing unit has a processor such as a CPU (Central Processing Unit) and a main memory including a non-volatile memory such as a ROM (Read Only Memory) and a volatile memory such as a RAM (Random Access Memory).

記憶部56は、半導体メモリのような不揮発性記憶装置を含む。記憶部56は、入出力部51と、パターン生成部52と、画像データ取得部53と、位相値算出部54と、3次元形状算出部55とにおいて実行されるプログラムを記憶する。記憶部56は、部品Cの設計情報である部品データを記憶する。部品データには、部品Cの形状、寸法などの情報が記録されている。 The storage unit 56 includes a non-volatile storage device such as a semiconductor memory. The storage unit 56 stores programs executed by the input/output unit 51, the pattern generation unit 52, the image data acquisition unit 53, the phase value calculation unit 54, and the three-dimensional shape calculation unit 55. The storage unit 56 stores part data, which is design information for part C. The part data records information such as the shape and dimensions of part C.

パターン生成部52は、パターンデータを生成する。パターン生成部52で生成されたパターンデータは、入出力部51を介して光変調素子32に出力される。光変調素子32は、パターン生成部52で生成されたパターンデータに基づいて、パターン光PLを生成する。パターン生成部52に生成されるパターンデータは、反射部材6を介さずに投影装置3からの第1パターン光PL1を部品Cに照射するための第1パターンデータと、反射部材6を介して投影装置3からの第2パターン光PL2を部品Cに照射するための第2パターンデータとを含む。 The pattern generation unit 52 generates pattern data. The pattern data generated by the pattern generation unit 52 is output to the light modulation element 32 via the input/output unit 51. The light modulation element 32 generates pattern light PL based on the pattern data generated by the pattern generation unit 52. The pattern data generated by the pattern generation unit 52 includes first pattern data for irradiating the part C with the first pattern light PL1 from the projection device 3 without passing through the reflecting member 6, and second pattern data for irradiating the part C with the second pattern light PL2 from the projection device 3 via the reflecting member 6.

図5は、本実施形態に係るパターンデータの一例を示す模式図である。図5において、光を出射しない領域を黒色で示し、光を出射する領域を白色で示す。パターン生成部52は、図5(A)に示すように、部品Cに第1パターン光PL1を照射させるとき、射出光学系33の射出面33Sの第1領域331からパターン光PLを射出させ、射出面33Sの第2領域332からパターン光PLを射出させないように、第1パターンデータを生成し、光変調素子32を制御する。 Figure 5 is a schematic diagram showing an example of pattern data according to this embodiment. In Figure 5, areas that do not emit light are shown in black, and areas that emit light are shown in white. As shown in Figure 5 (A), when the first pattern light PL1 is irradiated onto the part C, the pattern generation unit 52 generates first pattern data and controls the light modulation element 32 so that the pattern light PL is emitted from the first area 331 of the emission surface 33S of the emission optical system 33 and the pattern light PL is not emitted from the second area 332 of the emission surface 33S.

パターン生成部52は、図5(B)に示すように、部品Cに第2パターン光PL2を照射させるとき、射出光学系33の射出面33Sの第2領域332からパターン光PLを射出させ、射出面33Sの第1領域331からパターン光PLを射出させないように、第2パターンデータを生成し、光変調素子32を制御する。 As shown in FIG. 5(B), when the second pattern light PL2 is irradiated onto the part C, the pattern generation unit 52 generates second pattern data and controls the light modulation element 32 so that the pattern light PL is emitted from the second region 332 of the emission surface 33S of the emission optical system 33 and the pattern light PL is not emitted from the first region 331 of the emission surface 33S.

画像データ取得部53は、入出力部51を介して、撮像素子42から画像データを取得する。画像データ取得部53は、第1及び第2の投影装置3により第1パターン光PL1が投影された部品Cの画像データ、及び第1及び第2の反射部材6からの第2パターン光PL2が投影された部品Cの画像データを取得する。 The image data acquisition unit 53 acquires image data from the image sensor 42 via the input/output unit 51. The image data acquisition unit 53 acquires image data of the part C onto which the first pattern light PL1 is projected by the first and second projection devices 3, and image data of the part C onto which the second pattern light PL2 is projected from the first and second reflecting members 6.

位相値算出部54は、画像データの輝度(画素値)に基づいて、画像データの複数の画素それぞれの位相値を算出する。位相値算出部54は、位相シフトされたパターン光PLのそれぞれが投影された部品Cの複数の画像データの同一の点の輝度に基づいて、その点に対応する画像データの画素の位相値を算出する。位相値算出部54は、画像データの複数の点それぞれの輝度に基づいて、画像データの複数の画素それぞれの位相値を算出する。 The phase value calculation unit 54 calculates the phase value of each of the multiple pixels of the image data based on the luminance (pixel value) of the image data. The phase value calculation unit 54 calculates the phase value of the pixel of the image data corresponding to the same point based on the luminance of the same point of the multiple image data of the part C onto which each of the phase-shifted pattern lights PL is projected. The phase value calculation unit 54 calculates the phase value of each of the multiple pixels of the image data based on the luminance of the multiple points of the image data.

3次元形状算出部55は、画像データの複数の画素それぞれの位相値に基づいて、画像データの複数の画素それぞれに対応する部品Cの複数の点それぞれの位置データを算出して、部品Cの3次元形状を算出する。 The three-dimensional shape calculation unit 55 calculates the position data of each of the multiple points of part C corresponding to each of the multiple pixels of the image data based on the phase values of each of the multiple pixels of the image data, and calculates the three-dimensional shape of part C.

3次元形状算出部55は、より詳細には、部品Cの先端における位置データに基づいて、第1認識対象R1および第2認識対象R2の高さ(突出長さ)を算出し、部品Cの鉛直方向の全体の長さである部品高さと、第1認識対象R1の高さデータおよび第2認識対象R2の高さデータを算出する。 More specifically, the three-dimensional shape calculation unit 55 calculates the height (protruding length) of the first recognition target R1 and the second recognition target R2 based on the position data at the tip of the part C, and calculates the part height, which is the overall length of the part C in the vertical direction, as well as the height data of the first recognition target R1 and the height data of the second recognition target R2.

<部品>
図6は、実施形態に係る部品Cの一例を示した側面図(A)および下面図(B)である。一例において、部品Cは、基板Pに装着されるコネクタ部品である。部品Cは、ボディC1と、ボディC1から延びる電極C2と、を有する。ボディC1は、位置決め用のボスC3と、固定用のねじ孔C4と、を有する。部品Cは、全体として所定方向に長い、直線形状を有する。
<Parts>
6A and 6B are a side view and a bottom view showing an example of a component C according to an embodiment. In the example, the component C is a connector component to be mounted on a substrate P. The component C has a body C1 and electrodes C2 extending from the body C1. The body C1 has a boss C3 for positioning and a screw hole C4 for fixing. The component C has a linear shape that is long in a predetermined direction as a whole.

部品Cは、複数の電極C2が配列された2つの端子部C11と、部品Cを固定する3つの固定部C12と、を有する。3つの固定部C12は、間隔を隔てて直線状に配置されている。中央および一端の2つの固定部C12の間に1つの端子部C11が配置され、中央と他端の2つの固定部C12の間に他の1つの端子部C11が配置されている。 Component C has two terminal portions C11 on which multiple electrodes C2 are arranged, and three fixing portions C12 that fix component C. The three fixing portions C12 are arranged in a straight line at intervals. One terminal portion C11 is arranged between the two fixing portions C12 at the center and one end, and another terminal portion C11 is arranged between the two fixing portions C12 at the center and the other end.

ボディC1は、黒色の暗色樹脂からなる。ボスC3及びねじ孔C4は、ボディC1の下面C13に設けられている。ボスC3及びねじ孔C4は、3つの固定部C12に、それぞれ1つずつ設けられている。ボスC3は、ボディC1の下面C13から下向きに突出する円柱状の突起である。ボスC3は、ボディC1と一体形成されていて、黒色の暗色樹脂からなる。ねじ孔C4は、金属製のめねじパーツが、ボディC1に形成された取付穴に固定されることによりボディC1に設けられる。 The body C1 is made of dark-colored resin. The boss C3 and the screw hole C4 are provided on the bottom surface C13 of the body C1. One boss C3 and one screw hole C4 are provided on each of the three fixing parts C12. The boss C3 is a cylindrical protrusion that protrudes downward from the bottom surface C13 of the body C1. The boss C3 is formed integrally with the body C1 and is made of dark-colored resin. The screw hole C4 is provided in the body C1 by fixing a metal female thread part to a mounting hole formed in the body C1.

電極C2は、部品CのボディC1から突出するリード電極である。電極C2は、金属製である。電極C2は、2つの端子部C11の各々に、多数配置されている。各電極C2は、端子部C11におけるボディC1の下面C13から、部品Cの幅方向に広がるように、斜め下方に向けて突出する。電極C2の先端(下端)は、基板Pの配線パターンと接続可能なように、平板状で、概ね水平(ボディC1の下面C13と平行)となっている。 The electrodes C2 are lead electrodes that protrude from the body C1 of the component C. The electrodes C2 are made of metal. A large number of electrodes C2 are arranged on each of the two terminal portions C11. Each electrode C2 protrudes diagonally downward from the bottom surface C13 of the body C1 at the terminal portion C11 so as to extend in the width direction of the component C. The tip (bottom end) of the electrode C2 is flat and generally horizontal (parallel to the bottom surface C13 of the body C1) so that it can be connected to the wiring pattern of the substrate P.

実施形態において、第1認識対象R1は、部品CのボディC1から突出するリード電極(すなわち、電極C2)の先端部である。第1認識対象R1は、複数の電極C2の各々の先端部(下面部)である。第2認識対象R2は、暗色樹脂からなるボディC1から突出するボスC3の先端部である。第2認識対象R2は、3つのボスC3の各々の先端部(下面部)である。 In the embodiment, the first recognition target R1 is the tip of a lead electrode (i.e., electrode C2) protruding from the body C1 of the component C. The first recognition target R1 is the tip (lower surface) of each of the multiple electrodes C2. The second recognition target R2 is the tip of a boss C3 protruding from the body C1 made of dark resin. The second recognition target R2 is the tip (lower surface) of each of the three bosses C3.

図6に示す例では、部品Cは、所定方向に延びる長尺部品であり、部品Cの長手寸法は、撮像装置4の視野よりも大きい。そこで、3次元計測装置1は、部品Cの全体を複数領域に分割して、分割領域毎に画像認識(3次元計測)を行う。部品Cの分割領域数は、部品Cのサイズと、撮像装置4の視野サイズとに応じる。図7は、実施形態に係る部品Cの撮像を説明する説明図である。図7は、部品Cの全体を3つの分割領域に分割した例を示す。図7では、部品Cの全体が、分割領域CA1、CA2及びCA3に分割されている。分割領域CA1は、部品Cの一端部を含む約1/3の領域である。分割領域CA2は、部品Cの中央の約1/3の領域である。分割領域CA3は、部品Cの他端部を含む約1/3の領域である。図7に示す矩形の破線部は、撮像装置4の視野範囲4Sを示す。図7では、説明の便宜上、視野範囲4Sが分割領域CA1、CA2及びCA3の3か所に位置しているかのように示しているが、実際は、分割領域CA1、CA2及びCA3の各々が視野範囲4S内に収まるように、部品Cが実装ヘッド22によって移動される。 In the example shown in FIG. 6, the part C is a long part extending in a predetermined direction, and the longitudinal dimension of the part C is larger than the field of view of the imaging device 4. Therefore, the three-dimensional measuring device 1 divides the entire part C into a plurality of regions and performs image recognition (three-dimensional measurement) for each divided region. The number of divided regions of the part C depends on the size of the part C and the field of view size of the imaging device 4. FIG. 7 is an explanatory diagram for explaining imaging of the part C according to the embodiment. FIG. 7 shows an example in which the entire part C is divided into three divided regions. In FIG. 7, the entire part C is divided into divided regions CA1, CA2, and CA3. The divided region CA1 is about 1/3 of the region including one end of the part C. The divided region CA2 is about 1/3 of the region in the center of the part C. The divided region CA3 is about 1/3 of the region including the other end of the part C. The dashed rectangular portion shown in FIG. 7 indicates the field of view range 4S of the imaging device 4. For ease of explanation, FIG. 7 shows the field of view 4S as being located in three divided areas CA1, CA2, and CA3, but in reality, component C is moved by mounting head 22 so that each of divided areas CA1, CA2, and CA3 falls within field of view 4S.

撮像装置4は、分割領域CA1が視野範囲4S内に配置された状態で、第1認識対象R1及び第2認識対象R2の撮像を別個に行う。撮像装置4は、分割領域CA2が視野範囲4S内に配置された状態で、第1認識対象R1及び第2認識対象R2の撮像を別個に行う。撮像装置4は、分割領域CA3が視野範囲4S内に配置された状態で、第1認識対象R1及び第2認識対象R2の撮像を別個に行う。これにより、分割領域CA1、CA2及びCA3内の第1認識対象R1の第1画像データ61がそれぞれ取得され、分割領域CA1、CA2及びCA3内の第2認識対象R2の第2画像データ62がそれぞれ取得される。 The imaging device 4 separately images the first recognition target R1 and the second recognition target R2 with the divided area CA1 positioned within the field of view 4S. The imaging device 4 separately images the first recognition target R1 and the second recognition target R2 with the divided area CA2 positioned within the field of view 4S. The imaging device 4 separately images the first recognition target R1 and the second recognition target R2 with the divided area CA3 positioned within the field of view 4S. As a result, first image data 61 of the first recognition target R1 in the divided areas CA1, CA2, and CA3 is acquired, and second image data 62 of the second recognition target R2 in the divided areas CA1, CA2, and CA3 is acquired.

実施形態では、第1画像データ61と第2画像データ62とは、部品Cの同一の範囲を撮像した画像であるが、後述する計測条件70に応じて、異なる撮像条件で撮像された画像である。 In this embodiment, the first image data 61 and the second image data 62 are images of the same area of the part C, but are images captured under different imaging conditions according to the measurement conditions 70 described below.

<計測条件>
第1認識対象R1を含む電極C2の全体は、金属製であるため、相対的に高い光反射率を有する。第2認識対象R2を含むボスC3は、ボディC1に一体形成された暗色樹脂製であるため、相対的に低い光反射率を有する。図7では、光反射率の相違を説明するため、暗色樹脂製の低い光反射率の部分(ボディC1)を着色して示している。但し、ボスC3(第2認識対象R2)は、低い光反射率の部分であるが、図の視認性の観点で、着色を省略した。電極C2などの金属パーツは、高い光反射率を有するため、撮像するとサチレーション(画素値の飽和)が生じやすい。サチレーションが生じた画素は、正しい画素値(輝度値)が得られないため位相値(高さデータ)を取得できない。そのため、第1認識対象R1の3次元計測では、第1画像データ61にサチレーションを発生させないことが重要となる。一方、第2認識対象R2を含むボディC1は、電極C2の認識の妨げとならないように暗色樹脂で形成され、コントラストが付きにくい。そのため、ボスC3にパターン光PLを投影しても、位相値を算出可能なコントラスト(輝度分布)が得にくい。このように、第1認識対象R1と第2認識対象R2とは、一方ではサチレーションが発生しやすく過剰輝度の抑制が重要となり、他方ではコントラストが付きにくく輝度向上が重要となることから、通常、同一の撮像系、同一の光学系での3次元計測は困難である。
<Measurement conditions>
The electrode C2 including the first recognition target R1 is made of metal as a whole, and therefore has a relatively high light reflectance. The boss C3 including the second recognition target R2 is made of dark resin integrally formed with the body C1, and therefore has a relatively low light reflectance. In FIG. 7, the dark resin part with low light reflectance (body C1) is colored to explain the difference in light reflectance. However, although the boss C3 (second recognition target R2) is a part with low light reflectance, coloring is omitted from the viewpoint of visibility in the figure. Metal parts such as the electrode C2 have high light reflectance, and therefore saturation (saturation of pixel values) is likely to occur when imaged. A pixel where saturation occurs cannot obtain a correct pixel value (brightness value), and therefore a phase value (height data) cannot be obtained. Therefore, in the three-dimensional measurement of the first recognition target R1, it is important not to generate saturation in the first image data 61. On the other hand, the body C1 including the second recognition target R2 is formed of dark resin so as not to interfere with the recognition of the electrode C2, and is difficult to contrast. Therefore, even if the pattern light PL is projected onto the boss C3, it is difficult to obtain a contrast (brightness distribution) that allows the phase value to be calculated. In this way, the first recognition target R1 and the second recognition target R2 are prone to saturation on the one hand and it is important to suppress excess brightness, while it is difficult to achieve contrast on the other hand and it is important to improve brightness, so it is usually difficult to perform three-dimensional measurement using the same imaging system and the same optical system.

実施形態では、撮像条件と画像認識条件とを含む計測条件70(図8参照)が、第1認識対象R1と第2認識対象R2とで異なる。これにより、実施形態では、同一の3次元計測装置1(投影装置3および撮像装置4)による、第1認識対象R1と第2認識対象R2との両方の3次元計測を可能とした。 In the embodiment, the measurement conditions 70 (see FIG. 8), which include the imaging conditions and the image recognition conditions, are different for the first recognition target R1 and the second recognition target R2. This makes it possible to perform 3D measurements of both the first recognition target R1 and the second recognition target R2 using the same 3D measurement device 1 (projection device 3 and imaging device 4).

図8は、実施形態に係る計測条件70の具体例を示す図である。図8の例では、計測条件70は、カメラゲイン、閾値、画像合成枚数を含む。カメラゲインは、撮像装置4(撮像素子42)の感度である。カメラゲインが高いほど、同一入射光量に対して画像データにおける輝度値(画素値)が高くなる。閾値は、画像中の認識対象領域と背景領域とを区分する閾値処理に適用される閾値である。認識対象領域は、第1認識対象R1の領域や第2認識対象R2の領域である。背景は、認識対象以外の領域である。閾値は、認識対象の輝度値の範囲と、背景の輝度値の範囲との間の値に設定される。画像合成枚数は、後述する合成処理において合成する画像データの数である。合成枚数を多くするほど、合成画像の輝度値(画素値)が高くなる。 FIG. 8 is a diagram showing a specific example of the measurement condition 70 according to the embodiment. In the example of FIG. 8, the measurement condition 70 includes a camera gain, a threshold, and the number of combined images. The camera gain is the sensitivity of the imaging device 4 (image sensor 42). The higher the camera gain, the higher the luminance value (pixel value) in the image data for the same amount of incident light. The threshold is a threshold applied to threshold processing that divides the recognition target area and the background area in the image. The recognition target area is the area of the first recognition target R1 or the area of the second recognition target R2. The background is the area other than the recognition target. The threshold is set to a value between the range of luminance values of the recognition target and the range of luminance values of the background. The number of combined images is the number of image data to be combined in the combination process described later. The greater the number of combined images, the higher the luminance value (pixel value) of the combined image.

計測条件70は、第1認識対象R1用の第1計測条件70Aと、第2認識対象R2用の第2計測条件70Bとを含む。第1計測条件70Aは、カメラゲインが低値(あるいは標準値)に設定される。第2認識対象R2の第2計測条件70Bは、第1認識対象R1の第1計測条件70Aと比べて、撮像装置4のカメラゲインが高い。これにより、第2認識対象R2の輝度値(画素値)が高くなり、コントラストが付きやすくなる。 The measurement conditions 70 include a first measurement condition 70A for the first recognition target R1 and a second measurement condition 70B for the second recognition target R2. In the first measurement condition 70A, the camera gain is set to a low value (or a standard value). In the second measurement condition 70B for the second recognition target R2, the camera gain of the imaging device 4 is higher than in the first measurement condition 70A for the first recognition target R1. This increases the luminance value (pixel value) of the second recognition target R2, making it easier to create contrast.

第1計測条件70Aは、閾値が高値(あるいは標準値)に設定される。処理装置5は、第1計測条件70Aに規定された閾値を用いた閾値処理によって、第1画像データ61から画像認識を行う画像部分を切り出す。第1計測条件70Aの閾値は、閾値処理によって第1認識対象R1の全体を含む画像部分が切り出されるように設定される。処理装置5は、第2計測条件70Bに規定された閾値を用いた閾値処理によって、第2画像データ62から画像認識を行う画像部分を切り出す。第2計測条件70Bの閾値は、閾値処理によって第2認識対象R2の全体を含む画像部分が切り出されるように設定される。第2認識対象R2の第2計測条件70Bは、第1認識対象R1の第1計測条件70Aと比べて、閾値が低い。これにより、第2認識対象R2の輝度値が得にくい第2画像データ62において、第2認識対象R2の領域が背景領域として処理されてしまう可能性が低減される。 The first measurement condition 70A has a high threshold value (or a standard value). The processing device 5 cuts out an image portion for image recognition from the first image data 61 by threshold processing using the threshold value specified in the first measurement condition 70A. The threshold value of the first measurement condition 70A is set so that an image portion including the entire first recognition target R1 is cut out by the threshold processing. The processing device 5 cuts out an image portion for image recognition from the second image data 62 by threshold processing using the threshold value specified in the second measurement condition 70B. The threshold value of the second measurement condition 70B is set so that an image portion including the entire second recognition target R2 is cut out by the threshold processing. The second measurement condition 70B of the second recognition target R2 has a lower threshold value than the first measurement condition 70A of the first recognition target R1. This reduces the possibility that the area of the second recognition target R2 will be processed as a background area in the second image data 62, in which the luminance value of the second recognition target R2 is difficult to obtain.

第1計測条件70Aは、画像合成枚数が所定の標準枚数に設定される。第2認識対象R2の第2計測条件70Bは、第1認識対象R1の第1計測条件70Aと比べて、画像合成枚数が多い。一例では、第1計測条件70Aの画像合成枚数は1枚とされ、第2計測条件70Bの画像合成枚数は2枚以上の所定枚数とされる。そのため、処理装置5は、少なくとも第2認識対象R2の画像認識において、複数の第2画像データ62の合成処理を行う。なお、画像合成処理は、画像合成枚数が2枚以上に設定された場合に行われる。画像合成枚数が1枚とは、画像合成を行わないことを意味する。 In the first measurement condition 70A, the number of combined images is set to a predetermined standard number. In the second measurement condition 70B of the second recognition target R2, the number of combined images is greater than that of the first measurement condition 70A of the first recognition target R1. In one example, the number of combined images in the first measurement condition 70A is set to one, and the number of combined images in the second measurement condition 70B is set to a predetermined number of two or more. Therefore, the processing device 5 performs a combination process of multiple second image data 62 at least in the image recognition of the second recognition target R2. Note that the image combination process is performed when the number of combined images is set to two or more. A number of combined images of one means that no image combination is performed.

図9は、実施形態に係る画像合成処理を説明するための模式図である。投影装置3は、正弦波状の明度分布の縞パターンを位相シフトさせながら部品Cに投影する。投影装置3は、位相が相互に異なる少なくとも3種類の縞パターンを部品Cに投影する。一例では、投影装置3は、位相がπ/2ずつ異なる4種類の縞パターンを部品Cに投影する。つまり、縞パターンは、位相シフト量が0°(初期位相=0)である第1縞パターンと、位相シフト量が90°(初期位相=π/2)である第2縞パターンと、位相シフト量が180°(初期位相=π)である第3縞パターンと、位相シフト量が270°(初期位相=3π/2)である第4縞パターンとを含む。投影装置3は、第1縞パターン、第2縞パターン、第3縞パターン、及び第4縞パターンのそれぞれを部品Cに順次投影する。 9 is a schematic diagram for explaining the image synthesis process according to the embodiment. The projection device 3 projects a stripe pattern with a sine wave-shaped brightness distribution onto the part C while shifting the phase. The projection device 3 projects at least three types of stripe patterns with mutually different phases onto the part C. In one example, the projection device 3 projects four types of stripe patterns with phases differing by π/2 onto the part C. That is, the stripe patterns include a first stripe pattern with a phase shift of 0° (initial phase = 0), a second stripe pattern with a phase shift of 90° (initial phase = π/2), a third stripe pattern with a phase shift of 180° (initial phase = π), and a fourth stripe pattern with a phase shift of 270° (initial phase = 3π/2). The projection device 3 sequentially projects each of the first stripe pattern, the second stripe pattern, the third stripe pattern, and the fourth stripe pattern onto the part C.

ここでは、画像合成前の画像データを、基礎画像と呼ぶ。画像合成後の画像データを、合成画像と呼ぶ。撮像装置4は、複数種類の縞パターンのそれぞれの投影において、計測条件70に設定された画像合成枚数だけ、基礎画像の撮像を行う。第2計測条件70Bの画像合成枚数をN枚とすると、基礎画像がN回撮像される。図9では、N=4の例を示す。 Here, image data before image synthesis is called a basic image. Image data after image synthesis is called a synthesized image. When projecting each of the multiple types of stripe patterns, the imaging device 4 captures the basic images the number of image synthesis frames set in the measurement condition 70. If the number of image synthesis frames in the second measurement condition 70B is N, then the basic images are captured N times. Figure 9 shows an example where N=4.

画像データ取得部53は、第1縞パターンが部品Cに投影された場合、第1縞パターンが投影された部品CをN回撮像するように、撮像装置4および投影装置3を制御する。第2縞パターンが部品Cに投影された場合、画像データ取得部53は、第2縞パターンが投影された部品CをN回撮像するように、撮像装置4を制御する。第3縞パターンが部品Cに投影された場合及び第4縞パターンが部品Cに投影された場合も同様である。画像データ取得部53は、第1縞パターンで撮像した第1基礎画像、第2縞パターンで撮像した第2基礎画像、第3縞パターンで撮像した第3基礎画像、第4縞パターンで撮像した第4基礎画像のそれぞれを、画像合成枚数N(=4)と同じ数ずつ取得する。 When the first stripe pattern is projected onto the part C, the image data acquisition unit 53 controls the imaging device 4 and the projection device 3 to image the part C onto which the first stripe pattern is projected N times. When the second stripe pattern is projected onto the part C, the image data acquisition unit 53 controls the imaging device 4 to image the part C onto which the second stripe pattern is projected N times. The same applies to the cases where the third stripe pattern is projected onto the part C and the fourth stripe pattern is projected onto the part C. The image data acquisition unit 53 acquires each of the first basic image captured with the first stripe pattern, the second basic image captured with the second stripe pattern, the third basic image captured with the third stripe pattern, and the fourth basic image captured with the fourth stripe pattern in the same number as the number of images to be combined N (=4).

画像データ取得部53は、画像合成枚数Nと同じ数の基礎画像を合成して、複数種類の縞パターンのそれぞれに対応する合成画像を生成する。画像データ取得部53は、N枚の第1基礎画像を合成して、第1縞パターンに対応する第1合成画像を生成する。画像データ取得部53は、N枚の第2基礎画像を合成して、第2縞パターンに対応する第2合成画像を生成する。画像データ取得部53は、N枚の第3基礎画像を合成して、第3縞パターンに対応する第3合成画像を生成する。画像データ取得部53は、N枚の第4基礎画像を合成して、第4縞パターンに対応する第4合成画像を生成する。 The image data acquisition unit 53 combines the same number of basic images as the number of combined images N to generate a composite image corresponding to each of the multiple types of stripe patterns. The image data acquisition unit 53 combines N first basic images to generate a first composite image corresponding to the first stripe pattern. The image data acquisition unit 53 combines N second basic images to generate a second composite image corresponding to the second stripe pattern. The image data acquisition unit 53 combines N third basic images to generate a third composite image corresponding to the third stripe pattern. The image data acquisition unit 53 combines N fourth basic images to generate a fourth composite image corresponding to the fourth stripe pattern.

実施形態において、複数の基礎画像を合成することは、複数の基礎画像を加算処理することを含む。複数の基礎画像の加算処理は、複数の基礎画像の同一画素の輝度値を加算することを含む。これにより、合成画像において、高い輝度値の画素が得られる。各合成画像では、縞パターンの明部と暗部との輝度差(すなわち、コントラスト)が大きくなる。そのため、コントラストが付き難い第2認識対象R2の部分でも、位相値を算出しやすくなる。 In an embodiment, combining the multiple basic images includes adding the multiple basic images. The adding process of the multiple basic images includes adding the luminance values of the same pixel in the multiple basic images. This results in pixels with high luminance values in the combined image. In each combined image, the luminance difference (i.e., contrast) between the light and dark areas of the stripe pattern becomes large. This makes it easier to calculate the phase value even in the part of the second recognition target R2 where contrast is difficult to achieve.

以上の計測条件70は、記憶部56に記憶されている。処理装置5は、第1認識対象R1の3次元計測を行う場合、記憶部56から第1計測条件70Aを取得して、第1計測条件70Aに基づく撮像制御および画像認識を行う。処理装置5は、第2認識対象R2の3次元計測を行う場合、記憶部56から第2計測条件70Bを取得して、第2計測条件70Bに基づく撮像制御および画像認識を行う。 The above measurement conditions 70 are stored in the memory unit 56. When performing three-dimensional measurement of the first recognition target R1, the processing device 5 acquires the first measurement conditions 70A from the memory unit 56 and performs imaging control and image recognition based on the first measurement conditions 70A. When performing three-dimensional measurement of the second recognition target R2, the processing device 5 acquires the second measurement conditions 70B from the memory unit 56 and performs imaging control and image recognition based on the second measurement conditions 70B.

<画像認識>
図10は、実施形態の処理装置5が実行する画像認識処理の認識アルゴリズムを説明するための説明図である。処理装置5は、第1認識対象R1と第2認識対象R2とで、異なる認識アルゴリズムを実行して画像認識を行う。
<Image Recognition>
10 is an explanatory diagram for explaining a recognition algorithm of the image recognition process executed by the processing device 5 of the embodiment. The processing device 5 executes different recognition algorithms for the first recognition target R1 and the second recognition target R2 to perform image recognition.

位相値算出部54は、第1認識対象R1の3次元計測を行う場合、電極認識用アルゴリズム71Aを実行する。電極認識用アルゴリズム71Aは、第1認識対象R1、すなわち部品Cの電極C2の先端部の認識に最適化されている。電極認識用アルゴリズム71Aは、部品データに基づく既知形状の第1認識対象R1の認識に適している。第1認識対象R1の形状は、例えば矩形状である。 When performing three-dimensional measurement of the first recognition target R1, the phase value calculation unit 54 executes the electrode recognition algorithm 71A. The electrode recognition algorithm 71A is optimized for recognizing the first recognition target R1, i.e., the tip of the electrode C2 of the component C. The electrode recognition algorithm 71A is suitable for recognizing the first recognition target R1 of a known shape based on the component data. The shape of the first recognition target R1 is, for example, rectangular.

位相値算出部54は、第2認識対象R2の3次元計測を行う場合、ボス認識用アルゴリズム71Bを実行する。ボス認識用アルゴリズム71Bは、第2認識対象R2、すなわち部品CのボディC1に形成されたボスC3の先端部の認識に最適化されている。ボス認識用アルゴリズム71Bは、部品データに基づく既知形状の第2認識対象R2の認識に適している。第2認識対象R2の形状は、例えば円形状である。 When performing three-dimensional measurement of the second recognition target R2, the phase value calculation unit 54 executes the boss recognition algorithm 71B. The boss recognition algorithm 71B is optimized for recognizing the second recognition target R2, i.e., the tip of the boss C3 formed on the body C1 of the part C. The boss recognition algorithm 71B is suitable for recognizing the second recognition target R2 of a known shape based on the part data. The shape of the second recognition target R2 is, for example, circular.

これらの電極認識用アルゴリズム71A及びボス認識用アルゴリズム71Bは、記憶部56に記憶されている。処理装置5は、認識対象に応じた認識用アルゴリズムを記憶部56から選択的に読み出し、画像認識を実行する。位相値算出部54は、画像認識により、認識対象(第1認識対象R1及び第2認識対象R2)を構成する各画素の位相値を表す計測データを生成する。 The electrode recognition algorithm 71A and boss recognition algorithm 71B are stored in the memory unit 56. The processing device 5 selectively reads out the recognition algorithm corresponding to the recognition target from the memory unit 56 and executes image recognition. The phase value calculation unit 54 generates measurement data representing the phase value of each pixel constituting the recognition target (first recognition target R1 and second recognition target R2) through image recognition.

<補完処理>
図11は、実施形態の処理装置5による画像認識の第1補完処理の一例を示す説明図である。上述の通り、実施形態では、投影装置3により4方向からパターン光PLが照射可能であり、パターン光PLの照射方向を異ならせた4つの画像データが取得される。つまり、図9に示した基礎画像の取得、合成画像の生成(合成処理を行う場合のみ)及び3次元形状の算出が、方向毎に4回実施される。その結果、処理装置5は、図11に示すように、方向毎の4種類の計測データを生成する。図11は、1つの認識対象の画像認識により生成された、第1方向計測データ81A、第2方向計測データ81B、第3方向計測データ81C、及び第4方向計測データ81Dの例を示す。
<Complementary processing>
FIG. 11 is an explanatory diagram showing an example of the first complementation process of image recognition by the processing device 5 of the embodiment. As described above, in the embodiment, the projection device 3 can irradiate the pattern light PL from four directions, and four image data with different irradiation directions of the pattern light PL are acquired. That is, acquisition of the basic image shown in FIG. 9, generation of a composite image (only when performing a composite process), and calculation of a three-dimensional shape are performed four times for each direction. As a result, the processing device 5 generates four types of measurement data for each direction, as shown in FIG. 11. FIG. 11 shows an example of first direction measurement data 81A, second direction measurement data 81B, third direction measurement data 81C, and fourth direction measurement data 81D generated by image recognition of one recognition target.

各計測データでは、パターン光PLの照射方向の相違に起因して、高さデータ(位相値と言い換えてもよい)を算出できないエラー領域82が発生し得る。エラー領域82は、認識対象の形状及び向きと、パターン光PLの照射方向との関係により、正反射光が撮像装置4に直接入射して発生するサチレーション領域や、部品Cの他の部位に光が遮られて影になる領域などである。 In each measurement data, an error region 82 may occur where height data (or phase value) cannot be calculated due to differences in the irradiation direction of the pattern light PL. The error region 82 is a saturation region that occurs when specularly reflected light is directly incident on the imaging device 4, or a shadow region where light is blocked by other parts of the part C, depending on the relationship between the shape and orientation of the recognition target and the irradiation direction of the pattern light PL.

実施形態では、処理装置5は、複数方向のパターン光PLによる画像データのいずれか一部で認識に失敗した場合、認識に成功した他の画像データに基づいて画像認識を行う。つまり、処理装置5は、第1方向計測データ81A、第2方向計測データ81B、第3方向計測データ81C、及び第4方向計測データ81Dのいずれかにエラー領域82が発生した場合でも、他の方向の計測データにおける同じ領域の高さデータが算出できた場合には、その高さデータに基づいて計測結果(高さデータ)を補完する第1補完処理を行う。 In the embodiment, when the processing device 5 fails to recognize any part of the image data obtained by the pattern light PL in multiple directions, the processing device 5 performs image recognition based on the other image data that has been successfully recognized. In other words, even if an error region 82 occurs in any of the first direction measurement data 81A, the second direction measurement data 81B, the third direction measurement data 81C, and the fourth direction measurement data 81D, if the processing device 5 is able to calculate height data for the same region in the measurement data in the other directions, the processing device 5 performs a first complementation process that complements the measurement result (height data) based on the height data.

例えば、図11の上段に示す円形状を、認識対象(例えば第2認識対象R2)の真の形状と仮定する。図11の中段に示す各計測データにおいて、白色の領域が、高さデータが算出できた(認識に成功した)、認識領域83を示す。各計測データにおいて、認識領域83に隣接する点線で囲んだ領域(真の形状と、認識領域83との差分の領域)が、エラー領域82である。各計測データにおいて、認識領域83及びエラー領域82の外部(黒色の領域)は背景部分である。 For example, assume that the circular shape shown in the top row of Figure 11 is the true shape of the recognition target (e.g., second recognition target R2). In each piece of measurement data shown in the middle row of Figure 11, the white area indicates the recognition area 83 where height data was calculated (recognition was successful). In each piece of measurement data, the area surrounded by a dotted line adjacent to the recognition area 83 (the area of difference between the true shape and the recognition area 83) is the error area 82. In each piece of measurement data, the area outside the recognition area 83 and error area 82 (black area) is the background part.

図11の例では、第1方向計測データ81Aでは図中下側にエラー領域82が形成され、第2方向計測データ81Bでは図中上側にエラー領域82が形成され、第3方向計測データ81Cでは図中右側にエラー領域82が形成され、第4方向計測データ81Dでは図中左側にエラー領域82が形成される。図11の例では、いずれの計測データにも部分的にエラー領域82が形成されており、認識対象の真の形状を取得できた計測データが存在しない。 In the example of FIG. 11, an error region 82 is formed on the bottom side of the figure in the first direction measurement data 81A, an error region 82 is formed on the top side of the figure in the second direction measurement data 81B, an error region 82 is formed on the right side of the figure in the third direction measurement data 81C, and an error region 82 is formed on the left side of the figure in the fourth direction measurement data 81D. In the example of FIG. 11, an error region 82 is partially formed in each of the measurement data, and there is no measurement data that was able to obtain the true shape of the recognition target.

処理装置5は、第1方向計測データ81A、第2方向計測データ81B、第3方向計測データ81C、及び第4方向計測データ81Dの各認識領域83の論理和を求める手法で、各方向の計測データを合成し、図11の下段に示す合成された計測データ80を生成する。処理装置5は、例えば、第1方向計測データ81Aのエラー領域82に属する位置(画素)の高さデータについて、第2方向計測データ81B、第3方向計測データ81C、及び第4方向計測データ81Dの認識領域83の高さデータを用いて生成する。処理装置5は、同一位置について、複数の高さデータが取得できている場合、複数の高さデータの代表値(例えば平均値など)を求めて、その位置の高さデータとする。処理装置5は、同一位置について、1つの高さデータのみ取得できている場合、その高さデータの値を、その位置の高さデータとして採用する。この結果、合成された計測データ80では、図11の上段に示した認識対象の真の形状に相当する領域の全体についての高さデータが取得される。 The processing device 5 synthesizes the measurement data in each direction by a method of calculating the logical sum of each recognition area 83 of the first direction measurement data 81A, the second direction measurement data 81B, the third direction measurement data 81C, and the fourth direction measurement data 81D, and generates the synthesized measurement data 80 shown in the lower part of FIG. 11. For example, the processing device 5 generates height data of a position (pixel) belonging to the error area 82 of the first direction measurement data 81A using height data of the recognition area 83 of the second direction measurement data 81B, the third direction measurement data 81C, and the fourth direction measurement data 81D. When multiple height data are obtained for the same position, the processing device 5 obtains a representative value (for example, an average value) of the multiple height data and sets it as the height data of that position. When only one height data is obtained for the same position, the processing device 5 adopts the value of that height data as the height data of that position. As a result, in the synthesized measurement data 80, height data is obtained for the entire area corresponding to the true shape of the recognition target shown in the upper part of FIG. 11.

図12は、実施形態の処理装置5による画像認識の第2補完処理の一例を示す説明図である。上述の第1補完処理は、4方向の計測データの少なくともいずれかで画像認識が成功し、高さデータ(位相値)が取得できたエラー領域82に適用される。一方、例えば電極C2の先端部(第1認識対象R1)が鏡面状の場合などでは、サチレーションの発生により、4方向の計測データの全てで高さデータ(位相値)が取得できなくなる場合があり得る。 Figure 12 is an explanatory diagram showing an example of the second complementation process of image recognition by the processing device 5 of the embodiment. The above-mentioned first complementation process is applied to the error region 82 where image recognition was successful in at least one of the measurement data in the four directions and height data (phase value) was obtained. On the other hand, for example, when the tip of the electrode C2 (first recognition target R1) is mirror-like, saturation may occur, making it impossible to obtain height data (phase value) in all of the measurement data in the four directions.

そこで、実施形態では、処理装置5は、第1画像データ61の一部にサチレーション領域84が含まれることに起因してサチレーション領域84の認識に失敗した場合、第2補完処理を実行する。第2補完処理では、処理装置5は、部品Cの形状データに基づいて、サチレーション領域84が第1認識対象R1の一部であるか否かを判定する。そして、処理装置5は、サチレーション領域84が第1認識対象R1の一部であると判定した場合に、第1認識対象R1の認識結果を用いてサチレーション領域84を補完する処理を行う。なお、サチレーション領域84は、画像データ(第1画像データ61)中で、輝度値(画素値)が最大値に達している画素領域である。 In the embodiment, the processing device 5 executes a second complementation process when it fails to recognize the saturation region 84 because the saturation region 84 is included in part of the first image data 61. In the second complementation process, the processing device 5 determines whether or not the saturation region 84 is part of the first recognition target R1 based on the shape data of the part C. Then, when the processing device 5 determines that the saturation region 84 is part of the first recognition target R1, it executes a process of complementing the saturation region 84 using the recognition result of the first recognition target R1. The saturation region 84 is a pixel region in the image data (first image data 61) where the brightness value (pixel value) reaches the maximum value.

具体的には、図12に示すように、第1画像データ61の一部にサチレーション領域84が存在すると仮定する。図12の第1画像データ61において、中央部の矩形範囲と外周部とで縞状パターンの位相が異なる。中央部の矩形範囲が第1認識対象R1(つまり、電極C2の下面)を示し、外周部が背景領域BGである。図12では、第1認識対象R1の図中左端の一部が、サチレーション領域84となっている。サチレーション領域84に含まれる各画素の画素値(輝度値)は最大値であるため、縞状パターンの位相が認識できない。図12は、いずれか1つの照射方向での第1画像データ61を例示するが、他の照射方向の第1画像データ61でも同じ位置にサチレーション領域84が形成されるものとする。 Specifically, as shown in FIG. 12, assume that a saturation region 84 exists in a part of the first image data 61. In the first image data 61 in FIG. 12, the phase of the stripe pattern differs between the central rectangular area and the outer periphery. The central rectangular area indicates the first recognition target R1 (i.e., the lower surface of the electrode C2), and the outer periphery is the background area BG. In FIG. 12, a part of the left end of the first recognition target R1 in the figure is the saturation region 84. Since the pixel value (brightness value) of each pixel included in the saturation region 84 is the maximum value, the phase of the stripe pattern cannot be recognized. FIG. 12 illustrates the first image data 61 in one irradiation direction, but the saturation region 84 is formed at the same position in the first image data 61 in the other irradiation direction.

この場合、各方向の計測データ(第1方向計測データ81A~第4方向計測データ81D)では、サチレーション領域84で高さデータ(位相値)が取得できないため、エラー領域82となる。図12では、第1方向計測データ81Aだけを例示する。第1認識対象R1のうち、エラー領域82以外は、高さデータ(位相値)が取得できた認識領域83となる。サチレーション領域84が4方向の全ての計測データ(第1方向計測データ81A~第4方向計測データ81D)でエラー領域82となる場合、上述の第1補完処理が適用できない。 In this case, in the measurement data for each direction (first direction measurement data 81A to fourth direction measurement data 81D), height data (phase value) cannot be obtained in the saturation region 84, so it becomes an error region 82. In FIG. 12, only the first direction measurement data 81A is illustrated. Of the first recognition target R1, the area other than the error region 82 becomes a recognition region 83 from which height data (phase value) was obtained. If the saturation region 84 becomes an error region 82 in all of the measurement data for the four directions (first direction measurement data 81A to fourth direction measurement data 81D), the first complementation process described above cannot be applied.

この場合に、処理装置5は、記憶部56に記憶された部品データ72に基づいて、サチレーション領域84が第1認識対象R1の一部であるか否かの判定処理を行う。処理装置5は、部品データ72から得られる第1認識対象R1の位置、及び背景領域BG(ボディC1など)の位置と、撮像装置4の位置との関係に基づいて、部品Cのうちで第1画像データ61に写り込む部位を特定する。つまり、処理装置5は、サチレーション領域84の画素位置に相当する位置から、光軸AX(図2参照)に沿って伸ばした光路上に第1認識対象R1が存在するか否かの演算を行い、第1認識対象R1が存在する場合にはサチレーション領域84が第1認識対象R1の一部であると判定する。処理装置5は、光路上に第1認識対象R1が存在しない場合にはサチレーション領域84が第1認識対象R1の一部ではないと判定する。実施形態では、結像光学系41がテレセントリック光学系であり、主光線が光軸AXと非平行となる他の光学系と異なりレンズの画角等の補正が不要となるので、判定処理の演算量を軽減できる。 In this case, the processing device 5 performs a process of determining whether the saturation region 84 is part of the first recognition target R1 based on the part data 72 stored in the storage unit 56. The processing device 5 identifies the part of the part C that is reflected in the first image data 61 based on the relationship between the position of the first recognition target R1 obtained from the part data 72, the position of the background region BG (such as the body C1), and the position of the imaging device 4. In other words, the processing device 5 performs a calculation to determine whether the first recognition target R1 is present on the optical path extended along the optical axis AX (see FIG. 2) from the position corresponding to the pixel position of the saturation region 84, and if the first recognition target R1 is present, it determines that the saturation region 84 is part of the first recognition target R1. If the first recognition target R1 is not present on the optical path, the processing device 5 determines that the saturation region 84 is not part of the first recognition target R1. In this embodiment, the imaging optical system 41 is a telecentric optical system, which, unlike other optical systems in which the chief ray is not parallel to the optical axis AX, does not require correction of the lens angle of view, etc., and therefore reduces the amount of calculation required for the determination process.

処理装置5は、サチレーション領域84が第1認識対象R1の一部であると判定した場合に、サチレーション領域84の高さデータ(位相値)を、第1認識対象R1の他の認識領域83の高さデータ(位相値)の値によって補完する。この結果、第2補完処理後の計測データ80では、サチレーション領域84を含む第1認識対象R1の全体の高さデータが算出される。 When the processing device 5 determines that the saturation region 84 is part of the first recognition target R1, it complements the height data (phase value) of the saturation region 84 with the height data (phase value) of the other recognition region 83 of the first recognition target R1. As a result, in the measurement data 80 after the second complementation process, the overall height data of the first recognition target R1, including the saturation region 84, is calculated.

一方、処理装置5は、サチレーション領域84が第1認識対象R1の一部ではないと判定した場合、サチレーション領域84をエラー領域82のままとする。この場合、第2補完処理後の計測データ80では、サチレーション領域84の部分については背景領域BGとして処理される。 On the other hand, if the processing device 5 determines that the saturation region 84 is not part of the first recognition target R1, the saturation region 84 remains as an error region 82. In this case, in the measurement data 80 after the second complementation process, the portion of the saturation region 84 is processed as a background region BG.

<3次元計測方法>
実施形態に係る3次元計測装置1の作用について、以下に説明する。図13は、実施形態に係る3次元計測方法を示すフローチャートである。3次元計測装置1によって実行される実施形態に係る3次元計測方法について、図13を用いて説明する。
<3D measurement method>
The operation of the three-dimensional measuring apparatus 1 according to the embodiment will be described below. Fig. 13 is a flowchart showing a three-dimensional measuring method according to the embodiment. The three-dimensional measuring method according to the embodiment, which is executed by the three-dimensional measuring apparatus 1, will be described with reference to Fig. 13.

図13に示すように、実施形態に係る3次元計測方法は、概略で、撮像ステップS10と、画像合成ステップS20、画像認識ステップS30と、補完処理ステップS40と、を有する。 As shown in FIG. 13, the three-dimensional measurement method according to the embodiment generally includes an imaging step S10, an image synthesis step S20, an image recognition step S30, and an interpolation processing step S40.

撮像ステップS10では、3次元計測装置1は、部品Cの第1認識対象R1の第1撮像(ステップS11)と、第2認識対象R2の第2撮像(ステップS12)と、を行う。図13では、第1撮像(ステップS11)、第2撮像(ステップS12)の順序で処理を実行するが、逆の順序、すなわち第2撮像、第1撮像の順序でこれらの処理を実行してもよい。 In the imaging step S10, the three-dimensional measuring device 1 performs a first imaging (step S11) of the first recognition target R1 of the part C, and a second imaging (step S12) of the second recognition target R2. In FIG. 13, the processing is performed in the order of the first imaging (step S11) and the second imaging (step S12), but these processing may be performed in the reverse order, i.e., the second imaging and the first imaging.

まず、3次元計測装置1は、実装ヘッド22によって部品Cのいずれかの分割領域(例えば分割領域CA1)が視野範囲4S内に配置された状態で、第1撮像(ステップS11)を行う。処理装置5は、第1計測条件70Aに基づいて、第1認識対象R1の第1画像データ61を取得する制御を行う。 First, the 3D measuring device 1 performs a first image capture (step S11) with one of the divided areas of the component C (e.g., divided area CA1) positioned within the field of view 4S by the mounting head 22. The processing device 5 performs control to acquire the first image data 61 of the first recognition target R1 based on the first measurement conditions 70A.

処理装置5は、第1及び第2の投影装置3を制御して、パターン生成部52が作成した第1パターンデータ及び第2パターンデータのそれぞれに基づく第1パターン光PL1及び第2パターン光PL2をそれぞれ射出させ、部品Cに向けて照射させる。画像データ取得部53は、第1計測条件70Aに規定されたカメラゲインで、4方向の第1パターン光PL1及び第2パターン光PL2がそれぞれ投影された部品Cの第1画像データ61を取得する。画像データ取得部53は、4方向の第1画像データ61の各々を、第1計測条件70Aに規定された画像合成枚数に等しい枚数ずつ取得する。第1計測条件70Aの画像合成枚数Nは、例えば1枚(画像合成なし)である。 The processing device 5 controls the first and second projection devices 3 to emit the first pattern light PL1 and the second pattern light PL2 based on the first pattern data and the second pattern data created by the pattern generation unit 52, respectively, and irradiate them toward the part C. The image data acquisition unit 53 acquires the first image data 61 of the part C onto which the first pattern light PL1 and the second pattern light PL2 are projected in four directions, respectively, with a camera gain specified in the first measurement condition 70A. The image data acquisition unit 53 acquires each of the first image data 61 in the four directions, the number of images equal to the number of image combinations specified in the first measurement condition 70A. The number of image combinations N in the first measurement condition 70A is, for example, 1 (no image combination).

処理装置5は、第1及び第2の投影装置3を制御して、第1縞パターンから第4縞パターンの、位相が異なる4種類の縞パターンを投影した第1画像データ61を取得する。つまり、4つの照射方向のそれぞれについて、4つの位相パターンの第1画像データ61が、画像合成枚数N(=1枚)ずつ取得される。 The processing device 5 controls the first and second projection devices 3 to obtain first image data 61 in which four types of stripe patterns with different phases, from the first stripe pattern to the fourth stripe pattern, are projected. In other words, for each of the four irradiation directions, the first image data 61 of the four phase patterns is obtained for each of the image synthesis number N (=1).

3次元計測装置1は、同じ分割領域(例えば分割領域CA1)について、第2撮像(ステップS12)を行う。処理装置5は、第2計測条件70Bに基づいて、第2認識対象R2の第2画像データ62を取得する制御を行う。 The three-dimensional measuring device 1 performs a second image capture (step S12) for the same divided area (e.g., divided area CA1). The processing device 5 performs control to acquire second image data 62 of the second recognition target R2 based on the second measurement conditions 70B.

処理装置5は、第1及び第2の投影装置3を制御して、第1パターン光PL1及び第2パターン光PL2をそれぞれ射出させ、部品Cに向けて照射させる。画像データ取得部53は、第2計測条件70Bに規定されたカメラゲインで、4方向の第1パターン光PL1及び第2パターン光PL2がそれぞれ投影された部品Cの第2画像データ62を取得する。画像データ取得部53は、4方向の第2画像データ62の各々を、第2計測条件70Bに規定された画像合成枚数Nに等しい枚数ずつ取得する。第2計測条件70Bの画像合成枚数Nは、例えば4枚である。これにより、第2画像データ62の基礎画像が撮像される。 The processing device 5 controls the first and second projection devices 3 to emit the first pattern light PL1 and the second pattern light PL2, respectively, and irradiate them toward the part C. The image data acquisition unit 53 acquires the second image data 62 of the part C onto which the first pattern light PL1 and the second pattern light PL2 are respectively projected in four directions, with a camera gain defined in the second measurement condition 70B. The image data acquisition unit 53 acquires each of the second image data 62 in the four directions, the number of images equal to the number of combined images N defined in the second measurement condition 70B. The number of combined images N in the second measurement condition 70B is, for example, four. This allows the basic image of the second image data 62 to be captured.

処理装置5は、第1及び第2の投影装置3を制御して、第1縞パターンから第4縞パターンの、位相が異なる4種類の縞パターンを投影した第2画像データ62を取得する。つまり、4つの照射方向のそれぞれについて、4つの位相パターンの第1画像データ61(基礎画像)が、画像合成枚数N(=4枚)ずつ取得される。 The processing device 5 controls the first and second projection devices 3 to obtain second image data 62 in which four types of stripe patterns with different phases, from the first stripe pattern to the fourth stripe pattern, are projected. In other words, for each of the four irradiation directions, first image data 61 (basic images) of the four phase patterns are obtained for each of the image synthesis number N (=4).

処理装置5は、取得すべき全ての画像データを取得したか否かを判断する(ステップS13)。処理装置5は、部品Cの3つの分割領域CA1、CA2及びCA3の撮像が完了した場合、全ての画像データを取得したと判断する。処理装置5は、撮像していない分割領域が存在する場合、全ての画像データを取得完了していないと判断する。この場合、処理装置5は、制御装置29により実装ヘッド22を制御して、次の分割領域(例えば分割領域CA2)が視野範囲4S内に配置されるように部品Cの位置を変更させる(ステップS14)。 The processing device 5 determines whether all image data to be acquired has been acquired (step S13). The processing device 5 determines that all image data has been acquired when the imaging of the three divided areas CA1, CA2, and CA3 of the component C is complete. The processing device 5 determines that all image data has not been acquired if there are divided areas that have not been imaged. In this case, the processing device 5 controls the mounting head 22 by the control device 29 to change the position of the component C so that the next divided area (e.g., divided area CA2) is positioned within the field of view range 4S (step S14).

処理装置5は、分割領域CA2について、第1撮像(ステップS11)および第2撮像(ステップS12)を実施する。処理装置5は、ステップS13を経て、次の分割領域(例えば分割領域CA3)が視野範囲4S内に配置されるように撮像位置を変更させる(ステップS14)。同様に、処理装置5は、分割領域CA3について、第1撮像(ステップS11)および第2撮像(ステップS12)を実施する。これにより、全ての分割領域について撮像が完了するので、処理装置5は、ステップS13を経て、画像合成ステップS20に処理を進める。 The processing device 5 performs a first image capture (step S11) and a second image capture (step S12) for the divided area CA2. After step S13, the processing device 5 changes the image capture position so that the next divided area (e.g., divided area CA3) is positioned within the field of view 4S (step S14). Similarly, the processing device 5 performs a first image capture (step S11) and a second image capture (step S12) for the divided area CA3. As a result, imaging is completed for all divided areas, and the processing device 5 proceeds to the image synthesis step S20 after step S13.

処理装置5は、測定条件において画像合成枚数が2以上となっている場合に、それらの画像データの合成処理を行う(画像合成ステップS20)。実施形態では、第1計測条件70Aにおいて画像合成枚数N=1と設定されているため、処理装置5は、第1画像データ61について画像合成を行わない。処理装置5は、第1画像データ61として、第1縞パターンから第4縞パターンの4枚の画像セットを、照射方向毎に4組生成する。 When the number of combined images under the measurement conditions is two or more, the processing device 5 performs a combination process on the image data (image combination step S20). In the embodiment, the number of combined images N is set to 1 under the first measurement conditions 70A, so the processing device 5 does not perform image combination on the first image data 61. The processing device 5 generates four sets of images of the first to fourth stripe patterns as the first image data 61, four sets for each irradiation direction.

第2計測条件70Bにおいて画像合成枚数N=4と設定されているため、処理装置5は、第2画像データ62について画像合成の処理を行う。図9に示したように、処理装置5は、第1縞パターンから第4縞パターンのN枚ずつの基礎画像を合成し、第1合成画像から第4合成画像を生成する。処理装置5は、第1縞パターンから第4縞パターンの各基礎画像の合成処理を、4つの照射方向の各第2画像データ62について実施する。処理装置5は、第2画像データ62として、第1合成画像から第4合成画像を、照射方向毎に4組生成する。 Since the number of image combinations N=4 is set in the second measurement condition 70B, the processing device 5 performs image combination processing on the second image data 62. As shown in FIG. 9, the processing device 5 combines N basic images of each of the first to fourth stripe patterns to generate a fourth composite image from the first composite image. The processing device 5 performs combination processing of each basic image of the first to fourth stripe patterns for each of the second image data 62 in the four irradiation directions. The processing device 5 generates four sets of the first to fourth composite images for each irradiation direction as the second image data 62.

処理装置5は、第1画像データ61および第2画像データ62について、画像認識を行う(画像認識ステップS30)。位相値算出部54は、照射方向毎の、第1縞パターンから第4縞パターンの各画像データの輝度(画素値)に基づいて、画像データ中の複数の画素それぞれの位相値を算出する。位相値算出部54は、第1画像データ61について、第1計測条件70Aに規定された閾値で認識対象領域を切り出し、電極認識用アルゴリズム71Aを実行することにより、第1認識対象R1の高さデータ(位相値)を算出する。処理装置5は、第2画像データ62について、第2計測条件70Bに規定された閾値で認識対象領域を切り出し、ボス認識用アルゴリズム71Bを実行することにより、第2認識対象R2の位相値を算出する。 The processing device 5 performs image recognition on the first image data 61 and the second image data 62 (image recognition step S30). The phase value calculation unit 54 calculates the phase value of each of the multiple pixels in the image data based on the luminance (pixel value) of each image data of the first stripe pattern to the fourth stripe pattern for each irradiation direction. The phase value calculation unit 54 cuts out the recognition target area for the first image data 61 using a threshold value specified in the first measurement condition 70A, and calculates the height data (phase value) of the first recognition target R1 by executing the electrode recognition algorithm 71A. The processing device 5 cuts out the recognition target area for the second image data 62 using a threshold value specified in the second measurement condition 70B, and calculates the phase value of the second recognition target R2 by executing the boss recognition algorithm 71B.

3次元形状算出部55は、位相値に基づいて、三角測量の原理により、各認識対象に対応する画像データの各画素の高さデータを算出する。ここで、画像データの各画素における高さデータと部品Cの認識対象における各点の高さデータとは1対1で対応する。部品Cの認識対象における各点の高さデータは、3次元空間における部品Cの認識対象における各点の座標値を示す。3次元形状算出部55は、第1認識対象R1の計測データおよび第2認識対象R2の計測データをそれぞれ生成する。 The three-dimensional shape calculation unit 55 calculates height data for each pixel of the image data corresponding to each recognition target based on the phase value and the principle of triangulation. Here, there is a one-to-one correspondence between the height data for each pixel of the image data and the height data for each point in the recognition target of part C. The height data for each point in the recognition target of part C indicates the coordinate values of each point in the recognition target of part C in three-dimensional space. The three-dimensional shape calculation unit 55 generates measurement data for the first recognition target R1 and measurement data for the second recognition target R2.

処理装置5は、第1認識対象R1の計測データおよび第2認識対象R2の計測データに、エラー領域82が存在する場合に、エラー領域82に属する画素の補完処理を実行する(補完処理ステップS40)。処理装置5は、4つの照射方向毎の計測データのいずれか一部にエラー領域82が存在している場合で、同一領域について認識に成功した他の照射方向の計測データが存在する場合、第1補完処理を行う。処理装置5は、第1画像データ61の一部にサチレーション領域84が含まれることに起因して、4つの照射方向の全ての計測データでサチレーション領域84の認識に失敗した場合、第2補完処理を行う。処理装置5は、サチレーション領域84が第1認識対象R1の一部であるか否かを判定し、サチレーション領域84が第1認識対象R1の一部であると判定した場合に、第1認識対象R1の認識結果を用いてサチレーション領域84を補完する処理を行う第2補完処理を行う。なお、処理装置5は、エラー領域82(サチレーション領域84)が存在しない場合、第1及び第2補完処理を行わない。 When an error region 82 exists in the measurement data of the first recognition target R1 and the measurement data of the second recognition target R2, the processing device 5 executes a complementation process for pixels belonging to the error region 82 (complementation process step S40). When an error region 82 exists in any part of the measurement data for each of the four irradiation directions, and there is measurement data for other irradiation directions that successfully recognize the same region, the processing device 5 executes a first complementation process. When the processing device 5 fails to recognize the saturation region 84 in all measurement data for the four irradiation directions due to the saturation region 84 being included in part of the first image data 61, the processing device 5 executes a second complementation process in which the processing device 5 determines whether the saturation region 84 is part of the first recognition target R1, and when it is determined that the saturation region 84 is part of the first recognition target R1, it executes a second complementation process in which the processing device 5 executes a process of complementing the saturation region 84 using the recognition result of the first recognition target R1. Note that, when the error region 82 (saturation region 84) does not exist, the processing device 5 does not execute the first and second complementation processes.

これらの結果、処理装置5は、第1認識対象R1および第2認識対象R2の各点における高さデータに基づいて、第1認識対象R1および第2認識対象R2の3次元形状を算出する。 As a result, the processing device 5 calculates the three-dimensional shapes of the first recognition target R1 and the second recognition target R2 based on the height data at each point of the first recognition target R1 and the second recognition target R2.

<実装方法>
図14は、実施形態に係る電子部品実装システム100の動作を説明するフローチャートである。実施形態に係る電子部品実装システム100の動作について、以下に説明する。図14に示すように、電子部品実装システム100は、検出ステップS60と、近接ステップS70と、挿入ステップS80と、を実行する。
<Implementation method>
14 is a flowchart illustrating the operation of the electronic component mounting system 100 according to the embodiment. The operation of the electronic component mounting system 100 according to the embodiment will be described below. As shown in FIG. 14, the electronic component mounting system 100 executes a detection step S60, a proximity step S70, and an insertion step S80.

3次元計測装置1は、実施形態に係る3次元計測方法を実行することで、部品Cの第1認識対象R1(電極C2)及び第2認識対象R2(ボスC3)を認識する。処理装置5は、第1認識対象R1及び第2認識対象R2の計測データを制御装置29に送信する。制御装置29が、第1認識対象R1及び第2認識対象R2の高さデータに基づいて部品Cと基板Pとの相対位置を調整して、部品Cを基板Pに装着するように、実装ヘッド22を制御する(検出ステップS60)。 The three-dimensional measuring device 1 recognizes the first recognition target R1 (electrode C2) and second recognition target R2 (boss C3) of the component C by executing the three-dimensional measuring method according to the embodiment. The processing device 5 transmits measurement data of the first recognition target R1 and the second recognition target R2 to the control device 29. The control device 29 adjusts the relative position between the component C and the substrate P based on the height data of the first recognition target R1 and the second recognition target R2, and controls the mounting head 22 to mount the component C on the substrate P (detection step S60).

制御装置29は、3次元計測装置1からの指令に基づいて、実装ヘッド22のヘッド駆動装置25及びノズル駆動装置26を制御することで、ノズル11で保持した部品Cの鉛直方向下側の先端を基板Pの上面に近接させる(近接ステップS70)。 Based on a command from the 3D measuring device 1, the control device 29 controls the head driving device 25 and nozzle driving device 26 of the mounting head 22 to bring the lower vertical tip of the component C held by the nozzle 11 close to the top surface of the substrate P (close step S70).

近接ステップS70では、制御装置29が、実装ヘッド22のノズル駆動装置26を制御して、3次元計測装置1から受信した部品Cの第1認識対象R1及び第2認識対象R2の高さデータに基づき、ノズル11で保持した部品Cの鉛直方向下側の先端を基板Pの上面に近接させるように、ノズル11を鉛直方向下側に下降移動させる。 In the proximity step S70, the control device 29 controls the nozzle driving device 26 of the mounting head 22 to move the nozzle 11 vertically downward so that the vertically lower tip of the component C held by the nozzle 11 approaches the top surface of the substrate P based on the height data of the first recognition target R1 and the second recognition target R2 of the component C received from the 3D measurement device 1.

近接ステップS70では、また、制御装置29が、実装ヘッド22のヘッド駆動装置25及びノズル駆動装置26を制御して、ノズル11で保持した部品Cの3次元形状の計測データと、基板Pに形成された貫通孔の位置を示す位置計測装置27の計測データとに基づいて、ノズル11で保持した部品Cの第1認識対象R1及び第2認識対象R2の位置と、基板Pに形成された電極接続位置および貫通孔の水平方向の位置とを一致させるように、実装ヘッド22を水平方向に移動させるとともに、ノズル11を鉛直方向回りに回転させる。 In the approach step S70, the control device 29 also controls the head driving device 25 and nozzle driving device 26 of the mounting head 22 to move the mounting head 22 horizontally and rotate the nozzle 11 vertically so that the positions of the first recognition target R1 and the second recognition target R2 of the component C held by the nozzle 11 coincide with the electrode connection positions and the horizontal positions of the through holes formed on the substrate P, based on the measurement data of the three-dimensional shape of the component C held by the nozzle 11 and the measurement data of the position measuring device 27 indicating the positions of the through holes formed on the substrate P.

制御装置29は、3次元計測装置1からの指令に基づいて、実装ヘッド22のノズル駆動装置26を制御することで、ノズル11で保持した部品Cを基板Pに形成された貫通孔に挿入させる(挿入ステップS80)。制御装置29が、実装ヘッド22のノズル駆動装置26を制御して、ノズル11を鉛直方向下側に下降移動させる。これにより、部品Cの3つのボスC3が基板Pの対応する貫通孔内にそれぞれ挿入されることで、部品Cが基板P上に位置決めされる。それにより、部品Cの各電極C2が、基板Pの電極接続位置に位置決めされる。なお、部品Cの各電極C2は、基板Pの電極挿入孔に挿入されるピンタイプの電極であってもよい。 Based on a command from the three-dimensional measuring device 1, the control device 29 controls the nozzle driving device 26 of the mounting head 22 to insert the component C held by the nozzle 11 into a through hole formed in the substrate P (insertion step S80). The control device 29 controls the nozzle driving device 26 of the mounting head 22 to move the nozzle 11 downward in the vertical direction. As a result, the three bosses C3 of the component C are inserted into the corresponding through holes of the substrate P, and the component C is positioned on the substrate P. As a result, each electrode C2 of the component C is positioned at the electrode connection position of the substrate P. Note that each electrode C2 of the component C may be a pin-type electrode that is inserted into an electrode insertion hole of the substrate P.

<効果>
以上説明したように、本実施形態によれば、3次元計測装置1は、第1認識対象R1と、第1認識対象R1よりも光反射率が低い第2認識対象R2とを有する部品Cに、位相が異なるパターン光PLを投影する投影装置3と、パターン光PLが投影された第1認識対象R1及び第2認識対象R2の撮像を別々に行う撮像装置4と、第1認識対象R1の第1画像データ61に基づいて第1認識対象R1を画像認識し、第2認識対象R2の第2画像データ62に基づいて第2認識対象R2を画像認識する処理装置5と、を備え、撮像条件と画像認識条件とを含む計測条件70が、第1認識対象R1と第2認識対象R2とで異なる。これにより、相対的に光反射率が高い第1認識対象R1と光反射率が低い第2認識対象R2とを、それぞれに適した計測条件で別々に撮像するので、サチレーションが生じやすい第1認識対象R1の画像認識に適した第1画像データ61と、コントラストが付きにくい第2認識対象R2の画像認識に適した第2画像データ62とが得られる。そして、第1画像データ61と第2画像データ62とを、それぞれに適した計測条件で画像認識することによって、第1認識対象R1及び第2認識対象R2の3次元計測ができる。これらにより、1つの部品に光反射率が高い認識対象と光反射率が低い認識対象とが含まれる場合でも、各認識対象を同じ計測装置で適切に認識できる。
<Effects>
As described above, according to this embodiment, the three-dimensional measuring apparatus 1 includes the projection device 3 that projects pattern light PL with different phases onto a part C having a first recognition target R1 and a second recognition target R2 having a lower light reflectance than the first recognition target R1, the imaging device 4 that separately images the first recognition target R1 and the second recognition target R2 onto which the pattern light PL is projected, and the processing device 5 that performs image recognition of the first recognition target R1 based on first image data 61 of the first recognition target R1 and image recognition of the second recognition target R2 based on second image data 62 of the second recognition target R2, and the measurement conditions 70 including the imaging conditions and the image recognition conditions are different for the first recognition target R1 and the second recognition target R2. As a result, the first recognition target R1, which has a relatively high light reflectance, and the second recognition target R2, which has a low light reflectance, are imaged separately under measurement conditions suitable for each, so that the first image data 61 suitable for image recognition of the first recognition target R1, which is prone to saturation, and the second image data 62 suitable for image recognition of the second recognition target R2, which is difficult to create contrast, are obtained. Then, the first image data 61 and the second image data 62 are image-recognized under measurement conditions suitable for each, so that the first recognition target R1 and the second recognition target R2 can be three-dimensionally measured. As a result, even if one part includes a recognition target with a high light reflectance and a recognition target with a low light reflectance, each recognition target can be appropriately recognized by the same measurement device.

本実施形態によれば、第2認識対象R2の計測条件である第2計測条件70Bは、第1認識対象R1の計測条件である第1計測条件70Aと比べて、撮像装置4のカメラゲインが高い。第2計測条件70Bは、第1計測条件70Aと比べて、画像中の認識対象領域と背景領域とを区分する閾値が低い。第2計測条件70Bは、第1計測条件70Aと比べて、画像合成枚数が多い。これらにより、サチレーションが生じやすい第1認識対象R1の第1画像データ61を、相対的に低いゲイン、高い閾値、少ない合成枚数で生成できる。それにより、第1認識対象R1の画像データにおけるサチレーションを抑制し、第1認識対象R1と背景との区別をより正確に行える。コントラストが付きにくい第2認識対象R2の第2画像データ62を、相対的に高いゲイン、低い閾値、多い合成枚数で生成できる。それにより、第2認識対象R2の画像データのコントラストが付きやすくなり、第2認識対象R2と背景との区別をより正確に行える。 According to this embodiment, the second measurement condition 70B, which is the measurement condition of the second recognition target R2, has a higher camera gain of the imaging device 4 than the first measurement condition 70A, which is the measurement condition of the first recognition target R1. The second measurement condition 70B has a lower threshold value for dividing the recognition target area and the background area in the image than the first measurement condition 70A. The second measurement condition 70B has a larger number of image composites than the first measurement condition 70A. As a result, the first image data 61 of the first recognition target R1, which is prone to saturation, can be generated with a relatively low gain, a high threshold value, and a small number of composites. As a result, saturation in the image data of the first recognition target R1 can be suppressed, and the first recognition target R1 and the background can be distinguished more accurately. The second image data 62 of the second recognition target R2, which is difficult to create contrast, can be generated with a relatively high gain, a low threshold value, and a large number of composites. As a result, the image data of the second recognition target R2 is more likely to have contrast, and the second recognition target R2 can be distinguished more accurately from the background.

本実施形態によれば、処理装置5は、複数方向のパターン光PLによる画像データのいずれか一部で認識に失敗した場合、認識に成功した他の画像データに基づいて画像認識(第1補完処理)を行う。これにより、画像データ中の認識対象の一部で画像認識が失敗してエラー領域82が生じた場合でも、他の照射方向の画像データで画像認識が成功していれば、計測データを補完することにより、計測データの部分的な欠如であるエラー領域82の発生を抑制できる。 According to this embodiment, if the processing device 5 fails to recognize any part of the image data generated by the pattern light PL in multiple directions, the processing device 5 performs image recognition (first complementation process) based on the other image data that was successfully recognized. As a result, even if image recognition fails for part of the recognition target in the image data and an error area 82 occurs, if image recognition is successful with image data from other irradiation directions, the measurement data can be complemented to suppress the occurrence of the error area 82, which is a partial lack of measurement data.

本実施形態によれば、処理装置5は、第1画像データ61の一部にサチレーション領域84が含まれることに起因してサチレーション領域84の認識に失敗した場合、部品Cの形状データに基づいて、サチレーション領域84が第1認識対象R1の一部であるか否かを判定し、サチレーション領域84が第1認識対象R1の一部であると判定した場合に、第1認識対象R1の認識結果を用いてサチレーション領域84を補完する処理(第2補完処理)を行う。これにより、第1画像データ61中で、光反射率が高い第1認識対象R1の部分にサチレーション領域84が発生して計測データが得られない場合でも、そのサチレーション領域84の認識結果を補完できる。これにより、高い光反射率に起因してサチレーションが生じやすい第1認識対象R1であっても、第1認識対象R1の輪郭形状を正確に取得できる。 According to this embodiment, when the processing device 5 fails to recognize the saturation region 84 due to the saturation region 84 being included in part of the first image data 61, the processing device 5 determines whether the saturation region 84 is part of the first recognition target R1 based on the shape data of the part C, and when it determines that the saturation region 84 is part of the first recognition target R1, it performs a process (second complementation process) to complement the saturation region 84 using the recognition result of the first recognition target R1. As a result, even if the saturation region 84 occurs in a part of the first recognition target R1 with high light reflectance in the first image data 61 and measurement data cannot be obtained, the recognition result of the saturation region 84 can be complemented. As a result, even if the first recognition target R1 is prone to saturation due to its high light reflectance, the contour shape of the first recognition target R1 can be accurately obtained.

本実施形態によれば、第1認識対象R1は、部品CのボディC1から突出する電極C2の先端部である。第2認識対象R2は、暗色樹脂からなるボディC1から突出するボスC3の先端部である。これにより、本来、電極C2の画像認識の妨げとならないように、コントラストが付きにくい暗色樹脂で形成されたボディC1の一部でも、同じ計測装置で、電極C2と共に画像認識を実行できる。 According to this embodiment, the first recognition target R1 is the tip of the electrode C2 protruding from the body C1 of the component C. The second recognition target R2 is the tip of the boss C3 protruding from the body C1 made of dark-colored resin. This allows image recognition to be performed together with the electrode C2 using the same measuring device, even on a part of the body C1 made of dark-colored resin that does not have much contrast, so as not to interfere with image recognition of the electrode C2.

[他の実施形態]
上述の実施形態において、3次元計測装置1を、電子部品実装装置2を備えた電子部品実装システム100に設けた例を示したが、3次元計測装置1は、例えば部品Cの検査を行う検査装置などに設けてもよい。
[Other embodiments]
In the above-described embodiment, an example was shown in which the three-dimensional measuring device 1 was provided in an electronic component mounting system 100 equipped with an electronic component mounting device 2, but the three-dimensional measuring device 1 may also be provided in, for example, an inspection device that inspects components C.

1…3次元計測装置、2…電子部品実装装置、3…投影装置、4…撮像装置、4S…視野範囲、5…処理装置、6…反射部材、7…ハウジング、11…ノズル、22…実装ヘッド、23…電子部品供給装置、24…基板搬送装置、25…ヘッド駆動装置、26…ノズル駆動装置、27…位置計測装置、29…制御装置、31…光源、32…光変調素子、33…射出光学系、33S…射出面、41…結像光学系、41S…入射面、42…撮像素子、51…入出力部、52…パターン生成部、53…画像データ取得部、54…位相値算出部、55…3次元形状算出部、56…記憶部、61…第1画像データ、62…第2画像データ、70…計測条件、70A…第1計測条件、70B…第2計測条件、71A…電極認識用アルゴリズム、71B…ボス認識用アルゴリズム、72…部品データ、80…計測データ、81A…第1方向計測データ、81B…第2方向計測データ、81C…第3方向計測データ、81D…第4方向計測データ、82…エラー領域、83…認識領域、84…サチレーション領域、100…電子部品実装システム、331…第1領域、332…第2領域、AX…光軸、BG…背景領域、C…部品、C1…ボディ、C2…電極、C3…ボス、C4…ねじ孔、C11…端子部、C12…固定部、C13…下面、CA1、CA2、CA3…分割領域、MP…実装位置、N…画像合成枚数、P…基板、PL…パターン光、PL1…第1パターン光、PL2…第2パターン光、R1…第1認識対象、R2…第2認識対象、SP…供給位置、TP…計測位置。 1...3D measurement device, 2...electronic component mounting device, 3...projection device, 4...imaging device, 4S...field of view, 5...processing device, 6...reflective member, 7...housing, 11...nozzle, 22...mounting head, 23...electronic component supply device, 24...substrate transport device, 25...head drive device, 26...nozzle drive device, 27...position measurement device, 29...control device, 31...light source, 32...light modulation element, 33...emission optical system, 33S...emission surface, 41...imaging optical system, 41S...incident surface, 42...imaging element, 51...input/output unit, 52...pattern generation unit, 53...image data acquisition unit, 54...phase value calculation unit, 55...3D shape calculation unit, 56...storage unit, 61...first image data, 62...second image data, 70...measurement conditions, 70A...first measurement conditions, 70B...second measurement conditions, 71A...electrode recognition algorithm, 71B... boss recognition algorithm, 72... component data, 80... measurement data, 81A... first direction measurement data, 81B... second direction measurement data, 81C... third direction measurement data, 81D... fourth direction measurement data, 82... error region, 83... recognition region, 84... saturation region, 100... electronic component mounting system, 331... first region, 332... second region, AX... optical axis, BG... background Area, C... component, C1... body, C2... electrode, C3... boss, C4... screw hole, C11... terminal part, C12... fixing part, C13... bottom surface, CA1, CA2, CA3... divided area, MP... mounting position, N... number of images to be combined, P... board, PL... pattern light, PL1... first pattern light, PL2... second pattern light, R1... first recognition target, R2... second recognition target, SP... supply position, TP... measurement position.

Claims (8)

第1認識対象と、前記第1認識対象よりも光反射率が低い第2認識対象とを有する部品に、位相が異なるパターン光を投影する投影装置と、
前記パターン光が投影された前記第1認識対象及び前記第2認識対象の撮像を別々に行う撮像装置と、
前記第1認識対象の第1画像データに基づいて前記第1認識対象を画像認識し、前記第2認識対象の第2画像データに基づいて前記第2認識対象を画像認識する処理装置と、を備え、
撮像条件と画像認識条件とを含む計測条件が、前記第1認識対象と前記第2認識対象とで異なる、
3次元計測装置。
A projection device that projects pattern light having different phases onto a part having a first recognition target and a second recognition target having a lower light reflectance than the first recognition target;
an imaging device that separately images the first recognition target and the second recognition target onto which the pattern light is projected;
a processing device that performs image recognition of the first recognition target based on first image data of the first recognition target, and performs image recognition of the second recognition target based on second image data of the second recognition target,
Measurement conditions including imaging conditions and image recognition conditions are different between the first recognition target and the second recognition target.
3D measuring device.
前記第2認識対象の前記計測条件は、前記第1認識対象の前記計測条件と比べて、前記撮像装置のカメラゲインが高い、
請求項1に記載の3次元計測装置。
the measurement condition of the second recognition target is higher than the measurement condition of the first recognition target, and a camera gain of the imaging device is higher.
The three-dimensional measuring apparatus according to claim 1 .
前記第2認識対象の前記計測条件は、前記第1認識対象の前記計測条件と比べて、画像中の認識対象領域と背景領域とを区分する閾値が低い、
請求項1に記載の3次元計測装置。
The measurement condition of the second recognition target has a lower threshold value for dividing a recognition target region and a background region in an image than the measurement condition of the first recognition target.
The three-dimensional measuring apparatus according to claim 1 .
前記第2認識対象の前記計測条件は、前記第1認識対象の前記計測条件と比べて、撮像回数が多く、
前記処理装置は、複数の前記第2画像データの合成処理を行う、
請求項1に記載の3次元計測装置。
The measurement condition of the second recognition target includes a larger number of times of imaging than the measurement condition of the first recognition target,
The processing device performs a synthesis process on the plurality of second image data.
The three-dimensional measuring apparatus according to claim 1 .
前記投影装置は、前記部品に複数方向から別々に前記パターン光の投影を行い、
前記撮像装置は、前記複数方向からの前記パターン光により別々に撮像を行い、
前記処理装置は、前記複数方向の前記パターン光による画像データのいずれか一部で認識に失敗した場合、認識に成功した他の画像データに基づいて画像認識を行う、
請求項1から4のいずれか1項に記載の3次元計測装置。
the projection device projects the pattern light onto the component from a plurality of directions separately,
the imaging device captures images of the pattern light from the plurality of directions separately,
when the processing device fails to recognize any part of the image data obtained by the pattern light in the multiple directions, the processing device performs image recognition based on other image data that has been successfully recognized.
The three-dimensional measuring apparatus according to claim 1 .
前記処理装置は、前記第1画像データの一部にサチレーション領域が含まれることに起因して前記サチレーション領域の認識に失敗した場合、
前記部品の形状データに基づいて、前記サチレーション領域が前記第1認識対象の一部であるか否かを判定し、
前記サチレーション領域が前記第1認識対象の一部であると判定した場合に、前記第1認識対象の認識結果を用いて前記サチレーション領域を補完する処理を行う、
請求項1から4のいずれか1項に記載の3次元計測装置。
When the processing device fails to recognize the saturation region due to a saturation region being included in a part of the first image data,
determining whether the saturation region is a part of the first recognition target based on shape data of the part;
When it is determined that the saturation region is a part of the first recognition target, a process of complementing the saturation region using a recognition result of the first recognition target is performed.
The three-dimensional measuring apparatus according to claim 1 .
前記第1認識対象は、前記部品のボディから突出する電極の先端部であり、
前記第2認識対象は、暗色樹脂からなる前記ボディから突出するボスの先端部である、
請求項1から4のいずれか1項に記載の3次元計測装置。
the first recognition target is a tip portion of an electrode protruding from a body of the component,
the second recognition target is a tip portion of a boss protruding from the body made of a dark-colored resin;
The three-dimensional measuring apparatus according to claim 1 .
第1認識対象と、前記第1認識対象よりも光反射率が低い第2認識対象とを有する部品に、位相が異なるパターン光を投影し、前記パターン光が投影された前記第1認識対象の第1撮像を行うステップと、
前記部品に、前記パターン光を投影し、前記パターン光が投影された前記第2認識対象の第2撮像を行うステップと、
前記第1認識対象の第1画像データに基づいて前記第1認識対象を画像認識し、前記第2認識対象の第2画像データに基づいて前記第2認識対象を画像認識するステップと、を備え、
撮像条件と画像認識条件とを含む計測条件が、前記第1認識対象と前記第2認識対象とで異なる、
3次元計測方法。
A step of projecting pattern light having different phases onto a component having a first recognition target and a second recognition target having a lower light reflectance than the first recognition target, and capturing a first image of the first recognition target onto which the pattern light is projected;
projecting the pattern light onto the component and capturing a second image of the second recognition target onto which the pattern light is projected;
performing image recognition on the first recognition target based on first image data of the first recognition target, and performing image recognition on the second recognition target based on second image data of the second recognition target;
Measurement conditions including imaging conditions and image recognition conditions are different between the first recognition target and the second recognition target.
3D measurement method.
JP2023155445A 2023-09-21 2023-09-21 Three-dimensional measurement device and three-dimensional measurement method Pending JP2025047138A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023155445A JP2025047138A (en) 2023-09-21 2023-09-21 Three-dimensional measurement device and three-dimensional measurement method
CN202411303995.9A CN119665862A (en) 2023-09-21 2024-09-19 Three-dimensional measuring device and three-dimensional measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023155445A JP2025047138A (en) 2023-09-21 2023-09-21 Three-dimensional measurement device and three-dimensional measurement method

Publications (1)

Publication Number Publication Date
JP2025047138A true JP2025047138A (en) 2025-04-03

Family

ID=94995153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023155445A Pending JP2025047138A (en) 2023-09-21 2023-09-21 Three-dimensional measurement device and three-dimensional measurement method

Country Status (2)

Country Link
JP (1) JP2025047138A (en)
CN (1) CN119665862A (en)

Also Published As

Publication number Publication date
CN119665862A (en) 2025-03-21

Similar Documents

Publication Publication Date Title
KR101615946B1 (en) Three-dimensional shape measuring apparatus
US20100007896A1 (en) Inspection system and method
KR101782336B1 (en) Inspection apparatus and inspection method
KR102515369B1 (en) 3D measurement device
US9594028B2 (en) Method and apparatus for determining coplanarity in integrated circuit packages
JP6198312B2 (en) Three-dimensional measuring apparatus, three-dimensional measuring method, and substrate manufacturing method
JP2009092485A (en) Print solder inspection device
US10657665B2 (en) Apparatus and method for generating three-dimensional information
JP2025047138A (en) Three-dimensional measurement device and three-dimensional measurement method
JP2000018919A (en) Imaging device, optical measuring apparatus, and optical system inspecting apparatus
TWI854334B (en) System and method for determining contact height of a packaged chip
JP2018109550A (en) Electronic component conveying device and electronic component inspection device
JP7253914B2 (en) Electronic component mounting system
JP7303069B2 (en) inspection equipment
JP3868860B2 (en) 3D measuring device
WO2023032095A1 (en) Workpiece height measurement device, and mounting substrate inspection device using same
JP3645340B2 (en) Flat package pin bending detection device
JP2001217599A (en) Surface mounting component attaching device and electronic component detecting method thereof
JP7540170B2 (en) 3D shape measuring device
JP2004061460A (en) Device for inspecting external lead shape of electronic component
JP2739739B2 (en) Misalignment inspection device
JP2024172253A (en) Component mounting system and component mounting method
JP2013170987A (en) Component mounted circuit board production apparatus and three-dimensional shape measurement apparatus
JP2022138210A (en) 3D camera
JP2004317246A (en) Range finder