JP2006208187A - Shape pass / fail judgment device and shape pass / fail judgment method - Google Patents
Shape pass / fail judgment device and shape pass / fail judgment method Download PDFInfo
- Publication number
- JP2006208187A JP2006208187A JP2005020356A JP2005020356A JP2006208187A JP 2006208187 A JP2006208187 A JP 2006208187A JP 2005020356 A JP2005020356 A JP 2005020356A JP 2005020356 A JP2005020356 A JP 2005020356A JP 2006208187 A JP2006208187 A JP 2006208187A
- Authority
- JP
- Japan
- Prior art keywords
- shape
- inclination angle
- light
- pixel
- luminance value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000007689 inspection Methods 0.000 claims abstract description 61
- 230000014509 gene expression Effects 0.000 claims abstract description 37
- 238000003384 imaging method Methods 0.000 claims description 36
- 230000001678 irradiating effect Effects 0.000 claims description 7
- 230000000704 physical effect Effects 0.000 claims description 5
- 230000002950 deficient Effects 0.000 abstract description 6
- 229910000679 solder Inorganic materials 0.000 description 73
- 230000006870 function Effects 0.000 description 37
- 238000012545 processing Methods 0.000 description 11
- 239000000758 substrate Substances 0.000 description 9
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000004807 localization Effects 0.000 description 5
- 230000007547 defect Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 240000006829 Ficus sundaica Species 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005496 eutectics Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】 精度よく良否判定を行うことができる形状良否判定装置および形状良否判定方法の提供を課題とする。
【解決手段】 本発明において、式(1)によって表される近似式Fを用いて、輝度値Ba,bから傾斜角度θa,bを算出することにより、検査対象物の傾斜角度θa,bを正確に推定することができる。傾斜角度θa,bは画素Pa,bごとに算出されるため、各画素Pa,bの配置と、傾斜角度θa,bとから検査対象物の形状を推定することができる。そして、推定された形状が良品/不良品に類似する形状であるかどうかを判定することにより、検査対象物の良否判定を行うことができる。
【選択図】 図7PROBLEM TO BE SOLVED: To provide a shape pass / fail judgment device and a shape pass / fail judgment method capable of accurately judging pass / fail.
In The present invention, by using an approximate expression F represented by formula (1), the brightness value B a, by calculating the tilt angle theta a, b from b, the inclination angle of the test object theta a , b can be estimated accurately. Tilt angle theta a, b are to be calculated pixel P a, each b, it is possible to estimate the pixel P a, and the arrangement of the b, and the shape of the inspection object from an inclination angle θ a, b. Then, by determining whether the estimated shape is a shape similar to a non-defective product / defective product, the quality of the inspection object can be determined.
[Selection] Figure 7
Description
本発明は、検査対象の形状の良否を判定する形状良否判定装置および形状良否判定方法に関する。 The present invention relates to a shape pass / fail determination device and a shape pass / fail determination method for determining pass / fail of a shape to be examined.
従来、はんだを撮像カメラにて撮像した撮像データから明暗変化点を検出し、この明暗変化点の検出結果からはんだ形状の良否を判定するものが知られている(例えば、特許文献1、参照。)。
かかる構成によれば、撮像データから得られた明暗変化点の位置や形状に基づいて、はんだ形状を推定することができるため、はんだ形状の良否を判定することが可能であった。
According to such a configuration, since the solder shape can be estimated based on the position and shape of the light and dark change points obtained from the imaging data, it was possible to determine whether the solder shape was good or bad.
しかしながら、明暗変化点によれば、はんだ形状のうち明暗変化が起こりうる所定の稜線の形状しか特定することができず、はんだ全体の連続的な形状に基づいて精度よく良否判定を行うことができないという問題があった。
本発明は、上記課題にかんがみてなされたもので、精度よく良否判定を行うことができる形状良否判定装置および形状良否判定方法の提供を目的とする。
However, according to the light-dark change point, only the shape of a predetermined ridge line in which the light-dark change can occur in the solder shape can be specified, and the quality determination cannot be performed with accuracy based on the continuous shape of the entire solder. There was a problem.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a shape quality determination device and a shape quality determination method that can perform quality determination with high accuracy.
上記目的を達成するため、請求項1にかかる発明では、検査対象物に対して所定の入射角にて検査光を照射する照射手段と、上記検査対象物に対する上記検査光の反射像を撮像することにより、画素ごとの反射光の輝度値によって表現される撮像イメージを取得する撮像手段と、上記輝度値と上記反射光が反射された上記検査対象物の傾斜角度との対応関係から上記画素ごとに同傾斜角度を取得する傾斜角度取得手段と、上記傾斜角度取得手段にて取得された各画素の上記傾斜角度と、同画素の配列情報に基づいて上記検査対象物の形状を推定する形状推定手段と、上記形状推定手段にて推定された上記形状に基づいて良否判定を行う良否判定手段とを具備する構成としてある。 In order to achieve the above object, according to the first aspect of the present invention, an irradiating means for irradiating the inspection object with inspection light at a predetermined incident angle and a reflected image of the inspection light with respect to the inspection object are captured. Thus, for each pixel from the correspondence relationship between the imaging means for obtaining the captured image expressed by the luminance value of the reflected light for each pixel, and the inclination angle of the inspection object from which the reflected light is reflected Inclination angle acquisition means for acquiring the same inclination angle, shape estimation for estimating the shape of the inspection object based on the inclination angle of each pixel acquired by the inclination angle acquisition means and arrangement information of the same pixel And a pass / fail determination unit that performs pass / fail determination based on the shape estimated by the shape estimation unit.
上記のように構成した請求項1の発明において、照射手段は、検査対象物に対して所定の入射角にて検査光を照射する。撮像手段は、上記検査対象物に対する上記検査光の反射像を撮像し、画素ごとの反射光の輝度値によって表現される撮像イメージを取得する。傾斜角度取得手段には、予め上記輝度値と上記反射光が反射された上記検査対象物の傾斜角度との対応関係が備えられており、この対応関係を利用して上記撮像イメージの上記輝度値から上記傾斜角度を画素ごとに取得する。形状推定手段は、各画素の上記傾斜角度と配列情報に基づいて上記検査対象物の形状を推定する。さらに、上記良否判定手段は、上記形状推定手段にて推定された上記形状に基づいて良否判定を行う。上記傾斜角度は上記画素ごとに取得されるため、上記画素の配列情報に基づいて上記検査対象の形状を取得することができる。従って、上記撮像手段によって撮影された撮影エリアに含まれる上記検査対象の形状を推定することができる。
In the invention of
さらに、請求項2にかかる発明は、上記対応関係は、少なくとも上記検査光が上記検査対象物にて反射する際の鏡面反射と拡散反射とが加味された近似式によって定義される構成としてある。
上記のように構成した請求項2の発明において、少なくとも上記検査光が上記検査対象物にて反射する際の鏡面反射と拡散反射とが加味された近似式によって上記輝度値と上記傾斜角度との上記対応関係が定義される。なお、上記対応関係は、上記輝度値と上記傾斜角度との対応がテーブルによって定義されているものであってもよいし、上記近似式自体であってもよい。いずれにしても、上記傾斜角度取得手段が上記輝度値に基づいて上記傾斜角度を取得することができる。
Furthermore, the invention according to claim 2 is configured such that the correspondence relationship is defined by an approximate expression in which at least specular reflection and diffuse reflection when the inspection light is reflected by the inspection object are taken into account.
In the invention of claim 2 configured as described above, the brightness value and the inclination angle are approximated by an approximate expression in which specular reflection and diffuse reflection when at least the inspection light is reflected by the inspection object are added. The above correspondence is defined. The correspondence relationship may be that in which the correspondence between the luminance value and the tilt angle is defined by a table, or may be the approximate expression itself. In any case, the inclination angle acquisition means can acquire the inclination angle based on the luminance value.
また、請求項3にかかる発明は、上記近似式には、少なくとも上記入射角と上記検査光の光量と上記検査対象物の物性値とが定数として与えられる構成としてある。
上記のように構成した請求項3の発明において、上記入射角と上記検査光の光量と上記検査対象物の物性値を考慮して上記近似式を算出することにより、上記輝度値と上記傾斜角度との対応関係を正確に定義することができる。
The invention according to claim 3 is configured such that at least the incident angle, the amount of the inspection light, and the physical property value of the inspection object are given as constants in the approximate expression.
In the invention of claim 3 configured as described above, the luminance value and the inclination angle are calculated by calculating the approximate expression in consideration of the incident angle, the amount of the inspection light, and the physical property value of the inspection object. Can be accurately defined.
さらに、請求項4にかかる発明は、上記照射手段は、上記検査対象物に対して複数の入射角にて検査光を照射するとともに、上記傾斜角度取得手段は、複数の上記入射角に対してそれぞれ定義された複数の上記対応関係に基づいて上記画素ごとに上記傾斜角度を取得する構成としてある。
上記のように構成した請求項4の発明において、上記照射手段は上記検査対象物に対して複数の入射角にて検査光を照射する。上記対応関係は各入射角に応じてそれぞれ定義される。そして、上記傾斜角度取得手段は、複数の上記対応関係に基づいて上記画素ごとに上記輝度値から上記傾斜角度を取得する。すなわち、ある上記入射角における上記対応関係のみでは上記輝度値から上記傾斜角度が特定できない場合にも、他の上記入射角における上記対応関係に基づいて上記輝度値から上記傾斜角度を取得することができる。
Further, in the invention according to claim 4, the irradiating means irradiates the inspection object with inspection light at a plurality of incident angles, and the inclination angle acquiring means applies to the plurality of incident angles. The tilt angle is obtained for each pixel based on the plurality of corresponding relationships defined respectively.
In the invention of claim 4 configured as described above, the irradiation unit irradiates the inspection object with inspection light at a plurality of incident angles. The above correspondence is defined for each incident angle. And the said inclination-angle acquisition means acquires the said inclination-angle from the said luminance value for every said pixel based on the said some correspondence. That is, even when the inclination angle cannot be specified from the luminance value only by the correspondence relation at a certain incident angle, the inclination angle can be obtained from the luminance value based on the correspondence relation at another incident angle. it can.
また、請求項5にかかる発明は、上記傾斜角度取得手段は、予め定義された代表的な上記輝度値と上記傾斜角度との対応関係に基づいて、他の上記輝度値と上記傾斜角度との対応関係を推定する構成としてある。
上記のように構成した請求項5の発明において、代表的な上記輝度値と上記傾斜角度との対応関係が予め定義されている。そして、その他の上記輝度値と上記傾斜角度との対応関係については、代表的な上記輝度値と上記傾斜角度との対応関係に基づく推定によって取得される。例えば、直線補間等を用いることにより、簡単に他の上記輝度値と上記傾斜角度との対応関係を推定することができる。これにより、全ての対応関係を予め調査し、定義しておかなくても済む。
According to a fifth aspect of the present invention, the inclination angle acquisition means is configured to obtain a difference between the other luminance value and the inclination angle based on a correspondence relationship between the representative representative luminance value and the inclination angle. The correspondence relationship is estimated.
In the invention of claim 5 configured as described above, the correspondence between the representative luminance value and the inclination angle is defined in advance. Then, other correspondence relationships between the luminance value and the tilt angle are acquired by estimation based on the correspondence relationship between the representative luminance value and the tilt angle. For example, by using linear interpolation or the like, it is possible to easily estimate the correspondence between the other luminance values and the tilt angle. Thereby, it is not necessary to investigate and define all the correspondence relationships in advance.
また、請求項6にかかる発明は、上記傾斜角度取得手段は、上記輝度値についてのメンバーシップ関数と、上記傾斜角度についてのメンバーシップ関数とを用いたファジイ推論に基づいて他の上記輝度値と上記傾斜角度との対応関係を推定する構成としてある。
上記のように構成した請求項6の発明において、上記輝度値についてのメンバーシップ関数と、上記傾斜角度についてのメンバーシップ関数とを用いたファジイ推論が行われる。これにより、ファジイ推論に基づいて他の上記輝度値と上記傾斜角度との対応関係を推定することができる。
According to a sixth aspect of the present invention, the inclination angle acquisition means includes the other luminance values based on fuzzy inference using a membership function for the luminance value and a membership function for the inclination angle. The correspondence relationship with the inclination angle is estimated.
In the invention of claim 6 configured as described above, fuzzy inference is performed using a membership function for the luminance value and a membership function for the tilt angle. Thereby, it is possible to estimate the correspondence relationship between the other luminance values and the inclination angle based on fuzzy inference.
また、請求項7にかかる発明は、上記良否判定手段は、上記形状推定手段にて推定された上記形状に近似するγ関数を算出し、同γ関数のγ値に基づいて良否判定を行う構成としてある。
上記のように構成した請求項7の発明において、上記良否判定手段は、上記形状推定手段にて推定された上記形状に近似するγ関数を算出する。そして、算出されたγ関数のγ値を評価することにより良否判定を行う。γ値によれば上記形状の凹凸度合いを判定することができるため、上記形状を評価するために好適な指標を得ることができる。
The invention according to claim 7 is configured such that the pass / fail judgment means calculates a γ function that approximates the shape estimated by the shape estimation means, and judges pass / fail based on the γ value of the γ function. It is as.
In the invention of claim 7 configured as described above, the quality determination unit calculates a γ function that approximates the shape estimated by the shape estimation unit. Then, pass / fail judgment is performed by evaluating the γ value of the calculated γ function. Since the degree of unevenness of the shape can be determined according to the γ value, a suitable index for evaluating the shape can be obtained.
また、上述した手法は、かかる装置を実現する方法としても適用可能であり、請求項8にかかる発明においても、基本的には同様の作用となる。むろん、請求項2〜請求項7に記載された構成を請求項8の方法に対応させることも可能である。
The above-described method can also be applied as a method for realizing such an apparatus, and the invention according to
以上説明したように、請求項1および請求項8にかかる発明によれば、精度よく良否判定を行うことができる形状良否判定装置および形状良否判定方法を提供することができる。
請求項2にかかる発明によれば、正確に反射光の輝度値を推定することができる。
請求項3にかかる発明によれば、各条件に適合した近似式を算出することができる。
請求項4にかかる発明によれば、確実に輝度値から傾斜角度を特定することができる。
請求項5にかかる発明によれば、全ての輝度値に対する対応関係を予め調査しなくても済む。
請求項6にかかる発明によれば、ファジイ推論に基づいて対応関係を推定することができる。
請求項7にかかる発明によれば、形状の凹凸度合いを判定することができる。
As described above, according to the first and eighth aspects of the invention, it is possible to provide a shape pass / fail determination apparatus and a shape pass / fail determination method capable of accurately determining pass / fail.
According to the invention of claim 2, it is possible to accurately estimate the luminance value of the reflected light.
According to the invention of claim 3, it is possible to calculate an approximate expression suitable for each condition.
According to the invention of claim 4, it is possible to reliably specify the inclination angle from the luminance value.
According to the fifth aspect of the present invention, it is not necessary to investigate in advance the correspondence relationship for all luminance values.
According to the invention of claim 6, it is possible to estimate the correspondence based on fuzzy inference.
According to the seventh aspect of the invention, the degree of unevenness of the shape can be determined.
ここでは、下記の順序に従って本発明の実施形態について説明する。
(1)形状良否判定装置の構成:
(2)良否判定処理:
(3)近似式について:
(4)変形例:
(5)ファジイ推論を用いた変形例:
(6)まとめ:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of shape pass / fail judgment device:
(2) Pass / fail judgment processing:
(3) About the approximate expression:
(4) Modification:
(5) Modification using fuzzy inference:
(6) Summary:
(1)形状良否判定装置の構成:
図1は、本発明にかかる形状良否判定装置の構成を示している。同図において、形状良否判定装置10は、相互に接続された撮像ユニット20とコンピュータ30とから構成されている。撮像ユニット20は検査対象物の実装基板50を撮像して撮像イメージを生成し、同撮像イメージをコンピュータ30に出力する。コンピュータ30は撮像イメージを入力し、同撮像イメージを解析することにより、撮像を行った実装基板50の良否を判定する。図1において、撮像ユニット20は、実装基板50が一定位置に載置されるとともに、コントローラ21の指令に基づいてX−Y(水平)方向に移動可能なX−Yステージ23を備えている。カメラ22は、所定の光学レンズからなる光学系22aを鉛直下方に配向させており、鉛直下方の像を入力することが可能となっている。カメラ22の内部にはCCD撮像板22bが備えられており、光学系22aは鉛直下方の像をCCD撮像板22bに結像することが可能となっている。
(1) Configuration of shape pass / fail judgment device:
FIG. 1 shows the configuration of a shape pass / fail judgment apparatus according to the present invention. In the figure, the shape pass /
CCD撮像板22bはドットマトリックス状に配列された複数のCCD撮像素子で構成されている。CCD撮像素子は、それぞれ入力した光に応じて電荷を発生させる光電素子であるとともに、同発生した電荷を一時的に記憶する。そして、CCD撮像素子にて生成した電荷をデジタル信号に変換しつつ、順次コントローラ21に転送する。コントローラ21は、転送された上記デジタル信号をCCD撮像板22bにおけるCCD撮像素子の個々のアドレスに対応づけながら画像メモリ(VRAM)21aに蓄積する。すなわち、VRAM21aにおいてCCD撮像素子に対応する画素ごとに上記デジタル信号の階調を有する画像データが生成される。なお、本実施形態において、上記デジタル信号はCCD撮像素子に入力された光の輝度を表現するものとする。すなわち、画素ごとに輝度値を有する画像データがVRAM21aにおいて記憶される。
The
上記のようにしてVRAM21aに記憶された画像データはコンピュータ30に対して出力される。また、カメラ22にて撮像を行うごとにVRAM21aには新たな画像データが記憶される。コントローラ21は、X−Yステージ23に対して駆動信号を出力しており、同駆動信号に応じてX−Yステージ23が水平方向に駆動される。むろん、X−Yステージ23上の一定位置に載置された実装基板50も水平移動することとなる。このようにすることにより、カメラ22を移動させることなく、実装基板50上のあらゆる位置にカメラ22の視野を移動させることが可能となる。なお、カメラ22にて撮像する際には、X−Yステージ23が停止するため、静止画像が撮像されることとなる。
The image data stored in the
X−Yステージ23から所定量上方にリングライト24aが保持されている。リングライト24は発光素子としてLEDを具備している。このLEDは円環状に形成されており、その中心位置が上方視においてカメラ22の光学系22aの中心位置と一致させられている。すなわち、リングライト24はカメラ22の視野を外側から一定の角度で照射することが可能となっている。なお、カメラ22の視野は、リングライト24の大きさや実装基板50との距離よりも十分に小さいため、視野内における検査光の入射角度や光量の誤差は無視できるものとする。このようにすることにより、実装基板50のリングライト24による反射像をカメラ22にて撮像した2次元の画像データを生成することができる。なお、カメラ22にて撮像した画像データを撮像イメージというものとする。
A
図2は、コンピュータ30の内部構成をブロック図により示している。同図において、コンピュータ30は、主要な構成としてCPU31とRAM32とビデオメモリ(VRAM)33とハードディスク(HDD)34を備えている。CPU31は、HDD34に記憶されたオペレーティングシステム(O/S)34aや良否判定プログラム34b等に基づいた処理を実行させる演算装置であり、同処理を実行する際にRAM32をワークエリアとして使用する。VRAM33は、画像データを記憶するために特化したメモリであり、撮像イメージ33aや角度イメージ33bが記憶される。なお、撮像イメージ33aは、コントローラ21のVRAM21aから転送された画像データである。
FIG. 2 is a block diagram showing the internal configuration of the
その他の構成として、コンピュータ30にはビデオインターフェイス(I/F)35と入力インターフェイス(I/F)37とI/O39が備えられている。ビデオI/F35にはディスプレイ36が接続され、入力I/F37にはキーボード38aおよびマウス38bが接続され、I/O39には撮像ユニット20のコントローラ21が接続されている。I/O39は、コントローラ21に対してX−Yステージ23を駆動させるための信号や、カメラ22にて撮像を実行させるための信号等を出力するとともに、コントローラ21から撮像イメージの入力を受け付けている。
As another configuration, the
図3は、コンピュータ30にて実現されるソフトウェアの構成とデータの流れを示している。CPU31およびRAM32にて、O/S34aと良否判定プログラム34bとが実行されており、そのモジュール構成が示されている。良否判定プログラムMは、撮像実行部M1と撮像イメージ取得部M2と傾斜角度取得部M3と形状推定部M4と良否判定部M5とを有している。
FIG. 3 shows the configuration of software implemented by the
撮像実行部M1は、HDD34に記憶された基板データ34cを取得し、同基板データ34cに基づいて撮像ユニット20に撮像を実行させる。具体的に、基板データ34cには、実装基板50の大きさや実装された部品の位置や大きさや形状や個数といった情報が格納されており、これらの情報に基づいてX−Yステージ23を駆動させる。従って、実装基板50上における所望の位置にカメラ22の視野を動かすことができ、実装基板50上における所望の位置について良否判定を実行することができる。
The imaging execution unit M1 acquires the
撮像イメージ取得部M2は、コントローラ21から撮像イメージを入力し、VRAM33に撮像イメージ33aを記憶させる。傾斜角度取得部M3は、撮像イメージ33aにおける各画素の輝度値を、HDD34に記憶された近似式Fに代入することにより画素ごとに傾斜角度を算出する。これにより各画素が傾斜角度で表現される新たな画像データとして角度イメージ33bが生成され、同角度イメージ33bをVRAM33に記憶させる。
The captured image acquisition unit M <b> 2 receives the captured image from the
なお、本実施形態においては実装基板50上のはんだの形状についてのみ良否判定を行うため、撮像イメージ33aにおけるはんだ部に相当する画素領域のみについて傾斜角度取得部M3が傾斜角度を算出するものとしている。カメラ22の視野のどの位置にはんだ部が配置されているかという位置情報は、基板データ34cから取得することができる。また、複数のはんだ部が単一の撮像イメージ33aに含まれる場合には、それぞれについて角度イメージ33bが算出されることとなる。
In the present embodiment, only the shape of the solder on the mounting
形状推定部M4は、VRAM33から角度イメージ33bを入力し、同角度イメージ33bに基づいて形状データ34dを生成し、HDD34に記憶させる。角度イメージ33bは各画素が傾斜角度であるため、各画素の配列情報と傾斜角度に基づいてはんだの形状を推定することができる。良否判定部M5は形状データ34dを取得し、形状データ34dに基づいて良否判定を行う。良否判定の結果はディスプレイ36やプリンタといった出力機器に出力してもよいし、HDD34に記憶しておいてもよい。なお、本実施形態においては、単一のコンピュータ30において全処理が行われるものとしたが、複数のコンピュータを通信可能に接続し、各コンピュータにて処理を分散させてもよい。
The shape estimation unit M4 receives the
(2)良否判定処理:
図4は、良否判定処理の流れを示している。同図において、ステップS100にてカメラ22が撮像を行う。ステップS110においては、撮像イメージ33aが生成され、撮像イメージ取得部M2が撮像イメージ33aをVRAM33に記憶させる。図5は、カメラ22の視野Sを示している。同図において、カメラ22にて撮像される視野Sには、実装基板50上の複数の実装部品やはんだが含まれることとなる。ただし、本実施形態においては、実線で示すチップ部品51のはんだ52の形状についての良否判定を説明するものとする。ステップS110においては、視野S全体を表す画像データとして撮像イメージ33aが生成される。撮像イメージ33aにおいては、各画素が輝度値を有している。
(2) Pass / fail judgment processing:
FIG. 4 shows the flow of the pass / fail judgment process. In the figure, the
ステップS120においては、撮像イメージ33aからはんだ52が含まれる画素データのみを抽出する。すなわち、図5においてはんだ52の周辺を実線で囲んだ評価領域Tの内側の画素データのみを抽出する。なお、ステップS120においてCPU31は、HDD34に記憶された基板データ34cに基づいて、視野Sのどこに良否判定対象のはんだ52が配置されているかを特定する。そして、適正形状の評価領域Tを設定して、同評価領域Tに属する画素データの抽出を行う。
In step S120, only pixel data including the
図6は、評価領域Tの様子を模式的に示している。同図において、評価領域Tは破線で区画された多数の画素Pa,bで構成されている。なお、同図において図示の簡略化のため画素Pa,bを大きく表示しているが、実際には、画素Pa,bは微小である。また、画素Pa,bはCCD撮像板22bにおける各CCD撮像素子に対応しており、CCD撮像板22bにおける各CCD撮像素子のドットマトリックス状の配置に応じて、光学系22aを介して各CCD撮像素子に画像入力される実装基板50上の位置が異なることとなる。また、各画素Pa,bの輝度値Ba,bは、実装基板50上における各CCD撮像素子が画像入力を担当する領域の平均輝度を意味する。なお、各CCD撮像素子の配置はドットマトリックス状に限られるものではない。
FIG. 6 schematically shows the state of the evaluation region T. In the figure, the evaluation area T is composed of a large number of pixels Pa , b divided by broken lines. In the figure, for the sake of simplification, the pixel Pa , b is shown large, but actually, the pixel Pa , b is very small. The pixels Pa , b correspond to the CCD image pickup devices on the CCD
ステップS130においては、傾斜角度取得部M3が撮像イメージ33aにおける評価領域Tの内部の画素データから角度イメージ33bを生成する。具体的には、各画素Pa,bの輝度値Ba,bを下記式(1)に代入し、傾斜角度θについて解くことにより、各画素Pa,bについての傾斜角度θa,bを算出する。
Ba,b=k・{li・(1−c)・sinm(γ+2θa,b)
+li・c・sin(γ+θa,b)} ・・・(1)
In step S130, the inclination angle acquisition unit M3 generates an
B a, b = k · {l i · (1−c) · sin m (γ + 2θ a, b )
+ L i · c · sin (γ + θ a, b )} (1)
なお、上記式(1)の各パラメータk,li,c,m,γは、撮像時の条件値やはんだ52の物性値であり、詳細については後述する。上記式(1)の各パラメータk,li,c,m,γは定数であり、予め適正な値が設定されている。また、上記式(1)は近似式FとしてHDD34に記憶されており、CPU31が適宜読み出して使用する。
The parameters k, l i , c, m, and γ in the above formula (1) are condition values at the time of imaging and physical property values of the
上記のようにして輝度値Ba,bが対応する傾斜角度θa,bに変換された角度イメージ33bにおいては、図6の各画素Pa,bが輝度値Ba,bではなく、位置に応じた傾斜角度θa,bを有すこととなる。図6下段は、画素Pa,bごとに傾斜角度θa,bを有する変換後の角度イメージ33bを模式的に示している。なお、傾斜角度θa,bは、平均輝度を意味する輝度値Ba,bに基づいて算出されるため、画素Pa,bについての平均的な傾斜角度を意味する。
In the
ステップS140においては、形状推定部M4が角度イメージ33bに基づいて形状データ34dを生成する。ここでは、図6において直線Dによって示されたはんだ52の中央について形状データ34dを作成する場合について説明する。図7は、角度イメージ33bに基づいてはんだ52の形状が特定される様子を示している。同図において、直線D上の画素Pa,bの配列に基づいて、はんだ曲面の連続性からはんだ52の中央断面形状が再現されている。
In step S140, the shape estimation unit M4 generates
なお、実装基板50上における各CCD撮像素子が画像入力を担当する領域の幅を幅Wと表すものとする。なお、幅Wは各CCD撮像素子の配列ピッチと光学系22aの設定倍率によって特定することができる。
In addition, the width of the area where each CCD image sensor on the mounting
各画素Pa,bについて下記式(2)により高さha,bを算出する。
ha,b=W×tanθa,b ・・・(2)
そして、各画素Pa,bの高さha,bを各画素Pa,bの配列順に加算することにより、各画素Pa,bの境界の高さを特定することができる。これによってはんだ52の中央断面形状が各画素Pa,bの境界の高さで表現された形状データ34dを生成することができる。
For each pixel Pa , b , the height ha, b is calculated by the following equation (2).
h a, b = W × tan θ a, b (2)
Each pixel P a, the height h a of b, the pixel b P a, by adding to the arrangement order of b, the pixel P a, it is possible to specify the height of the boundary b. As a result, it is possible to generate the
ステップS150においては、良否判定部M5が良品の形状を示す形状データ34dであるか否かを判定する。図8において、正常なはんだ形状と、はんだ大とはんだ濡れ不良とはんだ小のはんだ形状とを比較している。同図において、正常なはんだにおいてははんだの高さが単調増加することが分かる。一方、はんだ大とはんだ濡れ不良のはんだ形状においては、はんだの頂点が存在し、同頂点においてははんだ面の傾きが0となっている。従って、これらの不良について、形状データ34dを生成すると、右欄に示すような曲線形状となる。すなわち、所定の位置において傾きが0となる点が検出され、単調増加しないことがわかる。以上のようにステップS150では、形状データ34dが単調増加の傾向を有しているかどうかによって、良否判定を行うことができる。
In step S150, the quality determination unit M5 determines whether the
以上においては、良否判定の一例を示したに過ぎず、他の良否判定基準を適用することもできる。例えば、形状データ34dに対してγ関数をフィッティングさせ、そのγ値の大小で良否判定を行うようにしてもよい。図8に示すように良品であれば、γ値は1に近い値となる。これに対して、はんだ量が少ない場合にはγ値が小さくなり、はんだ量が多い場合にはγ値が大きくなるため、γ値は1に近いことをもってはんだ形状が正常であると判定することができる。従って、図8に示すはんだ小不良は、単調増加であるものの、はんだが凹形状となる特徴を有しているため、γ値が小さいことをもって判定することができる。また、形状データ34dに近似する関数を算出し、その係数等を良否判定の基準としてもよい。いずれにしても、撮像イメージ33aははんだ52表面の連続的な形状を取得することができ、精度の高い良否判定を行うことができる。
In the above, only an example of pass / fail determination is shown, and other pass / fail criteria can be applied. For example, a γ function may be fitted to the
なお、本実施形態において、角度イメージ33bから直線Dに沿った形状データ34dを生成するようにしたが、他の方向の形状データ34dを生成するようにしてもよい。むろん、各位置の画素Pa,bについて傾斜角度θa,bを満足する平面を形成し、これらの平面が縦(b)方向と横方向(a)において連続的に接続する形状を推定することにより、形状データ34dを生成してもよい。かかる手法によれば、3次元形状を表現可能な形状データ34dを生成することができる。このようにすることにより、はんだ52全体の形状を特定することができるため、より精度の高い良否判定を行うことが可能となる。なお、一方向についての形状データ34dを生成するようにすれば、CPU31の演算負荷を軽減することができるし、CCD撮像板22bを一次元のラインセンサに代替することもできる。
In the present embodiment, the
(3)近似式について:
次に、近似式Fについて説明する。近似式Fは、各画素の輝度値から当該画素の傾斜角度を算出することができる関数であり、予めHDD34に記憶されている。図9は、カメラ22の視野Sにリングライト24から検査光が照射される様子を模式的に示している。同図において、リングライト24の径r、および、リングライト24と実装基板50との距離dとが示されている。同図に示す関係から入射角度γは、径rと距離dにより下記式(3)のように表すことができる。
γ=arctan(d/r) ・・・(3)
(3) About the approximate expression:
Next, the approximate expression F will be described. The approximate expression F is a function that can calculate the tilt angle of each pixel from the luminance value of each pixel, and is stored in the
γ = arctan (d / r) (3)
なお、視野Sは2cm×2cmであり、径rと距離dと比較して十分に小さいため、視野Sにおいて入射角度γは一様であると考えることができる。また、視野Sにおいてはんだが上方向に突出することとなるが、はんだの高さも、径rと距離dと比較して十分に小さいため、はんだの高さに依存することなく入射角度γは一様であると考えることができる。 The field of view S is 2 cm × 2 cm, which is sufficiently smaller than the diameter r and the distance d, so that the incident angle γ can be considered to be uniform in the field of view S. Further, although the solder protrudes upward in the field of view S, the height of the solder is also sufficiently smaller than the diameter r and the distance d, so that the incident angle γ does not depend on the height of the solder. Can be thought of as
図10は、リングライト24から発光された検査光がはんだに入射する様子を仮想的に示している。同図において、はんだ52に対する検査光の反射像をCCD撮像板22bのCCD撮像素子が鉛直上方から撮像している。検査光Ciは、はんだ52の表面に衝突し、同表面にて反射する。このとき、入射光Ciと対称な方向のみに放射される鏡面反射光Csと、全方向に均一に放射される拡散反射光Cdとが生成される。鏡面反射光Csの方向はCCD撮像板22bが待ち受ける鉛直方向と角度βをもってずれており、同角度βの余弦成分Cs'がCCD撮像板22bに到達する。CCD撮像板22bに到達する余弦成分Cs'の光量ls'は下記式(4)によって表すことができる。
ls'=li・(1−c)・cosmβ ・・・(4)
FIG. 10 virtually shows a state in which the inspection light emitted from the
l s ′ = l i · (1−c) · cos m β (4)
なお、上記式(4)において、liは検査光の光量を示し、c(0〜1)ははんだ表面の粗さを示し、mは鏡面反射の局所化度合いを示している。局所化度合いmとは、鏡面反射の輪郭の明瞭さを表す係数であり、はんだの表面状態に依存する。例えば、共晶はんだの場合は鏡面反射の輪郭がはっきりするため、局所化度合いmが高いといえる。一方、鉛フリーはんだの場合は鏡面反射の輪郭がぼやけるため、局所化度合いmが低いといえる。上記式(4)において、余弦成分Cs'の光量ls'は、鏡面反射光Csと余弦成分Cs'とがなす角βの余弦のべき乗に比例している。さらに、角度βについて、幾何学的に下記式(5),(6)の関係が成り立つ。
α=π/2−γ−θa,b ・・・(5)
β=θa,b−α=−π/2+γ+2θa,b ・・・(6)
なお、上記式(5),(6)において、αは、はんだ表面の法線と検査光Ciとがなす角を表している。上記式(2)に上記式(4)を代入することにより、下記式(7)を得ることができる。
ls'=li・(1−c)・cosm(−π/2+γ+2θa,b) ・・・(7)
以上により、鏡面反射光の余弦成分Cs'の光量ls'を入射光の光量liとはんだ表面の粗さcと鏡面反射の局所化度合mと入射角度γと傾斜角度θとから算出することができる。
In the above formula (4), l i represents the amount of inspection light, c (0 to 1) represents the roughness of the solder surface, and m represents the degree of localization of the specular reflection. The degree of localization m is a coefficient representing the clarity of the specular reflection contour, and depends on the surface state of the solder. For example, in the case of eutectic solder, the contour of specular reflection is clear, and it can be said that the degree of localization m is high. On the other hand, in the case of lead-free solder, it can be said that the degree of localization m is low because the contour of specular reflection is blurred. In the above formula (4), 'quantity l s of' cosine component C s is proportional to a power of the cosine of the specular reflection light C s and cosine component C s' and the angle beta. Further, regarding the angle β, the following relationships (5) and (6) are established geometrically.
α = π / 2−γ−θ a, b (5)
β = θ a, b −α = −π / 2 + γ + 2θ a, b (6)
In the above formulas (5) and (6), α represents an angle formed by the normal of the solder surface and the inspection light C i . By substituting the above equation (4) into the above equation (2), the following equation (7) can be obtained.
l s ′ = l i · (1−c) · cos m (−π / 2 + γ + 2θ a, b ) (7)
As described above, the light quantity l s ′ of the cosine component C s ′ of the specular reflection light is calculated from the light quantity l i of the incident light, the roughness c of the solder surface, the localization degree m of the specular reflection, the incident angle γ, and the inclination angle θ. can do.
一方、拡散反射光Cdの光量ldは、下記式(8)のように表すことができる。
ld=li・c・cosα ・・・(8)
すなわち、拡散反射光Cdの光量ldは、はんだ表面の法線と入射光Ciとがなす角αの余弦に比例する。また、拡散反射光Cdは、はんだ52の表面において入射光Ciが乱反射することにより生じる反射光であり、全方向一様な光量で反射すると考えることができる。従って、CCD撮像素子に入射する光線Cd'の光量ld'は、光量ldと同じとなる。さらに、上記式(8)に上記式(5)を代入すると下記式(9)を得ることができる。
ld=li・c・cos(π/2−γ−θa,b) ・・・(9)
On the other hand, the light quantity l d of the diffuse reflected light C d can be expressed as the following formula (8).
l d = l i · c · cos α (8)
That is, the light quantity l d of the diffuse reflected light C d is proportional to the cosine of the angle α formed by the normal of the solder surface and the incident light C i . Further, the diffuse reflected light C d is reflected light generated by the irregular reflection of the incident light C i on the surface of the
l d = l i · c · cos (π / 2−γ−θ a, b ) (9)
上記式(9)において、拡散反射に由来するCCD撮像素子への到達光線Cd'の光量ld'も、入射光の光量liとはんだ表面の粗さcと入射角度γと平均傾斜角度θとから算出することができる。さらに、鏡面反射に由来する光量ls'と、拡散反射に由来する光量ld'とを下記式(10)にて重畳することにより、CCD撮像素子へ到達する合計の到達光量loを算出することができる。
lo=ls'+ld' ・・・(10)
In the above equation (9), the amount of light l d ′ of the light ray C d ′ reaching the CCD image sensor derived from diffuse reflection is also equal to the amount of incident light l i , the roughness c of the solder surface, the incident angle γ, and the average tilt angle. It can be calculated from θ. Further, the total amount of light reaching l o reaching the CCD image sensor is calculated by superimposing the amount of light l s ′ derived from specular reflection and the amount of light l d ′ derived from diffuse reflection by the following equation (10). can do.
l o = l s '+ l d ' (10)
さらに、上記式(10)に上記式(7)と上記式(9)を代入して整理し、さらに光量を輝度に変換する定数kを乗算することにより上記式(1)を得ることができる。上記式(1)において第一項が鏡面反射項であり、第二項が拡散反射項である。上記式(1)によれば、CCD撮像素子に到達する到達光量loと傾斜角度θとの対応関係を所定のパラメータli,c,m,γを定数として有する近似式によって表すことができる。そして、上記式(1)は近似式FとしてHDD34に記憶される。なお、輝度値Ba,bと光量loとは比例関係にあるため、定数kを乗算することにより輝度値Ba,bを得ることができる。また、定数kにより輝度値Ba,bのレンジを撮像イメージ33aにおける輝度値Ba,bの階調幅と揃えることができる。
Furthermore, the above formula (1) can be obtained by substituting the above formula (7) and the above formula (9) into the above formula (10), and further multiplying by a constant k that converts the light amount into luminance. . In the above formula (1), the first term is a specular reflection term, and the second term is a diffuse reflection term. According to the above equation (1), the correspondence relationship between the amount of light reaching l o reaching the CCD image sensor and the inclination angle θ can be expressed by an approximate equation having predetermined parameters l i , c, m, and γ as constants. . The above equation (1) is stored in the
上記式(1)において使用される各パラメータk,li,c,m,γは、撮像条件や物性値等から得ることが可能な数値であるが、最適なパラメータk,li,c,m,γを実験により算出してもよい。例えば、予め複数のサンプルを用意しておき、それらについてはんだ52の形状をX線形状測定装置等を用いて測定し、各画素Pa,bごとに実測の傾斜角度θa,bを算出しておく。そして、これらのサンプルについてカメラ22によって撮像を行い、各画素Pa,bごとに輝度値Ba,bを取得する。さらに、各画素Pa,bごとに傾斜角度θa,bと輝度値Ba,bとの対応関係を調査する。
The parameters k, l i , c, m, and γ used in the above equation (1) are numerical values that can be obtained from imaging conditions, physical property values, etc., but the optimum parameters k, l i , c, You may calculate m and (gamma) by experiment. For example, a plurality of samples are prepared in advance, and the shape of the
図11は、傾斜角度θa,bと輝度値Ba,bとの対応関係をプロットしたグラフである。同図において、横軸が傾斜角度θa,bを示し、縦軸が輝度値Ba,bを示している。このように、傾斜角度θa,bと輝度値Ba,bとは何らかの相関関係があり、この相関関係は光の反射特性を根拠とする上記式(1)の近似式Fに適合するものと考えられる。そこで、近似式Fで表される曲線形状を決定するパラメータc,mの値を総当たり式に変化させることにより、近似式Fを満足する種々の曲線形状を作成する。 FIG. 11 is a graph plotting the correspondence between the inclination angle θ a, b and the luminance value B a, b . In the figure, the horizontal axis indicates the inclination angle θ a, b and the vertical axis indicates the luminance value B a, b . As described above, there is some correlation between the inclination angle θ a, b and the luminance value B a, b, and this correlation conforms to the approximate expression F in the above formula (1) based on the light reflection characteristics. it is conceivable that. Therefore, various curve shapes satisfying the approximate expression F are created by changing the values of the parameters c and m for determining the curve shape represented by the approximate expression F into a brute force expression.
そして、図11に示した傾斜角度θa,bと輝度値Ba,bの分布傾向との相関係数が最も高い曲線形状となるようなパラメータc,mの値を算出する。次に、近似式Fの輝度値Ba,bのレンジを規定するパラメータl,kの値を総当たり式に変化させ、傾斜角度θa,bと輝度値Ba,bの分布傾向との誤差が最も少なくなるようなパラメータl,kを特定する。すなわち、(li×k)を最適化することにより、近似式Fの曲線形状に対して適正な相似倍率を設定することができる。なお、入射角度γについては、上記式(3)により算出された値が適用される。このように、実際に測定された傾斜角度θa,bに基づいてパラメータk,li,c,mを決定することにより、より信頼性の高い近似式Fを算出することができる。 Then, the values of the parameters c and m are calculated such that the curve shape has the highest correlation coefficient between the inclination angle θ a, b and the distribution tendency of the luminance values B a, b shown in FIG. Next, the values of the parameters l and k that define the range of the luminance value B a, b of the approximate expression F are changed to a round-robin expression, and the inclination angle θ a, b and the distribution tendency of the luminance value B a, b are changed. The parameters l and k that minimize the error are specified. That is, by optimizing (l i × k), it is possible to set an appropriate similarity factor for the curve shape of the approximate expression F. For the incident angle γ, the value calculated by the above equation (3) is applied. Thus, by determining the parameters k, l i , c, m based on the actually measured inclination angles θ a, b , it is possible to calculate the approximate expression F with higher reliability.
(4)変形例:
ところで、パラメータc,mの値によっては、近似式Fによって描かれる曲線が図12のような形状となる場合もある。この場合、ステップS130において一義的に傾斜角度θa,bを算出することができなくなる。すなわち、単一の輝度値Ba,bを満足するような傾斜角度θa,bが複数存在するために、当該画素a,bの平均傾斜角度θa,bを一義的に算出することができないという問題がある。本変形例はかかる問題を解決するためになされたものである。
(4) Modification:
By the way, depending on the values of the parameters c and m, the curve drawn by the approximate expression F may have a shape as shown in FIG. In this case, the inclination angle θ a, b cannot be calculated uniquely in step S130. That is, a single luminance value B a, for the inclination angle theta a, b that satisfies b there are a plurality of the pixel a, be uniquely calculate the average tilt angle theta a, b and b There is a problem that you can not. This modification is made to solve such a problem.
図13と図14は、本変形例にかかる撮像ユニット20とコンピュータ30の構成を示している。同図において、上リングライト24aと下リングライト24bとがそれぞれ異なる高さに備えられている。上リングライト24aは下リングライト24bよりも細径に形成されており、上リングライト24aから照射された検査光が下リングライト24bに阻害されることなく視野Sに到達させることができる。このように、リングライト24a,24bを異なる位置に設けることにより、リングライト24a,24bに対応した2種類の検査光の入射角度γ1,γ2にてはんだ52の撮像を行うことができる。
13 and 14 show configurations of the
本変形例においては、図4に示すステップS100では、検査光の入射角度γ1,γ2によってそれぞれ一回ずつ撮像を行う。そして、ステップS120においては入射角度γ1,γ2に対応した2個の撮像イメージ33b1,33b2が生成される。ステップS130において、角度イメージ33bを生成するにあたっては、近似式Fが利用される。ただし、近似式Fは入射角度γをパラメータとして有しているため、入射角度γ1,γ2に応じてそれぞれ異なる近似式F1,F2が算出されている。近似式F1,F2の各パラメータk,li,c,mは、同じ値となることが望ましいが、上述した実験により最適化する場合には異なる値となる場合もある。いずれにしても、近似式F1,F2における入射角度γ1,γ2が異なる値となるため、両者によって描かれる曲線は異なる形状となる。
In this modified example, in step S100 shown in FIG. 4, imaging is performed once according to the incident angles γ 1 and γ 2 of the inspection light. Then, in step S120 the incident angle gamma 1, 2 pieces of imaging the
図15は、近似式F1,F2をグラフにして示している。同図において、横軸が傾斜角度θa,bを示し、縦軸が輝度値Ba,bを示している。ここで、ある画素Pa,bについて、入射角度γ1によって撮像された撮像イメージ33b1にて輝度値Ba,b=128である場合に、近似式F1を解くと、2個の解θ1a,θ1bが求められることとなる。また、同じ画素Pa,bについて、入射角度γ2によって撮像された撮像イメージ33b2にて輝度値Ba,b=64である場合に、近似式F2を解くと、2個の解θ2a,θ2bが求められることとなる。
FIG. 15 is a graph showing the approximate expressions F 1 and F 2 . In the figure, the horizontal axis indicates the inclination angle θ a, b and the vertical axis indicates the luminance value B a, b . Here, for a certain pixel P a, b , when the luminance value B a, b = 128 in the captured
すなわち、合計4個の傾斜角度θ1a,θ1b,θ2a,θ2bが求められる。そして、ステップS130では、これらに基づいて当該画素Pa,bの傾斜角度θa,bが算出される。例えば、傾斜角度θ1a,θ1b,θ2a,θ2bから最も値の近い2個の傾斜角度θ1b,θ2aの平均値を傾斜角度θa,bとして算出してもよい。このように、複数の撮像イメージ33b1,33b2と近似式F1,F2とから総合的に傾斜角度θa,bを特定することにより、傾斜角度θa,bの精度を向上させることができる。以降の処理については、同様に行うことができる。
That is, a total of four inclination angles θ 1a , θ 1b , θ 2a , and θ 2b are obtained. In step S130, the pixel P a, the inclination angle theta a, b of b is calculated based on these. For example, an average value of two inclination angles θ 1b and θ 2a that are closest to the inclination angles θ 1a , θ 1b , θ 2a , and θ 2b may be calculated as the inclination angle θ a, b . Thus, the accuracy of the inclination angle θ a, b is improved by specifying the inclination angle θ a, b comprehensively from the plurality of captured
以上において、2個のリングライト24a,24bを用いて傾斜角度θを推定するものを例示したが、2個より多いリングライトを用いてもよい。それぞれ入射角度γが異なるリングライトを多数備え、それぞれについて傾斜角度θと輝度値Bとの対応関係を取得しておくことにより、多数の対応関係から総合的に妥当な傾斜角度θを推定することが可能となる。すなわち、リングライトの設置数を増加することにより、より正確な形状推定を行うことができる。
In the above, the example in which the inclination angle θ is estimated using the two
以上説明した実施形態においては、輝度値を近似式に代入し、同近似式を解くことにより傾斜角度が特定されるものを例示したが、他の手法によって傾斜角度を特定してもよい。例えば、予め実験等によって輝度値と傾斜角度との対応関係を調査しておき、これらの対応関係をテーブルに記憶させておいてもよい。そして、このテーブルを参照することにより、輝度値から傾斜角度を特定することができる。かかる構成によれば、近似式を解く演算を画素ごとに行わなくて済むため、処理効率を向上させることができる。 In the embodiment described above, the example in which the inclination angle is specified by substituting the luminance value into the approximate expression and solving the approximate expression is exemplified, but the inclination angle may be specified by other methods. For example, the correspondence relationship between the luminance value and the tilt angle may be investigated in advance by experiments or the like, and the correspondence relationship may be stored in a table. Then, by referring to this table, the tilt angle can be specified from the luminance value. According to such a configuration, it is not necessary to perform the calculation for solving the approximate expression for each pixel, so that the processing efficiency can be improved.
さらに、輝度値と傾斜角度との対応関係を定義したテーブルのデータ量を低減するために、上記テーブルに代表的な輝度値と傾斜角度との対応関係のみを記憶させてもよい。この場合、他の輝度値と傾斜角度との対応関係については定義されないこととなるが、直線補間やスプライン補間等を用いることにより、他の輝度値と傾斜角度との対応関係を得ることができる。例えば、図16のようなテーブルが記憶されているものとする。テーブルE1には、256階調を16等分する代表的な輝度値Bの値0,16,32・・・が記述されており、同代表的な輝度値Bに対応する傾斜角度θ0,θ16,θ32・・・も定義されている。 Furthermore, in order to reduce the data amount of the table defining the correspondence between the luminance value and the inclination angle, only the correspondence between the representative luminance value and the inclination angle may be stored in the table. In this case, the correspondence between the other luminance values and the tilt angle is not defined, but the correspondence between the other luminance values and the tilt angle can be obtained by using linear interpolation, spline interpolation, or the like. . For example, it is assumed that a table as shown in FIG. 16 is stored. The table E1 describes representative luminance value B values 0 , 16, 32,... That divide 256 gradations into 16 equal parts, and the tilt angle θ 0 , corresponding to the representative luminance value B is described. θ 16 , θ 32 ... are also defined.
輝度値B=16に対応する傾斜角度θ16はテーブルE1に定義されているため、同テーブルE1を参照することにより傾斜角度θ16を得ることができる。これに対して、
例えば、輝度値B=20に対応する傾斜角度θ20はテーブルE1に定義されていないため、直接、傾斜角度θ20を得ることができない。しかし、図17に図示するような直線補間を行うことにより、傾斜角度θ20を推定することができる。同図においては、傾斜角度θ20に隣接する代表的な傾斜角度θ16,θ32を輝度値Bの偏差に応じて按分することにより、傾斜角度θ20を算出している。このように、補間を用いて傾斜角度θを算出することにより、演算処理を複雑とすることなく、テーブルE1のデータを低減することができる。
Since the inclination angle θ 16 corresponding to the luminance value B = 16 is defined in the table E1, the inclination angle θ 16 can be obtained by referring to the table E1. On the contrary,
For example, since the tilt angle θ 20 corresponding to the luminance value B = 20 is not defined in the table E1, the tilt angle θ 20 cannot be obtained directly. However, the inclination angle θ 20 can be estimated by performing linear interpolation as shown in FIG. In the figure, the inclination angle θ 20 is calculated by dividing the representative inclination angles θ 16 and θ 32 adjacent to the inclination angle θ 20 according to the deviation of the luminance value B. Thus, by calculating the tilt angle θ using interpolation, the data in the table E1 can be reduced without complicating the arithmetic processing.
(5)ファジイ推論を用いた変形例:
さらに、輝度値Bと傾斜角度θとの対応関係をファジイ推論によって推定してもよい。以下、その手順について説明する。図18は、ファジイ推論によって傾斜角度θを算出する処理の流れを示している。なお、同図の処理は図4のステップS130に置き換わって実行される。また、ハードウェアは図13に示したものと同様の構成が適用され、リングライト24a,24bに対応した2種類の検査光の入射角度γ1,γ2にてはんだ52の撮像が行われるものとする。一方、ソフトウェア構成は、図19に示すものが適用される。
(5) Modification using fuzzy inference:
Furthermore, the correspondence between the luminance value B and the inclination angle θ may be estimated by fuzzy inference. Hereinafter, the procedure will be described. FIG. 18 shows a flow of processing for calculating the inclination angle θ by fuzzy inference. Note that the processing shown in the figure is executed in place of step S130 in FIG. Also, the hardware has the same configuration as that shown in FIG. 13, and the imaging of the
図4のステップS120にて、入射角度γ1,γ2に対応した2個の撮像イメージ33a1,33a2が取得され、これらから判定対象の画素データが抽出される。ステップS130aにおいては、画素Pの選択を行う。すなわち、ステップS130b〜S130eまでは一つの画素Pに対する処理であり、同ステップS130b〜S130eを各画素Pについて繰り返し実行することにより、全画素Pについて傾斜角度θを特定し、角度イメージ33bを生成することが可能となっている。なお、画素Pごとに傾斜角度θを算出してもよいし、画素列や画素行等の画素ブロックごとに傾斜角度θを算出してもよい。
In step S120 of FIG. 4, two captured images 33a1 and 33a2 corresponding to the incident angles γ 1 and γ 2 are acquired, and pixel data to be determined is extracted from these. In step S130a, the pixel P is selected. That is, steps S130b to S130e are processing for one pixel P. By repeatedly executing steps S130b to S130e for each pixel P, the inclination angle θ is specified for all the pixels P, and the
ステップS130bにおいては、ステップS130aにて選択された画素Pについての上輝度値Bγ1および下輝度値Bγ2を撮像イメージ33a1,33a2から取得する。なお、上輝度値Bγ1は入射角度γ1にて撮像された撮像イメージ33a1から取得された輝度値であり、下輝度値Bγ2は入射角度γ2にて撮像された撮像イメージ33a2から取得された輝度値を意味するものとする。ステップS130cにおいては、予めHDD34に記憶された第一のメンバーシップ関数X1を取得し、同第一のメンバーシップ関数X1に対する上輝度値Bγ1および下輝度値Bγ2の適合性を評価する。
In step S130b, the upper luminance value B γ1 and the lower luminance value B γ2 for the pixel P selected in step S130a are acquired from the captured images 33a1 and 33a2. Incidentally, the upper luminance value B .gamma.1 is a luminance value obtained from the imaging image 33a1 taken at an incident angle gamma 1, the lower luminance value B .gamma.2 is acquired from the imaging image 33a2 taken at an incident angle gamma 2 Mean the luminance value. In step S130c, the first membership function X1 stored in advance in the
図20は、第一のメンバーシップ関数X1をグラフにより示している。同図において、横軸に上輝度値Bγ1および下輝度値Bγ2を示し、縦軸に適合性を示している。適合性は0から1までの間で変動し、値が大きいほど適合度合いが高いといえる。第一のメンバーシップ関数X1は、3個の関数で構成されており、それぞれ低グループG1と中グループG2と高グループG3に対する適合性の軌跡を示している。この関数は、正規分布関数や三角関数から構成されてもよいし、線形関数や高次関数によって構成されていてもよい。例えば、上下輝度値Bγ1,Bγ2が64以下である場合には、低グループG1の適合性が1となり、中グループG2と高グループG3の適合性が0となる。また、上下輝度値Bγ1,Bγ2が128である場合には、中グループG2の適合性が1となり、低グループG1と高グループG3の適合性が0となる。 FIG. 20 is a graph showing the first membership function X1. In the figure, the horizontal axis indicates the upper luminance value B γ1 and the lower luminance value B γ2 , and the vertical axis indicates compatibility. The adaptability varies between 0 and 1, and the greater the value, the higher the adaptability. The first membership function X1 is composed of three functions, and shows a trajectory of suitability for the low group G1, the medium group G2, and the high group G3, respectively. This function may be composed of a normal distribution function or a trigonometric function, or may be composed of a linear function or a higher-order function. For example, when the vertical luminance values B γ1 and B γ2 are 64 or less, the suitability of the low group G1 is 1, and the suitability of the medium group G2 and the high group G3 is 0. When the upper and lower luminance values B γ1 and B γ2 are 128, the suitability of the middle group G2 is 1, and the suitability of the low group G1 and the high group G3 is 0.
入射角度γ1において撮像された上輝度値Bγ1が200であり、入射角度γ2において撮像された下輝度値Bγ2が100であるとして以降の処理を説明する。上輝度値Bγ1は200であるため、中グループG2と低グループG1の適合性は0となり、高グループG3の適合性は1となる。一方、下輝度値Bγ2は100であるため、高グループG3の適合性は0となり、中グループG2の適合性は0.6となり、低グループG1の適合性は0.2となる。図21は、上記の例における上下輝度値Bγ1,Bγ2についての適合性を表に示している。 The subsequent processing will be described assuming that the upper luminance value B γ1 imaged at the incident angle γ 1 is 200 and the lower luminance value B γ2 imaged at the incident angle γ 2 is 100. Since the upper luminance value B γ1 is 200, the suitability of the medium group G2 and the low group G1 is 0, and the suitability of the high group G3 is 1. On the other hand, since the lower luminance value B γ2 is 100, the suitability of the high group G3 is 0, the suitability of the medium group G2 is 0.6, and the suitability of the low group G1 is 0.2. FIG. 21 is a table showing the compatibility of the upper and lower luminance values B γ1 and B γ2 in the above example.
ステップS130dにおいては、ステップS130cにて取得した適合性に基づいて判定値T1〜T6を算出する。判定値T1〜T6の定義は図22に示すとおりである。上記の例を当てはめると、上輝度値Bγ1の高グループG3の適合性は1であり、下輝度値Bγ2の低グループG1の適合性は0.2であるため、両者のand演算は0.2となりT1=0.2となる。さらに、上輝度値Bγ1の高グループG3の適合性は1であり、下輝度値Bγ2の中グループG2の適合性は0.6であるため、両者のand演算は0.6となりT2=0.6となる。また、下輝度値Bγ2の高グループG3の適合性は0であるため、判定値T3〜T6は全て0となる。
In step S130d, determination values T1 to T6 are calculated based on the suitability acquired in step S130c. The definitions of the determination values T1 to T6 are as shown in FIG. When the above example is applied, the suitability of the high group G3 with the upper luminance value Bγ1 is 1, and the suitability of the low group G1 with the lower luminance value Bγ2 is 0.2. .2 and T1 = 0.2. Furthermore, the suitability of the high group G3 with the upper luminance value B γ1 is 1, and the suitability of the middle group G2 with the lower luminance value B γ2 is 0.6. 0.6. Also, since the compatibility of the high group G3 below luminance value B .gamma.2 it is 0, and all determination value T3~
ステップS130eにおいては、予めHDD34に記憶された第二のメンバーシップ関数X2を取得し、同第二のメンバーシップ関数X2から傾斜角度θを算出する。図23は、第二のメンバーシップ関数X2をグラフにより示している。同図において、横軸に傾斜角度θを示し、縦軸に判定値T1〜T6を示している。第二のメンバーシップ関数X2は、傾斜角度θに対応したグループK1〜K6ごとに設けられた略山状の関数によって構成されている。
In step S130e, the second membership function X2 stored in advance in the
グループK1〜K6は傾斜角度θ(θ=0°,15°,30°,45°,60°,75°)にそれぞれピークを有し、それぞれ左右に裾を広げる形状となっている。そして、グループK1の適合性の判定は判定値T1によって行い、グループK2の適合性の判定は判定値T2によって行い、グループK3の適合性の判定は判定値T3によって行い、グループK4の適合性の判定は判定値T4によって行い、グループK5の適合性の判定は判定値T5によって行い、グループK6の適合性の判定は判定値T6によって行うものとする。 Each of the groups K1 to K6 has a peak at an inclination angle θ (θ = 0 °, 15 °, 30 °, 45 °, 60 °, 75 °), and has a shape that widens the hem to the left and right. Then, the suitability determination of the group K1 is performed based on the determination value T1, the conformity determination of the group K2 is performed based on the determination value T2, the conformity determination of the group K3 is performed based on the determination value T3, and the conformity determination of the group K4 is performed. The determination is made by the determination value T4, the determination of the suitability of the group K5 is made by the determination value T5, and the determination of the suitability of the group K6 is made by the determination value T6.
上記の例において、T1=0.2,T2=0.6,T3=T4=T5=T6=0であるため、グループK1〜K6における判定値T1〜T6によって適合性が満足される適合領域Vは斜線のようになる。そして、この適合領域Vの重心Zの横軸を読みとった値を傾斜角度θとして算出する。なお、適合領域Vにおいて異なるグループK1〜K6が重複する部分については、重複による重み付けを行わない。すなわち、重複がないものとして重心Zを算出する。同図の例では、傾斜角度θが10°として算出される。 In the above example, since T1 = 0.2, T2 = 0.6, and T3 = T4 = T5 = T6 = 0, the matching region V in which the suitability is satisfied by the determination values T1 to T6 in the groups K1 to K6. Becomes a diagonal line. Then, a value obtained by reading the horizontal axis of the center of gravity Z of the matching region V is calculated as the inclination angle θ. Note that, in the matching region V, the overlapping of different groups K1 to K6 is not performed by overlapping. That is, the center of gravity Z is calculated assuming that there is no overlap. In the example of the figure, the inclination angle θ is calculated as 10 °.
傾斜角度θが算出されるとステップS130fにて、最終の画素Pであるかどうかが判定される。そして、最終の画素Pについて傾斜角度θが算出されていない場合には、ステップS130aにて新たな画素Pを選択し、ステップS130b〜S130eを同様に実行する。このようにすることにより、全画素Pについて傾斜角度θを算出することができる。そして、ステップS130fにて最終の画素Pについて傾斜角度θが算出され、全画素Pについて傾斜角度θが算出されたことが確認されると、ステップS130gにて角度イメージ33bを生成することができる。角度イメージ33bを生成すると図4に示すステップS140以降が上述のように実行される。すなわち、図7に示すように、はんだ形状が再現され、同はんだ形状に基づいて良否判定が行われる。
When the tilt angle θ is calculated, it is determined in step S130f whether or not it is the final pixel P. When the inclination angle θ is not calculated for the final pixel P, a new pixel P is selected in step S130a, and steps S130b to S130e are executed in the same manner. In this way, the inclination angle θ can be calculated for all the pixels P. When the inclination angle θ is calculated for the final pixel P in step S130f and it is confirmed that the inclination angle θ is calculated for all the pixels P, the
ここで、第二のメンバーシップ関数X2において、傾斜角度θが0°となるとき、すなわち適合領域Vの重心が0°となるとき、T1=1,T2=T3=T4=T5=T6=0でなければならない。また、傾斜角度θが15°となるとき、T2=1,T1=T3=T4=T5=T6=0でなければならない。このように、傾斜角度θが0°,15°,30°,45°,60°,75°となるときの判定値T1〜T6は明確であり、判定値T1〜T6を決定づける上下輝度値Bγ1,Bγ2も明確となっている。例えば、傾斜角度θが15°でT2=1,T1=T3=T4=T5=T6=0となるのは、上輝度値Bγ1が192以上で、下輝度値Bγ2が128となる場合に限られる。同様に、傾斜角度θが30°でT3=1,T1=T2=T4=T5=T6=0となるのは、上輝度値Bγ1が192以上で、下輝度値Bγ2も192以上である場合に限られる。 Here, in the second membership function X2, when the inclination angle θ is 0 °, that is, when the center of gravity of the matching region V is 0 °, T1 = 1, T2 = T3 = T4 = T5 = T6 = 0 Must. When the inclination angle θ is 15 °, T2 = 1, T1 = T3 = T4 = T5 = T6 = 0. Thus, the determination values T1 to T6 when the inclination angle θ is 0 °, 15 °, 30 °, 45 °, 60 °, and 75 ° are clear, and the upper and lower luminance values B that determine the determination values T1 to T6. γ1 and B γ2 are also clear. For example, T2 = 1, T1 = T3 = T4 = T5 = T6 = 0 when the inclination angle θ is 15 ° is when the upper luminance value B γ1 is 192 or more and the lower luminance value B γ2 is 128. Limited. Similarly, the reason why T3 = 1, T1 = T2 = T4 = T5 = T6 = 0 when the inclination angle θ is 30 ° is that the upper luminance value B γ1 is 192 or more and the lower luminance value B γ2 is 192 or more. Limited to cases.
このように、代表的な傾斜角度θが0°,15°,30°,45°,60°,75°について傾斜角度θと上下輝度値Bγ1,Bγ2との対応関係が判明している場合に、上下輝度値Bγ1,Bγ2と傾斜角度θについてのメンバーシップ関数X1,X2を用いることにより、他の傾斜角度θについても対応する上下輝度値Bγ1,Bγ2を推定することができる。すなわち、代表的な傾斜角度θ(0°,15°,30°,45°,60°,75°)については上下輝度値Bγ1,Bγ2との対応関係を予め調査しておき、同対応関係に基づいてメンバーシップ関数X1,X2を定義することにより、他の傾斜角度θの対応関係を補間的に特定している。 Thus, the correspondence between the inclination angle θ and the upper and lower luminance values B γ1 and B γ2 is known for typical inclination angles θ of 0 °, 15 °, 30 °, 45 °, 60 °, and 75 °. In this case, by using the membership functions X1 and X2 for the upper and lower luminance values B γ1 and B γ2 and the inclination angle θ, the corresponding upper and lower luminance values B γ1 and B γ2 can be estimated for other inclination angles θ. it can. That is, with respect to typical inclination angles θ (0 °, 15 °, 30 °, 45 °, 60 °, 75 °), the correspondence relationship with the upper and lower luminance values B γ1 and B γ2 is investigated in advance, and the same correspondence is obtained. By defining the membership functions X1 and X2 based on the relationship, the correspondence relationship of the other inclination angles θ is specified by interpolation.
なお、メンバーシップ関数X1,X2の曲線形状は推定的に作成されたものであるため、算出される傾斜角度θ(0°,15°,30°,45°,60°,75°以外)に多少の推定誤差が発生する場合もある。従って、図7のように再現されるはんだ形状の個々の傾斜角度θの正確性が劣ることとなる。しかしながら、個々の正確性は劣るものの、全体的なはんだ形状の傾向は把握することができる。従って第1の実施形態と同様に、図7に示す折れ線に対してフィットする近似曲線を算出し、同近似曲線によって良否を判定することが好ましい。 Since the curve shapes of the membership functions X1 and X2 are created in an estimated manner, the calculated inclination angles θ (other than 0 °, 15 °, 30 °, 45 °, 60 °, and 75 °) are used. Some estimation error may occur. Therefore, the accuracy of each inclination angle θ of the solder shape reproduced as shown in FIG. 7 is inferior. However, although individual accuracy is inferior, the tendency of the overall solder shape can be grasped. Therefore, as in the first embodiment, it is preferable to calculate an approximate curve that fits the polygonal line shown in FIG.
例えば、図24に示すように折れ線に近似するγ関数を算出してもよい。γ関数によればγ値の大小によって、はんだ形状の全体的な凹凸度合いを評価することができる。近似するγ関数を算出するにあたっては、γ値を変動させ、折れ線と近似曲線との相関係数が最も高くなるγ値を特定すればよい。γ値が大きければはんだ量が多いと言えるし、γ値が小さいとはんだ量が少ないと言える。さらに、折れ線と近似曲線との相関係数が低い場合には、滑らかなはんだ形状でなく、はんだ形状がいびつな不良である可能性が高いと判断することができる。また、はんだ形状をいくつかの区間に区分し、区間ごとに近似するγ関数を算出するようにしてもよい。 For example, a γ function that approximates a polygonal line may be calculated as shown in FIG. According to the γ function, the overall degree of unevenness of the solder shape can be evaluated by the magnitude of the γ value. In calculating the approximate γ function, the γ value may be varied to identify the γ value that gives the highest correlation coefficient between the polygonal line and the approximate curve. If the γ value is large, it can be said that the amount of solder is large, and if the γ value is small, it can be said that the amount of solder is small. Furthermore, when the correlation coefficient between the polygonal line and the approximate curve is low, it can be determined that the solder shape is not likely to be a smooth solder shape but likely to be an irregular defect. Further, the solder shape may be divided into several sections, and a γ function that approximates each section may be calculated.
(5)まとめ:
本発明において、式(1)によって表される近似式Fを用いて、輝度値Ba,bから傾斜角度θa,bを算出することにより、検査対象物の傾斜角度θa,bを正確に推定することができる。傾斜角度θa,bは画素Pa,bごとに算出されるため、各画素Pa,bの配置と、傾斜角度θa,bとから検査対象物の形状を推定することができる。そして、推定された形状が良品/不良品に類似する形状であるかどうかを判定することにより、検査対象物の良否判定を行うことができる。
(5) Summary:
In the present invention, by using an approximate expression F represented by formula (1), the brightness value B a, by calculating the tilt angle theta a, b from b, and the inclination angle theta a, b of the inspection target accurately Can be estimated. Tilt angle theta a, b are to be calculated pixel P a, each b, it is possible to estimate the pixel P a, and the arrangement of the b, and the shape of the inspection object from an inclination angle θ a, b. Then, by determining whether the estimated shape is a shape similar to a non-defective product / defective product, the quality of the inspection object can be determined.
10…形状良否判定装置
20…撮像ユニット
21…コントローラ
21a…画像メモリ(VRAM)
22…カメラ
22a…光学系
22b…CCD撮像板
23…X−Yステージ
24…リングライト
30…コンピュータ
31…CPU
32…RAM
33…ビデオメモリ(VRAM)
33a…撮像イメージ
33b…角度イメージ
34…ハードディスク(HDD)
34b,M…良否判定プログラム
34c…基板データ
34d…形状データ
36…ディスプレイ
38a…キーボード
38b…マウス
50…実装基板
51…チップ部品
52…はんだ
E1…テーブル
M1…撮像実行部
M2…撮像イメージ取得部
M3…傾斜角度取得部
M4…形状推定部
M5…良否判定部
X1…第一のメンバーシップ関数
X2…第二のメンバーシップ関数
P…画素
S…視野
γ…入射角度
θ…(平均)傾斜角度
DESCRIPTION OF
22 ...
32 ... RAM
33 ... Video memory (VRAM)
33a ... Captured
34b, M ... pass /
Claims (8)
上記検査対象物に対する上記検査光の反射像を撮像することにより、画素ごとの反射光の輝度値によって表現される撮像イメージを取得する撮像手段と、
上記輝度値と上記反射光が反射された上記検査対象物の傾斜角度との対応関係から上記画素ごとに同傾斜角度を取得する傾斜角度取得手段と、
上記傾斜角度取得手段にて取得された各画素の上記傾斜角度と、同画素の配列情報に基づいて上記検査対象物の形状を推定する形状推定手段と、
上記形状推定手段にて推定された上記形状に基づいて良否判定を行う良否判定手段とを具備することを特徴とする形状良否判定装置。 Irradiating means for irradiating the inspection object with inspection light at a predetermined incident angle;
Imaging means for acquiring a captured image represented by a luminance value of reflected light for each pixel by capturing a reflected image of the inspection light with respect to the inspection object;
Inclination angle acquisition means for acquiring the same inclination angle for each pixel from the correspondence relationship between the luminance value and the inclination angle of the inspection object reflected by the reflected light;
Shape estimation means for estimating the shape of the inspection object based on the inclination angle of each pixel acquired by the inclination angle acquisition means and the arrangement information of the pixels;
A shape pass / fail judgment device comprising: pass / fail judgment means for judging pass / fail based on the shape estimated by the shape estimation means.
上記傾斜角度取得手段は、複数の上記入射角に対してそれぞれ定義された複数の上記対応関係に基づいて上記画素ごとに上記傾斜角度を取得することを特徴とする請求項1または請求項3のいずれかに記載の形状良否判定装置。 The irradiation unit irradiates the inspection object with inspection light at a plurality of incident angles,
4. The tilt angle acquiring unit according to claim 1, wherein the tilt angle acquiring unit acquires the tilt angle for each of the pixels based on the plurality of correspondence relationships respectively defined for the plurality of incident angles. The shape quality determination device according to any one of the above.
上記検査対象物に対する上記検査光の反射像を撮像することにより、画素ごとの反射光の輝度値によって表現される撮像イメージを取得する撮像工程と、
上記輝度値と上記反射光が反射された上記検査対象物の傾斜角度との対応関係から上記画素ごとに同傾斜角度を取得する傾斜角度取得工程と、
上記傾斜角度取得工程にて取得された各画素の上記傾斜角度と、同画素の配列情報に基づいて上記検査対象物の形状を推定する形状推定工程と、
上記形状推定工程にて推定された上記形状に基づいて良否判定を行う良否判定工程とを具備することを特徴とする形状良否判定方法。 An irradiation step of irradiating the inspection object with inspection light at a predetermined incident angle;
An imaging step of acquiring a captured image represented by a luminance value of reflected light for each pixel by capturing a reflected image of the inspection light with respect to the inspection object;
An inclination angle acquisition step of acquiring the same inclination angle for each of the pixels from the correspondence relationship between the luminance value and the inclination angle of the inspection object on which the reflected light is reflected;
A shape estimation step of estimating the shape of the inspection object based on the inclination angle of each pixel acquired in the inclination angle acquisition step and the arrangement information of the pixel;
A quality determination method comprising: a quality determination step of performing quality determination based on the shape estimated in the shape estimation step.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005020356A JP2006208187A (en) | 2005-01-27 | 2005-01-27 | Shape pass / fail judgment device and shape pass / fail judgment method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005020356A JP2006208187A (en) | 2005-01-27 | 2005-01-27 | Shape pass / fail judgment device and shape pass / fail judgment method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2006208187A true JP2006208187A (en) | 2006-08-10 |
Family
ID=36965215
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005020356A Pending JP2006208187A (en) | 2005-01-27 | 2005-01-27 | Shape pass / fail judgment device and shape pass / fail judgment method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2006208187A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008275538A (en) * | 2007-05-02 | 2008-11-13 | Olympus Corp | Three-dimensional profiler and sample image forming apparatus |
| JP2009168582A (en) * | 2008-01-15 | 2009-07-30 | Saki Corp:Kk | Appearance inspecting equipment |
| JP2011232070A (en) * | 2010-04-26 | 2011-11-17 | Seiko Epson Corp | Measuring method and inspection device for recess depth |
| WO2016194939A1 (en) * | 2015-06-05 | 2016-12-08 | 新日鐵住金株式会社 | Apparatus for inspecting shape of metal body, and method for inspecting shape of metal body |
| EP3070431B1 (en) * | 2014-01-08 | 2023-12-06 | Yamaha Hatsudoki Kabushiki Kaisha | Visual inspection device and visual inspection method |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06331564A (en) * | 1993-05-26 | 1994-12-02 | Yokogawa Electric Corp | Inspection apparatus of solder bonded part |
| JPH06341818A (en) * | 1993-06-02 | 1994-12-13 | A T R Ningen Joho Tsushin Kenkyusho:Kk | Method for extracting information on object and light source and device using the method |
| JPH08287253A (en) * | 1995-04-11 | 1996-11-01 | N T T Data Tsushin Kk | Object shape estimating method and object shape estimating apparatus |
| JPH09161055A (en) * | 1995-12-04 | 1997-06-20 | Hitachi Ltd | 3D object recognition method |
| JPH11211440A (en) * | 1998-01-27 | 1999-08-06 | Fujitsu Fip Corp | Apparatus and method for restoring three-dimensional shape, and computer-readable recording medium recording program for restoring three-dimensional shape |
| JP2000304520A (en) * | 1999-04-23 | 2000-11-02 | Matsushita Electric Works Ltd | Shape measuring apparatus and shape measuring method of solder fillet |
-
2005
- 2005-01-27 JP JP2005020356A patent/JP2006208187A/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06331564A (en) * | 1993-05-26 | 1994-12-02 | Yokogawa Electric Corp | Inspection apparatus of solder bonded part |
| JPH06341818A (en) * | 1993-06-02 | 1994-12-13 | A T R Ningen Joho Tsushin Kenkyusho:Kk | Method for extracting information on object and light source and device using the method |
| JPH08287253A (en) * | 1995-04-11 | 1996-11-01 | N T T Data Tsushin Kk | Object shape estimating method and object shape estimating apparatus |
| JPH09161055A (en) * | 1995-12-04 | 1997-06-20 | Hitachi Ltd | 3D object recognition method |
| JPH11211440A (en) * | 1998-01-27 | 1999-08-06 | Fujitsu Fip Corp | Apparatus and method for restoring three-dimensional shape, and computer-readable recording medium recording program for restoring three-dimensional shape |
| JP2000304520A (en) * | 1999-04-23 | 2000-11-02 | Matsushita Electric Works Ltd | Shape measuring apparatus and shape measuring method of solder fillet |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008275538A (en) * | 2007-05-02 | 2008-11-13 | Olympus Corp | Three-dimensional profiler and sample image forming apparatus |
| JP2009168582A (en) * | 2008-01-15 | 2009-07-30 | Saki Corp:Kk | Appearance inspecting equipment |
| JP2011232070A (en) * | 2010-04-26 | 2011-11-17 | Seiko Epson Corp | Measuring method and inspection device for recess depth |
| EP3070431B1 (en) * | 2014-01-08 | 2023-12-06 | Yamaha Hatsudoki Kabushiki Kaisha | Visual inspection device and visual inspection method |
| WO2016194939A1 (en) * | 2015-06-05 | 2016-12-08 | 新日鐵住金株式会社 | Apparatus for inspecting shape of metal body, and method for inspecting shape of metal body |
| JP6119926B1 (en) * | 2015-06-05 | 2017-04-26 | 新日鐵住金株式会社 | Metal body shape inspection apparatus and metal body shape inspection method |
| US9903710B2 (en) | 2015-06-05 | 2018-02-27 | Nippon Steel & Sumitomo Metal Corporation | Shape inspection apparatus for metallic body and shape inspection method for metallic body |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| TWI551855B (en) | System and method for detecting wafers and program storage device read by the system | |
| US7230243B2 (en) | Method and apparatus for measuring three-dimensional shape of specimen by using SEM | |
| JP4778778B2 (en) | Semiconductor device monitoring method and monitoring apparatus | |
| JP2013186100A (en) | Shape inspection method and device | |
| US10157457B2 (en) | Optical measurement of opening dimensions in a wafer | |
| JP5913903B2 (en) | Shape inspection method and apparatus | |
| WO2013061976A1 (en) | Shape inspection method and device | |
| JP2011007710A (en) | Inspection device, inspection method and inspection program | |
| JP3961438B2 (en) | PATTERN MEASURING DEVICE, PATTERN MEASURING METHOD, AND SEMICONDUCTOR DEVICE MANUFACTURING METHOD | |
| US20240037728A1 (en) | System and method for generating training image data for supervised machine learning, and non-transitory recording medium | |
| JP2006208187A (en) | Shape pass / fail judgment device and shape pass / fail judgment method | |
| CN109791038B (en) | Optical measurement of step size and metallization thickness | |
| CN119380170B (en) | Performance detection data processing and analyzing method and system for false tooth engraving machine | |
| US10168524B2 (en) | Optical measurement of bump hieght | |
| WO2018173352A1 (en) | Image processing method and image processing device | |
| US12430749B2 (en) | Cell-to-cell comparison method | |
| JP2018160217A (en) | Image processing method and image processing apparatus | |
| JP4583189B2 (en) | Shape pass / fail judgment device and shape pass / fail judgment method | |
| JP4610364B2 (en) | Pass / fail judgment device, pass / fail judgment method, and pass / fail judgment program | |
| CN109791039B (en) | Method for generating three-dimensional information of a sample using an optical microscope | |
| JP4496149B2 (en) | Dimensional measuring device | |
| JP2018160216A (en) | Image processing method and image processing device | |
| JPH0674724A (en) | Center of gravity calculating method for optical cutting line in three-dimensional shape measurement | |
| JP2006242930A (en) | Method for measuring shape of two dimensional object by rotational scanning of focusing surface | |
| JPH0534126A (en) | Gray image processor |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD04 | Notification of resignation of power of attorney |
Effective date: 20061031 Free format text: JAPANESE INTERMEDIATE CODE: A7424 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071227 |
|
| A977 | Report on retrieval |
Effective date: 20100526 Free format text: JAPANESE INTERMEDIATE CODE: A971007 |
|
| A131 | Notification of reasons for refusal |
Effective date: 20100601 Free format text: JAPANESE INTERMEDIATE CODE: A131 |
|
| A02 | Decision of refusal |
Effective date: 20101005 Free format text: JAPANESE INTERMEDIATE CODE: A02 |