JP2010066153A - Method and device for inspecting appearance - Google Patents
Method and device for inspecting appearance Download PDFInfo
- Publication number
- JP2010066153A JP2010066153A JP2008233467A JP2008233467A JP2010066153A JP 2010066153 A JP2010066153 A JP 2010066153A JP 2008233467 A JP2008233467 A JP 2008233467A JP 2008233467 A JP2008233467 A JP 2008233467A JP 2010066153 A JP2010066153 A JP 2010066153A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- luminance
- inspected
- appearance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Abstract
【課題】被検査体の表面の状態に個体差がある場合であっても、個体差の影響を除去して被検査体の表面を精度良く検査できる外観検査方法および外観検査装置を提供すること。
【解決手段】基準画像および検査対象である被検査体の外観を撮像することができる撮像手段30と、外撮像手段が撮像した基準画像を記憶することができる記憶手段62と、前記被検査体の外観を撮像した画像から一部のエリアを抽出するとともに、前記記憶手段に記憶される基準画像から前記抽出したエリアに対応する座標のエリアを抽出し、前記被検査体の外観を撮像した画像から抽出されたエリアの輝度と前記基準画像から抽出されたエリアの輝度を比較して、該比較結果に基づいて前記被検査体の外観を撮像した画像の輝度を補正する演算手段61と、を備える。
【選択図】図1Provided are an appearance inspection method and an appearance inspection apparatus capable of accurately inspecting the surface of an object to be inspected by removing the influence of the individual difference even when there is an individual difference in the surface state of the object to be inspected. .
An imaging means capable of capturing a reference image and an appearance of an inspection object to be inspected, a storage means capable of storing a reference image captured by an external imaging means, and the inspection object A part of the area is extracted from an image obtained by imaging the appearance of the image, and an area having coordinates corresponding to the extracted area is extracted from the reference image stored in the storage unit, and the image obtained by imaging the appearance of the object to be inspected Calculating means 61 for comparing the luminance of the area extracted from the luminance of the area extracted from the reference image and correcting the luminance of the image obtained by imaging the appearance of the inspection object based on the comparison result; Prepare.
[Selection] Figure 1
Description
本発明は、外観検査方法および外観検査装置に関するものであり、特に好適には、鋳造品や鍛造品などの被検査体の表面を撮像し、当該撮像した画像を画像処理することによって、被検査体に欠陥がないかなどを検査する外観検査方法および外観検査装置に関するものである。 The present invention relates to an appearance inspection method and an appearance inspection apparatus, and particularly preferably, the surface of an object to be inspected, such as a cast product or a forged product, is imaged, and the captured image is image-processed, thereby inspecting the object. The present invention relates to an appearance inspection method and an appearance inspection apparatus for inspecting a body for defects.
鋳造品や鍛造品は、鋳造加工や鍛造加工により所定の形状に成形された後、表面に欠陥が存在しないかなどを検査する外観検査が行われることがある。鋳造品や鍛造品などの被検査体の外観検査としては、作業者(検査者)の目視によるもののほか、被検査体の表面をCCDカメラなどで撮像し、当該撮像した画像を画像処理することによって行うものがある。画像処理によって行う外観検査としては、たとえば、欠陥のない鋳造品や鍛造品の表面を撮像した画像(すなわち、基準となる画像)と、被検査体の表面を撮像した画像とのパターンマッチングを行い、基準となる画像と被検査体の画像との相関が所定の閾値より低い場合には、欠陥が存在するとみなす方法などがある。 A cast product or a forged product may be subjected to an appearance inspection for inspecting whether there is a defect on the surface after being formed into a predetermined shape by casting or forging. In addition to visual inspection of an object to be inspected such as a cast product or a forged product, the surface of the object to be inspected is imaged with a CCD camera or the like in addition to visual inspection by an operator (inspector), and the captured image is processed There is something to do. As an appearance inspection performed by image processing, for example, pattern matching is performed between an image obtained by imaging the surface of a casting or forged product having no defect (that is, a reference image) and an image obtained by imaging the surface of the object to be inspected. There is a method of assuming that a defect exists when the correlation between the reference image and the image of the object to be inspected is lower than a predetermined threshold.
ところで、鋳造品は、鋳造加工により成形された後、表面の清浄や表面の粗度を均一にする目的のために、サンドブラスト処理が施されることがある。サンドブラスト処理は、鋳造品の表面に砂などの粒子を吹きつける処理であり、吹き付けられた砂などの粒子が鋳造品の表面に衝突して研磨することによって、鋳造品の表面を清浄にするとともに、表面の粗度を均一にする。 By the way, a cast product may be subjected to sand blasting for the purpose of cleaning the surface and making the surface roughness uniform after being formed by casting. Sandblasting is a process in which particles such as sand are sprayed onto the surface of the casting, and the surface of the casting is cleaned by colliding with the surface of the casting and polishing the particles such as sand. , Make the surface roughness uniform.
サンドブラスト処理に用いられる砂は、新品または新品に近い状態においては、砂の粒子が全体として角張った形状をしており(トゲトゲしており)、鋳造品の表面を研磨する能力が高い。そして、サンドブラスト処理での使用を繰り返すことによって、使用される砂が磨耗して全体として丸まった形状になっていき、鋳造品の表面を研磨する能力が低くなっていく。このため、新品または新品に近い砂を用いてサンドブラスト処理を行った場合には、鋳造品の表面が大きく研磨され、サンドブラスト処理された鋳造品の表面の明るさの度合が高くなる。これに対して、磨耗が進んだ砂を使用してサンドブラスト処理を行った場合には、鋳造品の表面が大きくは研磨されないため、鋳造品の表面の明るさの度合が低くなる。このように、サンドブラスト処理においては、使用する砂の状態(たとえば使用履歴)によって、鋳造品の表面の状態(たとえば明るさの度合)に個体差が生じることがある。 Sand used for sandblasting has a shape in which sand particles are squared as a whole in a new or near-new state, and has a high ability to polish the surface of a cast product. By repeating the use in the sandblasting process, the sand used is worn and becomes a rounded shape as a whole, and the ability to polish the surface of the cast product is lowered. For this reason, when sandblasting is performed using new or near-new sand, the surface of the cast product is greatly polished, and the degree of brightness of the surface of the cast product that has been sandblasted is increased. On the other hand, when sand blasting is performed using sand that has been worn out, the surface of the cast product is not greatly polished, so that the brightness of the surface of the cast product is low. As described above, in the sandblasting process, there may be individual differences in the state of the surface of the cast product (for example, the degree of brightness) depending on the state of the sand to be used (for example, use history).
また、鍛造加工された鍛造品の表面を清浄にするなどの目的で、鍛造品にショットブラスト処理が行われることがある。このほか、表面の機械的性質の向上などの目的で、ショットピーニングが実施されることがある。ショットブラスト処理およびショットピーニング処理は、微小な鋼球や鋼粉などを吹き付ける処理であり、微小な鋼球や鋼粉を吹き付けることにより、表面の清浄や機械的性質の向上を図る。このようなショットブラスト処理やショットピーニング処理においても、鋼球や鋼粉の状態や使用履歴などによって、サンドブラスト処理と同様に、表面の状態(たとえば明るさの度合)に個体差が生じることがある。 Further, shot blasting may be performed on the forged product for the purpose of cleaning the surface of the forged product that has been forged. In addition, shot peening may be performed for the purpose of improving the mechanical properties of the surface. The shot blasting process and the shot peening process are processes for spraying fine steel balls or steel powder, and by spraying the fine steel balls or steel powder, the surface is cleaned and the mechanical properties are improved. Even in such shot blasting and shot peening processes, individual differences may occur in the surface condition (for example, the degree of brightness) depending on the state of steel balls and steel powder and usage history, as in the case of sandblasting. .
サンドブラスト処理やシャットブラスト処理などが施された鋳造品や鍛造品を、画像処理により外観検査する場合において、前記のように表面の状態(特に明るさの度合)に個体差が存在すると、次のような問題が生じることがある。鋳造品や鍛造品などの被検査体の表面の撮像においては、所定の表面性状を有する部分が所定の輝度で撮像されるように、所定の光量の光源を用いて被検査体の表面を照明する。この際に、被検査体の表面の状態(明るさの度合)に個体差が存在すると、同じような表面性状であるにもかかわらず、撮像された画像は輝度が相違することになる。 When visual inspection is performed by image processing for cast or forged products that have been subjected to sandblasting or shut blasting, etc., if there are individual differences in the surface condition (especially the degree of brightness) as described above, Such a problem may occur. When imaging the surface of an object to be inspected, such as a cast or forged product, the surface of the object to be inspected is illuminated using a light source with a predetermined amount of light so that a portion having a predetermined surface property is imaged with a predetermined luminance. To do. At this time, if there is an individual difference in the surface condition (degree of brightness) of the object to be inspected, the brightness of the captured images is different despite the similar surface properties.
このため、撮像された画像を画像処理するに際して、特定の輝度の画像に好適な画像処理条件を適用すると、当該輝度から外れた輝度の画像については、正確に欠陥の有無を判定することが困難となる。そしてその結果として、被検査体の表面の明るさの度合などの個体差によって、誤判定されるということが生じる。たとえば、所定の閾値の輝度よりも低い箇所を欠陥であると判定するように設定される場合には、表面の明るさの度合いが低い被検査体は、欠陥がないにもかかわらず、欠陥を有すると判定されることがある。 For this reason, when image processing is performed on a captured image, if an image processing condition suitable for an image with a specific luminance is applied, it is difficult to accurately determine the presence / absence of a defect for an image with a luminance outside the luminance. It becomes. As a result, an erroneous determination may occur due to individual differences such as the degree of brightness of the surface of the object to be inspected. For example, when it is set to determine that a portion having a luminance lower than a predetermined threshold value is a defect, an object to be inspected having a low surface brightness is not defective even though there is no defect. It may be determined to have.
さらに、前記のように被検査体の表面を所定の光量の光源を用いて照明する構成においては、光源の経時劣化などにより光量が変化することがある。被検査体ごとに光源の光量が相違すると、被検査体ごとに異なる輝度の画像が撮像されることになる。このため、表面に状態(明るさの度合)に個体差がある場合と同様の問題が発生することがある。 Further, in the configuration in which the surface of the object to be inspected is illuminated with a light source having a predetermined light amount as described above, the light amount may change due to deterioration of the light source over time. If the amount of light of the light source is different for each object to be inspected, an image having a different luminance is captured for each object to be inspected. For this reason, the same problem as when there is an individual difference in the state (degree of brightness) on the surface may occur.
上記実情に鑑み、本発明が解決しようとする課題は、被検査体の表面の状態(特に明るさの度合)に個体差がある場合であっても、個体差の影響を除去して被検査体の表面を精度良く検査できる外観検査方法および外観検査装置を提供すること、または、被検査体の表面に曲面で構成される部分が含まれる場合であっても、曲面で構成されることに起因する輝度差の影響を除去して被検査体の表面を精度良く検査できる外観検査方法および外観検査装置を提供すること、または、光源の光量が被検査体ごとに相違した場合であっても、精度良く検査できる外観検査方法および外観検査装置を提供することである。 In view of the above situation, the problem to be solved by the present invention is to remove the influence of individual differences even when there is an individual difference in the surface condition (particularly the degree of brightness) of the object to be inspected. To provide an appearance inspection method and an appearance inspection apparatus capable of accurately inspecting the surface of a body, or to be configured with a curved surface even when the surface of the object to be inspected includes a portion configured with a curved surface To provide an appearance inspection method and an appearance inspection apparatus capable of accurately inspecting the surface of an object to be inspected by removing the influence of the luminance difference caused by it, or even when the light amount of the light source is different for each object to be inspected Another object of the present invention is to provide an appearance inspection method and an appearance inspection apparatus that can inspect with high accuracy.
前記課題を解決するため、本発明は、サンドブラスト処理またはショットブラスト処理またはショットピーニング処理が施された被検査体の表面を検査する外観検査方法であって、基準となる物品の外観を撮像して基準画像を取得し、該基準画像の輝度分布を示す被検査体輝度画像を取得する段階と、前記被検査体の外観を撮像して被検査体画像を取得し、該被検査体画像の輝度分布を示す被検査体輝度画像を取得する段階と、前記被検査体輝度画像から、あらかじめ設定した位置のエリアを被検査体エリアとして抽出する段階と、前記基準輝度画像から前記被検査体エリアの位置に対応するエリアを基準エリアとして抽出する段階と、前記被検査体エリアと前記基準エリアとの、それぞれの輝度分布のデータを所定座標方向に一次元データに変換し、当該各エリアの輝度値として設定する段階と、前記設定された各エリアの輝度値同士を、前記座標ごとに比較する比較段階と、前記比較結果に基づいて、前記被検査体輝度画像の輝度分布を、前記基準画像の輝度分布に近付ける補正を行う補正段階と、前記補正後の被検査体輝度画像について所定の画像処理を施して外観検査を行う段階と、を含むことを要旨とするものである。 In order to solve the above problems, the present invention is an appearance inspection method for inspecting the surface of an object to be inspected that has been subjected to sandblasting, shot blasting, or shot peening, and images the appearance of a reference article. Acquiring a reference image, obtaining an inspected object luminance image indicating a luminance distribution of the reference image, capturing an appearance of the inspected object to obtain an inspected object image, and obtaining the luminance of the inspected object image Obtaining an inspected object luminance image indicating a distribution; extracting an area at a preset position from the inspected object luminance image as an inspected object area; and extracting the area of the inspected object area from the reference luminance image. A step of extracting an area corresponding to a position as a reference area, and data of luminance distribution of the inspected object area and the reference area in one-dimensional data in a predetermined coordinate direction A step of converting and setting the luminance value of each area, a comparison step of comparing the luminance values of the set areas for each coordinate, and the luminance image of the object to be inspected based on the comparison result A correction stage for correcting the brightness distribution of the reference image to be close to the brightness distribution of the reference image, and a stage for performing an appearance inspection by performing predetermined image processing on the corrected body brightness image. To do.
前記比較段階は、前記座標ごとに前記被検査体エリアの輝度値を前記基準エリアの輝度値で除して、当該座標ごとに比率を求め、該座標方向の比率の変化を直線で近似し、当該近似直線の切片を補正レートとして設定するものであり、
前記補正段階は、前記設定した補正レートの逆数を、前記被検査体輝度画像の全体に一律に乗ずるものであることが好ましい。
The comparison step divides the luminance value of the inspected area for each coordinate by the luminance value of the reference area, obtains a ratio for each coordinate, approximates the change in the ratio in the coordinate direction with a straight line, The intercept of the approximate straight line is set as a correction rate,
In the correction step, it is preferable that the reciprocal of the set correction rate is uniformly multiplied over the entire inspected object luminance image.
また、前記被検査体輝度画像からあらかじめ設定した位置のエリアを被検査体エリアとして抽出する段階の後に、前記被検査体エリアの画像に欠陥が含まれているか否かを判定する段階をさらに有し、該段階において欠陥が含まれていると判定された場合には、当該抽出した被検査体エリアとは他の異なる被検査体エリアを前記被検査体輝度画像から新たに抽出するとともに、当該新たに抽出した被検査体エリアに対応するエリアを前記基準画像から抽出することが好ましい。 Further, after the step of extracting an area at a preset position from the inspected object luminance image as the inspected object area, the method further includes a step of determining whether or not the image of the inspected object area includes a defect. When it is determined that a defect is included in the stage, a new inspection object area different from the extracted inspection object area is newly extracted from the inspection object luminance image, and It is preferable to extract an area corresponding to a newly extracted object area from the reference image.
前記基準となる物品の外観を撮像し取得する基準画像は、サンドブラスト処理の砂またはショットブラスト処理の鋼球が新しいものを使用して形成した物品を撮像した画像と、古いものを使用して形成した物品を撮像した画像との二つの画像であり、前記比較段階は、前記二つの基準画像に設定されたそれぞれの輝度値の平均を新たに基準エリアの輝度値として設定し直し、当該設定し直した該基準エリアの輝度値と、前記被検査体エリアの輝度値とを、前記座標ごとに比較するものである構成であっても良い。 The reference image that captures and acquires the appearance of the reference article is formed using an image obtained by imaging a sandblasted sand or shotblasted steel ball using a new article and an old one. In the comparison step, the average of the luminance values set in the two reference images is newly set as the luminance value of the reference area, and the setting is performed. The corrected luminance value of the reference area and the luminance value of the inspection object area may be compared for each coordinate.
本発明は、基準となる物品の外観の基準画像および被検査体の外観の被検査体画像を撮像することができる撮像手段と、該撮像手段が撮像した基準画像を記憶することができる記憶手段と、前記基準画像の輝度分布を示す被検査体輝度画像を取得するとともに、前記被検査体画像の輝度分布を示す被検査体輝度画像を取得し、前記被検査体輝度画像から、あらかじめ設定した位置のエリアを被検査体エリアとして抽出するとともに、前記基準輝度画像から前記被検査体エリアの位置に対応するエリアを基準エリアとし、前記被検査体エリアと前記基準エリアとの、それぞれの輝度分布のデータを所定座標方向に一次元データに変換し、当該各エリアの輝度値として設定し、設定された各エリアの輝度値同士を前記座標ごとに比較し、前記被検査体輝度画像の輝度分布を前記基準画像の輝度分布に近付ける補正を行うことができる演算手段と、を備えることを要旨とするものである。 The present invention provides an imaging unit capable of capturing a reference image of the appearance of an article to be used as a reference and an inspection object image of the appearance of the inspection object, and a storage unit capable of storing the reference image captured by the imaging unit. And an inspected object luminance image indicating the luminance distribution of the reference image, an inspected object luminance image indicating the luminance distribution of the inspected object image, and pre-set from the inspected object luminance image A position area is extracted as an inspection object area, and an area corresponding to the position of the inspection object area is set as a reference area from the reference luminance image, and the respective luminance distributions of the inspection object area and the reference area Is converted into one-dimensional data in a predetermined coordinate direction, set as the brightness value of each area, the brightness values of each set area are compared for each coordinate, and the test object Calculating means for correction can be made to approach the luminance distribution of the body luminance image to the luminance distribution of the reference image, and summarized in that it comprises a.
ここで、前記演算手段は、前記座標ごとに前記被検査体エリアの輝度値を前記基準エリアの輝度値で除して、当該座標ごとに比率を求め、該座標方向の比率の変化を直線で近似し、当該近似直線の切片を補正レートとして設定し、前記設定した補正レートの逆数を、前記被検査体輝度画像の全体に一律に乗ずるものであることが好ましい。 Here, the calculation means divides the luminance value of the inspected area by the luminance value of the reference area for each coordinate, obtains a ratio for each coordinate, and changes the ratio change in the coordinate direction by a straight line. It is preferable that the approximation is performed, the intercept of the approximate straight line is set as a correction rate, and the whole of the inspected object luminance image is uniformly multiplied by the inverse number of the set correction rate.
なお、本発明においては、「エリア」とは画素(ピクセル)が二次元配列された領域をいう。具体的にはたとえば、100ピクセル×100ピクセルの通常の領域を「エリア」と称することに加え、1ピクセル×100ピクセル(通常はラインと呼ぶ)であっても、「エリア」に含まれる。 In the present invention, an “area” refers to a region in which pixels (pixels) are two-dimensionally arranged. Specifically, for example, a normal area of 100 pixels × 100 pixels is referred to as an “area”, and even 1 pixel × 100 pixels (usually referred to as a line) is included in the “area”.
本発明によれば、被検査体を撮像した画像の輝度が、基準画像基づいて補正されているから、基準画像を画像処理する条件で被検査体を撮像した画像を画像処理しても、精度良く検査を行うことができる。したがって、被検査体の表面性状(特に明るさの度合)に個体差がある場合や、光源の経時劣化などによって撮像の条件(特に照明の条件)に個体差がある場合などにおいても、精度良く検査を行うことができる。 According to the present invention, since the luminance of the image obtained by imaging the inspected object is corrected based on the reference image, even if the image obtained by imaging the inspected object under the conditions for image processing of the reference image is processed with accuracy, The inspection can be performed well. Therefore, even when there are individual differences in the surface properties (especially the degree of brightness) of the object to be inspected, or when there are individual differences in the imaging conditions (especially the illumination conditions) due to deterioration of the light source over time, etc. Inspection can be performed.
特に、被検査体の外観を撮像した画像から抽出されたエリアの輝度の値を、前記基準画像から抽出されたエリアの輝度の値で除し、被検査体の外観を撮像した画像に前記除して算出された値の逆数を乗ずる構成とすると、被検査体の外観を撮像した画像の輝度を基準画像の輝度にほぼ等しくすることができる。したがって、検査を行う画像の輝度がほぼ統一できるから、基準画像を画像処理する条件で被検査体を撮像した画像を画像処理しても、精度良く検査を行うことができる。 In particular, the luminance value of the area extracted from the image obtained by imaging the appearance of the object to be inspected is divided by the luminance value of the area extracted from the reference image, and the image obtained by imaging the appearance of the object to be inspected is removed. If the configuration is obtained by multiplying the reciprocal of the calculated value, the luminance of the image obtained by imaging the appearance of the object to be inspected can be made substantially equal to the luminance of the reference image. Therefore, since the luminance of the image to be inspected can be almost unified, the inspection can be performed with high accuracy even if image processing is performed on an image obtained by imaging the inspection object under the condition for image processing of the reference image.
また、被検査体の外観を撮像した画像から一部のエリアを抽出する段階の後に、前記被検査体の外観を撮像した画像から抽出されたエリアの画像に欠陥が含まれているか否かを判定する段階をさらに追加し、この段階において欠陥が含まれていると判定された場合には、当該抽出したエリアとは他の異なるエリアを前記被検査体の外観を撮像した画像から新たに抽出するとともに、当該新たに抽出したエリアに対応するエリアを前記基準画像から抽出するようにすれば、欠陥のないエリアの輝度に基づいて画像全体の輝度の補正を行うことができる。したがって、補正の精度が向上する。 In addition, after the step of extracting a part of the area from the image obtained by imaging the appearance of the inspection object, whether or not the image of the area extracted from the image obtained by imaging the appearance of the inspection object includes a defect. If a determination step is further added and it is determined that a defect is included in this step, a different area other than the extracted area is newly extracted from an image obtained by imaging the appearance of the inspection object. In addition, if the area corresponding to the newly extracted area is extracted from the reference image, the luminance of the entire image can be corrected based on the luminance of the area having no defect. Therefore, the accuracy of correction is improved.
以下に、本発明の各種実施形態について、図面を参照して詳細に説明する。 Hereinafter, various embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の実施形態にかかる外観検査装置10の一例の構成を示す概略図である。本発明の実施形態にかかる外観検査装置10は、被検査体として自動車のターボチャージャ用の羽根車1(すなわち、タービンホイール)の外観検査に用いられる装置である。このターボチャージャ用の羽根車1は、鋳造(たとえば、ロストワックス製法)により成形されるものであり、鋳造により成形後、サンドブラスト処理によって、表面の清浄と表面の粗度の均一化が行われるものである。そして、本発明の実施形態にかかる外観検査装置は、サンドブラスト処理が施された被検査体(羽根車(タービンホイール))の外観を検査することによって、鋳造不良の有無を判定する。 FIG. 1 is a schematic view showing a configuration of an example of an appearance inspection apparatus 10 according to an embodiment of the present invention. An appearance inspection apparatus 10 according to an embodiment of the present invention is an apparatus used for appearance inspection of an impeller 1 (that is, a turbine wheel) for an automobile turbocharger as an object to be inspected. The turbocharger impeller 1 is formed by casting (for example, lost wax manufacturing method). After forming by casting, the surface is cleaned and the surface roughness is made uniform by sandblasting. It is. And the external appearance inspection apparatus concerning embodiment of this invention determines the presence or absence of casting defect by inspecting the external appearance of the to-be-inspected object (impeller (turbine wheel)) to which the sandblasting process was performed.
図1に示すように、本発明の実施形態にかかる外観検査装置10は、被検査体(羽根車1)を所定の位置に保持することができるワーク保持手段20と、羽根車1の外観を撮像して画像情報を得ることができる撮像手段30と、羽根車1に光を照射することができる光源装置40と、羽根車1の位置を検知することができるワーク位置センサ50と、撮像した画像の画像処理やワーク保持手段20の制御などを行うことができる制御ユニット60とを備える。 As shown in FIG. 1, an appearance inspection apparatus 10 according to an embodiment of the present invention includes a work holding unit 20 that can hold an object to be inspected (impeller 1) in a predetermined position, and an appearance of the impeller 1. The imaging means 30 that can capture and obtain image information, the light source device 40 that can irradiate the impeller 1 with light, the work position sensor 50 that can detect the position of the impeller 1, and the imaging And a control unit 60 capable of performing image processing of images, control of the work holding means 20, and the like.
ワーク保持手段20は、被検査体(羽根車1)を所定の位置に保持することができる。図1に示すように、ワーク保持手段20は、羽根車1を回動自在に支持することができる回動機構部21と支持部22とが、基台23上に取付けられて構成されている。回動機構部21は、羽根車1の軸部材2の軸方向端部のレンチボス4に当接して、羽根車1のレンチボス4側を支持するためのチャック部24、及びチャック部24に接続されチャック部24を回動させるためのサーボモータ25を備えている。また支持部22は、羽根車1のシャフト保持部5側に当接して、チャック部24との間で羽根車1を挟んで、羽根車1を回動自在に保持するためのホルダ部26を備えている。羽根車1は、ワーク保持手段20によって軸方向の両端が保持される。 The work holding means 20 can hold the object to be inspected (the impeller 1) at a predetermined position. As shown in FIG. 1, the work holding means 20 is configured such that a rotation mechanism portion 21 and a support portion 22 that can rotatably support the impeller 1 are mounted on a base 23. . The rotation mechanism unit 21 is in contact with the wrench boss 4 at the axial end of the shaft member 2 of the impeller 1, and is connected to the chuck unit 24 for supporting the wrench boss 4 side of the impeller 1, and the chuck unit 24. A servo motor 25 for rotating the chuck portion 24 is provided. Further, the support portion 22 abuts on the shaft holding portion 5 side of the impeller 1, holds the impeller 1 between the chuck portion 24 and the holder portion 26 for rotatably holding the impeller 1. I have. Both ends of the impeller 1 in the axial direction are held by the work holding means 20.
撮像手段30は、羽根車1の外観を撮像して画像情報を得ることができる。撮像手段30には、たとえばCCDカメラなどの公知の各種撮像手段が適用できる。光源40は、羽根車1に光を照射することができる。光源40としては、例えばLEDライト、フラッシュライト等の各種光源が適用できる。 The imaging means 30 can capture the appearance of the impeller 1 and obtain image information. Various known imaging means such as a CCD camera can be applied to the imaging means 30. The light source 40 can irradiate the impeller 1 with light. As the light source 40, for example, various light sources such as an LED light and a flash light can be applied.
ワーク位置センサ50は、羽根車1の位置(姿勢)を検知することができる。このワーク位置センサ50は、制御ユニット60の制御手段63に接続されており、ワーク保持手段20に保持される羽根車1の位置情報(姿勢情報)を制御手段63に送信することができる。ワーク位置センサ50は公知の各種位置センサ等を用いることができる。 The work position sensor 50 can detect the position (posture) of the impeller 1. The work position sensor 50 is connected to the control means 63 of the control unit 60, and can transmit the position information (posture information) of the impeller 1 held by the work holding means 20 to the control means 63. Various known position sensors can be used as the work position sensor 50.
制御ユニット60は、撮像した画像の画像処理や、撮像手段30およびワーク保持手段20などの制御を行うことができる。具体的には、制御ユニット60は、演算手段61と記憶手段62と制御手段63とを備える。演算手段61は撮像手段30に接続されており、撮像手段30が撮像した画像のデータを受信して、所定の処理を行うことができる。記憶手段62は、撮像手段30が撮像した画像のデータや、演算手段が処理したデータなどを記憶することができる。制御手段63は、ワーク位置センサ50やサーボモータ25などに接続され、ワーク位置センサ50からの信号を受信して、サーボモータ25の動きを制御することができる。たとえば制御手段63は、羽根車1をステップ送り(回転)するようにサーボモータ25の回転を制御することが可能である。また、制御手段63は、ワーク位置センサ50の信号や、撮像手段30が撮像した画像情報等に基づいて、撮像手段の位置や姿勢を変化させることができる。この制御ユニット60には、パーソナルコンピュータやワークステーションなどが適用できる。 The control unit 60 can perform image processing of the captured image and control of the imaging unit 30 and the work holding unit 20. Specifically, the control unit 60 includes a calculation unit 61, a storage unit 62, and a control unit 63. The calculation means 61 is connected to the image pickup means 30 and can receive data of an image picked up by the image pickup means 30 and perform a predetermined process. The storage unit 62 can store image data captured by the imaging unit 30, data processed by the calculation unit, and the like. The control means 63 is connected to the workpiece position sensor 50, the servo motor 25, etc., and can receive a signal from the workpiece position sensor 50 and control the movement of the servo motor 25. For example, the control means 63 can control the rotation of the servo motor 25 so as to step-feed (rotate) the impeller 1. Further, the control means 63 can change the position and orientation of the imaging means based on the signal of the workpiece position sensor 50, image information taken by the imaging means 30, and the like. A personal computer or a workstation can be applied to the control unit 60.
図2は、本発明の実施形態にかかる外観検査方法の対象となる羽根車1の外観を示す斜視図である。それぞれ、(a)は羽根車1を軸方向の一方側から見た図であり、(b)は羽根車1の軸方向の他方側から見た図である。図2(a)、(b)に示すように羽根車1は、軸部材2とこの軸部材2の周囲に設けられている複数のねじれ羽根3とから構成されている。また、羽根車1は、図2(a)に示すように、軸部材2の一方の端部が、六角形等のボルト形状のように正多角形の凸部からなるレンチボス4として形成されている。そして、軸部材2の他方の端部が、図2(b)に示すように、中央部が円形に窪んだクレーター状の凹部からなるシャフト保持部5が設けられている。シャフト保持部5は、別部材のシャフトを溶接等で一体化するために設けられている。この羽根車1はロストワックス法により鋳造される。そして、鋳造により成形された後は、表面の性状などを目的として、サンドブラスト処理が施される。材質としては、合金ステンレス、TiAl等が用いられる。 FIG. 2 is a perspective view showing an appearance of the impeller 1 that is a target of the appearance inspection method according to the embodiment of the present invention. (A) is the figure which looked at the impeller 1 from the one side of the axial direction, respectively, (b) is the figure which looked at the other side of the axial direction of the impeller 1. As illustrated in FIGS. 2A and 2B, the impeller 1 includes a shaft member 2 and a plurality of twisted blades 3 provided around the shaft member 2. Further, as shown in FIG. 2A, the impeller 1 is formed such that one end of the shaft member 2 is a wrench boss 4 formed of a regular polygonal convex portion such as a hexagonal bolt shape. Yes. And the other end part of the shaft member 2 is provided with the shaft holding part 5 which consists of a crater-like recessed part in which the center part was circularly depressed as shown in FIG.2 (b). The shaft holding part 5 is provided in order to integrate a shaft of another member by welding or the like. The impeller 1 is cast by the lost wax method. And after shaping | molding by casting, a sandblasting process is performed for the purpose of the surface property. As the material, alloy stainless steel, TiAl, or the like is used.
本発明の実施形態にかかる外観検査装置10および外観検査方法は、このような羽根車1などの鋳造品であって、サンドブラスト処理などが施された後に、その表面を検査するために適用される。たとえば、羽根車1の表面に現れるピンホールやブローホールを検出することや、ねじれ羽根の端部などに発生する湯境欠陥を検出することなどを目的に行うものである。 The appearance inspection apparatus 10 and the appearance inspection method according to the embodiment of the present invention are applied to inspect the surface of a cast product such as the impeller 1 after being subjected to sandblasting or the like. . For example, it is performed for the purpose of detecting pinholes and blowholes appearing on the surface of the impeller 1 or detecting a hot water boundary defect generated at the end of a twisted blade.
以下に、本発明の実施形態にかかる外観検査装置を用いた外観検査方法(本発明の実施形態にかかる外観検査方法)について説明する。図3は、本発明の実施形態にかかる外観検査方法の流れの概略を示したフローチャートである。本発明の実施形態にかかる外観検査方法は、大きく段階分けを行うと、(1)基準となる画像データを取得する段階、(2)検査対象となる画像データを取得する段階、(3)検査対象となる画像データを補正する補正レートを決定する段階、(4)決定した補正レートに基づいて検査対象となる画像データの輝度の補正を行う段階、(5)輝度が補正された画像を画像処理して被検査体の外観検査を行う段階、の5段階となる。 Hereinafter, an appearance inspection method using the appearance inspection apparatus according to the embodiment of the present invention (an appearance inspection method according to the embodiment of the present invention) will be described. FIG. 3 is a flowchart showing an outline of the flow of the appearance inspection method according to the embodiment of the present invention. In the appearance inspection method according to the embodiment of the present invention, when divided into stages, (1) a step of acquiring image data as a reference, (2) a step of acquiring image data to be inspected, (3) an inspection Determining a correction rate for correcting the target image data; (4) correcting the luminance of the image data to be inspected based on the determined correction rate; and (5) converting the luminance corrected image into an image. There are five stages, that is, a stage for performing an appearance inspection of the object to be inspected.
(1)基準となる画像を取得する段階
ステップS−1において、基準画像が撮像され、保存される。基準となる画像は、平均的な表面性状を有し、かつ表面に欠陥のない被検査体(以下、実際に検査対象となる被検査体と区別するため、「リファレンス」と称する)の画像を撮像した画像とする。たとえば、サンドブラスト処理で使用する砂の寿命をN回とした場合において、N/2回程度使用された砂を用いてサンドブラスト処理が施されたリファレンスの表面が、平均的な表面性状を有するものとする。具体的には、サンドブラスト処理で使用する砂の寿命を3500回とした場合において、1800回程度使用された砂を用いてサンドブラスト処理が施されたリファレンスの表面性状を、平均的な表面性状とする。そして、このリファレンスの表面を撮像した画像を基準画像とする。
(1) Step of acquiring a reference image In step S-1, a reference image is captured and stored. The reference image is an image of an object to be inspected having an average surface property and having no surface defects (hereinafter referred to as “reference” in order to be distinguished from an object to be actually inspected). Let it be a captured image. For example, when the life of sand used in sandblasting is N times, the surface of the reference that has been sandblasted using sand that has been used N / 2 times has an average surface property. To do. Specifically, when the life of the sand used in the sandblast treatment is 3500 times, the surface property of the reference that has been sandblasted using the sand that has been used about 1800 times is defined as the average surface property. . An image obtained by imaging the surface of the reference is set as a reference image.
基準画像の撮像においては、撮像領域の輝度の分布が均一になるように、撮像手段30(CCDカメラ)の位置および光源40(LED)の位置や明るさを調整することが好ましい。 In capturing the reference image, it is preferable to adjust the position of the imaging unit 30 (CCD camera) and the position and brightness of the light source 40 (LED) so that the luminance distribution in the imaging region is uniform.
撮像される画像のサイズは特に限定されるものではないが、たとえば20mm×30mm程度の範囲を撮像した画像が適用される。撮像する領域は、被検査体(羽根車1)の実際の検査対象領域に対応する領域とする。撮像された画像は、複数のピクセル(画素)のマトリックスデータ(行列)として得られる。N行M列(N,Mは所定の自然数)のマトリックスデータは、たとえば、行が画像のX座標、列がY座標となる。そして撮像された基準画像は、所定の輝度階調を有する画像に変換される。たとえば、撮像された画像は、各ピクセルが256階調(8ビット階調)の輝度階調を有する画像に変換される。この画像が基準輝度画像である。そして変換された画像(特に各ピクセルの輝度情報)は、記憶手段に記憶される。 The size of the image to be captured is not particularly limited, but for example, an image captured in a range of about 20 mm × 30 mm is applied. The area to be imaged is an area corresponding to the actual inspection target area of the inspection object (impeller 1). The captured image is obtained as matrix data (matrix) of a plurality of pixels (pixels). In the matrix data of N rows and M columns (N and M are predetermined natural numbers), for example, the row is the X coordinate of the image and the column is the Y coordinate. The captured reference image is converted into an image having a predetermined luminance gradation. For example, the captured image is converted into an image in which each pixel has a luminance gradation of 256 gradations (8-bit gradation). This image is a reference luminance image. The converted image (especially luminance information of each pixel) is stored in the storage means.
(2)検査対象となる画像データを取得する段階
ステップS−2において、実際の検査対象である被検査体の検査領域を撮像する。撮像条件は、基準画像の撮像条件と同一にすることが好ましい。基準画像の撮像と同様に、表面に曲面が含まれる物体の撮像において、輝度の分布を均一にすることは困難であるが、輝度の分布の傾向が、基準画像の輝度の分布と同様な傾向にあれば問題がないと考えられる。
(2) Stage of acquiring image data to be inspected In step S-2, an inspection area of an object to be inspected that is an actual inspection object is imaged. The imaging conditions are preferably the same as the imaging conditions for the reference image. As with the reference image, it is difficult to make the luminance distribution uniform when imaging an object with a curved surface. However, the luminance distribution tends to be the same as the reference image. It seems that there is no problem if
ステップS−3において、被検査体の画像についても基準輝度画像と同様の処理を行い、輝度階調を有する画像に変換した画像(被検査体輝度画像)を得る。そして被検査体輝度画像から一部の領域を抽出する。この抽出した領域を「補正エリア(被検査体エリア)」と称する。補正エリアは、撮像した画像の輝度を補正する補正レートを算出するために、画像の各ピクセルの輝度階調を採取するエリアである。なお、補正エリアの範囲は特に限定されるものではないが、たとえば100ピクセル×100ピクセルの領域を抽出する。 In step S-3, the image of the object to be inspected is also processed in the same manner as the reference luminance image to obtain an image (inspected object luminance image) converted into an image having a luminance gradation. Then, a partial region is extracted from the inspected object luminance image. This extracted area is referred to as a “correction area (inspected object area)”. The correction area is an area for collecting the luminance gradation of each pixel of the image in order to calculate a correction rate for correcting the luminance of the captured image. Although the range of the correction area is not particularly limited, for example, an area of 100 pixels × 100 pixels is extracted.
ステップS−4において、ノイズ除去処理が行われる。ここで、被検査体を撮像した画像がノイズを含んでいることがある。ノイズを含んだまま後のステップの処理を行うと、画像処理の段階(撮像された画像に基づいて、欠陥の有無を判定する段階)において、ノイズを欠陥であると判定することがあり、検査精度が低下するおそれがある。そこで、ステップS−4において、撮像した被検査体の画像に対し、ガウシアンフィルタや平均化フィルタなどを用いて、ノイズ除去処理が行われる。 In step S-4, noise removal processing is performed. Here, an image obtained by imaging the object to be inspected may contain noise. If the process of the subsequent step is performed while including noise, the noise may be determined to be a defect in the image processing stage (the stage of determining the presence or absence of a defect based on the captured image). The accuracy may be reduced. Therefore, in step S-4, noise removal processing is performed on the captured image of the inspected object using a Gaussian filter, an averaging filter, or the like.
羽根車1のような被検査体は、サンドブラスト処理が施されており、砂の粒子によってその表面が研磨されている。したがって、局所的に研磨量が大きく輝度が高い孤立点が存在することがある。このような局所的に輝度が高い孤立点は欠陥ではないため、検査精度の向上を図るためには、画像処理の段階において欠陥と判定されないようにすることが好ましい。そこで、このような孤立点をノイズとして扱い、ガウシアンフィルタや平均化フィルタなどを用いてノイズ除去処理を行うことによって、このような局所的に現れる孤立点を暈かして平均化する。そして、このノイズ除去処理が行われた画像を用いて、後のステップの処理を行う。 An object to be inspected such as the impeller 1 is subjected to sandblasting, and the surface thereof is polished by sand particles. Therefore, there may be an isolated point having a high polishing amount and high brightness locally. Since such isolated points with high local brightness are not defects, it is preferable not to be determined as defects at the stage of image processing in order to improve inspection accuracy. Therefore, such isolated points are treated as noise, and noise removal processing is performed using a Gaussian filter, an averaging filter, or the like, and such isolated isolated points are averaged out. And the process of a subsequent step is performed using the image from which this noise removal process was performed.
なお、ノイズ除去処理は、図3のフローチャートに示すように、補正エリアを抽出するごとに、当該抽出した補正エリアに対して行っても良く、また、撮像した画像全体に対して行っても良い(すなわち、ステップS−2とステップS3の間において行っても良い)。また、このノイズ除去処理は、選択的に実施される処理であり、必ずしも実施しなくとも良い。 As shown in the flowchart of FIG. 3, the noise removal process may be performed on the extracted correction area each time a correction area is extracted, or may be performed on the entire captured image. (That is, it may be performed between step S-2 and step S3). Further, the noise removal process is a process that is selectively performed, and is not necessarily performed.
ステップS−5において、輝度階調採取が行われる。すなわち、抽出した補正エリアの各ピクセルの輝度階調が採取される。そして、基準画像から、当該抽出した補正エリアに対応する領域を抽出し、当該基準画像から抽出された領域の各ピクセルの輝度階調を採取する。すなわち、被検査体を撮像した画像のうちからその一部(補正エリア)を抽出して輝度階調を採取し、同様に、リファレンスを撮像した画像のうちから、抽出した補正エリアに対応する位置(領域、座標)の画像を抽出して輝度階調を採取する。 In step S-5, luminance gradation sampling is performed. That is, the luminance gradation of each pixel in the extracted correction area is collected. Then, an area corresponding to the extracted correction area is extracted from the reference image, and the luminance gradation of each pixel in the area extracted from the reference image is collected. That is, a part (correction area) is extracted from an image obtained by imaging the object to be inspected, and a luminance gradation is collected. Similarly, a position corresponding to the extracted correction area from an image obtained by imaging a reference. An image of (region, coordinate) is extracted and a luminance gradation is collected.
そして、採取した輝度階調に基づいて、輝度のX軸方向成分またはY軸方向成分が平均化される。数学的にいうと、補正エリアの画像データは、N行M列のマトリックスデータ(N,Mは所定の自然数)であから、このマトリックスデータに基づいて、1行M列の行ベクトルまたはN行1列の列ベクトルが作成される。前記の例では補正エリアの画像データは、100ピクセル×100ピクセルのマトリックスデータであるから、このマトリックスデータに基づいて、1行100列の行ベクトル、または100行1列の列ベクトルが作成される。具体的には、補正エリアの画像データがan,m(1,2,3,・・・,n,・・・,N、1,2,3,・・・m,・・・,M)であるとすると、次の数式(1)で与えられる行ベクトル、または数式(2)で与えられる列ベクトルが作成される。 Then, the X-axis direction component or Y-axis direction component of the luminance is averaged based on the collected luminance gradation. Mathematically speaking, the image data in the correction area is matrix data of N rows and M columns (N and M are predetermined natural numbers). Based on this matrix data, a row vector of 1 rows and M columns or N rows A column vector of one column is created. In the above example, the image data of the correction area is matrix data of 100 pixels × 100 pixels. Based on this matrix data, a row vector of 1 row and 100 columns or a column vector of 100 rows and 1 column is created. . Specifically, the image data in the correction area is an , m (1, 2, 3,..., N,..., N, 1, 2, 3,... M,. ), A row vector given by the following formula (1) or a column vector given by formula (2) is created.
これらの行ベクトルbmまたは列ベクトルcnは、補正エリアの画像データのX軸方向の輝度またはY軸方向の輝度の平均値を成分とするベクトルである。このように、補正エリアの画像データが二次元データから一次元データに変換される。すなわち、「面」として得たデータが、「線」のデータに変換される。以下、この作成された一次元のデータに基づいて処理が行われる。このように「線」のデータを用いることにより、後の処理が簡単になる。なお、ステップS−3で抽出するエリアとして、たとえば1ピクセル×100ピクセルといった領域(一般にはラインと呼ばれる領域)を抽出する場合には、この領域自体が平均化された一次元データとして得られるため、このデータを用いて処理すればよい。かかる処理を施すことで、補正エリアと基準画像のエリア(基準エリア)との、それぞれの輝度を一次元データの輝度値として設定することができる。 These row vector b m or column vector c n is a vector whose X-axis direction of the luminance or Y-axis direction of the mean components of the luminance of the image data of the correction area. In this way, the image data in the correction area is converted from two-dimensional data to one-dimensional data. That is, the data obtained as “surface” is converted into “line” data. Hereinafter, processing is performed based on the created one-dimensional data. By using “line” data in this way, subsequent processing is simplified. Note that, as an area to be extracted in step S-3, for example, when an area of 1 pixel × 100 pixels (area generally called a line) is extracted, this area itself is obtained as averaged one-dimensional data. Processing may be performed using this data. By performing such processing, the luminance of the correction area and the area of the reference image (reference area) can be set as the luminance value of the one-dimensional data.
図4は、平均化された補正エリアの輝度と、当該補正エリアに対応する基準画像の平均化された輝度とを表したグラフの一例である。図4においては、被検査体は、新品の砂を用いてサンドブラスト処理を行ったものである。また、基準画像のリファレンスは、1800回のサンドブラスト処理を行った砂を用いてサンドブラスト処理を行ったものである。図4に示すように被検査体はリファレンスに比較して新しい砂を用いてサンドブラスト処理を行っており、砂の研磨能力が大きいため、リファレンスの画像に対して輝度が全体的に高い。 FIG. 4 is an example of a graph showing the averaged luminance of the correction area and the averaged luminance of the reference image corresponding to the correction area. In FIG. 4, the object to be inspected is one that has been sandblasted using new sand. The reference of the reference image is obtained by performing sandblast processing using sand that has been subjected to sandblast processing 1800 times. As shown in FIG. 4, the object to be inspected is sandblasted using new sand as compared with the reference, and has a high sand polishing ability, so that the overall brightness of the reference image is high.
なお、基準画像および被検査体を撮像した画像の両方において、輝度に傾きがあるが、これは、リファレンスおよび被検査体の表面が曲面であるため、リファレンスまたは被検査体の表面で反射した光の入射状態(撮像手段への入射)が、座標によって相違するためであると考えられる。すなわち、反射光の進行方向と撮像手段の光軸とが一致しているかまたは近い位置においては輝度が高く、反射光の進行方法と撮像手段の光軸とが離れるにしたがって、輝度が低くなっていくものと考えられる。 Note that, in both the reference image and the image obtained by imaging the object to be inspected, the luminance is inclined. This is because the reference and the surface of the object to be inspected are curved surfaces. It is considered that this is because the incident state (incident on the imaging means) differs depending on the coordinates. That is, the luminance is high at a position where the traveling direction of the reflected light and the optical axis of the imaging means are coincident or close to each other, and the luminance decreases as the reflected light traveling method and the optical axis of the imaging means are separated. It is thought that it will go.
(3)検査対象となる画像データを補正する補正レートを決定する段階
ステップS−6において、補正エリアの各ピクセル(一次元に変換後のデータ)の輝度が規格化される。具体的には、補正エリアの各ピクセルの輝度を、基準画像から抽出した画像のうちの対応する座標のピクセルの輝度で除す。この処理を「規格化」と称し、座標ごとに輝度値を比較する処理である。図5は、図4の例について、基準画像から抽出した画像のうちの対応する座標のピクセルの輝度で除した値(すなわち、規格化された輝度)を示したグラフである。補正エリアの各ピクセルの輝度を、基準画像から抽出した画像のうちの対応する座標のピクセルの輝度で除した値(規格化された輝度)は、補正エリアの各ピクセルの輝度が、基準画像に比較してどの程度高いかまたは低いかを示す指標となる。すなわち、図4に示すように、補正エリアの各ピクセルの輝度が、基準画像から抽出した画像のうちの対応する座標のピクセルの輝度よりも高い場合には、図5に示すように、規格化された輝度は1よりも大きくなり、反対に輝度が低い場合には、規格化された輝度は1よりも小さくなる。
(3) Step of determining a correction rate for correcting the image data to be inspected In step S-6, the luminance of each pixel (data after one-dimensional conversion) in the correction area is normalized. Specifically, the luminance of each pixel in the correction area is divided by the luminance of the pixel at the corresponding coordinate in the image extracted from the reference image. This process is referred to as “normalization” and is a process of comparing the luminance value for each coordinate. FIG. 5 is a graph showing a value (that is, normalized luminance) obtained by dividing the example of FIG. 4 by the luminance of the pixel at the corresponding coordinate in the image extracted from the reference image. The value obtained by dividing the luminance of each pixel in the correction area by the luminance of the pixel at the corresponding coordinate in the image extracted from the reference image (standardized luminance) indicates that the luminance of each pixel in the correction area is the reference image. It becomes an index indicating how high or low it is compared. That is, as shown in FIG. 4, when the luminance of each pixel in the correction area is higher than the luminance of the pixel at the corresponding coordinate in the image extracted from the reference image, as shown in FIG. If the luminance is lower than 1, the normalized luminance is lower than 1 when the luminance is low.
ステップS−7において、抽出した補正エリアに欠陥が含まれていないかを判定する。欠陥が含まれている場合には、正しい補正レートを算出することが困難となる。このため、補正エリアに欠陥が含まれていると判定された場合には、ステップS−3に戻り、被検査体を撮像した画像から、当該欠陥が含まれる補正エリアとは別のエリアを抽出する。そして新たに抽出したエリアを新たな補正エリアとし、ステップS−4以降の処理を繰り返す。なお、抽出した補正エリアに欠陥が含まれているか否かを判定する処理および、欠陥が含まれている場合の具体的な処理については後述する。まず、補正エリアに欠陥が含まれないものとして説明をする。 In step S-7, it is determined whether the extracted correction area contains a defect. When a defect is included, it is difficult to calculate a correct correction rate. For this reason, when it is determined that a defect is included in the correction area, the process returns to step S-3, and an area other than the correction area including the defect is extracted from an image obtained by imaging the inspection object. To do. Then, the newly extracted area is set as a new correction area, and the processes after step S-4 are repeated. A process for determining whether or not a defect is included in the extracted correction area and a specific process when a defect is included will be described later. First, description will be made assuming that the correction area does not include a defect.
ステップS−8において、規格化された輝度に基づいて補正レートを算出する。図5に示すように、グラフに基づいて、縦軸(y:値域)を規格化された輝度とし、横軸(x:定義域)を座標とする関数y=ax+b(a:傾き、b:切片)で近似する。近似方法は、最小二乗法などの公知の各種近似方法が適用できる。 In step S-8, a correction rate is calculated based on the normalized luminance. As shown in FIG. 5, based on the graph, a function y = ax + b (a: slope, b: with the vertical axis (y: value range) as normalized luminance and the horizontal axis (x: definition range) as coordinates. Approximate by (intercept). As the approximation method, various known approximation methods such as a least square method can be applied.
被検査体の補正エリアの表面性状(輝度の分布)が、基準画像から抽出した画像と同様の傾向を有する場合には、図5に示すように、規格化された輝度は、傾きがほとんどない一次関数によって近似される。すなわち、規格化された輝度をy=ax+b(a:傾き、x:座標、b:切片)で表した場合(たとえば最小二乗法で近似した場合)、傾きaはゼロに近い値となる。そしてこの切片bを「補正レート」とする。 When the surface property (luminance distribution) of the correction area of the inspection object has the same tendency as the image extracted from the reference image, the normalized luminance has almost no inclination as shown in FIG. It is approximated by a linear function. That is, when the normalized luminance is expressed by y = ax + b (a: inclination, x: coordinate, b: intercept) (for example, approximated by the least square method), the inclination a is a value close to zero. This intercept b is defined as “correction rate”.
(4)決定した補正レートに基づいて検査対象となる画像データの輝度の補正を行う段階
ステップS−9において、被検査体を撮像した画像を補正する。具体的には、被検査体を撮像した画像の各ピクセルの輝度に、算出した補正レートの逆数を乗じる。図6は、被検査体を撮像した画像の補正エリアの各ピクセルの輝度に補正レートの逆数を乗じた輝度と、基準画像から抽出した画像のうちの対応するピクセルの輝度とを重ね合わせたグラフである。図6に示すように、補正エリアの各ピクセルの輝度に、補正レートの逆数を乗じると、それらの輝度は、基準画像の輝度にほぼ等しくなる。このように、補正レートの逆数を乗じることにより、被検査体を撮像した画像の輝度を、基準画像の輝度に近付けることができる。
(4) Stage of correcting luminance of image data to be inspected based on the determined correction rate In step S-9, an image obtained by imaging the object to be inspected is corrected. Specifically, the luminance of each pixel of the image obtained by imaging the inspection object is multiplied by the reciprocal of the calculated correction rate. FIG. 6 is a graph in which the luminance obtained by multiplying the luminance of each pixel in the correction area of the image obtained by imaging the object to be inspected by the reciprocal of the correction rate and the luminance of the corresponding pixel in the image extracted from the reference image. It is. As shown in FIG. 6, when the luminance of each pixel in the correction area is multiplied by the reciprocal of the correction rate, the luminance becomes substantially equal to the luminance of the reference image. Thus, by multiplying the reciprocal of the correction rate, the luminance of the image obtained by imaging the object to be inspected can be brought close to the luminance of the reference image.
そして、被検査体を撮像した画像の一部(すなわち、補正エリア)と、基準画像のうち当該補正エリアに対応する領域(すなわち、基準エリア)を用いて補正レートを算出することにより、被検査体を撮像した画像の全体の輝度を補正することになる。このような構成によれば、被検査体を撮像した画像のうち、欠陥が含まれない領域を補正エリアとして抽出することができるから、精度の高い補正レートを算出することができる。また、全体どうしを比較する構成に比して、計算量を少なくすることができる。 Then, by calculating a correction rate using a part of the image obtained by imaging the object to be inspected (that is, the correction area) and a region corresponding to the correction area in the reference image (that is, the reference area), The entire luminance of the image obtained by capturing the body is corrected. According to such a configuration, a region that does not include a defect can be extracted as a correction area in an image obtained by imaging the object to be inspected, so that a highly accurate correction rate can be calculated. In addition, the amount of calculation can be reduced as compared with a configuration in which the whole is compared.
(5)輝度が補正された画像を画像処理して被検査体の外観検査を行う段階
ステップS−10において、補正された画像を使用して画像処理を行い、検査を実施する。なお、画像処理により外観検査を行う方法は、二値化により欠陥を判定する方法や、パターンマッチングにより基準画像との相関を算出して、相関の大小によって欠陥を判定する方法などが適用できる。このように、画像処理により外観検査を行う方法は公知であることから、説明は省略する。
(5) Stage in which an image whose luminance has been corrected is subjected to image processing and an appearance inspection is performed In step S-10, the corrected image is used to perform image processing and an inspection is performed. Note that as a method of performing an appearance inspection by image processing, a method of determining a defect by binarization, a method of calculating a correlation with a reference image by pattern matching, and a method of determining a defect by the magnitude of the correlation can be applied. As described above, since a method for performing an appearance inspection by image processing is known, description thereof is omitted.
前記のように、被検査体を撮像した画像の輝度が、基準画像の輝度にほぼ等しくなるように補正されているから、基準画像を画像処理する条件で被検査体を撮像した画像を画像処理しても、精度良く検査を行うことができる。したがって、被検査体の表面性状(特に明るさの度合)に個体差がある場合や、光源の経時劣化などによって撮像の条件(特に照明の条件)に個体差がある場合などにおいても、精度良く検査を行うことができる。 As described above, since the luminance of the image obtained by imaging the object to be inspected is corrected so as to be substantially equal to the luminance of the reference image, the image obtained by imaging the object under the conditions for image processing of the reference image is processed. Even so, the inspection can be performed with high accuracy. Therefore, even when there are individual differences in the surface properties (especially the degree of brightness) of the object to be inspected, or when there are individual differences in the imaging conditions (especially the illumination conditions) due to deterioration of the light source over time, etc. Inspection can be performed.
次に、抽出した補正エリアに欠陥が含まれているか否かを判定する処理および、欠陥が含まれている場合の具体的な処理について説明する。図7(a)は、抽出した補正エリアに欠陥がある場合における、当該抽出した補正エリアの各ピクセルの輝度と、当該抽出した補正エリアに対応する基準画像の各ピクセルの輝度を合わせて示したグラフであり、図7(b)は、当該欠陥を有する補正エリアの輝度を規格化した値を示すグラフである。 Next, a process for determining whether or not a defect is included in the extracted correction area and a specific process when a defect is included will be described. FIG. 7A shows the luminance of each pixel of the extracted correction area and the luminance of each pixel of the reference image corresponding to the extracted correction area when the extracted correction area has a defect. FIG. 7B is a graph showing a value obtained by standardizing the luminance of the correction area having the defect.
図7(a)に示すように、たとえば抽出した補正エリアに欠陥があると、輝度が部分的に低下したり上昇したりする。図7(a)においては、輝度が部分的に低下している場合を示す。たとえば、被検査体の表面(鋳肌)にピンホールやブローホールが存在すると、図7(a)に示すように、当該ピンホールやブローホールを撮像した部分において、輝度が部分的に低くなることがある。このように、正常な表面性状を有する分に比較して輝度が低い部分や高い部分が存在すると、補正エリアの輝度に基づいて算出される補正レートが、欠陥の影響を受け、正しい値にならないことがある。たとえば、輝度の低くなるような欠陥が存在すると、補正レートも、欠陥のない補正エリアを用いて算出した場合に比較して、その値が小さくなることがある。そうすると、被検査体の全体を撮像した画像を正しく補正することができなくなり、検査の精度が低下することがある。 As shown in FIG. 7A, for example, if there is a defect in the extracted correction area, the luminance partially decreases or increases. FIG. 7A shows a case where the luminance is partially reduced. For example, if there is a pinhole or blowhole on the surface (cast surface) of the object to be inspected, the luminance is partially lowered in the portion where the pinhole or blowhole is imaged as shown in FIG. Sometimes. In this way, if there are low or high luminance parts compared to normal surface properties, the correction rate calculated based on the luminance of the correction area is affected by defects and does not become the correct value. Sometimes. For example, if there is a defect with low brightness, the correction rate may be smaller than that calculated using a correction area without a defect. If it does so, the image which imaged the whole to-be-inspected object cannot be correct | amended correctly, and the precision of a test | inspection may fall.
そこで、このような場合には次のとおりとする。まず、抽出した補正エリアに欠陥があるかどうかにかかわらず、ステップS−1からステップS−6までの処理を実行し、規格化した輝度を算出する(図3参照)。そして、図7(b)に示すように、規格化した輝度の最大値と最小値の差を算出する。この差をピーク幅とする。このとき、ピーク幅が所定の閾値以上であれば、抽出した補正エリアに欠陥が存在するものとみなす。たとえば、ピーク幅が、規格化された輝度において30パーセント以上の輝度差であれば、欠陥が存在するものとみなす。なお、ステップS−4においてノイズ除去処理が行われていれば、ノイズや孤立点は欠陥として判定されない。 Therefore, in such a case, it is as follows. First, regardless of whether or not the extracted correction area has a defect, the processing from step S-1 to step S-6 is executed to calculate the normalized luminance (see FIG. 3). Then, as shown in FIG. 7B, the difference between the standardized maximum and minimum luminance values is calculated. This difference is defined as a peak width. At this time, if the peak width is equal to or larger than a predetermined threshold, it is considered that a defect exists in the extracted correction area. For example, if the peak width is a luminance difference of 30% or more in the normalized luminance, it is considered that a defect exists. In addition, if the noise removal process is performed in step S-4, noise and an isolated point are not determined as a defect.
このように、欠陥があると判定された場合には、ステップS−3に戻り、被検査体を撮像した画像の全体から、当該欠陥が含まれる補正エリアとは別のエリアを抽出する。そして新たに抽出したエリアを新たな補正エリアとし、ステップS−4以降の処理を繰り返す。このような処理を行うと、欠陥が含まれない補正エリアを参照して補正レートが算出されるから、精度の高い検査を行うことができる。 In this way, when it is determined that there is a defect, the process returns to step S-3, and an area other than the correction area including the defect is extracted from the entire image obtained by imaging the inspection object. Then, the newly extracted area is set as a new correction area, and the processes after step S-4 are repeated. When such a process is performed, the correction rate is calculated with reference to a correction area that does not include a defect, so a highly accurate inspection can be performed.
なお、ステップS−7において欠陥があると判定された場合には、ステップS−3に戻らずに、そのまま被検査体に欠陥があるとみなす処理を行っても良い。すなわち、S−7において欠陥と判定された場合には、本来欠陥の有無を判定すべきであるS−10において欠陥があると判定された場合と同様の処理を行っても良い。このような構成とすれば、処理を少なくすることができ、処理の単純化を図ることができる。 In addition, when it determines with there being a defect in step S-7, you may perform the process which considers that a to-be-inspected object has a defect as it is, without returning to step S-3. That is, when it is determined that there is a defect in S-7, the same processing as that performed when it is determined that there is a defect in S-10, which should originally determine the presence or absence of a defect, may be performed. With such a configuration, the processing can be reduced and the processing can be simplified.
次いで、本発明の他の実施形態について説明する。前記実施形態においては、基準画像として、平均的な表面性状を有する標準試験片の表面を撮像した画像を適用したが、必ずしも、このような標準試験片を用いる必要はない。以下に示す他の実施形態は、平均的な表面性状を有する標準試験片を用いない形態である。以下、主に図3を参照して説明する。 Next, another embodiment of the present invention will be described. In the above-described embodiment, an image obtained by imaging the surface of a standard test piece having an average surface property is applied as the reference image. However, such a standard test piece is not necessarily used. Another embodiment shown below is a form in which a standard test piece having an average surface texture is not used. Hereinafter, description will be made mainly with reference to FIG.
(1)基準となる画像を取得する段階
ステップS1−1において、まず、あるリファレンスに対して、新品の砂または新品に近い状態の砂を用いてサンドブラスト処理を行い、当該あるリファレンスの表面を撮像する。また、他のリファレンスに対して、寿命に達した砂または寿命に近い砂を用いてサンドブラスト処理を行い、当該他のリファレンスの表面を撮像する。このように、新旧2種類の砂を用いてサンドブラスト処理を施した基準画像をそれぞれ撮像する。そして、撮像された2つの基準画像は、それぞれ所定の輝度階調を有する画像に変換される。たとえば、撮像された画像は、256階調(8ビット階調)の輝度階調を有する画像に変換される。そして変換された画像は、それぞれ記憶手段に記憶される。なお、撮像条件などは、前記実施形態と同じ条件などが適用できる。
(1) Stage of acquiring a reference image In step S1-1, first, sandblasting is performed on a certain reference using new sand or sand in a state close to new, and the surface of the certain reference is imaged. To do. Also, sandblasting is performed on the other reference using sand that has reached or has reached the end of its life, and the surface of the other reference is imaged. In this way, reference images that have been subjected to sandblasting using two types of new and old sand are respectively captured. Then, the two captured reference images are converted into images each having a predetermined luminance gradation. For example, the captured image is converted into an image having a luminance gradation of 256 gradations (8-bit gradation). The converted images are stored in the storage means. Note that the same conditions as in the above embodiment can be applied to the imaging conditions.
(2)検査対象となる画像データを取得する段階
ステップS−2、ステップS−3、ステップS−4、ステップS−5は、前記実施形態と同じ構成が適用できる。したがって、説明は省略する。
(2) Stage of acquiring image data to be inspected Step S-2, Step S-3, Step S-4, and Step S-5 can be applied to the same configuration as that of the above embodiment. Therefore, the description is omitted.
(3)検査対象となる画像データを補正する補正レートを決定する段階
ステップS−6において、抽出した補正エリアの各ピクセルの輝度が規格化される。具体的には、補正エリアの各ピクセルの輝度を、基準画像に基づいて算出されたピクセルの輝度で除す。この処理を、この他の実施形態において「規格化」と称するものとする。
(3) Step of determining a correction rate for correcting the image data to be inspected In step S-6, the luminance of each pixel in the extracted correction area is normalized. Specifically, the luminance of each pixel in the correction area is divided by the luminance of the pixel calculated based on the reference image. This processing is referred to as “normalization” in the other embodiments.
ここで、基準画像に基づくピクセルの輝度の算出方法について説明する。まず、撮像して保存した2つの基準画像のそれぞれから、抽出した補正エリアに対応する領域の輝度を抽出する。図8は、2つの基準画像のそれぞれから、抽出した補正エリアに対応する領域の輝度を示したグラフである。このグラフは、2つの基準画像のプロットを合わせて示してある。 Here, a method for calculating the luminance of the pixel based on the reference image will be described. First, the brightness of the area corresponding to the extracted correction area is extracted from each of the two reference images that have been captured and stored. FIG. 8 is a graph showing the luminance of the area corresponding to the correction area extracted from each of the two reference images. This graph shows a plot of two reference images together.
図8に示すように、2つの基準画像のそれぞれから、抽出した補正エリアに対応する領域の輝度を抽出し、横軸(x軸:定義域)を画像の座標(ピクセル)とし、縦軸(y軸:値域)を輝度とするグラフを作成する。そして作成したそれぞれのグラフに基づいて、それぞれのプロットを良く表している関数を求める。関数の導出方法には、最小二乗法などの公知の各種方法が適用できる。図8のグラフに示す例においては、新品の砂を用いてサンドブラスト処理を行ったリファレンスの輝度の関数は、y=0.0332x+83.027であり、寿命に達した砂を用いてサンドブラスト処理を行ったリファレンスの輝度の関数は、y=0.0244+65.854である。そしてさらに、導出した2つの関数の中間値をとる関数を作成する。図8に示す例では、y=((0.0332+0.0244)/2)x+(83.027+65.854)/2=0.0288x+74.441となる。そして、このように導出された関数の変数x(定義域)に、ピクセル座標を代入することにより、当該ピクセルの基準画像に基づくピクセルの輝度が算出される。 As shown in FIG. 8, the brightness of the area corresponding to the extracted correction area is extracted from each of the two reference images, the horizontal axis (x axis: definition area) is the image coordinate (pixel), and the vertical axis ( A graph with luminance on the y-axis (value range) is created. Based on each created graph, a function that well represents each plot is obtained. Various known methods such as a least square method can be applied to the function derivation method. In the example shown in the graph of FIG. 8, the function of the luminance of the reference that has been sandblasted using new sand is y = 0.0332x + 83.027, and sandblasting is performed using sand that has reached the end of its life. The reference brightness function is y = 0.0244 + 65.854. Further, a function that takes an intermediate value between the two derived functions is created. In the example shown in FIG. 8, y = ((0.0332 + 0.0244) / 2) x + (83.027 + 65.854) /2=0.0288x+74.441. Then, by substituting the pixel coordinates into the variable x (domain) of the function thus derived, the luminance of the pixel based on the reference image of the pixel is calculated.
そして、抽出した補正エリアの各ピクセルの輝度を、基準画像に基づいて算出されたピクセルの輝度(前記のようにして導出した関数)で除した値、すなわち規格化された輝度を算出する。補正エリアの各ピクセルの輝度を、基準画像から抽出した画像のうちの対応する座標のピクセルの輝度で除した値は、補正エリアの各ピクセルの輝度が、基準画像に比較してどの程度高位かまたは低いかを示す指標となる。すなわち、補正エリアの各ピクセルの輝度が、基準画像から抽出した画像のうちの対応する座標のピクセルの輝度よりも高い場合には、規格化された輝度は1よりも大きくなり、反対に輝度が低い場合には、規格化された輝度は1よりも小さくなる。 Then, a value obtained by dividing the luminance of each pixel in the extracted correction area by the luminance of the pixel calculated based on the reference image (the function derived as described above), that is, a normalized luminance is calculated. The value obtained by dividing the brightness of each pixel in the correction area by the brightness of the pixel at the corresponding coordinate in the image extracted from the reference image indicates how high the brightness of each pixel in the correction area is compared to the reference image. Or it becomes an index indicating whether it is low. That is, when the luminance of each pixel in the correction area is higher than the luminance of the pixel of the corresponding coordinate in the image extracted from the reference image, the normalized luminance is greater than 1, and conversely the luminance is If it is low, the normalized luminance is less than 1.
ステップS−7、ステップS−8については、前記実施形態と同じ構成が適用できることから、説明は省略する。同様に、(4)決定した補正レートに基づいて検査対象となる画像データの輝度の補正を行う段階、(5)輝度が補正された画像を画像処理して被検査体の外観検査を行う段階については、前記実施形態と同じ構成が適用できることから、説明は省略する。 About step S-7 and step S-8, since the same structure as the said embodiment is applicable, description is abbreviate | omitted. Similarly, (4) a step of correcting the luminance of the image data to be inspected based on the determined correction rate, and (5) a step of performing an appearance inspection of the inspected object by performing image processing on the image whose luminance has been corrected. Since the same configuration as that of the above-described embodiment can be applied, description thereof will be omitted.
以上、本発明の実施形態について図面を参照して詳細に説明したが、本発明は、前記実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲において種々の改変が可能であることはいうまでもない。たとえば前記実施形態においては、外観検査の対象として、鋳造成形されサンドブラスト処理が施された羽根車(タービンホイール)を挙げたが、外観検査の対象は、羽根車(タービンホイール)に限定されるものではない。種々の鋳造品に適用することができる。 The embodiments of the present invention have been described in detail with reference to the drawings. However, the present invention is not limited to the embodiments, and various modifications can be made without departing from the spirit of the present invention. Needless to say. For example, in the above-described embodiment, the impeller (turbine wheel) that has been cast and subjected to the sandblasting process is cited as the object of the appearance inspection, but the object of the appearance inspection is limited to the impeller (turbine wheel). is not. It can be applied to various cast products.
また、鋳造品のほかにも、ショットピーニングやショットブラスト処理が施される被検査体に対して適用することができる。すなわち、表面性状が正常であるにもかかわらず、表面の光の反射の度合が異なるような処理が施される被検査体に対して適用ができる。 Moreover, it can apply to the to-be-inspected object to which a shot peening or shot blasting process is given besides a cast product. In other words, the present invention can be applied to an object to be inspected that is subjected to a process in which the degree of reflection of light on the surface is different although the surface property is normal.
1 羽根車
2 軸部材
3 ねじれ羽根
4 レンチボス
5 シャフト保持部
10 外観検査装置
20 ワーク保持手段
21 回動機構部
22 支持部
24 チャック部
25 サーボモータ
26 ホルダ部
30 撮像手段
40 光源
50 ワーク位置センサ
60 制御ユニット
61 演算手段
62 記憶手段
63 制御手段
DESCRIPTION OF SYMBOLS 1 Impeller 2 Shaft member 3 Torsion blade 4 Wrench boss 5 Shaft holding part 10 Appearance inspection apparatus 20 Work holding means 21 Rotating mechanism part 22 Support part 24 Chuck part 25 Servo motor 26 Holder part
30 Imaging means 40 Light source 50 Work position sensor 60 Control unit 61 Calculation means 62 Storage means 63 Control means
Claims (6)
基準となる物品の外観を撮像して基準画像を取得し、該基準画像の輝度分布を示す被検査体輝度画像を取得する段階と、
前記被検査体の外観を撮像して被検査体画像を取得し、該被検査体画像の輝度分布を示す被検査体輝度画像を取得する段階と、
前記被検査体輝度画像から、あらかじめ設定した位置のエリアを被検査体エリアとして抽出する段階と、
前記基準輝度画像から前記被検査体エリアの位置に対応するエリアを基準エリアとして抽出する段階と、
前記被検査体エリアと前記基準エリアとの、それぞれの輝度分布のデータを所定座標方向に一次元データに変換し、当該各エリアの輝度値として設定する段階と、
前記設定された各エリアの輝度値同士を、前記座標ごとに比較する比較段階と、
前記比較結果に基づいて、前記被検査体輝度画像の輝度分布を、前記基準画像の輝度分布に近付ける補正を行う補正段階と、
前記補正後の被検査体輝度画像について所定の画像処理を施して外観検査を行う段階と、
を含むことを特徴とする外観検査方法。 A visual inspection method for inspecting the surface of an object to be inspected that has been subjected to sandblasting, shot blasting or shot peening,
Capturing a reference image by imaging the appearance of a reference article, and obtaining an inspected object luminance image indicating a luminance distribution of the reference image;
Capturing an appearance of the inspection object by capturing an appearance of the inspection object, and acquiring an inspection object luminance image indicating a luminance distribution of the inspection object image;
Extracting an area of a preset position from the luminance image of the inspected object as an inspected object area;
Extracting an area corresponding to the position of the object area from the reference luminance image as a reference area;
Converting each luminance distribution data of the inspected object area and the reference area into one-dimensional data in a predetermined coordinate direction, and setting as a luminance value of each area;
A comparison stage for comparing the brightness values of the set areas for each of the coordinates;
Based on the comparison result, a correction stage for performing correction to bring the luminance distribution of the inspection object luminance image closer to the luminance distribution of the reference image;
Performing a visual inspection by performing predetermined image processing on the corrected inspected object luminance image;
An appearance inspection method comprising:
前記補正段階は、前記設定した補正レートの逆数を、前記被検査体輝度画像の全体に一律に乗ずるものである
ことを特徴とする請求項1に記載の外観検査方法。 The comparison step divides the luminance value of the inspected area for each coordinate by the luminance value of the reference area, obtains a ratio for each coordinate, approximates the change in the ratio in the coordinate direction with a straight line, The intercept of the approximate straight line is set as a correction rate,
2. The appearance inspection method according to claim 1, wherein in the correction step, the reciprocal of the set correction rate is uniformly multiplied by the entire luminance image of the object to be inspected.
前記比較段階は、前記二つの基準画像に設定されたそれぞれの輝度値の平均を新たに基準エリアの輝度値として設定し直し、当該設定し直した該基準エリアの輝度値と、前記被検査体エリアの輝度値とを、前記座標ごとに比較するものである
ことをと特徴とする請求項1から請求項3のいずれかに記載の外観検査方法。 The reference image that captures and acquires the appearance of the reference article is formed using an image obtained by imaging a sandblasted sand or shotblasted steel ball using a new article and an old one. Two images with an image of the selected article,
In the comparison step, the average of the respective luminance values set in the two reference images is newly set as the luminance value of the reference area, the luminance value of the reference area thus set again, and the object to be inspected 4. The appearance inspection method according to claim 1, wherein the brightness value of the area is compared for each coordinate.
該撮像手段が撮像した基準画像を記憶することができる記憶手段と、
前記基準画像の輝度分布を示す被検査体輝度画像と前記被検査体画像の輝度分布を示す被検査体輝度画像とを算出し、あらかじめ設定した位置のエリアを前記被検査体輝度画像から被検査体エリアとして抽出するとともに、前記基準輝度画像から前記被検査体エリアの位置に対応するエリアを基準エリアとして設定し、設定された前記被検査体エリアと前記基準エリアとのそれぞれの輝度分布のデータを一次元データに変換するとともに当該各エリアの輝度値として設定し、設定された各エリアの輝度値同士を前記座標ごとに比較し、前記被検査体輝度画像の輝度分布を前記基準画像の輝度分布に近付ける補正を行うことができる演算手段と、
を備えることを特徴とする外観検査装置。 An imaging means capable of imaging a reference image of the appearance of an article to be a reference and an inspection object image of the appearance of the inspection object;
Storage means capable of storing a reference image captured by the imaging means;
An inspection object luminance image indicating the luminance distribution of the reference image and an inspection object luminance image indicating the luminance distribution of the inspection object image are calculated, and an area at a preset position is inspected from the inspection object luminance image. Extracted as a body area, and an area corresponding to the position of the inspected object area is set as a reference area from the reference luminance image, and luminance distribution data of the set inspected object area and the reference area are set Is converted into one-dimensional data and set as the brightness value of each area, the set brightness values of each area are compared for each coordinate, and the brightness distribution of the inspected object brightness image is compared with the brightness of the reference image. A computing means capable of performing a correction approaching the distribution;
An appearance inspection apparatus comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008233467A JP2010066153A (en) | 2008-09-11 | 2008-09-11 | Method and device for inspecting appearance |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008233467A JP2010066153A (en) | 2008-09-11 | 2008-09-11 | Method and device for inspecting appearance |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010066153A true JP2010066153A (en) | 2010-03-25 |
Family
ID=42191860
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008233467A Pending JP2010066153A (en) | 2008-09-11 | 2008-09-11 | Method and device for inspecting appearance |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010066153A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101191303B1 (en) * | 2011-11-09 | 2012-10-16 | 동국대학교 경주캠퍼스 산학협력단 | Quantitative evaluation methodology of mar-induced surface damage on coatings |
| JP2013190284A (en) * | 2012-03-13 | 2013-09-26 | Daido Steel Co Ltd | Method for inspecting defect of bladed wheel |
| WO2017217121A1 (en) * | 2016-06-15 | 2017-12-21 | 株式会社Screenホールディングス | Appearance inspection device, surface processing system, appearance inspection method, program, and projection material replacement determination method |
| JP2017227621A (en) * | 2016-06-15 | 2017-12-28 | 株式会社Screenホールディングス | Appearance inspection device, surface processing system, appearance inspection method, program, and projection material exchange determination method |
| US10055824B2 (en) | 2014-03-28 | 2018-08-21 | Nec Corporation | Image correction device, image correction method and storage medium |
| WO2018225460A1 (en) * | 2017-06-05 | 2018-12-13 | 株式会社Screenホールディングス | Inspecting device and inspecting method |
-
2008
- 2008-09-11 JP JP2008233467A patent/JP2010066153A/en active Pending
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101191303B1 (en) * | 2011-11-09 | 2012-10-16 | 동국대학교 경주캠퍼스 산학협력단 | Quantitative evaluation methodology of mar-induced surface damage on coatings |
| WO2013069847A1 (en) * | 2011-11-09 | 2013-05-16 | 동국대학교 경주캠퍼스 산학협력단 | Method for quantitatively estimating surface damage such as cracks or scratches of coating material |
| JP2013190284A (en) * | 2012-03-13 | 2013-09-26 | Daido Steel Co Ltd | Method for inspecting defect of bladed wheel |
| US10055824B2 (en) | 2014-03-28 | 2018-08-21 | Nec Corporation | Image correction device, image correction method and storage medium |
| WO2017217121A1 (en) * | 2016-06-15 | 2017-12-21 | 株式会社Screenホールディングス | Appearance inspection device, surface processing system, appearance inspection method, program, and projection material replacement determination method |
| JP2017227621A (en) * | 2016-06-15 | 2017-12-28 | 株式会社Screenホールディングス | Appearance inspection device, surface processing system, appearance inspection method, program, and projection material exchange determination method |
| TWI630070B (en) * | 2016-06-15 | 2018-07-21 | 斯庫林集團股份有限公司 | Appearance inspection apparatus, surface processing system, appearance inspection method, appearance inspection program and method for determining replacement of projecting material |
| EP3474004A4 (en) * | 2016-06-15 | 2020-01-15 | SCREEN Holdings Co., Ltd. | APPEARANCE INSPECTION DEVICE, SURFACE PROCESSING SYSTEM, APPEARANCE INSPECTION PROGRAM AND PROJECTION MATERIAL REPLACEMENT DETERMINATION METHOD |
| WO2018225460A1 (en) * | 2017-06-05 | 2018-12-13 | 株式会社Screenホールディングス | Inspecting device and inspecting method |
| JP2018205122A (en) * | 2017-06-05 | 2018-12-27 | 株式会社Screenホールディングス | Inspection device and inspection method |
| EP3637092A4 (en) * | 2017-06-05 | 2021-03-10 | SCREEN Holdings Co., Ltd. | INSPECTION DEVICE AND INSPECTION PROCEDURE |
| US11074684B2 (en) | 2017-06-05 | 2021-07-27 | SCREEN Holdings Co., Ltd. | Inspection apparatus and inspection method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4924286B2 (en) | Appearance inspection apparatus and appearance inspection method | |
| JP2010066153A (en) | Method and device for inspecting appearance | |
| CN114092403A (en) | Grinding wheel wear detection method and system based on machine vision | |
| JP5109598B2 (en) | Article inspection method | |
| CN114279357A (en) | Die casting burr size measurement method and system based on machine vision | |
| CN112907556A (en) | Automatic measuring method for abrasion loss of rotary cutter based on machine vision | |
| JP6917757B2 (en) | Visual inspection equipment, surface treatment system, visual inspection method, program, and projection material replacement judgment method | |
| CN104777174B (en) | Axial workpiece abrupt change of cross-section portion faces fatigue crack detecting system and method | |
| JP5806786B1 (en) | Image recognition device | |
| CN106767564A (en) | A kind of detection method for being applied to phone housing surface roughness | |
| US10379006B2 (en) | Data generation method and data generation apparatus | |
| CN104458764B (en) | Curved uneven surface defect identification method based on large-field-depth stripped image projection | |
| CN107388991B (en) | A kind of more fillet axial workpiece radius of corner measurement methods in end face | |
| CN103493095A (en) | Analysis of the digital image of the surface of a tyre and processing of non-measurement points | |
| CN112102278A (en) | Metal workpiece machining surface defect detection method based on computer vision | |
| JP2010103275A (en) | Method of evaluating wafer reverse surface | |
| Su et al. | Measuring wear of the grinding wheel using machine vision | |
| JP6679538B2 (en) | Inspection device and inspection method | |
| US7925075B2 (en) | Inspection system and methods with autocompensation for edge break gauging orientation | |
| JP2010197313A (en) | Inspection system of product shape | |
| Lee et al. | Using Machine vision to develop an on-machine thread measurement system for computer numerical control lathe machines | |
| JP5605010B2 (en) | Surface inspection method | |
| CN109785290A (en) | Normalized steel plate defect detection method is shone based on local light | |
| CN111833350B (en) | Machine vision detection method and system | |
| CN103493096A (en) | Analysis of the digital image of the internal surface of a tyre and processing of false measurement points |