[go: up one dir, main page]

JP2022012668A - Inspection system - Google Patents

Inspection system Download PDF

Info

Publication number
JP2022012668A
JP2022012668A JP2020114670A JP2020114670A JP2022012668A JP 2022012668 A JP2022012668 A JP 2022012668A JP 2020114670 A JP2020114670 A JP 2020114670A JP 2020114670 A JP2020114670 A JP 2020114670A JP 2022012668 A JP2022012668 A JP 2022012668A
Authority
JP
Japan
Prior art keywords
image data
inspection
image
value
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020114670A
Other languages
Japanese (ja)
Inventor
聖司 小島
Seiji Kojima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JTEKT Corp
Original Assignee
JTEKT Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JTEKT Corp filed Critical JTEKT Corp
Priority to JP2020114670A priority Critical patent/JP2022012668A/en
Publication of JP2022012668A publication Critical patent/JP2022012668A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

To provide an inspection system capable of improving inspection accuracy of an inspection object.SOLUTION: An inspection system 10 includes a camera 11 and an inspection device 100. The inspection device 100 generates difference image data GD from inspection image data GK acquired from the camera 11 and output image data GS generated by a learned model that is an automatic encoder. Further, the inspection device 100 generates weight image data GW in which weight is set based on distribution image data GV reflecting a variance value of a pixel value of a pixel using a large amount of normal product image data GN. Then, the inspection device 100 generates determination image data GJ by multiplying the difference image data GD and the weight image data GW to calculate a determination value based on the determination image data GJ and determine whether an inspection object is good or bad.SELECTED DRAWING: Figure 4

Description

本発明は、検査システムに関する。 The present invention relates to an inspection system.

一般に、工場の生産ラインを経て生産される生産物は、検査工程において外観等が検査されて出荷される。近年、生産ラインの検査工程においては、画像処理を用いた自動化が推進されている。自動化を推進する場合には、機械学習を活用する検査システムが盛んに研究開発されている。 Generally, a product produced through a production line of a factory is inspected for appearance and the like in an inspection process before being shipped. In recent years, automation using image processing has been promoted in the inspection process of production lines. When promoting automation, inspection systems that utilize machine learning are being actively researched and developed.

例えば、従来から特許文献1に開示された検査システムが知られている。従来の検査システムは、正常品の画像データを読み込んでオートエンコーダを用いて機械学習を行うことにより、正常品の画像データのみを正確に再構成する学習済みモデルを生成する。そして、従来の検査システムでは、検査対象物の検査画像データと、検査画像データを学習済みモデルに入力することによって再構成された出力画像データとを比較して、両者が同一とみなすことができる範囲を超えた場合において検査対象物が不良品であると判定するようになっている。 For example, an inspection system disclosed in Patent Document 1 has been conventionally known. The conventional inspection system reads the image data of the normal product and performs machine learning using the autoencoder to generate a trained model that accurately reconstructs only the image data of the normal product. Then, in the conventional inspection system, the inspection image data of the inspection object and the output image data reconstructed by inputting the inspection image data into the trained model can be compared and regarded as the same. When the range is exceeded, it is determined that the inspection target is a defective product.

国際公開第2020/031984号International Publication No. 2020/031984

ところで、オートエンコーダを用いて学習済みモデルを精度よく生成するためには、一般に、大量の正常品の画像データからなる学習画像データ群を大量に読み込んで学習する必要がある。この場合、学習用画像データ群については各々の正常品を撮像する部位が全て同一であることが好ましいものの、通常は正常品ごとに微小な位置ずれ(姿勢ずれ)が生じる。そして、このような位置ずれ(姿勢ずれ)が生じた画像(画像データ)では、例えば、正常品の周縁部分等が写り込む場合がある。 By the way, in order to accurately generate a trained model using an autoencoder, it is generally necessary to read and train a large amount of trained image data groups consisting of a large amount of normal product image data. In this case, although it is preferable that all the parts for imaging the normal products are the same for the learning image data group, a slight positional deviation (posture deviation) usually occurs for each normal product. Then, in an image (image data) in which such a position shift (posture shift) occurs, for example, a peripheral portion of a normal product may be reflected.

ここで、微小な位置ずれ(姿勢ずれ)は一定ではないために周縁部分の位置は画像ごとに変化する。尚、微小な位置ずれ(姿勢ずれ)については、テンプレートマッチング等を用いて位置補正を行うことも考えられるが、補正誤差をゼロにすることは現実的ではない。その結果、微小な位置ずれ(姿勢ずれ)が生じた学習用画像データを用いて学習を行うと、学習済みモデルは正常品における周縁部分を正確且つ鮮明に再構成することが極めて困難になる。従って、検査画像データと、学習済みモデルによって再構成された出力画像データとを比較した場合、出力画像データでは周縁部分が正確に再構成されていないため、検査画像データと出力画像データとの周縁部分の差が大きくなる。このため、正確な良否判定が困難になるため、検査対象物の検査精度が低下する虞がある。 Here, since the minute position shift (posture shift) is not constant, the position of the peripheral portion changes for each image. For minute misalignment (posture misalignment), it is conceivable to perform position correction using template matching or the like, but it is not realistic to make the correction error zero. As a result, when learning is performed using the learning image data in which a minute positional deviation (posture deviation) occurs, it becomes extremely difficult for the trained model to accurately and clearly reconstruct the peripheral portion of the normal product. Therefore, when the inspection image data is compared with the output image data reconstructed by the trained model, the peripheral portion of the output image data is not accurately reconstructed, so that the peripheral edge between the inspection image data and the output image data is not accurately reconstructed. The difference between the parts becomes large. For this reason, it becomes difficult to accurately determine the quality of the product, which may reduce the inspection accuracy of the inspection object.

本発明は、検査対象物の検査精度を向上することができる検査システムを提供することを目的とする。 An object of the present invention is to provide an inspection system capable of improving the inspection accuracy of an inspection object.

検査システムは、検査対象物の画像を撮像する撮像装置と、撮像装置によって撮像された検査対象物の画像に基づいて検査対象物の良否を判定する検査装置と、を備え、検査装置は、正常品の画像を表す正常品画像データを複数有する学習用画像データ群を入力データとし、正常品の出力画像を表す出力画像データを出力するオートエンコーダである学習済みモデルを記憶するモデル記憶部と、検査対象物の画像を表す検査画像データを取得する検査画像データ取得部と、検査画像データと検査画像データを学習済みモデルに入力することにより出力された出力画像データとを用いて、検査画像データと出力画像データとの差分を表す差分画像を生成する差分画像生成部と、学習用画像データ群における各々の正常品画像データの全ての画素の特性値について基本統計量を算出し、基本統計量に基づいた特性値の分布を表す分布画像を生成する分布画像生成部と、分布画像生成部によって生成された分布画像を表す分布画像データに基づき、基本統計量に応じた重みを設定し、重みを表す重み画像を生成する重み画像生成部と、差分画像を表す差分画像データと重み画像を表す重み画像データとを用いて、判定値を算出する判定値算出部と、判定値に基づいて、検査対象物の良否を判定する良否判定部と、を備える。 The inspection system includes an imaging device that captures an image of the inspection target and an inspection device that determines the quality of the inspection target based on the image of the inspection target captured by the imaging device, and the inspection device is normal. A model storage unit that stores a trained model, which is an auto encoder that outputs output image data that represents the output image of a normal product, using a group of image data for learning that has a plurality of normal product image data that represent the image of the product as input data. Inspection image data using the inspection image data acquisition unit that acquires inspection image data representing the image of the inspection target, and the output image data output by inputting the inspection image data and inspection image data to the trained model. The basic statistics are calculated for the characteristic values of all the pixels of each normal product image data in the learning image data group and the difference image generation unit that generates the difference image showing the difference between the output image data and the output image data. Based on the distribution image generation unit that generates a distribution image that represents the distribution of characteristic values based on, and the distribution image data that represents the distribution image generated by the distribution image generation unit, weights are set according to the basic statistics, and the weights are set. A weight image generation unit that generates a weight image representing the above, a judgment value calculation unit that calculates a judgment value using the difference image data representing the difference image and the weight image data representing the weight image, and a judgment value calculation unit based on the judgment value. It is provided with a quality determination unit for determining the quality of the inspection target.

これによれば、オートエンコーダである学習済みモデルを用いて検査対象物の検査を行う場合、学習済みモデルを用いることによって生成された差分画像データと、分布画像を表す分布画像データに基づく重み画像データとを用いて、判定値を算出することができる。これにより、基本統計量が大きい領域、即ち、良否判定の精度を低下させる虞のある領域を考慮して判定値を算出することができるため、算出された判定値に基づいて検査対象物の良否判定、即ち、検査精度を向上させることができる。 According to this, when inspecting an inspection object using a trained model that is an autoencoder, a weighted image based on the difference image data generated by using the trained model and the distributed image data representing the distributed image. The determination value can be calculated using the data. As a result, the judgment value can be calculated in consideration of the region where the basic statistic is large, that is, the region where the accuracy of the quality judgment may be lowered. Therefore, the quality of the inspection object is good or bad based on the calculated judgment value. Judgment, that is, inspection accuracy can be improved.

電動パワーステアリング装置の構成を示す図である。It is a figure which shows the structure of the electric power steering apparatus. 図1のコラム装置に設けられる支持装置を構成する検査対象物の一例であるカプセルを示す図である。It is a figure which shows the capsule which is an example of the inspection object constituting the support device provided in the column device of FIG. 検査システムの構成を示す図である。It is a figure which shows the structure of an inspection system. 制御装置の機能ブロック構成を示す図である。It is a figure which shows the functional block composition of a control device. 図4の差分画像生成部の機能ブロック構成を示す図である。It is a figure which shows the functional block composition of the difference image generation part of FIG. 学習済みモデルを模式的に表した図である。It is a figure which represented the trained model schematically. カメラによって撮像された画像のうち、不良品の画像を示す図である。It is a figure which shows the image of a defective product among the images taken by a camera. 学習済みモデルによって再構成された出力画像を示す図である。It is a figure which shows the output image reconstructed by a trained model. 不良品の差分画像を示す図である。It is a figure which shows the difference image of a defective product. 正常品の差分画像を示す図である。It is a figure which shows the difference image of a normal product. 分布画像を示す図である。It is a figure which shows the distribution image. 重み画像を示す図である。It is a figure which shows the weight image. 不良品の判定画像を示す図である。It is a figure which shows the determination image of a defective product. 正常品の判定画像を示す図である。It is a figure which shows the judgment image of a normal product.

(1.検査システムの概略)
検査システムは、検査対象物の正常品の画像データに基づいて生成されたオートエンコーダである学習済みモデルに対し、検査対象物の検査画像データを入力して得られた出力画像データと、検査画像データとを用いて検査を行うシステムである。具体的に、検査システムは、検査画像データを入力データとした場合に出力画像データを出力するオートエンコーダである学習済みモデルを用い、検査工程において検査対象物の良否を評価する。
(1. Outline of inspection system)
The inspection system inputs the inspection image data of the inspection target to the trained model, which is an autoencoder generated based on the image data of the normal product of the inspection target, and the output image data obtained by inputting the inspection image data and the inspection image. It is a system that inspects using data. Specifically, the inspection system uses a trained model, which is an autoencoder that outputs output image data when the inspection image data is used as input data, and evaluates the quality of the inspection object in the inspection process.

ここで、検査システムは、生産ラインの各加工工程を経て生産される生産物を検査対象物とする。そして、本例の検査システムは、画像データに基づいて、加工工程において意図せず発生するキズや割れ等の有無を判別することにより、良否を判定する。尚、本例においては、検査対象物として、電動パワーステアリング装置の支持機構を構成するカプセルを例示し、カプセルに生じた傷の有無を判別して良否を検査する。 Here, the inspection system sets the product produced through each processing process of the production line as the inspection target. Then, the inspection system of this example determines the quality by determining the presence or absence of scratches, cracks, etc. that are unintentionally generated in the processing process based on the image data. In this example, a capsule constituting the support mechanism of the electric power steering device is exemplified as an inspection target, and the presence or absence of scratches on the capsule is determined and the quality is inspected.

(2.電動パワーステアリング装置Tの概略)
図1に示すように、電動パワーステアリング装置T(以下、「EPS装置T」と称呼する。)は、運転者によるステアリングホイール1の操作に基づいて転舵輪Wを転舵させる操舵機構2を備える。又、EPS装置Tは、運転者によるステアリングホイール1の操作を補助するアシスト機構3と、操舵機構2の一部分を車体(図示省略)に設けられた取付ステーKに支持するコラム装置4とを備える。ここで、本例の検査対象物であるカプセルは、コラム装置4の支持機構5に設けられる。尚、ステアリングホイール1、操舵機構2、アシスト機構3、コラム装置4及び支持機構5は、周知の構成を用いることができるため、これらの詳細な構成及び作動の説明については省略する。
(2. Outline of electric power steering device T)
As shown in FIG. 1, the electric power steering device T (hereinafter referred to as “EPS device T”) includes a steering mechanism 2 that steers the steering wheel W based on the operation of the steering wheel 1 by the driver. .. Further, the EPS device T includes an assist mechanism 3 that assists the driver in operating the steering wheel 1, and a column device 4 that supports a part of the steering mechanism 2 on a mounting stay K provided on a vehicle body (not shown). .. Here, the capsule, which is the inspection target of this example, is provided in the support mechanism 5 of the column device 4. Since the steering wheel 1, the steering mechanism 2, the assist mechanism 3, the column device 4, and the support mechanism 5 can use well-known configurations, detailed configurations and operation thereof will be omitted.

コラム装置4は、支持機構5を介して、車体の取付ステーKに支持される。支持機構5は、取付ステーKに連結されるアッパーブラケット5A及びコラム装置4に固定されるコラム側ブラケット5Bを備える。そして、支持機構5は、アッパーブラケット5Aとコラム側ブラケット5Bとの間に配置されるカプセル6を備える。尚、本例においては、カプセル6は検査対象物である。 The column device 4 is supported by the mounting stay K of the vehicle body via the support mechanism 5. The support mechanism 5 includes an upper bracket 5A connected to the mounting stay K and a column side bracket 5B fixed to the column device 4. The support mechanism 5 includes a capsule 6 arranged between the upper bracket 5A and the column side bracket 5B. In this example, the capsule 6 is an object to be inspected.

カプセル6は、図2に示すように、平板状に形成されており、支持機構5を取付ステーKに組み付けるためのボルト7を挿通する挿通孔6aを備える。又、カプセル6は、図示を省略する樹脂ピン等により、アッパーブラケット5A及びコラム側ブラケット5Bに固定される。 As shown in FIG. 2, the capsule 6 is formed in a flat plate shape and includes an insertion hole 6a through which a bolt 7 for assembling the support mechanism 5 to the mounting stay K is inserted. Further, the capsule 6 is fixed to the upper bracket 5A and the column side bracket 5B by a resin pin or the like (not shown).

ここで、支持機構5は、カプセル6が樹脂ピン等によりアッパーブラケット5A及びコラム側ブラケット5Bに固定されることにより、ステアリングホイール1に入力される荷重(衝撃荷重)を吸収する機能を発揮することができる。即ち、ステアリングホイール1を介して支持機構5に所定荷重以上の衝撃荷重が作用した場合、例えば、アッパーブラケット5Aとカプセル6とを固定する樹脂ピン等がコラム装置4の軸方向に沿ってせん断される。これにより、アッパーブラケット5Aが車体に対して車両前方向に向けて相対移動可能となる。従って、支持機構5は、コラム装置4の車両前方向への移動を許容し、ステアリングホイール1に入力される衝撃荷重を低減することができる。 Here, the support mechanism 5 exhibits a function of absorbing the load (impact load) input to the steering wheel 1 by fixing the capsule 6 to the upper bracket 5A and the column side bracket 5B by a resin pin or the like. Can be done. That is, when an impact load of a predetermined load or more acts on the support mechanism 5 via the steering wheel 1, for example, a resin pin or the like for fixing the upper bracket 5A and the capsule 6 is sheared along the axial direction of the column device 4. Ru. As a result, the upper bracket 5A can move relative to the vehicle body in the front direction of the vehicle. Therefore, the support mechanism 5 allows the column device 4 to move in the vehicle front direction, and can reduce the impact load input to the steering wheel 1.

このように、支持機構5がカプセル6を備えることにより、衝撃荷重を低減するように作動することができる。この場合、カプセル6は、所定荷重以上の衝撃荷重において樹脂ピン等が確実にせん断される程度の強度が必要になる。カプセル6が必要な強度を有するためにはキズや割れ等の欠陥が生じていないことが肝要であり、カプセル6は、例えば、コラム側ブラケット5Bに固定された状態で、検査システム10により、ライン上で欠陥の有無が検査される。 As described above, the support mechanism 5 is provided with the capsule 6 so that the support mechanism 5 can be operated so as to reduce the impact load. In this case, the capsule 6 needs to have enough strength to surely shear the resin pin or the like under an impact load of a predetermined load or more. In order for the capsule 6 to have the required strength, it is important that defects such as scratches and cracks have not occurred. The capsule 6 is fixed to the column side bracket 5B, for example, and is lined by the inspection system 10. The above is inspected for defects.

(3.検査システム10の構成)
次に、検査システム10の構成を説明する。尚、本例における検査システム10は、EPS装置Tの構成部品であるカプセル6を検査対象物とする。そして、本例の検査システム10においては、EPS装置Tの生産ラインにおいて、コラム側ブラケット5Bにカプセル6を組み付けて次工程に搬送される際、即ち、アッパーブラケット5Aが組み付けられる前に、カプセル6を撮像して検査する検査工程が設定される。検査システム10は、図3に示すように、撮像装置としてのカメラ11と、検査装置100とを備える。カメラ11は、カプセル6の検査対象面Sを主に撮像する。そして、カメラ11は、撮像した検査対象面Sの画像データGを検査装置100に出力する。
(3. Configuration of inspection system 10)
Next, the configuration of the inspection system 10 will be described. In the inspection system 10 in this example, the capsule 6 which is a component of the EPS device T is the inspection target. Then, in the inspection system 10 of this example, when the capsule 6 is assembled to the column side bracket 5B and transported to the next process in the production line of the EPS device T, that is, before the upper bracket 5A is assembled, the capsule 6 is assembled. The inspection process of imaging and inspecting is set. As shown in FIG. 3, the inspection system 10 includes a camera 11 as an image pickup device and an inspection device 100. The camera 11 mainly captures the inspection target surface S of the capsule 6. Then, the camera 11 outputs the image data G of the imaged inspection target surface S to the inspection device 100.

検査装置100は、カメラ11によって撮像された大量のカプセル6の検査対象面S(図2を参照)の画像データを用いて、カプセル6の検査対象面Sにおけるキズや割れ等の有無を判別する。そして、検査装置100は、検査対象面Sにキズや割れ等が生じていないカプセル6を正常品と判別し、検査対象面Sにキズや割れ等が生じているカプセル6を不良品と判別する。 The inspection device 100 determines the presence or absence of scratches, cracks, or the like on the inspection target surface S of the capsule 6 by using the image data of the inspection target surface S (see FIG. 2) of the capsule 6 captured by the camera 11. .. Then, the inspection device 100 determines that the capsule 6 having no scratches or cracks on the inspection target surface S is a normal product, and determines that the capsule 6 having scratches or cracks on the inspection target surface S is a defective product. ..

ところで、カメラ11によってカプセル6の検査対象面Sを撮像する場合、カプセル6の微小な位置ずれ(姿勢ずれ)が生じる場合がある。この場合、例えば、照明の光が反射して、撮像された画像においては、カプセル6の検査対象面Sを表す画素の特性値である画素値よりも大きな画素値を有する周縁部分であるエッジ部分S1やコラム側ブラケット5Bが撮像される場合がある(図2を参照)。ここで、画素値とは、各画素の色の濃淡や明るさを表す値であり、白黒の検査画像においては各画素の濃淡を複数の階調(例えば、0から255の整数を用いた256階調等)を表す値である。尚、画素値が大きいほど画素は白くなり、画素値が小さいほど画素は黒くなる。尚、画素の特性値としては、画素値の他に、例えば、画素の輝度を表す輝度値を例示することができる。 By the way, when the inspection target surface S of the capsule 6 is imaged by the camera 11, a slight positional deviation (posture deviation) of the capsule 6 may occur. In this case, for example, in the image captured by the reflection of the illumination light, the edge portion which is a peripheral portion having a pixel value larger than the pixel value which is the characteristic value of the pixel representing the inspection target surface S of the capsule 6. S1 and the column side bracket 5B may be imaged (see FIG. 2). Here, the pixel value is a value representing the shade and brightness of the color of each pixel, and in a black-and-white inspection image, the shade of each pixel is set to a plurality of gradations (for example, 256 using an integer from 0 to 255). It is a value representing (gradation, etc.). The larger the pixel value, the whiter the pixel, and the smaller the pixel value, the blacker the pixel. As the characteristic value of the pixel, for example, a luminance value representing the brightness of the pixel can be exemplified in addition to the pixel value.

(4.検査装置100の詳細)
このため、検査工程においては、カプセル6が正常品であるにも拘わらず、映り込んだエッジ部分S1がキズや割れ等と誤判定される可能性がある。このような誤判定を防止するため、検査装置100は、図4に示すように、差分画像生成部110と、分布画像生成部120と、重み画像生成部130と、判定値算出部140と、良否判定部150とを主に備える。
(4. Details of inspection device 100)
Therefore, in the inspection step, even though the capsule 6 is a normal product, the reflected edge portion S1 may be erroneously determined as a scratch, a crack, or the like. In order to prevent such an erroneous determination, the inspection device 100 includes a difference image generation unit 110, a distribution image generation unit 120, a weight image generation unit 130, a determination value calculation unit 140, and a determination value calculation unit 140, as shown in FIG. It mainly includes a pass / fail determination unit 150.

差分画像生成部110は、学習済みモデルであるオートエンコーダを用いることにより、差分画像を表す差分画像データGDを出力する。差分画像は、検査対象物であるカプセル6の検査対象面Sを撮像した検査画像と、検査画像を表す検査画像データGKをオートエンコーダに入力することによって再構成された出力画像との差分を表す画像である。 The difference image generation unit 110 outputs the difference image data GD representing the difference image by using the autoencoder which is a trained model. The difference image represents the difference between the inspection image obtained by capturing the inspection target surface S of the capsule 6 which is the inspection target and the output image reconstructed by inputting the inspection image data GK representing the inspection image to the auto encoder. It is an image.

ここで、差分画像生成部110が用いるオートエンコーダは、カメラ11によって大量に撮像された正常品の正常品画像データGNが入力データとして入力されると、出力データとして正常品の出力画像のみを生成して出力画像データGSを出力する。即ち、本例の学習済みモデルであるオートエンコーダは、学習用データとして大量の正常品画像データGNを用いた機械学習を予め行うことによって生成される。 Here, the auto encoder used by the difference image generation unit 110 generates only the output image of the normal product as output data when the normal product image data GN of the normal product captured in large quantities by the camera 11 is input as input data. And output the output image data GS. That is, the autoencoder, which is the trained model of this example, is generated by performing machine learning in advance using a large amount of normal product image data GN as learning data.

従って、差分画像生成部110は、キズや割れ等を含むカプセル6即ち不良品の検査画像データGKが入力されると、オートエンコーダによってキズや割れ等を含まないカプセル6即ち正常品の出力画像データGSを生成することができる。そして、差分画像生成部110は、検査画像データGKによって表される不良品の検査画像と出力画像データGSによって表される正常品の出力画像との差分になる差分画像を表す差分画像データGDを生成する。 Therefore, when the capsule 6 containing scratches, cracks, etc., that is, the inspection image data GK of the defective product is input, the difference image generation unit 110 uses the autoencoder to output the capsule 6 containing scratches, cracks, etc., that is, the output image data of the normal product. GS can be generated. Then, the difference image generation unit 110 generates a difference image data GD that represents a difference image that is a difference between the inspection image of the defective product represented by the inspection image data GK and the output image of the normal product represented by the output image data GS. Generate.

即ち、差分画像生成部110は、不良品の検査画像を表す検査画像データGKが入力された場合には、検査画像データGKと出力画像データGSとの差分を表す差分画像データGDを生成することができる。尚、本例においては、上述したように、検査画像データGKによって表される不良品のカプセル6の検査画像には、キズや割れ等が含まれる。この場合、差分画像においては、キズや割れ等に対応する画素の輝度が大きく、具体的には、差分画像が白黒画像であればキズや割れ等が検査対象面Sの黒に対して画素値の大きい白で表される。 That is, when the inspection image data GK representing the inspection image of the defective product is input, the difference image generation unit 110 generates the difference image data GD representing the difference between the inspection image data GK and the output image data GS. Can be done. In this example, as described above, the inspection image of the defective capsule 6 represented by the inspection image data GK includes scratches, cracks, and the like. In this case, in the difference image, the brightness of the pixel corresponding to scratches and cracks is large. Specifically, if the difference image is a black-and-white image, the scratches and cracks are pixel values with respect to the black of the inspection target surface S. Represented by the large white of.

ここで、図5を用いて、差分画像生成部110の構成をより詳細に説明する。差分画像生成部110は、学習用画像データ取得部111と、学習用画像データ記憶部112と、モデル生成部113と、モデル記憶部114と、検査画像データ取得部115と、画像再構成部116と、出力部117とを主に備える。尚、学習用画像データ取得部111、学習用画像データ記憶部112、及び、モデル生成部113は、差分画像生成部110の学習処理部(学習フェーズ)として機能する。又、モデル記憶部114、検査画像データ取得部115、画像再構成部116、及び、出力部117は、差分画像生成部110の再生画像再構成部(推論フェーズ)として機能する。 Here, the configuration of the difference image generation unit 110 will be described in more detail with reference to FIG. The difference image generation unit 110 includes a learning image data acquisition unit 111, a learning image data storage unit 112, a model generation unit 113, a model storage unit 114, an inspection image data acquisition unit 115, and an image reconstruction unit 116. And an output unit 117 are mainly provided. The learning image data acquisition unit 111, the learning image data storage unit 112, and the model generation unit 113 function as a learning processing unit (learning phase) of the difference image generation unit 110. Further, the model storage unit 114, the inspection image data acquisition unit 115, the image reconstruction unit 116, and the output unit 117 function as a reproduction image reconstruction unit (inference phase) of the difference image generation unit 110.

学習用画像データ取得部111は、カメラ11によって撮像されたカプセル6の検査対象面Sの画像を表す画像データGのうち、正常品のカプセル6の検査対象面Sの画像を表す正常品画像データGNを取得する。即ち、学習用画像データ取得部111は、画像データGによって表される画像のうち、予め検査されることによって正常品であることが確認された正常品画像データGNを教師データとして取得する。学習用画像データ記憶部112は、学習用画像データ取得部111によって取得された大量の正常品画像データGNを、学習用画像データ群として記憶する。 The learning image data acquisition unit 111 is the normal product image data representing the image of the inspection target surface S of the capsule 6 of the normal product among the image data G representing the image of the inspection target surface S of the capsule 6 captured by the camera 11. Get GN. That is, the learning image data acquisition unit 111 acquires, among the images represented by the image data G, the normal product image data GN confirmed to be a normal product by prior inspection as teacher data. The learning image data storage unit 112 stores a large amount of normal product image data GN acquired by the learning image data acquisition unit 111 as a learning image data group.

モデル生成部113は、学習用画像データ記憶部112に記憶された学習用画像データ群即ち大量の正常品画像データGNを教師データとし、オートエンコーダである学習済みモデルMを生成する。これにより、モデル生成部113によって生成された学習済みモデルMは、正常品の出力画像を表す出力画像データGSのみを出力する。 The model generation unit 113 uses the learning image data group stored in the learning image data storage unit 112, that is, a large amount of normal product image data GN as teacher data, and generates a trained model M which is an auto encoder. As a result, the trained model M generated by the model generation unit 113 outputs only the output image data GS representing the output image of the normal product.

ここで、生成される学習済みモデルMについて説明しておく。図6に示すように、学習済みモデルMは、入力層M1と、中間層M2と、出力層M3とを含むオートエンコーダである。入力層M1には、画像データGが入力データとして入力される。尚、学習フェーズにおいては、入力層M1に正常品画像データGNのみが入力され、推論フェーズにおいては、入力層M1に検査画像データGKが入力される。ここで、入力データとして入力される画像データGは、画像を形成する各々の画素の画素値を表す画素データから構成される。 Here, the trained model M generated will be described. As shown in FIG. 6, the trained model M is an autoencoder including an input layer M1, an intermediate layer M2, and an output layer M3. Image data G is input to the input layer M1 as input data. In the learning phase, only the normal product image data GN is input to the input layer M1, and in the inference phase, the inspection image data GK is input to the input layer M1. Here, the image data G input as input data is composed of pixel data representing the pixel value of each pixel forming the image.

中間層M2は、入力データの次元を圧縮し、入力データに含まれる特徴量を抽出する第一中間層M21を有する。又、中間層M2は、第一中間層M21によって圧縮されたデータの次元を拡張し、データの次元を入力データの次元と同数にする第二中間層M22を有する。出力層M3は、画像データG即ち正常品画像データGN及び検査画像データGKから特徴量を抽出した出力画像データGSを出力する。 The intermediate layer M2 has a first intermediate layer M21 that compresses the dimension of the input data and extracts the feature amount contained in the input data. Further, the intermediate layer M2 has a second intermediate layer M22 that expands the dimension of the data compressed by the first intermediate layer M21 and makes the dimension of the data equal to the dimension of the input data. The output layer M3 outputs the output image data GS obtained by extracting the feature amount from the image data G, that is, the normal product image data GN and the inspection image data GK.

これにより、後述するように、判定値算出部140は、入力データとして学習済みモデルMに入力された検査画像データGKと、学習済みモデルMから出力された出力画像データGSとを用いて、検査対象物であるカプセル6の良否を判定する。そして、検査装置100は、学習フェーズにおいて適切な特徴量を抽出する学習済みモデルM(オートエンコーダ)を生成することにより、推論フェーズにおいて良質な出力画像を再構成することができる。その結果、検査装置100は、精度の高い良否判定結果を提供することができる。 As a result, as will be described later, the determination value calculation unit 140 inspects using the inspection image data GK input to the trained model M as input data and the output image data GS output from the trained model M. The quality of the capsule 6 which is the object is determined. Then, the inspection device 100 can reconstruct a high-quality output image in the inference phase by generating a trained model M (autoencoder) that extracts an appropriate feature amount in the learning phase. As a result, the inspection device 100 can provide a high-precision quality determination result.

モデル記憶部114は、モデル生成部113によって生成された学習済みモデルMを記憶する。そして、モデル記憶部114は、画像再構成部116に記憶した学習済みモデルMを出力する。検査画像データ取得部115は、カメラ11によって撮像された検査対象物であるカプセル6の検査対象面Sの画像を表す検査画像データGKを取得する。そして、検査画像データ取得部115は、取得した検査画像データGKを画像再構成部116に出力する。 The model storage unit 114 stores the trained model M generated by the model generation unit 113. Then, the model storage unit 114 outputs the learned model M stored in the image reconstruction unit 116. The inspection image data acquisition unit 115 acquires inspection image data GK representing an image of the inspection target surface S of the capsule 6 which is an inspection target imaged by the camera 11. Then, the inspection image data acquisition unit 115 outputs the acquired inspection image data GK to the image reconstruction unit 116.

画像再構成部116は、モデル記憶部114から取得した学習済みモデルMに対し、検査画像データ取得部115から取得した検査画像データGKを入力データとして入力する。これにより、画像再構成部116は、検査画像データGKが正常品及び不良品の如何に拘わらず、正常品の出力画像を表す出力画像データGSを生成する。そして、画像再構成部116は、検査画像データGKと生成された出力画像データGSとの差分によって表される差分画像データGDを生成する。 The image reconstruction unit 116 inputs the inspection image data GK acquired from the inspection image data acquisition unit 115 as input data to the trained model M acquired from the model storage unit 114. As a result, the image reconstruction unit 116 generates the output image data GS representing the output image of the normal product regardless of whether the inspection image data GK is a normal product or a defective product. Then, the image reconstruction unit 116 generates the difference image data GD represented by the difference between the inspection image data GK and the generated output image data GS.

ここで、画像再構成部116によって生成される差分画像データGDについて説明しておく。例えば、図7に示すように、検査対象面Sにキズや割れ等の欠陥Dを含むカプセル6、即ち、不良品のカプセル6の検査画像を表す検査画像データGKが画像再構成部116に入力されたとする。この場合、画像再構成部116は、学習済みモデルMに対して、不良品の検査画像データGKを入力データとして入力し、図8に示すように、正常品の出力画像を表す出力画像データGSを再構成して生成する。 Here, the difference image data GD generated by the image reconstruction unit 116 will be described. For example, as shown in FIG. 7, the inspection image data GK representing the inspection image of the capsule 6 containing a defect D such as a scratch or a crack on the inspection target surface S, that is, the defective capsule 6, is input to the image reconstruction unit 116. Suppose it was done. In this case, the image reconstruction unit 116 inputs the defective product inspection image data GK as input data to the trained model M, and as shown in FIG. 8, the output image data GS representing the output image of the normal product. Is reconstructed and generated.

そして、画像再構成部116は、不良品の検査画像データGKと正常品の出力画像データGSとの差分を算出し、図9に示すように、共通する部分が省略された差分画像を表す差分画像データGDを生成する。ここで、差分画像データGDによって表される差分画像においては、白色で表される欠陥Dが明確に存在し、カプセル6のエッジ部分S1も白色で明確に表されている。尚、検査対象面Sに欠陥Dを含まない正常品の検査画像データGKが入力された場合には、画像再構成部116は、図10に示すように、欠陥Dを含まない差分画像データGDを生成する。そして、生成された差分画像データGDは、出力部117から判定値算出部140に出力される。 Then, the image reconstruction unit 116 calculates the difference between the inspection image data GK of the defective product and the output image data GS of the normal product, and as shown in FIG. 9, the difference representing the difference image in which the common part is omitted. Generate image data GD. Here, in the difference image represented by the difference image data GD, the defect D represented by white is clearly present, and the edge portion S1 of the capsule 6 is also clearly represented by white. When the inspection image data GK of a normal product that does not include the defect D is input to the inspection target surface S, the image reconstruction unit 116 displays the difference image data GD that does not include the defect D, as shown in FIG. To generate. Then, the generated difference image data GD is output from the output unit 117 to the determination value calculation unit 140.

ところで、コラム側ブラケット5Bに固定されたカプセル6に微小な位置ずれ(姿勢ずれ)が生じた場合には、特に、図9にて差分画像データGDによって表される差分画像に示すように、カプセル6の検査対象面Sのエッジ部分S1が生じる場合がある。尚、図9においては、差分画像におけるエッジ部分S1は、検査対象面Sの画素値よりも大きく、白色になっている。 By the way, when a slight positional deviation (posture deviation) occurs in the capsule 6 fixed to the column side bracket 5B, the capsule is particularly shown in the difference image represented by the difference image data GD in FIG. The edge portion S1 of the inspection target surface S of 6 may occur. In FIG. 9, the edge portion S1 in the difference image is larger than the pixel value of the inspection target surface S and is white.

ここで、差分画像において、エッジ部分S1に対応する画素は、撮像の際のカプセル6の位置ずれ(姿勢ずれ)に応じて、画素値にバラつきが生じる。そして、エッジ部分S1の画素値が大きい場合には、エッジ部分S1と欠陥Dとを自動的に区別することが困難になる。このため、後述する良否判定部150は、欠陥Dを含まない検査画像であっても、位置ずれ(姿勢ずれ)に伴ってエッジ部分S1が生じた差分画像が生成されることによって、不良品と誤判定する虞がある。 Here, in the difference image, the pixels corresponding to the edge portion S1 have variations in pixel values according to the positional deviation (posture deviation) of the capsule 6 at the time of imaging. When the pixel value of the edge portion S1 is large, it becomes difficult to automatically distinguish the edge portion S1 from the defect D. Therefore, even if the inspection image does not include the defect D, the quality determination unit 150, which will be described later, generates a difference image in which the edge portion S1 is generated due to the positional deviation (posture deviation), so that the inspection image is regarded as a defective product. There is a risk of erroneous judgment.

そこで、分布画像生成部120は、位置ずれ(姿勢ずれ)に伴って生じたエッジ部分S1を効果的に除外するために、学習用画像データ群を構成する各々の正常品画像データGNの全ての画素の画素値について基本統計量としての分散値を算出する。そして、分布画像生成部120は、算出した分散値の分布を反映した分布画像を生成する。尚、本例においては、基本統計量として分散値を例示するが、基本統計量としては、分散値以外に、画素値(特性値)の平均値や、標準偏差、平均偏差(絶対偏差)等を例示することができる。 Therefore, in order to effectively exclude the edge portion S1 generated due to the positional deviation (postural deviation), the distributed image generation unit 120 includes all of the normal product image data GNs constituting the learning image data group. The variance value as a basic statistic is calculated for the pixel value of the pixel. Then, the distribution image generation unit 120 generates a distribution image that reflects the calculated distribution of the dispersion values. In this example, the variance value is exemplified as the basic statistic, but as the basic statistic, in addition to the variance value, the average value of the pixel values (characteristic values), the standard deviation, the average deviation (absolute deviation), etc. Can be exemplified.

具体的に、分布画像生成部120は、先ず、学習用画像データ記憶部112に記憶されている学習画像データ群、即ち、大量の正常品画像データGNを取得し、取得した正常品画像データGNの各々の全画素についての画素値を抽出する。次に、分布画像生成部120は、正常品画像データGN同士において対応する画素について抽出した画素値を用い、学習画像データ群の全体についての画素値のバラつきを表す分散値を算出する。 Specifically, the distribution image generation unit 120 first acquires a learning image data group stored in the learning image data storage unit 112, that is, a large amount of normal product image data GN, and the acquired normal product image data GN. The pixel value for each and every pixel of is extracted. Next, the distribution image generation unit 120 uses the pixel values extracted for the corresponding pixels in the normal product image data GNs to calculate the dispersion value representing the variation in the pixel values for the entire learning image data group.

そして、分布画像生成部120は、図11に示すように、分散値に応じた画素値によって再現した分布画像を生成する。ここで、分布画像生成部120は、最終的に、算出した分散値が予め設定された基準分散値よりも大きい領域をエッジ領域R1(図11にて白色で示す領域)とし、算出した分散値が基準分散値以下となる領域を検査判定領域R2(図11にて黒色で示す領域)とする。分布画像生成部120は、分布画像を生成すると、生成した分布画像を表す分布画像データGVを重み画像生成部130に出力する。 Then, as shown in FIG. 11, the distribution image generation unit 120 generates a distribution image reproduced by the pixel values corresponding to the dispersion values. Here, the distribution image generation unit 120 finally sets a region in which the calculated variance value is larger than the preset reference dispersion value as the edge region R1 (the region shown in white in FIG. 11), and the calculated variance value. The region where is equal to or less than the reference dispersion value is defined as the inspection determination region R2 (the region shown in black in FIG. 11). When the distribution image generation unit 120 generates a distribution image, the distribution image data GV representing the generated distribution image is output to the weight image generation unit 130.

重み画像生成部130は、分布画像生成部120から出力された分布画像データGVを取得する。そして、重み画像生成部130は、取得した分布画像データGVに基づいて、分散値が大きな画素に対する重みを小さく設定すると共に、分散値の小さな画素に対する重みを大きく設定する。即ち、重み画像生成部130は、エッジ領域R1の重みを小さく設定し、且つ、検査判定領域R2の重みを大きく設定する。 The weighted image generation unit 130 acquires the distribution image data GV output from the distribution image generation unit 120. Then, the weight image generation unit 130 sets a small weight for a pixel having a large dispersion value and a large weight for a pixel having a small dispersion value based on the acquired distribution image data GV. That is, the weight image generation unit 130 sets the weight of the edge region R1 to be small and the weight of the inspection determination region R2 to be large.

例えば、重み画像生成部130は、図12に示すように、エッジ領域R1が画素値を小さくした黒色で表され、検査判定領域R2が画素値を大きくした白色で表される重み画像を表す重み画像データGWを生成する。そして、重み画像生成部130は、生成した重み画像データGWを判定値算出部140に出力する。 For example, in the weighted image generation unit 130, as shown in FIG. 12, the edge region R1 is represented by black with a small pixel value, and the inspection determination region R2 is represented by white with a large pixel value. Generate image data GW. Then, the weight image generation unit 130 outputs the generated weight image data GW to the determination value calculation unit 140.

判定値算出部140は、差分画像生成部110によって生成された差分画像データGDと重み画像生成部130によって生成された重み画像データGWとを乗算することにより、図13及び図14に示すように、判定画像データGJによって表される判定画像を生成する。即ち、差分画像データGDに対して重み画像データGWを乗算することにより、エッジ領域R1の画素値が小さくなる。一方、欠陥Dについては、画素値に対する重みが乗算されない。従って、図13に示すように、欠陥Dが白色で表された不良品の判定画像を表す判定画像データGJが得られ、図14に示すように、欠陥Dを有さない場合には白色を含まない正常品の判定画像を表す判定画像データGJが得られる。 As shown in FIGS. 13 and 14, the determination value calculation unit 140 multiplies the difference image data GD generated by the difference image generation unit 110 and the weight image data GW generated by the weight image generation unit 130. , Judgment image data Generates a judgment image represented by GJ. That is, by multiplying the difference image data GD by the weighted image data GW, the pixel value of the edge region R1 becomes smaller. On the other hand, for the defect D, the weight for the pixel value is not multiplied. Therefore, as shown in FIG. 13, the determination image data GJ representing the determination image of the defective product in which the defect D is represented in white is obtained, and as shown in FIG. 14, when the defect D is not present, the defect D is white. Judgment image data GJ representing a judgment image of a normal product not included is obtained.

そして、判定値算出部140は、生成した判定画像データGJに基づき、判定画像の全ての画素の画素値(特性値)を平均した平均値を判定値として算出する。判定値算出部140は、算出した平均値(判定値)を良否判定部150に出力する。 Then, the determination value calculation unit 140 calculates the average value obtained by averaging the pixel values (characteristic values) of all the pixels of the determination image as the determination value based on the generated determination image data GJ. The determination value calculation unit 140 outputs the calculated average value (determination value) to the quality determination unit 150.

良否判定部150は、判定値算出部140から出力された平均値(判定値)に基づいて、カプセル6の良否判定を行う。即ち、良否判定部150は、平均値(判定値)が予め設定された判定基準値以上であれば、図13に示す判定画像において画素値の大きい領域、即ち、欠陥Dが存在しているため、カプセル6を不良品として判定する。一方、良否判定部150は、平均値(判定値)が判定基準値未満であれば、図14に示す判定画像において画素値の大きい欠陥Dが存在していないため、カプセル6を正常品として判定する。 The quality determination unit 150 determines the quality of the capsule 6 based on the average value (determination value) output from the determination value calculation unit 140. That is, if the average value (judgment value) of the quality determination unit 150 is equal to or higher than the preset determination reference value, the determination image shown in FIG. 13 has a region having a large pixel value, that is, a defect D. , Capsule 6 is determined as a defective product. On the other hand, if the average value (judgment value) is less than the judgment reference value, the pass / fail judgment unit 150 determines that the capsule 6 is a normal product because the defect D having a large pixel value does not exist in the judgment image shown in FIG. do.

以上の説明からも理解できるように、本例の検査システム10によれば、検査装置100は、オートエンコーダである学習済みモデルMを用いてカプセル6の検査を行う場合、学習済みモデルMを用いることによって生成された差分画像データGDと、分布画像データGVに基づく重み画像データGWとを用いて判定画像データGJを生成することができる。そして、検査装置100は、判定画像データGJを用いて判定値を算出することができる。 As can be understood from the above description, according to the inspection system 10 of this example, the inspection device 100 uses the trained model M when inspecting the capsule 6 using the trained model M which is an autoencoder. The determination image data GJ can be generated by using the difference image data GD generated thereby and the weighted image data GW based on the distributed image data GV. Then, the inspection device 100 can calculate the determination value using the determination image data GJ.

これにより、検査装置100は、基本統計量である分散値が大きい領域、即ち、良否判定の精度を低下させる虞のあるエッジ部分S1を考慮して判定値を算出することができる。従って、検査装置100は、算出された判定値に基づいてカプセル6の良否判定、即ち、検査精度を向上させることができる。尚、本例においては、EPS装置Tの生産ラインにおいて、コラム側ブラケット5Bにカプセル6を組み付けて次工程に搬送される際に検査工程を設定し、カプセル6の良否判定を行うようにした。しかしながら、カプセル6の良否判定については、EPS装置Tの組立が完了した後の最終製品検査において行うことも可能である。 As a result, the inspection device 100 can calculate the determination value in consideration of the region where the dispersion value, which is the basic statistic, is large, that is, the edge portion S1 which may reduce the accuracy of the quality determination. Therefore, the inspection device 100 can improve the quality determination of the capsule 6, that is, the inspection accuracy based on the calculated determination value. In this example, in the production line of the EPS device T, the inspection process is set when the capsule 6 is assembled to the column side bracket 5B and transported to the next process, and the quality of the capsule 6 is judged. However, the quality determination of the capsule 6 can also be performed in the final product inspection after the assembly of the EPS device T is completed.

(5.その他)
上述した本例においては、差分画像生成部110のモデル生成部113が生成したオートエンコーダである学習済みモデルMは、モデル記憶部114に記憶されるようにした。ところで、学習済みモデルMは、学習用画像データ記憶部112に記憶された学習用画像データ群(大量の正常品画像データGN)を用いた機械学習を行うことにより生成される。従って、正常品画像データGNの数が増える、換言すれば、機械学習による学習が進むほど、精度の高い学習済みモデルMを生成することができるため、モデル生成部113は、逐次、学習済みモデルM(オートエンコーダ)を更新することができる。
(5. Others)
In this example described above, the trained model M, which is an autoencoder generated by the model generation unit 113 of the difference image generation unit 110, is stored in the model storage unit 114. By the way, the trained model M is generated by performing machine learning using a learning image data group (a large amount of normal product image data GN) stored in the learning image data storage unit 112. Therefore, as the number of normal product image data GN increases, in other words, as the learning by machine learning progresses, the trained model M with high accuracy can be generated. Therefore, the model generation unit 113 sequentially uses the trained model. M (autoencoder) can be updated.

又、上述した本例においては、撮像装置として、検査対象物であるカプセル6の検査対象面S(表面)を撮像するカメラ11を設け、撮像された検査対象面Sの検査画像データGKに基づいてカプセル6の表面に存在する欠陥Dの有無を検査するようにした。ところで、検査対象物、特に、生産ラインにて生産される検査対象物の欠陥は、外部(表面)のみではなく内部に存在する場合もあり、このような内部の欠陥の有無も検査対象になり得る。 Further, in the above-mentioned example, as an image pickup device, a camera 11 for capturing an image of the inspection target surface S (surface) of the capsule 6 which is an inspection target is provided, and the image is based on the inspection image data GK of the imaged inspection target surface S. The presence or absence of the defect D existing on the surface of the capsule 6 was inspected. By the way, defects in the inspection target, especially the inspection target produced on the production line, may exist not only on the outside (surface) but also on the inside, and the presence or absence of such internal defects is also the inspection target. obtain.

このため、撮像装置として、例えば、電磁波や音響等を利用して、検査対象物の内部の状態を撮像した検査画像データGKを取得する装置を用いることも可能である。この場合においても、内部の欠陥を表す検査画像データGKと、上述した本例と同様に、検査画像データGKを入力データとして学習済みモデルM(オートエンコーダ)から出力された出力画像データGSを用いて良否判定を行うことができる。従って、この場合も、上述した本例と同様の効果が得られる。 Therefore, as the image pickup device, for example, it is possible to use a device that acquires the inspection image data GK that captures the internal state of the inspection object by using electromagnetic waves, sound, or the like. Also in this case, the inspection image data GK representing the internal defect and the output image data GS output from the trained model M (autoencoder) using the inspection image data GK as input data are used as in the above-mentioned example. It is possible to make a pass / fail judgment. Therefore, in this case as well, the same effect as that of this example described above can be obtained.

1…ステアリングホイール、2…操舵機構、3…アシスト機構、4…コラム装置、5…支持機構、5A…アッパーブラケット、5B…コラム側ブラケット、6…カプセル、6a…挿通孔、7…ボルト、K…取付ステー、T…電動パワーステアリング装置、W…転舵輪、10…検査システム、11…カメラ、100…検査装置、110…差分画像生成部、111…学習用画像データ取得部、112…学習用画像データ記憶部、113…モデル生成部、114…モデル記憶部、115…検査画像データ取得部、116…画像再構成部、117…出力部、120…分布画像生成部、130…重み画像生成部、140…判定値算出部、150…良否判定部、D…欠陥、G…画像データ、GD…差分画像データ、GJ…判定画像データ、GK…検査画像データ、GN…正常品画像データ、GS…出力画像データ、GV…分布画像データ、GW…重み画像データ、M…学習済みモデル、M1…入力層、M2…中間層、M21…第一中間層、M22…第二中間層、M3…出力層、R1…エッジ領域、R2…検査判定領域、S…検査対象面、S1…エッジ部分 1 ... Steering wheel, 2 ... Steering mechanism, 3 ... Assist mechanism, 4 ... Column device, 5 ... Support mechanism, 5A ... Upper bracket, 5B ... Column side bracket, 6 ... Capsule, 6a ... Insertion hole, 7 ... Bolt, K ... Mounting stay, T ... Electric power steering device, W ... Steering wheel, 10 ... Inspection system, 11 ... Camera, 100 ... Inspection device, 110 ... Difference image generation unit, 111 ... Learning image data acquisition unit, 112 ... Learning Image data storage unit, 113 ... model generation unit, 114 ... model storage unit, 115 ... inspection image data acquisition unit, 116 ... image reconstruction unit, 117 ... output unit, 120 ... distribution image generation unit, 130 ... weighted image generation unit , 140 ... Judgment value calculation unit, 150 ... Good / bad judgment unit, D ... Defect, G ... Image data, GD ... Difference image data, GJ ... Judgment image data, GK ... Inspection image data, GN ... Normal product image data, GS ... Output image data, GV ... distribution image data, GW ... weighted image data, M ... trained model, M1 ... input layer, M2 ... intermediate layer, M21 ... first intermediate layer, M22 ... second intermediate layer, M3 ... output layer , R1 ... Edge area, R2 ... Inspection judgment area, S ... Inspection target surface, S1 ... Edge portion

Claims (11)

検査対象物の画像を撮像する撮像装置と、
前記撮像装置によって撮像された前記検査対象物の画像に基づいて前記検査対象物の良否を判定する検査装置と、を備え、
前記検査装置は、
正常品の画像を表す正常品画像データを複数有する学習用画像データ群を入力データとし、正常品の出力画像を表す出力画像データを出力するオートエンコーダである学習済みモデルを記憶するモデル記憶部と、
前記検査対象物の画像を表す検査画像データを取得する検査画像データ取得部と、
前記検査画像データと前記検査画像データを前記学習済みモデルに入力することにより出力された前記出力画像データとを用いて、前記検査画像データと前記出力画像データとの差分を表す差分画像を生成する差分画像生成部と、
前記学習用画像データ群における各々の正常品画像データの全ての画素の特性値について基本統計量を算出し、前記基本統計量に基づいた前記特性値の分布を表す分布画像を生成する分布画像生成部と、
前記分布画像生成部によって生成された前記分布画像を表す分布画像データに基づき、前記基本統計量に応じた重みを設定し、前記重みを表す重み画像を生成する重み画像生成部と、
前記差分画像を表す差分画像データと前記重み画像を表す重み画像データとを用いて、判定値を算出する判定値算出部と、
前記判定値に基づいて、前記検査対象物の良否を判定する良否判定部と、
を備えた、検査システム。
An image pickup device that captures an image of the object to be inspected,
An inspection device for determining the quality of the inspection object based on the image of the inspection object captured by the image pickup device is provided.
The inspection device is
A model storage unit that stores a trained model, which is an autoencoder that outputs output image data that represents the output image of a normal product, using a group of image data for learning that has multiple image data of a normal product that represents an image of a normal product as input data. ,
An inspection image data acquisition unit that acquires inspection image data representing an image of the inspection object, and an inspection image data acquisition unit.
Using the inspection image data and the output image data output by inputting the inspection image data into the trained model, a difference image representing the difference between the inspection image data and the output image data is generated. Difference image generator and
Distribution image generation that calculates basic statistics for the characteristic values of all pixels of each normal product image data in the training image data group and generates a distribution image showing the distribution of the characteristic values based on the basic statistics. Department and
A weight image generation unit that sets weights according to the basic statistic based on the distribution image data representing the distribution image generated by the distribution image generation unit and generates a weight image representing the weights.
A judgment value calculation unit that calculates a judgment value using the difference image data representing the difference image and the weight image data representing the weight image, and a judgment value calculation unit.
A quality determination unit that determines the quality of the inspection target based on the determination value,
Equipped with an inspection system.
前記分布画像生成部は、前記基本統計量として、前記特性値の分散値、前記特性値の平均値、前記特性値の標準偏差、及び、前記特性値の平均偏差のうちの1つを算出する、請求項1に記載の検査システム。 The distribution image generation unit calculates, as the basic statistic, one of the dispersion value of the characteristic value, the average value of the characteristic value, the standard deviation of the characteristic value, and the average deviation of the characteristic value. , The inspection system according to claim 1. 前記分布画像において前記基本統計量が大きい画素を含む領域は、前記撮像装置による撮像時に生じた前記検査対象物の位置ずれに伴って撮像された検査対象面の周縁部分である、請求項1又は2に記載の検査システム。 The region including the pixel having a large basic statistic in the distribution image is a peripheral portion of the inspection target surface imaged due to the positional shift of the inspection object caused by the image pickup by the imaging device, claim 1 or The inspection system according to 2. 前記重み画像生成部は、前記基本統計量の大きい画素に対する重みを小さく設定すると共に、前記基本統計量の小さい画素に対する重みを大きく設定する、請求項1-3の何れか一項に記載の検査システム。 The inspection according to any one of claims 1-3, wherein the weight image generation unit sets a small weight for a pixel having a large basic statistic and a large weight for a pixel having a small basic statistic. system. 前記判定値算出部は、前記差分画像データと前記重み画像データとを乗算することによって判定画像データを生成し、前記判定画像データに基づいて前記判定値を算出する、請求項1-4の何れか一項に記載の検査システム。 Any of claims 1-4, wherein the determination value calculation unit generates determination image data by multiplying the difference image data and the weighted image data, and calculates the determination value based on the determination image data. The inspection system described in item 1. 前記判定値算出部は、前記判定画像データによって表される判定画像における各々の画素の前記特性値を平均した平均値を前記判定値として算出する、請求項5に記載の検査システム。 The inspection system according to claim 5, wherein the determination value calculation unit calculates an average value obtained by averaging the characteristic values of each pixel in the determination image represented by the determination image data as the determination value. 前記良否判定部は、前記判定値が予め設定された判定基準値以上の場合に前記検査対象物に欠陥が存在する不良品と判定する、請求項1-6の何れか一項に記載の検査システム。 The inspection according to any one of claims 1-6, wherein the quality determination unit determines that the inspection target is a defective product in which a defect exists when the determination value is equal to or higher than a preset determination reference value. system. 前記特性値は、画素の色の濃淡及び明るさを表す画素値、又は、画素の明るさを表す輝度値である、請求項1-7の何れか一項に記載の検査システム。 The inspection system according to any one of claims 1-7, wherein the characteristic value is a pixel value representing the shade and brightness of a pixel color or a luminance value representing the brightness of a pixel. 前記検査対象物は、生産ラインを経て生産される生産物である、請求項1-8の何れか一項に記載の検査システム。 The inspection system according to any one of claims 1-8, wherein the inspection object is a product produced via a production line. 前記検査対象物は、前記生産ラインにおいて次工程に搬送される際に検査される、請求項9に記載の検査システム。 The inspection system according to claim 9, wherein the inspection object is inspected when it is transported to the next process on the production line. 前記検査対象物は、車両のステアリング装置におけるコラム装置を車体に支持する支持機構を形成するカプセルである、請求項1-10の何れか一項に記載の検査システム。 The inspection system according to any one of claims 1-10, wherein the inspection object is a capsule forming a support mechanism for supporting a column device in a vehicle steering device on a vehicle body.
JP2020114670A 2020-07-02 2020-07-02 Inspection system Pending JP2022012668A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020114670A JP2022012668A (en) 2020-07-02 2020-07-02 Inspection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020114670A JP2022012668A (en) 2020-07-02 2020-07-02 Inspection system

Publications (1)

Publication Number Publication Date
JP2022012668A true JP2022012668A (en) 2022-01-17

Family

ID=80148820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020114670A Pending JP2022012668A (en) 2020-07-02 2020-07-02 Inspection system

Country Status (1)

Country Link
JP (1) JP2022012668A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023135089A (en) * 2022-03-15 2023-09-28 トヨタ自動車株式会社 Inspection equipment and inspection method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175865A (en) * 1999-12-22 2001-06-29 Matsushita Electric Works Ltd Image processing method and its device
JP2005265661A (en) * 2004-03-19 2005-09-29 Ovit:Kk Image processing method and image processing device
JP2006308372A (en) * 2005-04-27 2006-11-09 Tokyo Seimitsu Co Ltd Visual inspection device and visual inspection method
JP2018195119A (en) * 2017-05-18 2018-12-06 住友電装株式会社 Anomaly detection apparatus and anomaly detection method
WO2020031423A1 (en) * 2018-08-06 2020-02-13 住友電気工業株式会社 Object detection method, object detection device, and computer program
WO2020070777A1 (en) * 2018-10-01 2020-04-09 オリンパス株式会社 Observation device and observation method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175865A (en) * 1999-12-22 2001-06-29 Matsushita Electric Works Ltd Image processing method and its device
JP2005265661A (en) * 2004-03-19 2005-09-29 Ovit:Kk Image processing method and image processing device
JP2006308372A (en) * 2005-04-27 2006-11-09 Tokyo Seimitsu Co Ltd Visual inspection device and visual inspection method
JP2018195119A (en) * 2017-05-18 2018-12-06 住友電装株式会社 Anomaly detection apparatus and anomaly detection method
WO2020031423A1 (en) * 2018-08-06 2020-02-13 住友電気工業株式会社 Object detection method, object detection device, and computer program
WO2020070777A1 (en) * 2018-10-01 2020-04-09 オリンパス株式会社 Observation device and observation method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023135089A (en) * 2022-03-15 2023-09-28 トヨタ自動車株式会社 Inspection equipment and inspection method
JP7639744B2 (en) 2022-03-15 2025-03-05 トヨタ自動車株式会社 Inspection device and inspection method

Similar Documents

Publication Publication Date Title
CN102414536B (en) Digital optical comparator
KR20200001658A (en) Apparatus for testing a display panel and driving method thereof
KR20170009524A (en) Inspection system and inspection method
JP2022012668A (en) Inspection system
JP4573308B2 (en) Surface inspection apparatus and method
JP2022114331A (en) Inspection system, inspection method and inspection program
JP2023076837A (en) IMAGE INSPECTION SYSTEM, IMAGE INSPECTION METHOD AND COMPUTER PROGRAM
JPH08254499A (en) Display / appearance inspection device
JP2009002669A (en) Appearance inspection device
JP2924859B2 (en) Appearance inspection method and device
JP7633104B2 (en) Inspection device, learning device, inspection method, method for generating generative model, inspection program, and learning program
JP2000162089A (en) Screen inspection method and device
JP2006072913A (en) Model registration method for parts inspection and inspection data creation apparatus using this method
US12347091B2 (en) Teacher data generating method and generating device
CN111429841B (en) Brightness compensation method, brightness compensation system and display device of a display panel
KR20170124509A (en) Inspection system and inspection method
JPH1074262A (en) Streak defect inspection method and device therefor
JP2011112573A (en) Defect inspection method
JP2005114683A (en) Lens misregistration detection method and lens misregistration detecting device
CN112419241A (en) Object identification method and device based on artificial intelligence and readable storage medium
US20070058848A1 (en) Method of determining and correcting non-linear detector pixels
WO2024106322A1 (en) Device for diagnosing inspection apparatus, method for diagnosing inspection apparatus, and program
WO2023163117A1 (en) Inspection device, image processing method, and image processing program
JP2002357558A (en) Matching processing method considering quantum error
JP2024043072A (en) Testing equipment, methods and programs

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240319

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240910