KR102818095B1 - Method of detecting defect of manufactured product based on high-resolution image using autoencoder and convolutional neural network - Google Patents
Method of detecting defect of manufactured product based on high-resolution image using autoencoder and convolutional neural network Download PDFInfo
- Publication number
- KR102818095B1 KR102818095B1 KR1020210170176A KR20210170176A KR102818095B1 KR 102818095 B1 KR102818095 B1 KR 102818095B1 KR 1020210170176 A KR1020210170176 A KR 1020210170176A KR 20210170176 A KR20210170176 A KR 20210170176A KR 102818095 B1 KR102818095 B1 KR 102818095B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- defect
- defect candidate
- extracting
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
본 발명은 오토인코더 및 합성곱 심층 신경망을 활용한 고해상도 영상 기반 제조품 결함 탐지 방법에 관한 것이다. 본 발명에 따르면, 영상 촬영 장치를 통해 촬영된 고해상도 제조품 이미지를 복수개의 그리드 이미지로 분할하는 단계; 기 학습된 오토인코더를 기반으로 상기 복수개의 그리드 이미지의 복원 이미지를 추출하는 단계; 상기 복원 이미지와 상기 그리드 이미지의 차이 연산을 통해 차분 이미지를 추출하는 단계; 상기 차분 이미지를 기반으로 결함 후보 이미지 패치를 추출하는 단계; 상기 결함 후보 이미지 패치에서 결함 후보를 필터링하는 단계; 및 기 학습된 합성곱 심층 신경망을 기반으로 필터링된 결함 후보 이미지 패치의 결함 여부를 판단하는 단계를 포함한다.The present invention relates to a method for detecting defects in manufactured products based on high-resolution images using an autoencoder and a convolutional deep neural network. According to the present invention, the method includes: a step of dividing a high-resolution manufactured product image captured by an image capturing device into a plurality of grid images; a step of extracting restored images of the plurality of grid images based on a pre-trained autoencoder; a step of extracting a differential image through a difference operation between the restored image and the grid image; a step of extracting a defect candidate image patch based on the differential image; a step of filtering defect candidates from the defect candidate image patches; and a step of determining whether the filtered defect candidate image patches are defective based on a pre-trained convolutional deep neural network.
Description
본 발명은 오토인코더 및 합성곱 심층 신경망을 활용한 고해상도 영상 기반 제조품 결함 탐지 방법에 관한 것으로, 더욱 상세하게 설명하면 제조품의 품질 개선을 위한 영상 기반 결함 탐지 기술에 있어서 오토인코더를 활용하여 제조품 이미지의 결함 후보를 검출하고, 합성곱 심층 신경망을 활용하여 검출된 결함 후보의 결함 여부를 판단하는 오토인코더 및 합성곱 심층 신경망을 활용한 고해상도 영상 기반 제조품 결함 탐지 방법에 관한 것이다.The present invention relates to a method for detecting defects in manufactured products based on high-resolution images using an autoencoder and a convolutional deep neural network. More specifically, the present invention relates to a method for detecting defects in manufactured products based on high-resolution images using an autoencoder and a convolutional deep neural network, which detects defect candidates in an image of a manufactured product using an autoencoder and determines whether the detected defect candidates are defective using a convolutional deep neural network in an image-based defect detection technology for improving the quality of manufactured products.
최근, 카메라 등과 같은 영상 촬영 장치를 통해 촬영한 제조품의 이미지를 기반으로 결함 탐지를 수행하는 방식이 널리 수행되고 있다. 이러한 영상 기반 결함 탐지는 주로 이미지 인식 기술, 인공지능 기술 등에 의해 수행될 수 있다.Recently, defect detection based on images of manufactured products captured by imaging devices such as cameras has been widely performed. Such image-based defect detection can be mainly performed by image recognition technology, artificial intelligence technology, etc.
그러나, 종래의 인공지능 기술을 이용한 영상 기반 제조품 결함 탐지 기법은 다음과 같은 문제점을 가지고 있다.However, conventional image-based manufacturing defect detection techniques using artificial intelligence technology have the following problems.
첫째, 제조품 결함 탐지에 있어 정상 데이터에 비해 비정상 데이터가 부족한 상황인 클래스 불균형 문제는 매우 빈번하다. 또한, 동일한 제조품이라도 촬영 위치에 따라 데이터 양이 각각 다른 경우가 많으며, 이는 곧 데이터 불균형 문제로 이어진다. 이러한 문제들은 종래의 인공지능 기술을 이용한 영상 기반 제조품 결함 탐지 기법의 성능을 떨어뜨리는 원인이 된다.First, the class imbalance problem, which is a situation where abnormal data is insufficient compared to normal data in manufacturing defect detection, is very frequent. In addition, even for the same manufacturing product, the amount of data is often different depending on the shooting location, which leads to a data imbalance problem. These problems are the cause of lowering the performance of image-based manufacturing defect detection techniques using conventional artificial intelligence technology.
둘째, 고해상도 제조품 이미지의 경우 결함 화소의 개수는 제조품 이미지의 전체 화소의 개수와 비교했을 때 극히 일부의 비율로 존재한다. 따라서 심층 신경망 기반의 대부분의 종래 기술들은 고해상도 이미지를 기반으로 학습을 진행할 시 모델이 학습 데이터 세트에 대해 쉽게 과적합될 가능성이 높다는 문제가 있다. Second, in the case of high-resolution manufactured product images, the number of defective pixels exists in a very small proportion compared to the total number of pixels in the manufactured product image. Therefore, most of the conventional technologies based on deep neural networks have the problem that the model is likely to easily overfit to the learning data set when learning is performed based on high-resolution images.
셋째, 인공지능 모델 학습에 있어서 고해상도 이미지와 같이 방대한 양의 특징을 가진 데이터를 학습에 사용할 경우, 매우 빠른 속도로 컴퓨팅 자원의 한계치에 도달할 수 있는 문제가 있다.Third, when using data with a large amount of features, such as high-resolution images, for learning artificial intelligence models, there is a problem that computing resources may reach their limits very quickly.
넷째, 제조 공정에서는 긁힘, 얼룩, 먼지 등의 노이즈가 제조품에 필연적으로 발생한다. 이러한 노이즈와 결함을 정확하게 구분하지 못하면, 결함 탐지시 정상 제품을 결함 제품으로 잘못 판단하는 과탐 문제로 이어질 수 있다.Fourth, noise such as scratches, stains, and dust inevitably occur in manufactured products during the manufacturing process. If these noises and defects cannot be accurately distinguished, it can lead to the problem of over-detection, in which normal products are mistakenly judged as defective products during defect detection.
이와 같이 본 발명에 따르면, 제조품의 품질 개선을 위한 영상 기반 결함 탐지 기술에 있어서 오토인코더를 활용하여 제조품 이미지의 결함 후보를 검출하고, 합성곱 심층 신경망을 활용하여 검출된 결함 후보의 결함 여부를 판단하는 오토인코더 및 합성곱 심층 신경망을 활용한 고해상도 영상 기반 제조품 결함 탐지 방법을 제공하기 위한 것이다.Thus, according to the present invention, in an image-based defect detection technology for improving the quality of manufactured products, an autoencoder is utilized to detect a defect candidate in an image of a manufactured product, and a convolutional deep neural network is utilized to determine whether the detected defect candidate is defective. The present invention provides a high-resolution image-based defect detection method for manufactured products using an autoencoder and a convolutional deep neural network.
이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따르면 오토인코더 및 합성곱 심층 신경망을 활용한 고해상도 영상 기반 제조품 결함 탐지 방법에 있어서, 영상 촬영 장치를 통해 촬영된 고해상도 제조품 이미지를 복수개의 그리드 이미지로 분할하는 단계; 기 학습된 오토인코더를 기반으로 상기 복수개의 그리드 이미지의 복원 이미지를 추출하는 단계; 상기 복원 이미지와 상기 그리드 이미지의 차이 연산을 통해 차분 이미지를 추출하는 단계; 상기 차분 이미지를 기반으로 결함 후보 이미지 패치를 추출하는 단계; 상기 결함 후보 이미지 패치에서 결함 후보를 필터링하는 단계; 및 기 학습된 합성곱 심층 신경망을 기반으로 필터링된 결함 후보 이미지 패치의 결함 여부를 판단하는 단계를 포함한다.According to an embodiment of the present invention for achieving such a technical task, a method for detecting a defect in a manufactured product based on a high-resolution image using an autoencoder and a convolutional deep neural network is provided, the method including: a step of dividing a high-resolution manufactured product image captured by an image capturing device into a plurality of grid images; a step of extracting a restored image of the plurality of grid images based on a pre-trained autoencoder; a step of extracting a differential image through a difference operation between the restored image and the grid image; a step of extracting a defect candidate image patch based on the differential image; a step of filtering defect candidates from the defect candidate image patches; and a step of determining whether the filtered defect candidate image patches are defective based on a pre-trained convolutional deep neural network.
상기 결함 후보 이미지 패치를 추출하는 단계는, 상기 차분 이미지에서 결함 후보 화소들을 추출하고, 추출된 상기 결함 후보 화소들을 기반으로 결함 후보 이미지 패치를 추출할 수 있다. 이 경우, 차분 이미지로부터 기 설정된 임계값을 이용하여 상기 결함 후보 화소들을 추출하거나, 화소 강도에 따라서 화소 강도가 높은 상위 N개(N은 자연수)의 화소들을 상기 결함 후보 화소로 추출할 수 있다.The step of extracting the above defect candidate image patch may extract defect candidate pixels from the difference image, and extract the defect candidate image patch based on the extracted defect candidate pixels. In this case, the defect candidate pixels may be extracted using a preset threshold value from the difference image, or the top N pixels (N is a natural number) with high pixel intensities may be extracted as the defect candidate pixels according to the pixel intensities.
상기 결함 후보를 필터링하는 단계는, 상기 결함 후보 이미지 패치에서 인접한 화소 간의 수치를 비교하거나, 검사 영역 별 결함 크기 또는 결함 후보의 통계적 특성을 기 저장된 기준과 비교하여 상기 결함 후보를 필터링할 수 있다.The step of filtering the above defect candidates may filter the defect candidates by comparing the numerical values between adjacent pixels in the defect candidate image patch, or by comparing the defect size for each inspection area or statistical characteristics of the defect candidates with previously stored criteria.
이와 같이 본 발명에 따르면, 정상 데이터만을 학습에 사용하는 방식의 비지도 학습 이상 탐지 모델 중 하나인 오토인코더를 기반으로 결함 후보 이미지 패치를 추출하여 결함 탐지를 수행함으로써 클래스 불균형 및 데이터 불균형 문제를 해결할 수 있다.According to the present invention, class imbalance and data imbalance problems can be solved by extracting a defective candidate image patch and performing defect detection based on an autoencoder, which is one of the unsupervised learning anomaly detection models that uses only normal data for learning.
또한, 고해상도 이미지로부터 상대적으로 적은 개수의 특징을 가진 결함 후보 이미지 패치를 추출하여 심층 신경망 모델 학습에 사용함으로써 종래 기술에서 발생할 수 있는 과적합 문제를 해결할 수 있다.In addition, by extracting defect candidate image patches with a relatively small number of features from a high-resolution image and using them to learn a deep neural network model, the overfitting problem that may occur in conventional techniques can be solved.
또한, 고해상도 이미지의 분할 및 결함 후보 이미지 패치의 추출을 통해 모델이 학습해야 할 특징의 개수를 현저히 줄임으로써 컴퓨팅 자원의 과다 점유 문제를 해결할 수 있다.In addition, the problem of over-consumption of computing resources can be solved by significantly reducing the number of features that the model needs to learn through segmentation of high-resolution images and extraction of defect candidate image patches.
더 나아가, 비지도 학습 기반 이상 탐지 모델을 통해 추출된 결함 후보 이미지 패치를 지도 학습 기반 분류 모델에 사용함으로써 결함 탐지의 성능을 증대시킬 수 있고, 결함 후보 이미지 패치를 제품의 검사 영역의 결함 조건과 비교하는 필터링 작업을 통해 과탐 문제를 해결할 수 있다.Furthermore, the performance of defect detection can be improved by using the defect candidate image patches extracted through the unsupervised learning-based anomaly detection model in the supervised learning-based classification model, and the over-detection problem can be solved by a filtering task that compares the defect candidate image patches with the defect conditions of the inspection area of the product.
도 1은 제조품의 결함 탐지를 위한 검사 장비를 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 오토인코더 및 합성곱 심층 신경망을 활용한 고해상도 영상 기반 제조품 결함 탐지 방법에서 학습 과정의 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 오토인코더 및 합성곱 심층 신경망을 활용한 고해상도 영상 기반 제조품 결함 탐지 방법에서 추론 과정의 흐름도이다.
도 4는 본 발명의 실시예에 따라 고해상도 제조품 이미지를 복수개의 그리드 이미지로 분할하는 단계를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따라 오토인코더를 활용하여 고해상도 제조품 이미지의 차분 이미지를 추출하는 단계를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따라 차분 이미지를 기반으로 결함 후보 이미지 패치를 추출하고 합성곱 심층 신경망을 기반으로 결함 후보 이미지 패치의 결함 여부를 판단하는 단계를 설명하기 위한 도면이다.
도 7 내지 도 9는 본 발명의 일 실시 예를 설명하기 위한 도면이다.Figure 1 is a drawing for explaining inspection equipment for detecting defects in manufactured products.
FIG. 2 is a flowchart of a learning process in a high-resolution image-based manufacturing defect detection method using an autoencoder and a convolutional deep neural network according to one embodiment of the present invention.
FIG. 3 is a flowchart of an inference process in a high-resolution image-based manufacturing defect detection method using an autoencoder and a convolutional deep neural network according to one embodiment of the present invention.
FIG. 4 is a drawing for explaining a step of dividing a high-resolution manufactured product image into a plurality of grid images according to an embodiment of the present invention.
FIG. 5 is a diagram for explaining a step of extracting a differential image of a high-resolution manufactured product image using an autoencoder according to one embodiment of the present invention.
FIG. 6 is a diagram for explaining a step of extracting a defect candidate image patch based on a differential image and determining whether the defect candidate image patch is defective based on a convolutional deep neural network according to one embodiment of the present invention.
Figures 7 to 9 are drawings for explaining one embodiment of the present invention.
이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the attached drawings. In this process, the thickness of lines and the size of components illustrated in the drawings may be exaggerated for the sake of clarity and convenience of explanation.
또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, the terms described below are terms defined in consideration of their functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, the definitions of these terms should be made based on the contents throughout this specification.
도 1은 제조품의 결함 탐지를 위한 검사 장비를 설명하기 위한 도면이다.Figure 1 is a drawing for explaining inspection equipment for detecting defects in manufactured products.
도 1을 참조하면, 검사 대상이 되는 제조품은 투입부(110)를 통해 검사 장비로 투입될 수 있다. 투입부(110)는 예를 들어 바코드 스캐너를 통해 제조품에 부착된 바코드를 인식하여 검사 대상 제조품을 식별하고, 컨베이어 벨트를 통해 제조품을 촬영부(120)로 이동시킬 수 있다. 투입부(110)에서 식별된 검사 대상 제조품의 식별 정보는 검사 장비의 각 공정에서 생성된 데이터와 연계되어 관리 및 저장될 수 있다.Referring to Fig. 1, a manufactured product to be inspected can be fed into the inspection equipment through an input unit (110). The input unit (110) can identify the manufactured product to be inspected by recognizing a barcode attached to the manufactured product, for example, through a barcode scanner, and move the manufactured product to the photographing unit (120) through a conveyor belt. The identification information of the manufactured product to be inspected identified in the input unit (110) can be managed and stored in connection with data generated in each process of the inspection equipment.
촬영부(120)는 투입부(110)를 통해 이동된 제조품의 영상을 촬영할 수 있다. 촬영부(120)는 예를 들어 제조품의 영상을 촬영하는 카메라, 영상의 밝기 조절을 위한 조명 등을 포함하여 구성되며, PLC(150)의 제어 신호에 따라 제조품의 영상을 촬영하여 저장할 수 있다. 이 경우, 촬영부(120)는 제조품을 이동, 반전 또는 회전시키는 수단을 추가로 구비하고, 이를 통해 제조품의 위치 및 방향을 조절하여 제조품의 원하는 표면을 촬영하고, 촬영된 이미지를 Edge PC(140)에 저장할 수 있다.The photographing unit (120) can capture an image of a manufactured product moved through the input unit (110). The photographing unit (120) is configured to include, for example, a camera for capturing an image of a manufactured product, lighting for adjusting the brightness of the image, etc., and can capture and store an image of a manufactured product according to a control signal of a PLC (150). In this case, the photographing unit (120) is additionally provided with a means for moving, reversing, or rotating the manufactured product, and can capture a desired surface of the manufactured product by controlling the position and direction of the manufactured product through this, and store the captured image in the Edge PC (140).
판정부(130)는 검사 대상 제조품의 판정 결과를 기초로 제조품을 양품 또는 불량으로 분기하여 출력할 수 있다. 이를 위해, 인공지능 모델은 촬영부(120)에 의해 촬영된 이미지를 입력 받아서 제조품의 정상 및 결함 유무를 판정할 수 있고, 판정 결과는 해당 제조품의 식별 정보와 함께 Edge PC(140)에 저장될 수 있다. 이에 따라, 판정부(130)는 컨베이어 벨트를 통해 이동되는 제조품을 바코드 스캐너를 통해 식별하고 식별된 제조품의 판정 결과를 조회하여 제조품을 양품 또는 불량으로 분기할 수 있다.The judgment unit (130) can output the product as a good product or a defective product based on the judgment result of the product to be inspected. To this end, the artificial intelligence model can receive the image captured by the photographing unit (120) and judge whether the product is normal or defective, and the judgment result can be stored in the Edge PC (140) together with the identification information of the product. Accordingly, the judgment unit (130) can identify the product moving through the conveyor belt through the barcode scanner and check the judgment result of the identified product to divide the product into a good product or a defective product.
본 발명의 실시예에 따르면, 제조품의 정상 및 결함 유무를 판정하기 위한 인공지능 모델은 비지도 학습 기반 이상 탐지 모델과 지도 학습 기반 분류 모델이 결합된 모델일 수 있다. According to an embodiment of the present invention, an artificial intelligence model for determining whether a manufactured product is normal or defective may be a model that combines an unsupervised learning-based anomaly detection model and a supervised learning-based classification model.
예를 들어, 비지도 학습 이상 탐지 모델 중 하나인 오토인코더를 기반으로 결함 후보 이미지 패치를 추출하고, 지도 학습 기반 분류 모델 중 하나인 합성곱 심층 신경망을 기반으로 결함 후보 이미지 패치의 결함 여부를 판단하도록 구성될 수 있다. For example, it can be configured to extract a defect candidate image patch based on an autoencoder, which is one of the unsupervised learning anomaly detection models, and determine whether the defect candidate image patch is a defect based on a convolutional deep neural network, which is one of the supervised learning-based classification models.
여기서, 오토인코더는 입력 데이터와 출력 데이터의 크기가 동일한 심층 신경망을 의미하며, 주로 고차원의 입력 데이터에서 저차원의 표현을 학습하기 위해 사용된다. 오토인코더는 입력 데이터를 받아들이는 입력층, 고차원의 입력 데이터로부터 저차원의 잠재 벡터가 도출되도록 연산을 수행하는 인코더, 도출된 잠재 벡터로부터 복원 데이터를 생성하는 디코더, 및 입력 데이터와 동일한 크기를 가진 출력 데이터를 도출하는 출력층으로 구성될 수 있다. 본 발명에 따르면, 오토인코더는 정상 데이터의 주요 특징을 학습하여 입력 데이터를 정상 데이터와 유사하게 복원할 수 있다. 이러한 오토인코더는 각 제조품 이미지의 그리드 이미지 개수만큼 구비될 수 있다.Here, the autoencoder refers to a deep neural network in which the sizes of input data and output data are the same, and is mainly used to learn low-dimensional representations from high-dimensional input data. The autoencoder may be composed of an input layer that accepts input data, an encoder that performs an operation to derive a low-dimensional latent vector from the high-dimensional input data, a decoder that generates restoration data from the derived latent vector, and an output layer that derives output data having the same size as the input data. According to the present invention, the autoencoder can restore the input data similarly to the normal data by learning the main features of normal data. Such autoencoders may be provided in the number of grid images of each manufactured product image.
한편, 합성곱 심층 신경망은 시각적 영상을 분석하기 위해 주로 사용되는 심층 신경망의 한 종류로서, 입력 벡터를 받아들이는 입력층, 이전 신경망의 출력값과 현재 신경망 가중치의 합성곱 연산을 수행하는 은닉층, 및 각 신경망으로부터 계산된 최종 출력값을 도출하는 출력층으로 구성될 수 있으며, 입력 벡터와 현재 신경망 가중치의 합성곱 연산을 통해 입력의 특징을 학습할 수 있다. 이러한 합성곱 심층 신경망은 정상 이미지 및 결함 이미지가 가지는 패턴의 학습을 통해서 결함 탐지를 수행하기 위해 사용된다.Meanwhile, a convolutional deep neural network is a type of deep neural network mainly used to analyze visual images, and can be composed of an input layer that receives an input vector, a hidden layer that performs a convolution operation of the output value of the previous neural network and the current neural network weight, and an output layer that derives the final output value calculated from each neural network, and can learn the features of the input through the convolution operation of the input vector and the current neural network weight. This convolutional deep neural network is used to perform defect detection by learning the patterns of normal images and defective images.
이하, 도 2 내지 도 9를 참조하여, 본 발명의 실시예에 따른 인공지능 모델의 학습 및 추론 방법과 이의 실시예에 대해 구체적으로 설명한다.Hereinafter, with reference to FIGS. 2 to 9, a learning and inference method of an artificial intelligence model according to an embodiment of the present invention and an embodiment thereof will be specifically described.
도 2는 본 발명의 일 실시예에 따른 오토인코더 및 합성곱 심층 신경망을 활용한 고해상도 영상 기반 제조품 결함 탐지 방법에서 학습 과정의 흐름도이다.FIG. 2 is a flowchart of a learning process in a high-resolution image-based manufacturing defect detection method using an autoencoder and a convolutional deep neural network according to one embodiment of the present invention.
도 2를 참조하면, 우선 모델 학습을 위한 데이터 세트의 생성을 위해서 고해상도 정상 제조품 이미지를 복수개의 그리드 이미지로 분할한다(S210). Referring to Fig. 2, first, in order to create a data set for model learning, a high-resolution normal manufactured product image is divided into multiple grid images (S210).
여기서, 고해상도는 FHD(Full High-Definition) 해상도의 규격인 1920 x 1080 화소 이상의 해상도를 의미하는 것이다. 고해상도의 제조품 이미지는 영상 촬영 장치에 의해 촬영될 수 있으며, 예를 들어 jpg, png, bmp 등의 이미지 파일 형식으로 저장된 데이터로, 화소값은 일반적인 화소값인 0과 255 사이의 값을 가질 수 있다. 또한, 제조품의 모든 검사 영역을 촬영하기 위해 복수개의 영상 촬영 장치를 이용하여 다양한 각도에서 제조품의 영상을 촬영하고 이를 이용할 수 있다.Here, high resolution means a resolution of 1920 x 1080 pixels or higher, which is the standard for FHD (Full High-Definition) resolution. High-resolution images of manufactured products can be captured by an imaging device, and are data saved in image file formats such as jpg, png, and bmp, and the pixel values can have values between 0 and 255, which are general pixel values. In addition, in order to capture all inspection areas of the manufactured product, multiple imaging devices can be used to capture images of the manufactured product from various angles and use them.
또한, 그리드 이미지는 입력된 이미지로부터 격자 모양으로 분할된 작은 이미지들을 의미하는 것이다. 그리드 이미지의 해상도는 고해상도 정상 제조품 이미지의 해상도에 따라 256 x 256, 512 x 512 등과 같은 다양한 값을 가질 수 있으며, 컴퓨팅 자원의 상황 및 결함 탐지 성능에 따라 유동적으로 조정될 수 있다. 또한, 그리드 이미지는 제조품 이미지의 모든 검사 영역을 포함할 수 있다.In addition, the grid image means small images divided into a grid shape from the input image. The resolution of the grid image can have various values such as 256 x 256, 512 x 512, etc., depending on the resolution of the high-resolution normal manufactured product image, and can be flexibly adjusted depending on the status of computing resources and defect detection performance. In addition, the grid image can include all inspection areas of the manufactured product image.
모든 제조품 이미지에 대해 그리드 분할을 수행한 후, 복수개의 그리드 이미지들을 활용해 오토인코더 학습을 위한 데이터 세트를 생성한다(S220). 본 발명의 실시예에서 사용되는 오토인코더는 정상 데이터의 특징을 학습하여 복원 데이터를 생성하기 위한 비지도 학습 기반 모델이므로 정상 데이터만을 사용하여 오토인코더 학습을 위한 데이터 세트인 그리드 이미지를 생성한다. After performing grid division on all manufactured product images, a data set for autoencoder learning is generated using multiple grid images (S220). Since the autoencoder used in the embodiment of the present invention is an unsupervised learning-based model for learning the characteristics of normal data and generating restored data, only normal data is used to generate grid images, which are a data set for autoencoder learning.
이후, 생성된 데이터 세트를 이용하여 오토인코더의 학습을 수행한다(S230).Afterwards, autoencoder training is performed using the generated data set (S230).
이후, 학습된 오토인코더를 기반으로 입력된 그리드 이미지에서 결함 후보 이미지 패치를 추출하고(S240). 추출된 결함 후보 이미지 패치를 활용해 합성곱 심층 신경망 학습을 위한 데이터 세트를 생성한다(S250). 본 발명의 실시예에서 사용되는 합성곱 심층 신경망은 지도 학습 기반 분류 모델이므로 학습을 위해서는 정상 데이터와 결함 데이터가 모두 필요하다. 따라서, 정상 이미지 패치 데이터는 정상 그리드 이미지로부터 추출할 수 있고, 결함 후보 이미지 패치 데이터는 비정상 그리드 이미지로부터 추출된 결함 후보 화소로부터 추출하거나, 획득한 결함 좌표를 중심으로 인접한 화소를 잘라내어 추출할 수 있다. 이와 같이 추출한 정상 이미지 패치 및 결함 후보 이미지 패치는 합성곱 심층 신경망 학습을 위한 데이터 세트로 사용된다.Thereafter, based on the learned autoencoder, a defect candidate image patch is extracted from the input grid image (S240). The extracted defect candidate image patches are used to generate a data set for learning a convolutional deep neural network (S250). Since the convolutional deep neural network used in the embodiment of the present invention is a classification model based on supervised learning, both normal data and defect data are required for learning. Therefore, the normal image patch data can be extracted from a normal grid image, and the defect candidate image patch data can be extracted from defect candidate pixels extracted from an abnormal grid image, or by cutting out adjacent pixels centered on the acquired defect coordinates. The normal image patches and defect candidate image patches extracted in this way are used as a data set for learning a convolutional deep neural network.
이후, 생성된 데이터 세트를 이용하여 합성곱 심층 신경망의 학습을 수행한다(S260).Afterwards, training of a convolutional deep neural network is performed using the generated data set (S260).
도 3은 본 발명의 일 실시예에 따른 오토인코더 및 합성곱 심층 신경망을 활용한 고해상도 영상 기반 제조품 결함 탐지 방법에서 추론 과정의 흐름도이다.FIG. 3 is a flowchart of an inference process in a high-resolution image-based manufacturing defect detection method using an autoencoder and a convolutional deep neural network according to one embodiment of the present invention.
도 3을 참조하면, 우선 영상 촬영 장치를 통해 고해상도 제조품 이미지를 촬영하고(S310), 촬영된 고해상도 제조품 이미지를 복수개의 그리드 이미지로 분할한다(S320).Referring to FIG. 3, first, a high-resolution image of a manufactured product is captured using an image capturing device (S310), and the captured high-resolution image of a manufactured product is divided into a plurality of grid images (S320).
도 4는 본 발명의 실시예에 따라 고해상도 제조품 이미지를 복수개의 그리드 이미지로 분할하는 단계를 설명하기 위한 도면이다.FIG. 4 is a drawing for explaining a step of dividing a high-resolution manufactured product image into a plurality of grid images according to an embodiment of the present invention.
도 4를 참조하면, 좌측에 도시된 바와 같은 고해상도 제조품 이미지가 입력 이미지로서 입력되면, 이를 기 설정된 해상도를 갖는 복수개의 그리드 이미지로 분할하여 복수개의 분할된 제조품 이미지, 즉 그리드 이미지를 획득할 수 있다.Referring to FIG. 4, when a high-resolution manufactured product image as shown on the left is input as an input image, it can be divided into a plurality of grid images having a preset resolution to obtain a plurality of divided manufactured product images, i.e., grid images.
이후, 기 학습된 오토인코더를 기반으로 그리드 이미지의 복원 이미지를 추출하고(S330), 입력 이미지와 복원 이미지의 차이인 차분 이미지를 추출한다(S340). 여기서, 복원 이미지는 심층 신경망으로 구성된 오토인코더 기반의 생성 모델을 통해 입력 이미지(즉, 그리드 이미지)로부터 도출된 이미지를 의미하는 것으로, 생성 모델의 가중치와 입력 이미지로부터 계산된 값이므로 0과 255 사이의 값을 가지지 않을 수 있다. 또한, 차분 이미지는 입력 이미지와 복원 이미지의 차이를 연산하여 도출된 이미지를 의미하는 것으로, 차분 이미지의 각 화소는 입력 이미지와 복원 이미지의 차이 연산으로 계산될 수 있는 양수값, 음수값, 또는 절대값을 포함할 수 있다. 또한, 차분 이미지의 화소값은 입력 이미지와 복원 이미지의 차이로부터 비롯된 값이므로 수치를 절대값으로 환산한 경우 0과 255 사이의 값을 가지지 않을 수 있다.Thereafter, a restored image of the grid image is extracted based on the learned autoencoder (S330), and a differential image, which is the difference between the input image and the restored image, is extracted (S340). Here, the restored image means an image derived from the input image (i.e., the grid image) through a generative model based on an autoencoder consisting of a deep neural network, and since it is a value calculated from the weights of the generative model and the input image, it may not have a value between 0 and 255. In addition, the differential image means an image derived by calculating the difference between the input image and the restored image, and each pixel of the differential image may include a positive value, a negative value, or an absolute value that can be calculated by calculating the difference between the input image and the restored image. In addition, since the pixel value of the differential image is a value derived from the difference between the input image and the restored image, if the numerical value is converted to an absolute value, it may not have a value between 0 and 255.
도 5는 본 발명의 일 실시예에 따라 오토인코더를 활용하여 고해상도 제조품 이미지의 차분 이미지를 추출하는 단계를 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining a step of extracting a differential image of a high-resolution manufactured product image using an autoencoder according to one embodiment of the present invention.
도 5를 참조하면, 복수개의 영상 촬영 장치에 의해 촬영된 복수개의 고해상도 제조품 이미지는 각각 복수개의 그리드 이미지로 분할되어 오토인코더로 입력된다. 기 학습된 오토인코더는 입력 이미지로부터 노이즈 및 결함이 포함되지 않은 복원 이미지를 추출할 수 있다. 복원 이미지와 입력 이미지의 차이 연산을 통해 차분 이미지를 추출하며, 차분 이미지에는 노이즈 및 실제 결함 화소들이 포함될 수 있다.Referring to Fig. 5, multiple high-resolution manufacturing images captured by multiple image capturing devices are each divided into multiple grid images and input to an autoencoder. The pre-trained autoencoder can extract a restored image that does not include noise and defects from the input image. A difference image is extracted by calculating the difference between the restored image and the input image, and the difference image may include noise and actual defective pixels.
이후, 차분 이미지를 기반으로 결함 후보 이미지 패치를 추출하고(S350), 제조품 검사 영역 기준에 따라 결함 후보를 필터링한 후(S360), 학습된 합성곱 심층 신경망을 기반으로 결함 후보 이미지 패치의 결함 여부를 판단한다(S370).Thereafter, a defect candidate image patch is extracted based on the difference image (S350), the defect candidates are filtered based on the manufacturing inspection area criteria (S360), and then whether the defect candidate image patch is defective is determined based on the learned convolutional deep neural network (S370).
도 6은 본 발명의 일 실시예에 따라 차분 이미지를 기반으로 결함 후보 이미지 패치를 추출하고 합성곱 심층 신경망을 기반으로 결함 후보 이미지 패치의 결함 여부를 판단하는 단계를 설명하기 위한 도면이다. FIG. 6 is a diagram for explaining a step of extracting a defect candidate image patch based on a differential image and determining whether the defect candidate image patch is defective based on a convolutional deep neural network according to one embodiment of the present invention.
도 6을 참조하면, 우선 차분 이미지를 기반으로 결함 탐지에 활용될 가능성이 높은 화소들인 결함 후보 화소들을 추출한다. 여기서, 결함 후보 화소들은 차분 이미지로부터 추출한 화소들로서, 결함 탐지에 활용될 가능성이 높은 최적의 화소들을 의미한다. 결함 후보 화소는 화소 자체를 의미함과 동시에, 화소의 절대 좌표 정보나, 화소 강도 등 화소가 가질 수 있는 특성 정보를 포함할 수 있다. 예를 들어, 차분 이미지로부터 기 설정된 임계값을 이용하여 결함 후보 화소들을 추출하거나, 화소 강도에 따라서 화소 강도가 높은 상위 N개(N은 자연수)의 화소를 결함 후보 화소로 추출하는 방법 등에 따라 결함 후보 화소들을 추출할 수 있다.Referring to Fig. 6, first, defect candidate pixels, which are pixels likely to be utilized for defect detection based on the differential image, are extracted. Here, the defect candidate pixels are pixels extracted from the differential image, and mean optimal pixels likely to be utilized for defect detection. The defect candidate pixels mean the pixels themselves, and may include information about the characteristics that the pixels may have, such as absolute coordinate information of the pixels or pixel intensity. For example, defect candidate pixels may be extracted by using a preset threshold value from the differential image, or by extracting the top N pixels (N is a natural number) with high pixel intensities as defect candidate pixels according to pixel intensity.
다음으로, 추출된 결함 후보 화소들을 기반으로 결함 후보 이미지 패치를 추출할 수 있다. 여기서, 결함 후보 이미지 패치는 결함 후보 화소의 좌표를 기준으로 인접한 입력 이미지 및 차분 이미지의 일부 화소들을 추출한 이미지를 의미한다. 다시 말해, 결함 후보 이미지 패치는 예를 들어 64 x 64, 128 x 128 등과 같이 작은 크기의 이미지로, 입력 이미지보다 상대적으로 적은 개수의 화소로 구성된다. 예를 들어, 결함 후보 화소들은 화소 강도, 좌표 정보 등을 포함하고 있으므로, 좌표 정보를 이용하여 입력 이미지 및 차분 이미지에서 결함 후보 화소에 인접한 주변 화소들을 추출하여 결함 후보 이미지 패치를 생성할 수 있다. 이와 같이 입력 이미지 및 차분 이미지로부터 결함 후보 이미지 패치를 추출함으로써 고해상도 제조품 이미지의 고차원성을 줄일 수 있다.Next, a defect candidate image patch can be extracted based on the extracted defect candidate pixels. Here, the defect candidate image patch means an image in which some pixels of adjacent input images and differential images are extracted based on the coordinates of the defect candidate pixels. In other words, the defect candidate image patch is a small-sized image, such as 64 x 64, 128 x 128, etc., and is composed of a relatively smaller number of pixels than the input image. For example, since the defect candidate pixels include pixel intensity, coordinate information, etc., the coordinate information can be used to extract surrounding pixels adjacent to the defect candidate pixels in the input image and the differential image to generate a defect candidate image patch. By extracting the defect candidate image patch from the input image and the differential image in this way, the high dimensionality of the high-resolution manufactured product image can be reduced.
상술한 바에 따라 생성한 결함 후보 이미지 패치는 노이즈와 실제 결함이 혼재해 있을 가능성이 높으므로 이를 분리해 주기 위해 제조품 검사 영역 기준에 따라 결함 후보를 필터링 하는 작업을 수행할 수 있다. 예를 들어, 인접한 화소 간의 수치를 비교하거나, 검사 영역 별 결함 크기, 결함 후보의 통계적 특성 등을 비교함으로써 결함 후보를 필터링할 수 있다.Since the defect candidate image patches generated as described above are likely to contain noise and actual defects, a task of filtering defect candidates based on the manufacturing inspection area criteria can be performed to separate them. For example, defect candidates can be filtered by comparing the numerical values between adjacent pixels, or by comparing the defect sizes by inspection area, statistical characteristics of defect candidates, etc.
이후, 합성곱 심층 신경망은 합성곱 연산을 통해 필터링이 수행된 결함 후보 이미지 패치의 결함 여부를 판단할 수 있다. 예를 들어, 합성곱 심층 신경망의 입력 벡터로 변환된 결함 후보 이미지 패치는 은닉층의 합성곱 연산을 통해 소프트맥스 출력값이 도출되며, 소프트맥스 출력값은 기 설정된 임계값을 기초로 정상 혹은 결함 범례로 변환할 수 있고, 이를 기반으로 결함 여부를 추론할 수 있다.After that, the convolutional deep neural network can determine whether the defect candidate image patch on which filtering has been performed is defective through convolutional operations. For example, the defect candidate image patch converted into the input vector of the convolutional deep neural network derives a softmax output value through the convolutional operation of the hidden layer, and the softmax output value can be converted into a normal or defective legend based on a preset threshold value, and whether there is a defect can be inferred based on this.
도 3을 참조하여 상술한 과정은 영상 촬영 장치에 의해 촬영된 모든 제조품 이미지에 대해 동일하게 수행될 수 있으며, 하나의 제조품에 대해 촬영된 모든 이미지에 대해 정상으로 추론된 경우, 해당 제조품은 결함이 없는 정상 제조품으로 판단할 수 있다.The process described above with reference to FIG. 3 can be performed identically for all manufactured product images captured by the imaging device, and if all images captured for one manufactured product are inferred to be normal, the manufactured product can be judged to be a normal manufactured product without any defects.
도 2 및 도 3을 참조하여 상술한 본 발명에 따른 방법은 입력된 이미지 데이터를 기초로 인공지능 모델의 학습 및 추론이 가능한 프로세싱 장치에 의해 수행될 수 있다.The method according to the present invention described above with reference to FIGS. 2 and 3 can be performed by a processing device capable of learning and inferring an artificial intelligence model based on input image data.
도 7 내지 도 9는 본 발명의 일 실시 예를 설명하기 위한 도면이다.Figures 7 to 9 are drawings for explaining one embodiment of the present invention.
도 7 내지 도 9를 참조하면, 우선 도 7에 도시된 바와 같이 고해상도 제조품 이미지가 입력되면 이를 복수개의 그리드 이미지로 분할할 수 있다.Referring to FIGS. 7 to 9, first, when a high-resolution manufactured product image is input as shown in FIG. 7, it can be divided into multiple grid images.
이후, 도 8에 도시된 바와 같이 학습된 오토인코더를 기반으로 각 그리드 이미지에 대한 차분 이미지를 추출하고 이를 기반으로 결함 후보 이미지 패치를 추출한 후 합성곱 심층 신경망 학습을 통해서 결함 여부를 판단할 수 있다.Afterwards, as shown in Fig. 8, a differential image for each grid image is extracted based on the learned autoencoder, and a defect candidate image patch is extracted based on this, and then the presence or absence of a defect can be determined through convolutional deep neural network learning.
도 9는 본 발명의 실시예에 따라 결함 탐지를 수행한 경우의 최종 결과물의 예시로서, 우측에 도시된 결함 탐지 결과 이미지에서 흰색 사각형은 분할된 그리드의 영역을 나타내고, 파란색 사각형은 결함 후보 이미지 패치를 나타내고, 초록색 사각형은 결함 후보 필터링에 따라 결함 후보로 걸러진 이미지 패치를 나타내며, 붉은색 사각형은 결함으로 최종 판정된 이미지 패치를 나타내는 것이다.FIG. 9 is an example of a final result when defect detection is performed according to an embodiment of the present invention. In the defect detection result image shown on the right, white squares represent areas of a segmented grid, blue squares represent defect candidate image patches, green squares represent image patches filtered out as defect candidates according to defect candidate filtering, and red squares represent image patches finally determined to be defects.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, these are merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible from this. Therefore, the true technical protection scope of the present invention should be determined by the technical idea of the following patent claims.
Claims (4)
기 학습된 오토인코더를 기반으로 상기 복수개의 그리드 이미지의 복원 이미지를 추출하는 단계;
상기 복원 이미지와 상기 그리드 이미지의 차이 연산을 통해 차분 이미지를 추출하는 단계;
상기 차분 이미지를 기반으로 결함 후보 이미지 패치를 추출하는 단계;
상기 결함 후보 이미지 패치에서 결함 후보를 필터링하는 단계; 및
기 학습된 합성곱 심층 신경망을 기반으로 필터링된 결함 후보 이미지 패치의 결함 여부를 판단하는 단계를 포함하며,
상기 결함 후보 이미지 패치를 추출하는 단계는,
차분 이미지로부터 기 설정된 임계값을 이용하여 상기 결함 후보 화소들을 추출하거나, 화소 강도에 따라서 화소 강도가 높은 상위 N개(N은 자연수)의 화소들을 상기 결함 후보 화소로 추출하고, 추출된 상기 결함 후보 화소들을 기반으로 결함 후보 이미지 패치를 추출하는 오토인코더 및 합성곱 심층 신경망을 활용한 고해상도 영상 기반 제조품 결함 탐지 방법.A step of dividing a high-resolution product image captured by an imaging device into a plurality of grid images;
A step of extracting a restored image of the plurality of grid images based on the learned autoencoder;
A step of extracting a difference image through a difference operation between the above restored image and the above grid image;
A step of extracting a defect candidate image patch based on the above difference image;
A step of filtering out defect candidates from the above defect candidate image patches; and
It includes a step of determining whether a filtered defect candidate image patch is defective based on a pre-trained convolutional deep neural network.
The step of extracting the above defect candidate image patch is:
A method for detecting defects in manufactured products based on high-resolution images, utilizing an autoencoder and a convolutional deep neural network, for extracting defect candidate pixels from a difference image using a preset threshold value, or extracting the top N pixels (N is a natural number) with high pixel intensities as the defect candidate pixels according to pixel intensity, and extracting a defect candidate image patch based on the extracted defect candidate pixels.
상기 결함 후보를 필터링하는 단계는,
상기 결함 후보 이미지 패치에서 인접한 화소 간의 수치를 비교하거나, 검사 영역 별 결함 크기 또는 결함 후보의 통계적 특성을 기 저장된 기준과 비교하여 상기 결함 후보를 필터링하는 오토인코더 및 합성곱 심층 신경망을 활용한 고해상도 영상 기반 제조품 결함 탐지 방법.In paragraph 1,
The step of filtering the above defect candidates is:
A method for detecting defects in manufactured products based on high-resolution images, utilizing an autoencoder and a convolutional deep neural network, for filtering defect candidates by comparing numerical values between adjacent pixels in the defect candidate image patches or by comparing the defect size or statistical characteristics of the defect candidates by inspection area with previously stored criteria.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020210170176A KR102818095B1 (en) | 2021-12-01 | 2021-12-01 | Method of detecting defect of manufactured product based on high-resolution image using autoencoder and convolutional neural network |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020210170176A KR102818095B1 (en) | 2021-12-01 | 2021-12-01 | Method of detecting defect of manufactured product based on high-resolution image using autoencoder and convolutional neural network |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20230082346A KR20230082346A (en) | 2023-06-08 |
| KR102818095B1 true KR102818095B1 (en) | 2025-06-11 |
Family
ID=86765562
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020210170176A Active KR102818095B1 (en) | 2021-12-01 | 2021-12-01 | Method of detecting defect of manufactured product based on high-resolution image using autoencoder and convolutional neural network |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102818095B1 (en) |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102665174B1 (en) * | 2023-11-22 | 2024-05-13 | 다겸 주식회사 | Electronic device for anomaly detection |
| KR102737169B1 (en) * | 2023-12-21 | 2024-11-29 | 국립군산대학교산학협력단 | Defect detection system and method using deep neural network based analysis of composite material thermal imaging |
| CN118212126B (en) * | 2024-03-22 | 2024-12-17 | 北京长木谷医疗科技股份有限公司 | Image data conversion method and device based on deep learning |
| KR102734188B1 (en) * | 2024-05-09 | 2024-11-26 | 주식회사 한국클라우드 | Method and device for determining the class of a target object |
| KR102753305B1 (en) * | 2024-05-13 | 2025-01-14 | 주식회사 아이브 | Anomaly detection method based on image patch set extracted from original image |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018205163A (en) * | 2017-06-06 | 2018-12-27 | 株式会社デンソー | Appearance inspection device, conversion data generation device, and program |
| KR102168724B1 (en) * | 2020-04-06 | 2020-10-22 | 이교혁 | Method And Apparatus for Discriminating Normal and Abnormal by using Vision Inspection |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102507304B1 (en) * | 2017-10-30 | 2023-03-07 | 삼성전자주식회사 | Methods of inspecting defect and methods of fabricating a semiconductor device using the same |
| KR102150673B1 (en) * | 2018-10-02 | 2020-09-01 | (주)지엘테크 | Inspection method for appearance badness and inspection system for appearance badness |
-
2021
- 2021-12-01 KR KR1020210170176A patent/KR102818095B1/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018205163A (en) * | 2017-06-06 | 2018-12-27 | 株式会社デンソー | Appearance inspection device, conversion data generation device, and program |
| KR102168724B1 (en) * | 2020-04-06 | 2020-10-22 | 이교혁 | Method And Apparatus for Discriminating Normal and Abnormal by using Vision Inspection |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20230082346A (en) | 2023-06-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102818095B1 (en) | Method of detecting defect of manufactured product based on high-resolution image using autoencoder and convolutional neural network | |
| US11694318B2 (en) | Electronic substrate defect detection | |
| CN115082683B (en) | Injection molding defect detection method based on image processing | |
| Rahaman et al. | Automatic defect detection and classification technique from image: a special case using ceramic tiles | |
| Bong et al. | Vision-based inspection system for leather surface defect detection and classification | |
| CN110930390B (en) | Chip pin missing detection method based on semi-supervised deep learning | |
| CN110473201A (en) | A kind of automatic testing method and device of disc surface defect | |
| CN118392891A (en) | Chip packaging defect detection method and system based on machine vision | |
| JP7415286B2 (en) | Color filter inspection equipment, inspection equipment, color filter inspection method and inspection method | |
| KR20220101373A (en) | Apparatus and method for detecting defects in pcb based on video | |
| KR102372714B1 (en) | Automatic defect inspection system based on deep learning | |
| US12444034B2 (en) | Teacher data generation method, trained learning model, and system | |
| CN110415222A (en) | A kind of spinning cake side face defects recognition methods based on textural characteristics | |
| KR20210086303A (en) | Pattern inspection apparatus based on deep learning and inspection method using the same | |
| CN114581359B (en) | Certificate image defect detection method and device | |
| WO2025148572A1 (en) | Target detection method and apparatus, electronic device, and storage medium | |
| CN113888459A (en) | Texture image defect detection system and method based on self-adaptive texture features | |
| CN115272350A (en) | Method for detecting production quality of computer PCB mainboard | |
| CN113971681A (en) | A method for edge detection of belt conveyor in complex environment | |
| CN114004858A (en) | Method and device for identifying aviation cable surface code based on machine vision | |
| CN120747061B (en) | Methods, devices and applications for detecting appearance defects | |
| KR102851858B1 (en) | A method of diagnosing surface defects in a plate-shaped member based on machine learning. | |
| CN119722682B (en) | A method and system for online detection of cable appearance particles | |
| KR20230168640A (en) | Apparatus and method for inspecting tool status and cut products in plastic working using artificial intelligence | |
| CN120375085A (en) | Waste plastic classification method and system based on visual recognition |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20211201 |
|
| PA0201 | Request for examination | ||
| PG1501 | Laying open of application | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20240625 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20250221 |
|
| PG1601 | Publication of registration |