KR102816948B1 - Apparatus for measuring physical quantity of target object and method thereof - Google Patents
Apparatus for measuring physical quantity of target object and method thereof Download PDFInfo
- Publication number
- KR102816948B1 KR102816948B1 KR1020220093573A KR20220093573A KR102816948B1 KR 102816948 B1 KR102816948 B1 KR 102816948B1 KR 1020220093573 A KR1020220093573 A KR 1020220093573A KR 20220093573 A KR20220093573 A KR 20220093573A KR 102816948 B1 KR102816948 B1 KR 102816948B1
- Authority
- KR
- South Korea
- Prior art keywords
- learning
- feature points
- image
- target object
- physical quantity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/03—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/026—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
실시예에 의한 대상 물체의 물리량을 측정하기 위한 장치 및 그 방법이 개시된다. 상기 대상 물체의 물리량 측정 장치는 미리 구축된 학습 이미지 데이터 셋을 기초로 딥러닝 모델을 미리 학습시키는 모델 학습부; 물리량 측정을 위해 실시간으로 수신된 이미지를 상기 미리 학습시킨 딥러닝 모델에 입력하여 미리 정해진 개수의 특징점들을 추출하는 특징점 추출부; 및 상기 추출된 미리 정해진 개수의 특징점들을 기초로 상기 이미지의 발열 코일과 튜브 단말 간 종단 거리를 산출하는 거리 산출부를 포함한다.A device and method for measuring a physical quantity of a target object according to an embodiment are disclosed. The device for measuring the physical quantity of the target object includes a model learning unit that pre-trains a deep learning model based on a pre-built learning image data set; a feature point extraction unit that inputs an image received in real time for measuring the physical quantity into the pre-trained deep learning model to extract a predetermined number of feature points; and a distance calculation unit that calculates a terminal distance between a heating coil and a tube terminal of the image based on the predetermined number of extracted feature points.
Description
실시예는 대상 물체의 물리량을 측정하기 위한 장치 및 그 방법에 관한 것이다.The invention relates to a device and method for measuring a physical quantity of a target object.
AOI(Automated Optical Inspection) 문제와 같은 이미지 내부의 기하학적인 물리량 측정 문제는 분류(Classification), 검출(Object detection), 예측(Prediction)에 주로 사용되는 현재의 딥러닝 기술로는 해결이 어려운 문제가 있다.Problems of measuring geometrical physical quantities inside images, such as the Automated Optical Inspection (AOI) problem, are difficult to solve with current deep learning technologies that are mainly used for classification, object detection, and prediction.
이때, 거리, 길이, 두께, 높이 반지름, 각도, 면적, 위치, 중심점 좌표, 등의 이미지 내의 기하학적 수치들이 바로 그러한 물리량에 해당한다.At this time, geometric figures within the image, such as distance, length, thickness, height radius, angle, area, position, and center point coordinates, correspond to such physical quantities.
현재의 딥러닝 기술로 상기와 같은 물리량들을 산출하기 위해선 회귀(regression) 모델을 이용해야 하는데, 일반화 성능을 얻기까지 방대한 데이타와 연속적인 참값을 동원해야 하기 때문에 현실적으로 구현이 어려운 문제가 있다.In order to calculate the above physical quantities using current deep learning technology, a regression model must be used. However, this is difficult to implement in reality because it requires a large amount of data and continuous true values to obtain generalization performance.
실시예는, 대상 물체의 물리량을 측정하기 위한 장치 및 그 방법을 제공할 수 있다.The embodiment can provide a device and method for measuring a physical quantity of a target object.
실시예에서 해결하고자 하는 과제는 이에 한정되는 것은 아니며, 아래에서 설명하는 과제의 해결수단이나 실시 형태로부터 파악될 수 있는 목적이나 효과도 포함된다고 할 것이다.The problem to be solved in the embodiment is not limited to this, and it can be said that the purpose or effect that can be understood from the solution or embodiment of the problem described below is also included.
실시예에 따른 대상 물체의 물리량 측정 장치는 미리 구축된 학습 이미지 데이터 셋을 기초로 딥러닝 모델을 미리 학습시키는 모델 학습부; 물리량 측정을 위해 실시간으로 수신된 이미지를 상기 미리 학습시킨 딥러닝 모델에 입력하여 미리 정해진 개수의 특징점들을 추출하는 특징점 추출부; 및 상기 추출된 미리 정해진 개수의 특징점들을 기초로 상기 이미지의 발열 코일과 튜브 단말 간 종단 거리를 산출하는 거리 산출부를 포함할 수 있다.A physical quantity measuring device of a target object according to an embodiment may include a model learning unit that pre-trains a deep learning model based on a pre-built learning image data set; a feature point extraction unit that inputs an image received in real time for measuring a physical quantity into the pre-trained deep learning model to extract a predetermined number of feature points; and a distance calculation unit that calculates a terminal distance between a heating coil and a tube terminal of the image based on the predetermined number of extracted feature points.
상기 모델 학습부는 상기 미리 구축된 학습용 이미지 데이터 셋으로부터 학습 이미지를 입력받아 상기 입력받은 학습용 이미지를 전처리하여 코너 맵을 생성하고, 상기 생성된 코너 맵을 기초로 학습용 이미지 내 미리 정해진 개수의 특징점들을 라벨링하고, 상기 미리 정해진 개수의 특징점들이 라벨링된 학습용 이미지를 기초로 상기 딥러닝 모델을 학습시킬 수 있다.The above model learning unit can input learning images from the above pre-built learning image data set, preprocess the input learning images to generate corner maps, label a predetermined number of feature points in the learning images based on the generated corner maps, and train the deep learning model based on the learning images labeled with the predetermined number of feature points.
상기 모델 학습부는 위상 합동 코너 알고리즘(phase congruency corner algorithm)을 이용하여 상기 학습 이미지로부터 코너 맵을 생성할 수 있다.The above model learning unit can generate a corner map from the learning image using a phase congruency corner algorithm.
상기 특징점 추출부는 상기 실시간으로 수신된 이미지를 전처리하여 코너 맵을 생성하고, 상기 생성된 코너 맵을 상기 딥러닝 모델에 입력하여 이에 대한 응답으로 상기 수신된 이미지 내 미리 정해진 개수의 특징점을 추출할 수 있다.The above-mentioned feature point extraction unit can preprocess the image received in real time to generate a corner map, input the generated corner map into the deep learning model, and extract a predetermined number of feature points in the received image in response thereto.
상기 거리 산출부는 상기 발열 코일의 하나의 특징점과 상기 튜브 단말의 2개의 특징점의 좌표값을 산출하고, 상기 산출된 좌표값을 기초로 상기 종단 거리를 산출할 수 있다.The above distance calculation unit can calculate coordinate values of one feature point of the heating coil and two feature points of the tube terminal, and calculate the terminal distance based on the calculated coordinate values.
상기 거리 산출부는 상기 산출된 좌표값을 기초로 상기 튜브 단말의 특징점들 간의 직선에 상기 발열 코일의 특징점으로부터 법선을 그어, 상기 법선의 길이를 상기 종단 거리로 산출할 수 있다.The above distance calculating unit can draw a normal line from the feature point of the heating coil to a straight line between the feature points of the tube terminal based on the calculated coordinate values, and calculate the length of the normal line as the terminal distance.
상기 대상 물체의 물리량 측정 장치는 미리 정해진 학습 이미지를 수집하여 상기 수집된 학습 이미지를 포함하는 학습용 이미지 데이터 셋을 구축하는 데이터 구축부를 더 포함하고, 상기 데이터 구축부는 상기 딥러닝 모델에 의해 물리량 측정하는데 사용된 이미지를 상기 학습용 이미지 데이터 셋에 추가하여 확장시킬 수 있다.The physical quantity measuring device of the above target object further includes a data construction unit that collects predetermined learning images and constructs a learning image data set including the collected learning images, and the data construction unit can expand the learning image data set by adding an image used for measuring the physical quantity by the deep learning model.
상기 데이터 구축부는 미리 정해진 적어도 하나의 데이터 증강 함수를 이용하여 가상의 학습 이미지를 생성하고, 상기 생성된 가상의 학습 이미지를 상기 학습용 이미지 데이터 셋에 추가하여 확장시킬 수 있다.The above data construction unit can generate a virtual learning image using at least one pre-defined data augmentation function, and expand the generated virtual learning image by adding it to the learning image data set.
실시예에 따른 대상 물체의 물리량 측정 방법은 미리 구축된 학습 이미지 데이터 셋을 기초로 딥러닝 모델을 미리 학습시키는 모델 학습단계; 물리량 측정을 위해 실시간으로 수신된 이미지를 상기 미리 학습시킨 딥러닝 모델에 입력하여 미리 정해진 개수의 특징점들을 추출하는 특징점 추출단계; 및 상기 추출된 미리 정해진 개수의 특징점들을 기초로 상기 이미지의 발열 코일과 튜브 단말 간 종단 거리를 산출하는 거리 산출단계를 포함할 수 있다.A method for measuring a physical quantity of a target object according to an embodiment may include a model learning step for pre-learning a deep learning model based on a pre-built learning image data set; a feature point extraction step for inputting an image received in real time for measuring a physical quantity into the pre-learned deep learning model to extract a predetermined number of feature points; and a distance calculation step for calculating a terminal distance between a heating coil and a tube terminal of the image based on the predetermined number of extracted feature points.
상기 모델 학습단계는 상기 미리 구축된 학습용 이미지 데이터 셋으로부터 학습 이미지를 입력받아 상기 입력받은 학습용 이미지를 전처리하여 코너 맵을 생성하고, 상기 생성된 코너 맵을 기초로 학습용 이미지 내 미리 정해진 개수의 특징점들을 라벨링하고, 상기 미리 정해진 개수의 특징점들이 라벨링된 학습용 이미지를 기초로 상기 딥러닝 모델을 학습시킬 수 있다.The above model learning step may input learning images from the above pre-built learning image data set, preprocess the input learning images to generate corner maps, label a predetermined number of feature points in the learning images based on the generated corner maps, and train the deep learning model based on the learning images labeled with the predetermined number of feature points.
상기 모델 학습단계는 위상 합동 코너 알고리즘(phase congruency corner algorithm)을 이용하여 상기 학습 이미지로부터 코너 맵을 생성할 수 있다.The above model learning step can generate a corner map from the training image using a phase congruency corner algorithm.
상기 특징점 추출단계는 상기 실시간으로 수신된 이미지를 전처리하여 코너 맵을 생성하고, 상기 생성된 코너 맵을 상기 딥러닝 모델에 입력하여 이에 대한 응답으로 상기 수신된 이미지 내 미리 정해진 개수의 특징점을 추출할 수 있다.The above feature point extraction step can preprocess the image received in real time to generate a corner map, input the generated corner map into the deep learning model, and extract a predetermined number of feature points in the received image in response thereto.
상기 거리 산출단계는 상기 발열 코일의 하나의 특징점과 상기 튜브 단말의 2개의 특징점의 좌표값을 산출하고, 상기 산출된 좌표값을 기초로 상기 종단 거리를 산출할 수 있다.The above distance calculation step can calculate the coordinate values of one feature point of the heating coil and two feature points of the tube terminal, and calculate the terminal distance based on the calculated coordinate values.
상기 거리 산출단계는 상기 산출된 좌표값을 기초로 상기 튜브 단말의 특징점들 간의 직선에 상기 발열 코일의 특징점으로부터 법선을 그어, 상기 법선의 길이를 상기 종단 거리로 산출할 수 있다.The above distance calculation step can calculate the length of the normal line as the terminal distance by drawing a normal line from the feature point of the heating coil to the straight line between the feature points of the tube terminal based on the calculated coordinate values.
상기 대상 물체의 물리량 측정 방법은 상기 모델 학습단계의 이전에 미리 정해진 학습 이미지를 수집하여 상기 수집된 학습 이미지를 포함하는 학습용 이미지 데이터 셋을 구축하는 데이터 구축단계를 더 포함하고, 상기 데이터 구축단계는 상기 딥러닝 모델에 의해 물리량 측정하는데 사용된 이미지를 상기 학습용 이미지 데이터 셋에 추가하여 확장시킬 수 있다.The above method for measuring physical quantities of the target object further includes a data construction step of collecting predetermined learning images prior to the model learning step and constructing a learning image data set including the collected learning images, and the data construction step can be expanded by adding an image used for measuring physical quantities by the deep learning model to the learning image data set.
상기 데이터 구축단계는 미리 정해진 적어도 하나의 데이터 증강 함수를 이용하여 가상의 학습 이미지를 생성하고, 상기 생성된 가상의 학습 이미지를 상기 학습용 이미지 데이터 셋에 추가하여 확장시킬 수 있다.The above data construction step can generate a virtual learning image using at least one pre-defined data augmentation function, and expand the generated virtual learning image by adding it to the learning image data set.
실시예에 따르면, 딥러닝 모델에 의해 추출된 발열 코일의 특징점과 튜브 단말의 특징점을 이용하여 발열 코일과 튜브 단말 간 종단 거리를 산출하도록 함으로써, 이미지 내 기하학적인 물리량을 정밀하게 측정하는 것이 가능할 수 있다.According to an embodiment, it may be possible to precisely measure geometrical physical quantities in an image by calculating the longitudinal distance between a heating coil and a tube terminal using feature points of a heating coil and feature points of a tube terminal extracted by a deep learning model.
본 발명의 다양하면서도 유익한 장점과 효과는 상술한 내용에 한정되지 않으며, 본 발명의 구체적인 실시형태를 설명하는 과정에서 보다 쉽게 이해될 수 있을 것이다.The various advantageous and beneficial advantages and effects of the present invention are not limited to the above-described contents, and will be more easily understood in the course of explaining specific embodiments of the present invention.
도 1은 실시예에 따른 대상 물체의 물리량을 측정하기 위한 시스템을 나타내는 도면이다.
도 2는 실시예에 따른 대상 물체의 물리량을 측정하기 위한 방법을 나타내는 도면이다.
도 3은 도 2에 도시된 딥러닝 모델 학습 과정을 상세히 나타내는 도면이다.
도 4 내지 도 6은 도 2에 도시된 종단 거리 산출 원리를 설명하기 위한 도면들이다.
도 7은 도 1에 도시된 물리량 측정장치의 상세한 구성을 나타내는 도면이다.
도 8은 도 7에 도시된 데이터 구축부의 상세한 구성을 나타내는 도면이다.
도 9는 도 7에 도시된 특징점 추출부의 상세한 구성을 나타내는 도면이다.Figure 1 is a drawing showing a system for measuring physical quantities of a target object according to an embodiment.
Figure 2 is a drawing showing a method for measuring a physical quantity of a target object according to an embodiment.
Figure 3 is a diagram illustrating in detail the deep learning model learning process illustrated in Figure 2.
Figures 4 to 6 are drawings for explaining the principle of calculating the longitudinal distance illustrated in Figure 2.
Figure 7 is a drawing showing a detailed configuration of the physical quantity measuring device illustrated in Figure 1.
Figure 8 is a drawing showing the detailed configuration of the data construction unit illustrated in Figure 7.
Figure 9 is a drawing showing the detailed configuration of the feature point extraction unit illustrated in Figure 7.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the embodiments described, but can be implemented in various different forms, and within the scope of the technical idea of the present invention, one or more of the components among the embodiments can be selectively combined or substituted for use.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention can be interpreted as having a meaning that can be generally understood by a person of ordinary skill in the technical field to which the present invention belongs, unless explicitly and specifically defined and described, and terms that are commonly used, such as terms defined in a dictionary, can be interpreted in consideration of the contextual meaning of the relevant technology.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.Additionally, the terms used in the embodiments of the present invention are for the purpose of describing the embodiments and are not intended to limit the present invention.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, “A 및(와) B, C 중 적어도 하나(또는 한 개 이상)”로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In this specification, the singular may also include the plural unless specifically stated otherwise in the phrase, and when it is described as “A and/or at least one (or more) of B, C”, it may include one or more of all combinations that can be combined with A, B, C.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.Additionally, in describing components of embodiments of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only intended to distinguish one component from another, and are not intended to limit the nature, order, or sequence of the component.
그리고, 어떤 구성 요소가 다른 구성요소에 ‘연결’, ‘결합’ 또는 ‘접속’된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 ‘연결’, ‘결합’ 또는 ‘접속’ 되는 경우도 포함할 수 있다.In addition, when a component is described as being “connected,” “coupled,” or “connected” to another component, it may include not only cases where the component is directly connected, coupled, or connected to the other component, but also cases where the component is “connected,” “coupled,” or “connected” by another component between the component and the other component.
또한, 각 구성 요소의 “상(위) 또는 하(아래)”에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, “상(위) 또는 하(아래)”으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.In addition, when described as being formed or arranged “above or below” each component, above or below includes not only the case where the two components are in direct contact with each other, but also the case where one or more other components are formed or arranged between the two components. In addition, when expressed as “above or below,” it can include the meaning of the downward direction as well as the upward direction based on one component.
도 1은 실시예에 따른 대상 물체의 물리량을 측정하기 위한 시스템을 나타내는 도면이다.Figure 1 is a drawing showing a system for measuring physical quantities of a target object according to an embodiment.
도 1을 참조하면, 본 발명의 실시예에 따른 대상 물체의 물리량을 측정하기 위한 시스템은 엑스레이 발생기(10) 및 물리량 측정장치(100)를 포함할 수 있다.Referring to FIG. 1, a system for measuring a physical quantity of a target object according to an embodiment of the present invention may include an X-ray generator (10) and a physical quantity measuring device (100).
엑스레이 발생기(10)는 엑스레이(X-ray)를 발생시켜 대상 물체(1)에 투사할 수 있다.An X-ray generator (10) can generate X-rays and project them onto a target object (1).
물리량 측정장치(100)는 엑스레이에 의해 촬영된 이미지를 획득하고, 획득된 이미지로부터 대상 물체의 물리량을 측정할 수 있다. 여기서, 물리량은 이미지 내 대상 물체의 기하학적인 물리량 예컨대, 길이, 면적, 각도, 반지름, 중심점 등을 포함할 수 있다.A physical quantity measuring device (100) can obtain an image captured by an X-ray and measure a physical quantity of a target object from the obtained image. Here, the physical quantity can include geometric physical quantities of the target object in the image, such as length, area, angle, radius, center point, etc.
실시예에서는 히팅 코일을 측정하고자 하는 시료로 사용하는 경우를 일 예로 설명하되, 이미지 내 발열 코일과 튜브 단말 간의 종단 거리를 측정하고자 한다.In the embodiment, an example is described in which a heating coil is used as a sample to be measured, and the longitudinal distance between the heating coil and the tube terminal in the image is to be measured.
도 2는 실시예에 따른 대상 물체의 물리량을 측정하기 위한 방법을 나타내는 도면이고, 도 3은 도 2에 도시된 딥러닝 모델 학습 과정을 상세히 나타내는 도면이고, 도 4 내지 도 6은 도 2에 도시된 종단 거리 산출 원리를 설명하기 위한 도면들이다.FIG. 2 is a drawing showing a method for measuring a physical quantity of a target object according to an embodiment, FIG. 3 is a drawing showing in detail the deep learning model learning process shown in FIG. 2, and FIGS. 4 to 6 are drawings for explaining the terminal distance calculation principle shown in FIG. 2.
도 2를 참조하면, 본 발명의 실시예에 따른 대상 물체의 물리량을 측정하기 위한 장치(이하, 물리량 측정장치라고 한다)는 학습 이미지를 수집할 수 있다(S100).Referring to FIG. 2, a device for measuring a physical quantity of a target object according to an embodiment of the present invention (hereinafter referred to as a physical quantity measuring device) can collect learning images (S100).
다음으로, 물리량 측정장치는 수집된 학습 이미지를 포함하는 학습용 이미지 데이터를 구축할 수 있다(S200).Next, the physical quantity measuring device can construct learning image data including the collected learning images (S200).
이때, 학습용 이미지 데이터는 이미지 내 발열 코일과 튜브 단말 간의 종단 거리를 사용하기 위해 사용되는 미리 정해진 특징점이 표시된 데이터일 수 있다.At this time, the image data for learning may be data indicating predetermined feature points used to use the terminal distance between the heating coil and the tube terminal in the image.
다음으로, 물리량 측정장치는 구축된 학습용 이미지 데이터 내 학습용 이미지를 기초로 딥러닝 모델을 학습시킬 수 있다(S300).Next, the physical quantity measuring device can train a deep learning model based on training images in the constructed training image data (S300).
도 3을 참조하면, 물리량 측정장치는 구축된 학습용 이미지 데이터로부터 학습용 이미지를 입력받고 입력받은 학습용 이미지를 전처리하여 코너 맵을 생성할 수 있다.Referring to FIG. 3, the physical quantity measuring device can input a learning image from the constructed learning image data and preprocess the input learning image to generate a corner map.
이때, 학습용 이미지는 도 4와 같이 발열 코일(2)과 튜브 단말(3)을 포함하는 이미지일 수 있다.At this time, the learning image may be an image including a heating coil (2) and a tube terminal (3) as shown in Fig. 4.
이때, 학습용 이미지를 전처리하는 과정은 조명, 콘트라스트 변화에 강한 코너를 강조해 주는 필터링 과정을 포함할 수 있다. 실시예에서는 미리 정해진 알고리즘 예컨대, 위상 합동 코너 알고리즘(phase congruency corner algorithm)을 이용하여 학습용 이미지로부터 코너 맵을 생성할 수 있지만 반드시 이에 한정되지 않는다.At this time, the process of preprocessing the learning image may include a filtering process that emphasizes corners that are strong against changes in lighting and contrast. In an embodiment, a corner map may be generated from the learning image using a predetermined algorithm, for example, a phase congruency corner algorithm, but is not necessarily limited thereto.
물리량 측정장치는 생성된 코너 맵을 기초로 학습용 이미지 내 특징점들을 라벨링할 수 있다. 실시예에서는 적어도 3개의 특징점들을 필요로 하는데, 예컨대, 발열 코일의 1개의 특징점과 튜브 단말의 2개의 특징점을 필요로 한다. 따라서 물리량 측정장치는 도 5와 같이 학습용 이미지 내 발열 코일(2)의 1개의 특징점을 n으로 라벨링하고, 튜브 단말(3)의 2개의 특징점을 x, y로 라벨링할 수 있다.The physical quantity measuring device can label feature points in the learning image based on the generated corner map. In the embodiment, at least three feature points are required, for example, one feature point of the heating coil and two feature points of the tube terminal are required. Accordingly, the physical quantity measuring device can label one feature point of the heating coil (2) in the learning image as n, and label two feature points of the tube terminal (3) as x and y, as shown in Fig. 5.
물리량 측정장치는 특징점들이 라벨링된 학습용 이미지를 기초로 딥러닝 모델을 학습시킬 수 있다.A physical quantity measuring device can train a deep learning model based on training images with labeled feature points.
한편, 물리량 측정장치는 이미지를 실시간으로 수신하면(S400), 수신된 이미지로부터 코너 맵을 생성할 수 있다. Meanwhile, when the physical quantity measuring device receives an image in real time (S400), it can generate a corner map from the received image.
다음으로, 물리량 측정장치는 생성된 코너 맵을 미리 학습시킨 딥러닝 모델에 입력하여 이에 대한 응답으로 수신된 이미지 내 다수의 특징점을 추출할 수 있다.Next, the physical quantity measuring device can input the generated corner map into a pre-trained deep learning model and extract a number of feature points in the received image in response.
다음으로, 물리량 측정장치는 추출된 특징점의 좌표값을 산출하고, 산출된 특징점의 좌표값을 기초로 발열 코일과 튜브 단말 간의 종단 거리를 산출할 수 있다.Next, the physical quantity measuring device can calculate the coordinate values of the extracted feature points, and calculate the longitudinal distance between the heating coil and the tube terminal based on the coordinate values of the calculated feature points.
구체적으로 설명하면, 도 6과 같이 물리량 측정장치는 추출된 3개의 특징점들 P1, P2, P3 각각의 좌표값 (x1, y1), (x2, y2), (x3, y3)을 산출하고, 튜브 단말(3)의 특징점들 P1, P2 간의 직선에 발열 코일(2)의 특징점 P3으로부터 법선을 그어, 법선의 길이를 발열 코일(2)과 튜브 단말(3) 간의 종단 거리 D로 산출할 수 있다.Specifically, as shown in FIG. 6, the physical quantity measuring device calculates the coordinate values (x1, y1), (x2, y2), (x3, y3) of each of the three extracted feature points P1, P2, and P3, and draws a normal line from the feature point P3 of the heating coil (2) to the straight line between the feature points P1 and P2 of the tube terminal (3), and calculates the length of the normal line as the longitudinal distance D between the heating coil (2) and the tube terminal (3).
이때, 튜브 단말의 특징점들 P1, P2 간의 직선의 길이는 튜브 단말의 지름에 해당하기 때문에, 튜브 단말의 특징점들 P1, P2은 이를 고려하여 추출될 수 있다.At this time, since the length of the straight line between the feature points P1 and P2 of the tube terminal corresponds to the diameter of the tube terminal, the feature points P1 and P2 of the tube terminal can be extracted by taking this into consideration.
도 7은 도 1에 도시된 물리량 측정장치의 상세한 구성을 나타내는 도면이고, 도 8은 도 7에 도시된 모델 학습부의 상세한 구성을 나타내는 도면이고, 도 9는 도 7에 도시된 특징점 추출부의 상세한 구성을 나타내는 도면이다.FIG. 7 is a drawing showing a detailed configuration of the physical quantity measuring device shown in FIG. 1, FIG. 8 is a drawing showing a detailed configuration of the model learning unit shown in FIG. 7, and FIG. 9 is a drawing showing a detailed configuration of the feature point extraction unit shown in FIG. 7.
도 7을 참조하면, 본 발명의 실시예에 따른 대상 물체의 물리량을 측정하기 위한 장치는 이미지 획득부(110), 데이터 구축부(120), 모델 학습부(130), 특징점 추출부(140), 거리 산출부(150)를 포함할 수 있다.Referring to FIG. 7, a device for measuring a physical quantity of a target object according to an embodiment of the present invention may include an image acquisition unit (110), a data construction unit (120), a model learning unit (130), a feature point extraction unit (140), and a distance calculation unit (150).
이미지 획득부(110)는 엑스레이에 의해 촬영된 이미지를 획득할 수 있다. 여기서 이미지는 직접적으로 촬영된 이미지이거나 영상 처리에 의해 생성된 이미지일 수 있다.The image acquisition unit (110) can acquire an image captured by an X-ray. Here, the image may be an image captured directly or an image generated by image processing.
데이터 구축부(120)는 미리 수집된 학습 이미지를 포함하는 학습용 이미지 데이터 셋을 구축할 수 있다. 학습용 이미지 데이터 셋은 지속적으로 갱신 또는 확장될 수 있다.The data construction unit (120) can construct a learning image data set including pre-collected learning images. The learning image data set can be continuously updated or expanded.
그 일예로, 데이터 구축부(120)는 학습용 이미지 데이터 셋을 구축하되, 딥러닝 모델에 의해 물리량을 산출하는데 사용된 이미지를 학습용 이미지 데이터 셋에 추가하여 확장시킬 수 있다.For example, the data construction unit (120) can construct a learning image data set, and expand the learning image data set by adding an image used to calculate physical quantities by a deep learning model.
다른 예로, 데이터 구축부(120)는 학습용 이미지 데이터 셋을 구축하되, 미리 정해진 다양한 데이터 증강(data augmentation) 함수를 이용하여 가상의 학습 이미지를 생성하고 생성된 가상의 학습 이미지를 학습용 이미지 데이터 셋에 추가하여 확장시킬 수 있다.As another example, the data construction unit (120) may construct a learning image data set, and may expand the learning image data set by generating a virtual learning image using various pre-determined data augmentation functions and adding the generated virtual learning image to the learning image data set.
이때, 미리 정해진 데이터 증감 함수로는 예컨대, horizontal flip, vertical flip, random rotate90, radom brightness, guassian noise, Gaussian blur, color jittering, negative image 등을 포함할 수 있다.At this time, the predefined data increase/decrease functions may include, for example, horizontal flip, vertical flip, random rotate90, radom brightness, guassian noise, Gaussian blur, color jittering, negative image, etc.
모델 학습부(130)는 구축된 학습용 이미지 데이터를 기초로 딥러닝 모델을 학습시킬 수 있다.The model learning unit (130) can learn a deep learning model based on constructed learning image data.
도 8과 같이, 모델 학습부(130)는 수집부(131), 전처리부(132), 학습부(133)를 포함할 수 있다.As shown in Fig. 8, the model learning unit (130) may include a collection unit (131), a preprocessing unit (132), and a learning unit (133).
수집부(131)는 학습용 이미지 데이터로부터 학습 이미지를 입력받을 수 있다.The collection unit (131) can receive learning images from learning image data.
전처리부(132)는 입력받은 학습용 이미지를 전처리하여 코너 맵을 생성하고, 생성된 코너 맵을 기초로 학습용 이미지 내 특징점들을 라벨링할 수 있다.The preprocessing unit (132) can preprocess the input training image to generate a corner map and label feature points in the training image based on the generated corner map.
학습부(133)는 특징점들이 라벨링된 학습용 이미지를 기초로 딥러닝 모델을 학습시킬 수 있다. 여기서 딥러닝 모델은 발열 코일과 튜브 단말 간 최적의 거리를 산출하기 위한 미리 정해진 개수의 특징점들을 추출하기 위한 모델일 수 있다.The learning unit (133) can learn a deep learning model based on a learning image in which feature points are labeled. Here, the deep learning model can be a model for extracting a predetermined number of feature points to calculate the optimal distance between the heating coil and the tube terminal.
특징점 추출부(140)는 물리량을 측정하기 위해 실시간으로 수신된 이미지를 미리 학습시킨 딥러닝 모델에 입력하여 미리 정해진 개수의 특징점을 추출할 수 있다.The feature point extraction unit (140) can input an image received in real time to a pre-trained deep learning model to extract a predetermined number of feature points in order to measure physical quantities.
도 9와 같이, 특징점 추출부(140)는 수집부(141), 전처리부(142), 추출부(143)를 포함할 수 있다.As shown in Fig. 9, the feature point extraction unit (140) may include a collection unit (141), a preprocessing unit (142), and an extraction unit (143).
수집부(141)는 물리량을 측정하기 위해 실시간으로 수신된 이미지를 수집할 수 있다.The collection unit (141) can collect images received in real time to measure physical quantities.
전처리부(142)는 수신된 이미지를 전처리하여 코너 맵을 생성할 수 있다. 전처리부(142)는 미리 정해진 알고리즘을 이용하여 이미지로부터 코너 맵을 생성할 수 있다.The preprocessing unit (142) can preprocess the received image to generate a corner map. The preprocessing unit (142) can generate a corner map from the image using a predetermined algorithm.
추출부(143)는 생성된 코너 맵을 미리 학습시킨 딥러닝 모델에 입력하여 이에 대한 응답으로 수신된 이미지 내 미리 정해진 다수의 특징점을 추출할 수 있다.The extraction unit (143) can input the generated corner map into a pre-trained deep learning model and extract a number of predetermined feature points in the received image in response thereto.
거리 산출부(150)는 추출된 다수의 특징점 즉, 발열 코너의 특징점과 튜브 코너의 특징점을 기초로 발열 코일과 튜브 단말 간의 종단 거리를 산출할 수 있다.The distance calculation unit (150) can calculate the longitudinal distance between the heating coil and the tube terminal based on a number of extracted feature points, i.e., feature points of the heating corner and feature points of the tube corner.
본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term '~ part' used in this embodiment means a software or hardware component such as a field-programmable gate array (FPGA) or an ASIC, and the '~ part' performs certain roles. However, the '~ part' is not limited to software or hardware. The '~ part' may be configured to be on an addressable storage medium and may be configured to play one or more processors. Thus, as an example, the '~ part' includes components such as software components, object-oriented software components, class components, and task components, processes, functions, attributes, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functionality provided in the components and '~ parts' may be combined into a smaller number of components and '~ parts' or further separated into additional components and '~ parts'. Additionally, the components and '~parts' may be implemented to regenerate one or more CPUs within the device or secure multimedia card.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described above with reference to preferred embodiments thereof, it will be understood by those skilled in the art that various modifications and changes may be made to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below.
10: 엑스레이 발생기
100: 물리량 측정장치
110: 이미지 획득부
120: 데이터 구축부
130: 모델 학습부
140: 특징점 추출부
150: 거리 산출부10: X-ray generator
100: Physical quantity measuring device
110: Image acquisition section
120: Data Construction Department
130: Model Learning Section
140: Feature extraction section
150: Distance Calculation Unit
Claims (16)
물리량 측정을 위해 실시간으로 수신된 이미지를 상기 미리 학습시킨 딥러닝 모델에 입력하여 미리 정해진 개수의 특징점들을 추출하는 특징점 추출부; 및
상기 추출된 미리 정해진 개수의 특징점들을 기초로 상기 이미지의 발열 코일과 튜브 단말 간 종단 거리를 산출하는 거리 산출부를 포함하고,
상기 거리 산출부는
상기 발열 코일의 하나의 특징점과 상기 튜브 단말의 2개의 특징점의 좌표값을 산출하고,
상기 산출된 좌표값을 기초로 상기 종단 거리를 산출하는, 대상 물체의 물리량 측정 장치.A model learning unit that pre-trains a deep learning model based on a pre-built learning image data set;
A feature point extraction unit that inputs an image received in real time for physical quantity measurement into the pre-trained deep learning model to extract a predetermined number of feature points; and
A distance calculation unit is included for calculating the longitudinal distance between the heating coil and the tube terminal of the image based on the predetermined number of feature points extracted above.
The above distance calculation section
Calculate the coordinate values of one feature point of the above heating coil and two feature points of the above tube terminal,
A physical quantity measuring device for a target object that calculates the terminal distance based on the calculated coordinate values.
상기 모델 학습부는,
상기 미리 구축된 학습용 이미지 데이터 셋으로부터 학습 이미지를 입력받아 상기 입력받은 학습용 이미지를 전처리하여 코너 맵을 생성하고,
상기 생성된 코너 맵을 기초로 학습용 이미지 내 상기 미리 정해진 개수의 특징점들을 라벨링하고,
상기 미리 정해진 개수의 특징점들이 라벨링된 학습용 이미지를 기초로 상기 딥러닝 모델을 학습시키는, 대상 물체의 물리량 측정 장치.In the first paragraph,
The above model learning part is,
Input training images from the above pre-built training image data set, preprocess the input training images, and create a corner map.
Based on the generated corner map, a predetermined number of feature points in the training image are labeled,
A physical quantity measuring device for a target object that trains the deep learning model based on a training image labeled with the above-described number of feature points.
상기 모델 학습부는,
위상 합동 코너 알고리즘(phase congruency corner algorithm)을 이용하여 상기 학습 이미지로부터 코너 맵을 생성하는, 대상 물체의 물리량 측정 장치.In the second paragraph,
The above model learning part is,
A physical quantity measuring device of a target object that generates a corner map from the training image using a phase congruency corner algorithm.
상기 특징점 추출부는,
상기 실시간으로 수신된 이미지를 전처리하여 코너 맵을 생성하고,
상기 생성된 코너 맵을 상기 딥러닝 모델에 입력하여 이에 대한 응답으로 상기 수신된 이미지 내 미리 정해진 개수의 특징점을 추출하는, 대상 물체의 물리량 측정 장치.In the first paragraph,
The above feature extraction unit,
Preprocess the image received in real time to create a corner map,
A physical quantity measuring device for a target object, which inputs the generated corner map into the deep learning model and extracts a predetermined number of feature points in the received image in response thereto.
상기 거리 산출부는,
상기 산출된 좌표값을 기초로 상기 튜브 단말의 특징점들 간의 직선에 상기 발열 코일의 특징점으로부터 법선을 그어,
상기 법선의 길이를 상기 종단 거리로 산출하는, 대상 물체의 물리량 측정 장치.In the first paragraph,
The above distance calculation section,
Based on the above-described coordinate values, a normal line is drawn from the feature points of the heating coil to the straight line between the feature points of the tube terminal.
A physical quantity measuring device for a target object that calculates the length of the above normal line as the above terminal distance.
미리 정해진 학습 이미지를 수집하여 상기 수집된 학습 이미지를 포함하는 학습용 이미지 데이터 셋을 구축하는 데이터 구축부를 더 포함하고,
상기 데이터 구축부는,
상기 딥러닝 모델에 의해 물리량 측정하는데 사용된 이미지를 상기 학습용 이미지 데이터 셋에 추가하여 확장시키는, 대상 물체의 물리량 측정 장치.In the first paragraph,
Further comprising a data construction unit for collecting pre-determined learning images and constructing a learning image data set including the collected learning images,
The above data construction unit,
A device for measuring physical quantities of a target object, which expands the image used to measure physical quantities by the deep learning model by adding it to the training image data set.
상기 데이터 구축부는,
미리 정해진 적어도 하나의 데이터 증강 함수를 이용하여 가상의 학습 이미지를 생성하고,
상기 생성된 가상의 학습 이미지를 상기 학습용 이미지 데이터 셋에 추가하여 확장시키는, 대상 물체의 물리량 측정 장치.In Article 7,
The above data construction unit,
Generate virtual learning images using at least one predefined data augmentation function,
A physical quantity measuring device of a target object, which expands the above-mentioned generated virtual learning image by adding it to the above-mentioned learning image data set.
물리량 측정을 위해 실시간으로 수신된 이미지를 상기 미리 학습시킨 딥러닝 모델에 입력하여 미리 정해진 개수의 특징점들을 추출하는 특징점 추출단계; 및
상기 추출된 미리 정해진 개수의 특징점들을 기초로 상기 이미지의 발열 코일과 튜브 단말 간 종단 거리를 산출하는 거리 산출단계를 포함하고,
상기 거리 산출단계는
상기 발열 코일의 하나의 특징점과 상기 튜브 단말의 2개의 특징점의 좌표값을 산출하고,
상기 산출된 좌표값을 기초로 상기 종단 거리를 산출하는, 대상 물체의 물리량 측정 방법.A model training step that pre-trains a deep learning model based on a pre-built training image data set;
A feature point extraction step for extracting a predetermined number of feature points by inputting an image received in real time for physical quantity measurement into the pre-trained deep learning model; and
A distance calculation step for calculating the longitudinal distance between the heating coil and the tube terminal of the image based on the above-determined number of extracted feature points is included.
The above distance calculation step is
Calculate the coordinate values of one feature point of the above heating coil and two feature points of the above tube terminal,
A method for measuring physical quantities of a target object, wherein the terminal distance is calculated based on the calculated coordinate values.
상기 모델 학습단계는,
상기 미리 구축된 학습용 이미지 데이터 셋으로부터 학습 이미지를 입력받아 상기 입력받은 학습용 이미지를 전처리하여 코너 맵을 생성하고,
상기 생성된 코너 맵을 기초로 학습용 이미지 내 미리 정해진 개수의 특징점들을 라벨링하고,
상기 미리 정해진 개수의 특징점들이 라벨링된 학습용 이미지를 기초로 상기 딥러닝 모델을 학습시키는, 대상 물체의 물리량 측정 방법.In Article 9,
The above model learning step is,
Input training images from the above pre-built training image data set, preprocess the input training images, and create a corner map.
Based on the generated corner map, a predetermined number of feature points in the training image are labeled,
A method for measuring physical quantities of a target object, wherein the deep learning model is trained based on a training image labeled with a predetermined number of feature points.
상기 모델 학습단계는,
위상 합동 코너 알고리즘(phase congruency corner algorithm)을 이용하여 상기 학습 이미지로부터 코너 맵을 생성하는, 대상 물체의 물리량 측정 방법.In Article 10,
The above model learning step is,
A method for measuring physical quantities of a target object, which generates a corner map from the training image using a phase congruency corner algorithm.
상기 특징점 추출단계는,
상기 실시간으로 수신된 이미지를 전처리하여 코너 맵을 생성하고,
상기 생성된 코너 맵을 상기 딥러닝 모델에 입력하여 이에 대한 응답으로 상기 수신된 이미지 내 미리 정해진 개수의 특징점을 추출하는, 대상 물체의 물리량 측정 방법.In Article 9,
The above feature extraction step is,
Preprocess the image received in real time to create a corner map,
A method for measuring physical quantities of a target object, wherein the generated corner map is input into the deep learning model and a predetermined number of feature points are extracted from the received image in response thereto.
상기 거리 산출단계는,
상기 산출된 좌표값을 기초로 상기 튜브 단말의 특징점들 간의 직선에 상기 발열 코일의 특징점으로부터 법선을 그어,
상기 법선의 길이를 상기 종단 거리로 산출하는, 대상 물체의 물리량 측정 방법.In Article 9,
The above distance calculation step is,
Based on the above-described coordinate values, a normal line is drawn from the feature points of the heating coil to the straight line between the feature points of the tube terminal.
A method for measuring physical quantities of a target object, wherein the length of the above normal line is calculated as the above terminal distance.
상기 모델 학습단계의 이전에 미리 정해진 학습 이미지를 수집하여 상기 수집된 학습 이미지를 포함하는 학습용 이미지 데이터 셋을 구축하는 데이터 구축단계를 더 포함하고,
상기 데이터 구축단계는,
상기 딥러닝 모델에 의해 물리량 측정하는데 사용된 이미지를 상기 학습용 이미지 데이터 셋에 추가하여 확장시키는, 대상 물체의 물리량 측정 방법.In Article 9,
The method further includes a data construction step of collecting pre-determined learning images prior to the above model learning step and constructing a learning image data set including the collected learning images.
The above data construction step is,
A method for measuring physical quantities of a target object, which expands the training image data set by adding an image used to measure physical quantities by the deep learning model.
상기 데이터 구축단계는,
미리 정해진 적어도 하나의 데이터 증강 함수를 이용하여 가상의 학습 이미지를 생성하고,
상기 생성된 가상의 학습 이미지를 상기 학습용 이미지 데이터 셋에 추가하여 확장시키는, 대상 물체의 물리량 측정 방법.In Article 15,
The above data construction step is,
Generate virtual learning images using at least one predefined data augmentation function,
A method for measuring physical quantities of a target object, which expands the above-mentioned generated virtual learning image by adding it to the above-mentioned learning image data set.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020220093573A KR102816948B1 (en) | 2022-07-28 | 2022-07-28 | Apparatus for measuring physical quantity of target object and method thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020220093573A KR102816948B1 (en) | 2022-07-28 | 2022-07-28 | Apparatus for measuring physical quantity of target object and method thereof |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20240015834A KR20240015834A (en) | 2024-02-06 |
| KR102816948B1 true KR102816948B1 (en) | 2025-06-10 |
Family
ID=89858743
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020220093573A Active KR102816948B1 (en) | 2022-07-28 | 2022-07-28 | Apparatus for measuring physical quantity of target object and method thereof |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102816948B1 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112449722A (en) * | 2019-07-04 | 2021-03-05 | 株式会社日立高新技术 | Dimension measuring device, dimension measuring program, and semiconductor manufacturing system |
| KR102296274B1 (en) * | 2020-10-26 | 2021-09-01 | 주식회사 보고넷 | Method for providing object recognition with deep learning using fine tuning by user |
-
2022
- 2022-07-28 KR KR1020220093573A patent/KR102816948B1/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112449722A (en) * | 2019-07-04 | 2021-03-05 | 株式会社日立高新技术 | Dimension measuring device, dimension measuring program, and semiconductor manufacturing system |
| KR102296274B1 (en) * | 2020-10-26 | 2021-09-01 | 주식회사 보고넷 | Method for providing object recognition with deep learning using fine tuning by user |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20240015834A (en) | 2024-02-06 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN110084292B (en) | Target detection method based on DenseNet and multi-scale feature fusion | |
| CN109035187B (en) | Medical image labeling method and device | |
| Mukherjee et al. | Level set analysis for leukocyte detection and tracking | |
| WO2021218786A1 (en) | Data processing system, object detection method and apparatus thereof | |
| CN107169435A (en) | A kind of convolutional neural networks human action sorting technique based on radar simulation image | |
| CN113608663A (en) | Fingertip tracking method based on deep learning and K-curvature method | |
| CN106845494A (en) | The method and device of profile angle point in a kind of detection image | |
| CN107463873B (en) | A real-time gesture analysis and evaluation method and system based on RGBD depth sensor | |
| Zhao et al. | Robust object tracking using a sparse coadjutant observation model | |
| Zhou et al. | Robust visual tracking using discriminative sparse collaborative map | |
| CN109271848A (en) | A kind of method for detecting human face and human face detection device, storage medium | |
| CN112966553A (en) | Strong coupling target tracking method, device, medium and equipment based on twin network | |
| Aonty et al. | Multi-person pose estimation using group-based convolutional neural network model | |
| Liu et al. | A visual SLAM method assisted by IMU and deep learning in indoor dynamic blurred scenes | |
| Xu et al. | Multi-task learning for object keypoints detection and classification | |
| CN109858430A (en) | A multi-person pose detection method based on reinforcement learning optimization | |
| KR102816948B1 (en) | Apparatus for measuring physical quantity of target object and method thereof | |
| Algabri et al. | Online boosting-based target identification among similar appearance for person-following robots | |
| Li et al. | ISFM-SLAM: dynamic visual SLAM with instance segmentation and feature matching | |
| Tang et al. | High-performance surface defect detection of aluminum substrate based on event camera | |
| CN107609454A (en) | A kind of method and device of gesture in identification image | |
| JP5592414B2 (en) | Template evaluation apparatus, microscope apparatus, and program | |
| Moseva et al. | Algorithm for Predicting Pedestrian Behavior on Public Roads | |
| Kumar et al. | A spatial features and weight adjusted loss infused Tiny YOLO for shadow detection | |
| He et al. | Human behavior feature representation and recognition based on depth video |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20220728 |
|
| PA0201 | Request for examination | ||
| PG1501 | Laying open of application | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20241030 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20250519 |
|
| PG1601 | Publication of registration |