[go: up one dir, main page]

KR102186157B1 - Lung Sound Analysis Method and System Based on Neuro-fuzzy Network - Google Patents

Lung Sound Analysis Method and System Based on Neuro-fuzzy Network Download PDF

Info

Publication number
KR102186157B1
KR102186157B1 KR1020200048724A KR20200048724A KR102186157B1 KR 102186157 B1 KR102186157 B1 KR 102186157B1 KR 1020200048724 A KR1020200048724 A KR 1020200048724A KR 20200048724 A KR20200048724 A KR 20200048724A KR 102186157 B1 KR102186157 B1 KR 102186157B1
Authority
KR
South Korea
Prior art keywords
lung sound
data
lung
feature
categories
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020200048724A
Other languages
Korean (ko)
Inventor
임준식
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020200048724A priority Critical patent/KR102186157B1/en
Application granted granted Critical
Publication of KR102186157B1 publication Critical patent/KR102186157B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06N3/0436
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/003Detecting lung or respiration noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/02Stethoscopes
    • A61B7/04Electric stethoscopes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/33Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using fuzzy logic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Signal Processing (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Acoustics & Sound (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Fuzzy Systems (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Pulmonology (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)

Abstract

본 발명은 뉴로-퍼지 네트워크 기반 폐음 분석 방법 및 시스템에 관한 것으로서, 더욱 상세하게는 폐음 데이터를 시간-주파수의 폐음 2차원 데이터로 변환하여 폐음특징데이터를 추출하고, 선별된 폐음특징데이터를 뉴로-퍼지 네트워크에 기초하여 분석함으로써 폐음 데이터를 분석하는 뉴로-퍼지 네트워크 기반 폐음 분석 방법 및 시스템에 관한 것이다.The present invention relates to a lung sound analysis method and system based on a neuro-fuzzy network, and more particularly, to extract lung sound feature data by converting lung sound data into two-dimensional lung sound data of time-frequency, and to extract the selected lung sound feature data into neuro- It relates to a neuro-fuzzy network based lung sound analysis method and system for analyzing lung sound data by analyzing based on a fuzzy network.

Description

뉴로-퍼지 네트워크 기반 폐음 분석 방법 및 시스템{Lung Sound Analysis Method and System Based on Neuro-fuzzy Network}Lung Sound Analysis Method and System Based on Neuro-fuzzy Network}

본 발명은 뉴로-퍼지 네트워크 기반 폐음 분석 방법 및 시스템에 관한 것으로서, 더욱 상세하게는 폐음 데이터를 시간-주파수의 폐음 2차원 데이터로 변환하여 폐음특징데이터를 추출하고, 선별된 폐음특징데이터를 뉴로-퍼지 네트워크에 기초하여 분석함으로써 폐음 데이터를 분석하는 뉴로-퍼지 네트워크 기반 폐음 분석 방법 및 시스템에 관한 것이다.The present invention relates to a lung sound analysis method and system based on a neuro-fuzzy network, and more particularly, to extract lung sound feature data by converting lung sound data into two-dimensional lung sound data of time-frequency, and to extract the selected lung sound feature data into neuro- It relates to a neuro-fuzzy network based lung sound analysis method and system for analyzing lung sound data by analyzing based on a fuzzy network.

폐음(肺音, lung sounds)은 호흡에 의해 기관지와 폐로 유입 및 배출되는 공기가 만들어내는 소리로서 폐를 청진할 때, 의사는 청진기로 이 소리들을 듣게 되며, 폐의 상태에 대한 여러 중요한 정보를 제공하게 된다.Lung sounds are sounds produced by the air flowing into and out of the bronchi and lungs by breathing. When auscultating the lungs, the doctor hears these sounds with a stethoscope and provides various important information about the condition of the lungs. Will be provided.

이와 같은 청진은 A stethoscope like this

폐음은 크게 호흡음(Breath sound)과 부잡음(Adventitious sound)로 구분할 수 있다. 사람의 호흡에 의한 호흡음이 들리고 추가적으로 부잡음이 들리는 형태로 나타나게 된다.The lung sound can be largely divided into breath sound and adventitious sound. It appears in the form of audible breathing sounds caused by human breathing and additional noise.

호흡음에는 폐포호흡음(Vesicular breath sound)와 기관지호흡음(Bronchial tubular sound)로 나눌 수 있다.Breathing sound can be divided into alveolar breathing sound (Vesicular breath sound) and bronchial tubular sound (Bronchial tubular sound).

폐포호흡음은 정상적인 경우에 들리고, 약한 바람소리와 같이 들리며 흡기 시에 소리가 크게 들린다. 이와 같은 폐포호흡음이 감소하는 경우는 중심기도와 흉벽 사이에 소리 전도를 막는 물질이 있는 경우로서, 흉수(Pleural effusion), 기흉(Pneumothorax), 및 공기집(Bulla)이 그 예이다.Alveolar respiration is heard in normal cases, it sounds like a weak wind, and a loud sound is heard during inhalation. Such a decrease in alveolar respiration is a case where there is a substance blocking sound conduction between the central airway and the chest wall, such as Pleural effusion, Pneumothorax, and Burla.

기관지호흡음은 크고 높은 음조를 가지며 휘파람 같은 소리로 들리며 호기와 흡기가 거의 같이 들린다. 이와 같은 기관지호흡음은 폐렴, 폐부종, 폐출혈 등과 같은 폐실질의 경화성 병변(Consolidation)을 보이는 경우 비정상적으로 들리게 된다.The bronchial breathing sound is loud, high-pitched, whistling-like, and exhalation and inhalation are almost the same. Such bronchial breathing sounds abnormal when there is a consolidation of the pulmonary parenchyma such as pneumonia, pulmonary edema, and pulmonary hemorrhage.

한편 부잡음에는 수포음(Crackle), 쌕쌕거림(Wheeze), 그렁거림(Stridor), 빽빽거림(Rhonchus), 흉막마찰음(Pleural friction rub)이 있다. 이 중 수포음과 흉막마찰음은 연속되지 않는 소리이고, 쌕쌕거림과 그렁거림은 연속되는 소리로 나타난다.On the other hand, minor noises include Crackle, Wheeze, Stridor, Rhonchus, and Pleural friction rub. Among them, blister and pleural friction sounds are non-continuous sounds, and wheezing and grunt appear as continuous sounds.

수포음은 크게 미세 수포음(Fine crackle)과 거친 수포음(Coarse crackle)이 있고, 미세 수포음은 비교적 소리가 부드럽고 짧으며 음조가 약간 더 높고 이는 막혀있던 작은 기도가 열리면서 나는 소리이다. 주로 아래쪽에서 들리지만 자세를 바꾸면 사라질 수 있고, 이는 폐가 굳어지는 폐 섬유화증 등의 질환에서 나타난다. 거친 수포음은 미세 수포음에 비해 더 거칠고 크게 들리며 낮은 음조를 보인다. 이는 기도 분비물에 의한 것으로 만성폐쇄성폐질환(COPD), 폐렴(Pneumonia), 울혈성심부전(Congestive heart failure) 등에서 나타날 수 있다.There are largely fine crackle and coarse crackle, and fine bullous sound is relatively soft and short and slightly higher in pitch, which is the sound produced by the opening of a small airway that was blocked. It is mainly heard from the bottom, but can disappear by changing posture, which appears in diseases such as pulmonary fibrosis, where the lungs become hardened. Coarse vesicles sound more coarse and louder than fine vesicles and have a lower pitch. This is caused by airway secretion and may occur in chronic obstructive pulmonary disease (COPD), pneumonia, and congestive heart failure.

쌕쌕거림은 0.25초 이상의 연속적이고 긴 소리이며 높은 음조를 가진 휘파람이나 피리소리 같은 소리로 나타나고 공기가 좁아진 기도를 빠르게 지나가면서 발생한다. 흡기보다 호기 시에 잘 들리는 특징이 있다. 국소적인 기관지 협착(Bronchial narrowing), 폐암, 기관지 결핵, 이물질, 기관협착 등에서 단일 음조로 나타나고, 천식, 만성폐쇄성폐질환, 울혈성심부전 등에서 다양한 음조로 나타난다.Wheezing is a continuous, long sound of 0.25 seconds or longer, and appears as a high-pitched whistle or flute-like sound, and occurs as the air passes rapidly through a narrowed airway. It has the characteristic that it is heard better when exhaled than when inhaled. It appears in a single tone in local bronchial narrowing, lung cancer, bronchial tuberculosis, foreign body, and tracheal stenosis, and in various tones in asthma, chronic obstructive pulmonary disease, and congestive heart failure.

빽빽거림은 거칠고 코고는 소리 같은 가르랑거리는 소리로 나타나고 이는 근위부 하기도에 점액 분비물이 걸려있다가 공기가 통과하면서 나는 진동에 의해 발생한다. 이는 기도분비물 배출이 많은 경우 나타난다.The cramping appears as a rattle sound, such as a harsh, snoring sound, which is caused by a mucus secretion trapped in the proximal lower respiratory tract and vibrations as air passes through it. This occurs when there is a large amount of airway secretion.

흉막마찰음은 머리카락을 서로 마찰시킬 때 발생하는 소리와 유사하며 벽측 흉막과 장측 흉막이 서로 마찰하면서 발생한다. 즉, 흉막 염증, 흉막 종양 등 흉막에 문제가 있는 경우 발생하게 된다.The pleural friction sound is similar to the sound that occurs when the hairs rub against each other, and occurs when the parietal pleura and the intestinal pleura rub against each other. That is, it occurs when there is a problem with the pleura such as pleural inflammation or pleural tumor.

종래에는 이와 같이 폐음에 포함된 부잡음을 검출하기 위하여 의사가 청진기 등을 이용하여 진단하는 방법이 사용되었으나, 폐의 청진을 통한 진단은 전문지식을 가진 의사에 의해서만 가능한 단점이 있다. 따라서 자동으로 폐음을 분석함으로써 폐의 상태를 진단하기 위한 기술의 개발의 필요성이 대두되고 있다.Conventionally, in order to detect the negative noise contained in the lung sound, a method of diagnosis by a doctor using a stethoscope or the like has been used, but there is a disadvantage that diagnosis through auscultation of the lung is possible only by a doctor with expertise. Therefore, there is a need to develop a technology for diagnosing the lung condition by automatically analyzing the lung sound.

본 발명은 폐음 데이터를 시간-주파수의 폐음 2차원 데이터로 변환하여 폐음특징데이터를 추출하고, 선별된 폐음특징데이터를 뉴로-퍼지 네트워크에 기초하여 분석함으로써 폐음 데이터를 분석하는 뉴로-퍼지 네트워크 기반 폐음 분석 방법 및 시스템을 제공하는 것을 그 목적으로 한다.The present invention converts lung sound data into two-dimensional lung sound data of time-frequency to extract lung sound feature data, and analyzes lung sound data by analyzing the selected lung sound feature data based on a neuro-fuzzy network. Its purpose is to provide an analysis method and system.

상기와 같은 과제를 해결하기 위하여 본 발명에서는, 1 이상의 프로세서 및 메모리를 포함하는 폐음 분석 시스템에 의해 수행되는 폐음 분석 방법으로서, 폐음 데이터를 입력 받는 폐음입력단계; 상기 폐음 데이터를 시간-주파수의 폐음 2차원 데이터로 변환하는 폐음전처리단계; 변환된 상기 폐음 2차원 데이터에 기초하여 2 이상의 카테고리의 폐음특징데이터를 추출하는 폐음특징추출단계; 2 이상의 카테고리의 상기 폐음특징데이터 중 선별된 카테고리에 해당하는 폐음특징데이터를 선별하는 폐음특징선별단계; 및 학습된 모델 및 선별된 폐음특징데이터에 기초하여 폐음 데이터의 분류를 도출하는 폐음분류단계; 를 포함하고, 상기 선별된 카테고리는, 2 이상의 분류로 구분된 복수의 학습 폐음 데이터에 대하여 상기 폐음전처리단계, 폐음특징추출단계에 상응하는 과정으로 2 이상의 카테고리의 폐음특징데이터를 추출하고, 상기 2 이상의 카테고리의 폐음특징데이터 중 상기 분류에 따른 상관도가 기설정된 기준에 부합하는 폐음특징데이터의 카테고리를 도출하여 결정되는, 폐음 분석 방법을 제공한다.In order to solve the above problems, the present invention provides a lung sound analysis method performed by a lung sound analysis system including at least one processor and a memory, comprising: a lung sound input step of receiving lung sound data; A waste sound preprocessing step of converting the lung sound data into two-dimensional data of the lung sound of time-frequency; A lung sound feature extraction step of extracting two or more categories of lung sound feature data based on the converted two-dimensional lung sound data; A lung sound feature selection step of selecting lung sound feature data corresponding to the selected category from among the lung sound feature data of two or more categories; And a lung sound classification step of deriving classification of the lung sound data based on the learned model and the selected lung sound feature data. Including, the selected category is a process corresponding to the lung sound pre-processing step and the lung sound feature extraction step with respect to a plurality of learning waste sound data divided into two or more categories, extracting two or more categories of lung sound feature data, and the 2 A lung sound analysis method is provided in which a correlation degree according to the classification is determined by deriving a category of lung sound characteristic data meeting a preset criterion among the lung sound characteristic data of the above categories.

본 발명에서는, 상기 폐음분류단계는, 1 이상의 선별된 폐음특징데이터를 각각 가중 퍼지 소속 함수 기반의 퍼지 신경망에 입력하여, 가중 퍼지 소속 함수의 경계합을 학습시킬 수 있다.In the present invention, in the lung sound classification step, one or more selected lung sound feature data may be input to a fuzzy neural network based on a weighted fuzzy membership function, and a boundary sum of the weighted fuzzy membership function may be learned.

본 발명에서는, 상기 폐음분류단계는, 학습된 가중 퍼지 소속 함수의 경계합을 기설정된 값과 비교하여 폐음 데이터의 분류를 도출할 수 있다.In the present invention, in the lung sound classification step, the classification of the lung sound data may be derived by comparing a boundary sum of the learned weighted fuzzy membership function with a preset value.

본 발명에서는, 상기 선별된 카테고리는, 학습 폐음 데이터의 2 이상의 카테고리의 폐음특징데이터 중 상기 분류에 따른 피어슨 상관계수(Pearson Correlation Coefficient)에 기초하여 폐음특징데이터의 카테고리를 도출하여 결정될 수 있다.In the present invention, the selected category may be determined by deriving a category of lung sound characteristic data based on a Pearson Correlation Coefficient according to the classification among lung sound characteristic data of two or more categories of learning lung sound data.

본 발명에서는, 상기 전처리단계는, 입력 받은 상기 폐음 데이터를 멜-스펙트로그램으로 변환할 수 있다.In the present invention, the pre-processing step may convert the received lung sound data into a mel-spectrogram.

본 발명에서는, 상기 전처리단계는, 변환된 멜-스펙트로그램을 기설정된 시간길이 및 기설정된 시간간격으로 분할하여 분할 멜-스펙트로그램을 생성할 수 있다.In the present invention, the preprocessing step may generate a divided mel-spectrogram by dividing the converted mel-spectrogram into a preset time length and a preset time interval.

본 발명에서는, 상기 폐음특징추출단계는, 상기 폐음 2차원 데이터에 대해 컨볼루션 신경망의 컨볼루션 및 풀링을 적용하여 특징데이터를 추출할 수 있다.In the present invention, the lung sound feature extraction step may extract feature data by applying convolution and pooling of a convolutional neural network to the two-dimensional lung sound data.

본 발명에서는, 상기 폐음특징추출단계는, 상기 폐음 2차원 데이터에 대해 VGG16 신경망 모델의 컨볼루션 및 풀링을 적용하여 특징데이터를 추출할 수 있다.In the present invention, in the lung sound feature extraction step, feature data may be extracted by applying convolution and pooling of a VGG16 neural network model to the two-dimensional lung sound data.

상기와 같은 과제를 해결하기 위하여 본 발명에서는, 폐음 분석 시스템으로서, 폐음 데이터를 입력 받는 데이터입력부; 상기 폐음 데이터를 시간-주파수의 폐음 2차원 데이터로 변환하는 데이터전처리부; 변환된 상기 폐음 2차원 데이터에 기초하여 2 이상의 카테고리의 폐음특징데이터를 추출하는 데이터특징추출부; 2 이상의 카테고리의 상기 폐음특징데이터 중 선별된 카테고리에 해당하는 폐음특징데이터를 선별하는 특징선별부; 및 학습된 모델 및 선별된 폐음특징데이터에 기초하여 폐음 데이터의 분류를 도출하는 폐음분류부; 를 포함하고, 상기 선별된 카테고리는, 2 이상의 분류로 구분된 복수의 학습 폐음 데이터에 대하여 상기 데이터전처리부 및 상기 데이터특징추출부를 통해 2 이상의 카테고리의 폐음특징데이터를 추출하고, 상기 2 이상의 카테고리의 폐음특징데이터 중 상기 분류에 따른 상관도가 기설정된 기준에 부합하는 폐음특징데이터의 카테고리를 도출하여 결정되는, 폐음 분석 시스템을 제공한다.In order to solve the above problems, in the present invention, a lung sound analysis system, comprising: a data input unit for receiving lung sound data; A data preprocessing unit converting the lung sound data into two-dimensional time-frequency lung sound data; A data feature extracting unit for extracting two or more categories of lung sound feature data based on the converted two-dimensional lung sound data; A feature selection unit for selecting lung sound feature data corresponding to the selected category from among the lung sound feature data of two or more categories; And a lung sound classification unit for deriving classification of the lung sound data based on the learned model and the selected lung sound feature data. Including, wherein the selected category is to extract two or more categories of lung sound feature data through the data preprocessing unit and the data feature extraction unit for a plurality of learning lung sound data divided into two or more categories, and A lung sound analysis system is provided in which a correlation degree according to the classification among lung sound characteristic data is determined by deriving a category of lung sound characteristic data meeting a preset criterion.

본 발명에서는, 상기 폐음분류부는, 1 이상의 선별된 폐음특징데이터를 각각 가중 퍼지 소속 함수 기반의 퍼지 신경망에 입력하여, 가중 퍼지 소속 함수의 경계합을 학습시킬 수 있다.In the present invention, the lung sound classification unit may input one or more selected lung sound feature data into a fuzzy neural network based on a weighted fuzzy membership function, and learn a boundary sum of the weighted fuzzy membership function.

본 발명의 일 실시예에 따르면 입력 받은 폐음 데이터를 2차원 데이터로 변형함으로써 컨볼루션 및 풀링을 통해 특징데이터를 추출할 수 있다.According to an embodiment of the present invention, feature data may be extracted through convolution and pooling by transforming the received lung sound data into 2D data.

본 발명의 일 실시예에 따르면 폐음 2차원 데이터를 기설정된 시간길이 및 기설정된 시간간격으로 분할함으로써 표준화된 크기의 2차원 데이터로부터 특징데이터를 추출하여 폐음을 분석할 수 있다.According to an embodiment of the present invention, by dividing the two-dimensional lung sound data into a preset time length and a preset time interval, feature data may be extracted from the two-dimensional data of a standardized size to analyze the lung sound.

본 발명의 일 실시예에 따르면 학습데이터로부터 특징데이터를 추출하고, 특징데이터를 피어슨 상관계수를 이용하여 선별함으로써 폐음 데이터를 용이하게 분류할 수 있는 특징데이터를 이용하여 분류를 수행할 수 있다.According to an embodiment of the present invention, by extracting feature data from learning data and selecting the feature data using Pearson's correlation coefficient, classification can be performed using feature data capable of easily classifying lung sound data.

본 발명의 일 실시예에 따르면 컨볼루션 및 풀링을 통해 추출된 특징데이터를 가중 퍼지 소속 함수 기반의 퍼지 신경망을 통해 분류함으로써 분류의 정확도를 높일 수 있다.According to an embodiment of the present invention, the accuracy of classification may be improved by classifying feature data extracted through convolution and pooling through a fuzzy neural network based on a weighted fuzzy membership function.

도 1은 본 발명의 일 실시예에 따른 폐음 분석 시스템의 구성을 개략적으로 도시하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 폐음 분석 방법의 각 단계를 개략적으로 도시하는 도면이다.
도 3은 본 발명의 일 실시예에 따른 폐음 데이터 및 폐음 2차원 데이터의 일 예를 개략적으로 도시하는 도면이다.
도 4는 본 발명의 일 실시예에 따른 폐음 2차원 데이터인 멜-스펙트로그램의 일 예를 개략적으로 도시하는 도면이다.
도 5는 본 발명의 일 실시예에 따라 분할-멜-스펙트로그램을 생성하는 방법을 개략적으로 도시하는 도면이다.
도 6은 본 발명의 일 실시예에 따라 특징데이터를 추출하는 방법을 개략적으로 도시하는 도면이다.
도 7은 본 발명의 일 실시예에 따라 VGG16 신경망 모델을 통해 특징데이터를 추출하는 과정의 데이터를 개략적으로 도시하는 도면이다.
도 8은 본 발명의 일 실시예에 따라 추출된 특징데이터의 일 예를 개략적으로 도시하는 도면이다.
도 9는 본 발명의 일 실시예에 따른 뉴로-퍼지 네트워크 기반의 폐음분류단계에서 사용되는 가중 퍼지 소속 함수 기반의 퍼지 신경망(NEWFM)의 구조를 개략적으로 도시하는 도면이다.
도 10은 본 발명의 일 실시예에 따른 폐음분류단계에서 사용되는 NEWFM에 의해 학습시키는 가중 퍼지 소속 함수의 경계합(BSWFM)을 개략적으로 도시하는 도면이다.
도 11은 본 발명의 일 실시예에 따른 특징데이터에서 분류에 따른 가중 퍼지 소속 함수의 경계합(BSWFM)의 일 예를 도시하는 도면이다.
도 12는 본 발명의 일 실시예에 있어서, 컴퓨팅 장치의 내부 구성의 일례를 설명하기 위한 블록도이다.
1 is a diagram schematically showing the configuration of a lung sound analysis system according to an embodiment of the present invention.
2 is a diagram schematically showing each step of a lung sound analysis method according to an embodiment of the present invention.
3 is a diagram schematically illustrating an example of lung sound data and two-dimensional lung sound data according to an embodiment of the present invention.
4 is a diagram schematically showing an example of a mel-spectrogram, which is two-dimensional lung sound data according to an embodiment of the present invention.
5 is a diagram schematically showing a method of generating a split-mel-spectrogram according to an embodiment of the present invention.
6 is a diagram schematically showing a method of extracting feature data according to an embodiment of the present invention.
7 is a diagram schematically showing data in a process of extracting feature data through a VGG16 neural network model according to an embodiment of the present invention.
8 is a diagram schematically showing an example of feature data extracted according to an embodiment of the present invention.
9 is a diagram schematically showing the structure of a fuzzy neural network (NEWFM) based on a weighted fuzzy membership function used in a lung sound classification step based on a neuro-fuzzy network according to an embodiment of the present invention.
10 is a diagram schematically showing a boundary sum (BSWFM) of a weighted fuzzy membership function learned by NEWFM used in a lung sound classification step according to an embodiment of the present invention.
11 is a diagram showing an example of a boundary sum (BSWFM) of a weighted fuzzy membership function according to classification in feature data according to an embodiment of the present invention.
12 is a block diagram illustrating an example of an internal configuration of a computing device according to an embodiment of the present invention.

이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.In the following, various embodiments and/or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, a number of specific details are disclosed to aid in an overall understanding of one or more aspects. However, it will also be appreciated by those of ordinary skill in the art that this aspect(s) may be practiced without these specific details. The following description and the annexed drawings set forth in detail certain illustrative aspects of one or more aspects. However, these aspects are exemplary and some of the various methods in the principles of the various aspects may be used, and the descriptions described are intended to include all such aspects and their equivalents.

또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.Further, various aspects and features will be presented by a system that may include multiple devices, components and/or modules, and the like. It is also noted that various systems may include additional devices, components and/or modules, and/or may not include all of the devices, components, modules, etc. discussed in connection with the figures. It must be understood and recognized.

본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.As used herein, “an embodiment,” “example,” “aspect,” “example,” and the like may not be construed as having any aspect or design described as being better or advantageous than other aspects or designs. . The terms'~part','component','module','system', and'interface' used below generally mean a computer-related entity, for example, hardware, hardware It can mean a combination of software and software, or software.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.In addition, the terms "comprising" and/or "comprising" mean that the corresponding feature and/or element is present, but excludes the presence or addition of one or more other features, elements, and/or groups thereof. It should be understood as not.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.In addition, terms including ordinal numbers such as first and second may be used to describe various elements, but the elements are not limited by the terms. These terms are used only for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a first element may be referred to as a second element, and similarly, a second element may be referred to as a first element. The term and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein including technical or scientific terms are commonly understood by those of ordinary skill in the art to which the present invention belongs. It has the same meaning as. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the embodiments of the present invention, an ideal or excessively formal meaning Is not interpreted as.

도 1은 본 발명의 일 실시예에 따른 폐음 분석 시스템의 구성을 개략적으로 도시하는 도면이다.1 is a diagram schematically showing the configuration of a lung sound analysis system according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 폐음 분석 시스템(10)은 폐음 데이터(1)를 입력 받아 상기 폐음 데이터를 분석한 분석결과(4)를 도출한다.The lung sound analysis system 10 according to an embodiment of the present invention receives the lung sound data 1 and derives an analysis result 4 obtained by analyzing the lung sound data.

도 1을 참조하면 본 발명의 일 실시예에 따른 폐음 분석 시스템(10)은, 폐음 데이터(1)를 입력 받는 데이터입력부(100); 상기 폐음 데이터(1)를 시간-주파수의 폐음 2차원 데이터(2)로 변환하는 데이터전처리부(200); 변환된 상기 폐음 2차원 데이터(2)에 기초하여 2 이상의 카테고리의 폐음특징데이터(3)를 추출하는 데이터특징추출부(300); 2 이상의 카테고리의 상기 폐음특징데이터(3) 중 선별된 카테고리에 해당하는 폐음특징데이터(3)를 선별하는 특징선별부(400); 및 학습된 모델 및 선별된 폐음특징데이터(3)에 기초하여 폐음 데이터의 분류를 도출하는 폐음분류부(500); 를 포함할 수 있다. 이 때, 상기 선별된 카테고리는, 2 이상의 분류로 구분된 복수의 학습 폐음 데이터에 대하여 상기 데이터전처리부(200) 및 상기 데이터특징추출부(300)를 통해 2 이상의 카테고리의 폐음특징데이터를 추출하고, 상기 2 이상의 카테고리의 폐음특징데이터 중 상기 분류에 따른 상관도가 기설정된 기준에 부합하는 폐음특징데이터의 카테고리를 도출하여 결정될 수 있다.Referring to FIG. 1, a lung sound analysis system 10 according to an embodiment of the present invention includes a data input unit 100 for receiving lung sound data 1; A data preprocessing unit 200 for converting the lung sound data 1 into two-dimensional time-frequency lung sound data 2; A data feature extraction unit 300 for extracting two or more categories of lung sound feature data 3 based on the converted two-dimensional lung sound data 2; A feature selection unit 400 for selecting the lung sound feature data 3 corresponding to the selected category among the lung sound feature data 3 of two or more categories; And a lung sound classification unit 500 for deriving classification of lung sound data based on the learned model and the selected lung sound feature data 3. It may include. In this case, the selected category extracts two or more categories of lung sound feature data through the data pre-processing unit 200 and the data feature extracting unit 300 for a plurality of learning lung sound data classified into two or more categories, and The correlation according to the classification may be determined by deriving a category of lung sound characteristic data meeting a preset criterion among the two or more categories of lung sound characteristic data.

본 발명의 일 실시예에 따른 상기 폐음 분석 시스템(10)은 이와 같은 각 세부 구성에 의해 입력 받은 폐음 데이터(1)를 폐음 2차원 데이터(2)로 변환하여 폐음특징데이터(3)를 추출하고, 추출 된 폐음특징데이터(3)를 선별하여 선별된 폐음특징데이터(3)에 기초하여 분석을 수행하게 된다. 이와 같이 분석을 수행하기 위하여 상기 폐음 분석 시스템(10)은 학습을 통해 각 세부 구성에 대한 세팅을 수행 할 필요가 있다.The lung sound analysis system 10 according to an embodiment of the present invention converts the lung sound data 1 received by each of these detailed configurations into two-dimensional lung sound data 2 to extract the lung sound feature data 3 , The extracted lung sound feature data (3) is selected and analysis is performed based on the selected lung sound feature data (3). In order to perform the analysis in this way, the lung sound analysis system 10 needs to perform setting for each detailed configuration through learning.

본 발명의 일 실시예에서 상기 특징선별부(400)는, 상기 데이터입력부(100)로 2 이상의 분류로 구분된 학습 폐음 데이터를 입력 받아 상기 데이터전처리부(200) 및 상기 데이터특징추출부(300)를 통해 학습특징데이터를 추출하고, 추출된 2 이상의 상기 학습특징데이터에서 상기 분류에 따른 차이가 큰 1 이상의 학습특징데이터를 선별하여 선별특징데이터로 저장함으로써 설정 될 수 있다.In an embodiment of the present invention, the feature selection unit 400 receives the learning lung sound data divided into two or more classifications by the data input unit 100, and receives the data preprocessor 200 and the data feature extractor 300. ) To extract the learning feature data, select one or more learning feature data having a large difference according to the classification from the extracted two or more learning feature data, and store it as the selection feature data.

도 2는 본 발명의 일 실시예에 따른 폐음 분석 방법의 각 단계를 개략적으로 도시하는 도면이다.2 is a diagram schematically showing each step of a lung sound analysis method according to an embodiment of the present invention.

본 발명의 일 실시예에서는 도 1에 도시된 것과 같은 폐음 분석 시스템(10)을 통한 폐음 분석 방법은 학습 폐음 데이터에 기초하여 상기 폐음 분석 시스템(10)의 세팅을 수행하는 분석세팅단계(S10); 및 세팅이 수행 된 상기 폐음 분석 시스템(10)에 의하여 폐음 데이터를 분석하는 폐음분석단계(S20); 를 포함할 수 있다.In an embodiment of the present invention, the lung sound analysis method through the lung sound analysis system 10 as shown in FIG. 1 is an analysis setting step (S10) of performing the setting of the lung sound analysis system 10 based on the learning lung sound data. ; And a lung sound analysis step (S20) of analyzing lung sound data by the lung sound analysis system 10 on which the settings have been performed. It may include.

전술한 바와 같이, 상기 폐음 분석 시스템(10)은 학습 폐음 데이터를 입력 받아 세팅을 수행함으로써 실제 입력되는 폐음 데이터를 정확히 분석할 수 있게 된다.As described above, the lung sound analysis system 10 can accurately analyze the actually input lung sound data by receiving the learning lung sound data and performing the setting.

본 발명의 일 실시예에서 상기 분석세팅단계(S10)는. 2 이상의 분류로 구분된 학습 폐음 데이터를 입력 받는 학습데이터입력단계(S100a); 상기 학습 폐음 데이터를 시간-주파수의 학습 2차원 데이터로 변환하는 학습데이터전처리단계(S200a); 변환된 상기 학습 2차원 데이터에 기초하여 2 이상의 카테고리의 학습특징데이터를 추출하는 학습데이터특징추출단계(S300a); 및 추출된 2 이상의 카테고리의 상기 학습특징데이터 중에서 상기 분류에 따른 차이가 큰 1 이상의 카테고리를 선별하는 특징선별단계(S400a); 를 포함하고, 상기 폐음분석단계(S20)는, 폐음 데이터(1)를 입력 받는 폐음입력단계(S100b); 상기 폐음 데이터를 시간-주파수의 폐음 2차원 데이터(2)로 변환하는 폐음전처리단계(S200b); 변환된 상기 폐음 2차원 데이터(2)에 기초하여 2 이상의 카테고리의 폐음특징데이터(3)를 추출하는 폐음특징추출단계(S300b); 및 2 이상의 카테고리의 상기 폐음특징데이터(3) 중 선별된 카테고리에 해당하는 폐음특징데이터(3)를 선별하는 폐음특징선별단계(S400b); 및 학습된 모델 및 선별된 폐음특징데이터(3)에 기초하여 폐음 데이터(1)의 분류를 도출하는 폐음분류단계(S500); 를 포함할 수 있다.In an embodiment of the present invention, the analysis setting step (S10). A learning data input step (S100a) of receiving learning lung sound data divided into two or more categories; A learning data preprocessing step (S200a) of converting the learning lung sound data into time-frequency learning two-dimensional data; A learning data feature extraction step (S300a) of extracting learning feature data of two or more categories based on the converted two-dimensional learning data; And a feature selection step (S400a) of selecting one or more categories having a large difference according to the classification among the extracted learning feature data of two or more categories. Including, the lung sound analysis step (S20), the lung sound input step (S100b) receiving input of the lung sound data (1); A waste sound preprocessing step (S200b) of converting the lung sound data into two-dimensional data of the lung sound (2) of time-frequency; A lung sound feature extraction step (S300b) of extracting two or more categories of lung sound feature data (3) based on the converted two-dimensional lung sound data (2); And a lung sound characteristic selection step (S400b) of selecting the lung sound characteristic data 3 corresponding to the selected category among the lung sound characteristic data 3 of two or more categories. And a lung sound classification step (S500) of deriving a classification of the lung sound data 1 based on the learned model and the selected lung sound feature data 3; It may include.

전술한 바와 같이 상기 폐음 분석 시스템(10)이 상기 폐음 데이터(1)를 입력 받아 분석하여 폐음 데이터(1)의 분류를 도출하기 위하여 세팅이 수행 될 필요가 있다. 이를 위해 본 발명의 일 실시예에서는 상기 분석세팅단계(S10)에서 학습 폐음 데이터를 입력 받아 학습을 수행하여 세팅이 이루어진다.As described above, setting needs to be performed in order for the lung sound analysis system 10 to receive and analyze the lung sound data 1 to derive the classification of the lung sound data 1. To this end, in an embodiment of the present invention, the setting is made by receiving learning lung sound data in the analysis setting step (S10) and performing learning.

이 때 상기 학습 폐음 데이터로부터 특징데이터가 추출되는 과정인 상기 학습데이터입력단계(S100a), 상기 학습데이터전처리단계(S200a) 및 상기 학습데이터특징추출단계(S300a)는 상기 폐음 데이터(1)로부터 특징데이터가 추출되는 과정인 상기 폐음입력단계(S100b), 상기 폐음전처리단계(S200b) 및 상기 폐음특징추출단계(S300b)는 동일한 방법을 통해 각각 상기 학습 폐음 데이터 및 상기 폐음 데이터로부터 각각 학습특징데이터 및 폐음특징데이터를 추출하게 된다.At this time, the learning data input step (S100a), the learning data preprocessing step (S200a), and the learning data feature extraction step (S300a), which are processes in which feature data is extracted from the learning lung sound data, are characterized from the lung sound data (1). The lung sound input step (S100b), the waste sound preprocessing step (S200b), and the lung sound feature extraction step (S300b), which are processes in which data is extracted, are performed by the same method, respectively, from the learning feature data and the lung sound data. Lung sound feature data is extracted.

상기 학습 폐음 데이터는 2 이상의 분류로 구분된 복수의 폐음 데이터를 포함하여 구성될 수 있다. 예를 들어 상기 분류는 정상 폐음 과 폐렴에 의한 수포음(Crackle)이 포함된 폐음일 수 있고, 실제 정상 폐음과 폐렴 환자의 폐음을 포함하여 구성됨으로써 상기 폐음 분석 시스템(10)이 학습을 통해 정상 폐음과 폐렴 환자의 폐음을 구분하여 분류할 수 있도록 할 수 있다.The learning lung sound data may include a plurality of lung sound data divided into two or more categories. For example, the classification may be a normal lung sound and a lung sound that includes crackle due to pneumonia, and the lung sound analysis system 10 is configured to include the actual normal lung sound and the lung sound of a patient with pneumonia. And the lung sounds of pneumonia patients can be classified.

상기 특징선별단계(S400a)는 이와 같은 학습 폐음 데이터로부터 추출된 학습특징데이터 카테고리 중 상기 분류에 따른 차이가 큰 카테고리를 선별하고, 상기 폐음분류단계(S500)에서 선별된 카테고리를 이용하여 폐음을 분류하도록 함으로써 분류의 정확도를 높이게 된다.The feature selection step (S400a) selects a category having a large difference according to the classification among the learning feature data categories extracted from the learning waste sound data, and classifies the lung sound using the category selected in the lung sound classification step (S500). By doing so, the accuracy of classification is improved.

도 3은 본 발명의 일 실시예에 따른 폐음 데이터 및 폐음 2차원 데이터의 일 예를 개략적으로 도시하는 도면이다.3 is a diagram schematically illustrating an example of lung sound data and two-dimensional lung sound data according to an embodiment of the present invention.

도 3의 (a)는 일반적으로 저장되는 소리 데이터의 파형을 나타낸다. 폐음과 같이 소리가 저장된 데이터는 시간에 따른 소리 파형의 진폭에 대한 정보가 저장되고, 이와 같은 정보를 도시하면 도 3의 (a)와 같이 도시될 수 있다.3A shows a waveform of generally stored sound data. Data stored with sound, such as a lung sound, stores information on the amplitude of a sound waveform over time, and if this information is shown, it may be illustrated as shown in FIG. 3A.

다만 이와 같은 진폭 데이터는 소리의 성분을 분석하기 용이하지 않아, 소리의 성분을 분리하여 확인하기 위하여 푸리에 변환을 통한 주파수 성분을 분석하는 방법이 사용되고 있다.However, since such amplitude data is not easy to analyze sound components, a method of analyzing frequency components through Fourier transform is used to separate and confirm sound components.

도 3의 (b)는 이와 같이 소리 데이터를 푸리에 변환하여 시간에 따른 주파수 성분의 정보를 2차원 데이터로 도시한 모습을 나타낸다. 도 3의 (b)에서와 같이 입력된 소리 데이터는 시간과 주파수의 2차원 그래프로 나타나고, 각 주파수에서의 소리의 세기(dB)는 색상으로 나타나게 된다.FIG. 3B shows a state in which information on frequency components over time by Fourier transform of sound data is shown as 2D data. As shown in (b) of FIG. 3, the input sound data is represented by a two-dimensional graph of time and frequency, and the intensity (dB) of sound at each frequency is represented by color.

이와 같이 시간-주파수의 2차원 데이터의 경우 소리의 특징을 추출하기 용이하여 분석에 사용되기 적합하다. 따라서 본 발명의 일 실시예에서 상기 데이터전처리부(200)를 통해 수행되는 학습데이터전처리단계(S200a) 및 폐음전처리단계(S200b)는 입력 받은 학습 폐음 데이터 혹은 폐음 데이터를 시간-주파수의 2차원 데이터로 변환하게 된다.As described above, in the case of time-frequency two-dimensional data, it is easy to extract sound features and is suitable for use in analysis. Therefore, in an embodiment of the present invention, the learning data pre-processing step (S200a) and the waste sound pre-processing step (S200b) performed by the data pre-processing unit 200 include the received learning lung sound data or lung sound data as time-frequency two-dimensional data. Is converted to.

도 4는 본 발명의 일 실시예에 따른 폐음 2차원 데이터인 멜-스펙트로그램의 일 예를 개략적으로 도시하는 도면이다.4 is a diagram schematically showing an example of a mel-spectrogram, which is two-dimensional lung sound data according to an embodiment of the present invention.

본 발명의 일 실시예에서 상기 전처리단계(S200b)는, 입력 받은 상기 폐음 데이터(1)를 멜-스펙트로그램으로 변환하고, 상기 학습데이터전처리단계(S200a)는, 상기 전처리단계(S200b)와 동일한 방법으로 상기 학습 폐음 데이터를 멜-스펙트로그램으로 변환할 수 있다.In an embodiment of the present invention, the preprocessing step (S200b) converts the received lung sound data (1) into a mel-spectrogram, and the learning data preprocessing step (S200a) is the same as the preprocessing step (S200b). In this way, the learning lung sound data can be converted into a mel-spectrogram.

도 3에 도시된 것과 같이 본 발명의 일 실시예에서는 입력 받은 학습 폐음 데이터 혹은 폐음 데이터를 시간-주파수의 폐음 2차원 데이터로 변환할 수 있다. 이 때, 상기 폐음 2차원 데이터는 멜-스펙트로그램일 수 있다. 멜-스펙트로그램은 도 3의 (b)에 도시된 시간-주파수의 스펙트로그램 중 주파수의 단위를 멜 단위(mel unit)로 바꾼 스펙트로그램을 의미한다.As shown in FIG. 3, in an embodiment of the present invention, the received learning lung sound data or lung sound data may be converted into two-dimensional time-frequency lung sound data. In this case, the two-dimensional lung sound data may be a mel-spectrogram. The mel-spectrogram refers to a spectrogram in which a unit of frequency is changed to a mel unit among the time-frequency spectrogram shown in FIG. 3B.

사람이 음의 음조(pitch)를 인식하게 하는 것은 주로 음의 주파수이다. 1 kHz, 40 dB의 음을 1000 mel로 정의하고, 상대적으로 느껴지는 다른 주파수 음의 음조를 나타내는 단위가 멜 단위이다. 주파수를 멜 단위로 변환하는 방법은 하기 식에 따른다.It is mainly the frequency of the sound that makes a person perceive the pitch of the sound. The sound of 1 kHz and 40 dB is defined as 1000 mel, and the unit representing the pitch of different frequency sounds relatively felt is the mel unit. The method of converting the frequency into Mel units follows the following equation.

Figure 112020041466412-pat00001
Figure 112020041466412-pat00001

도 4의 (a) 및 (b)는 상기와 같은 식에 따라 입력 된 폐음 데이터를 멜-스펙트로그램으로 변환 한 모습을 도시하고 있다.4A and 4B illustrate the conversion of the input lung sound data into a mel-spectrogram according to the above equation.

도 5는 본 발명의 일 실시예에 따라 분할-멜-스펙트로그램을 생성하는 방법을 개략적으로 도시하는 도면이다.5 is a diagram schematically showing a method of generating a split-mel-spectrogram according to an embodiment of the present invention.

본 발명의 일 실시예에서 상기 전처리단계(S200b)는, 변환된 멜-스펙트로그램을 기설정된 시간길이 및 기설정된 시간간격으로 분할하여 분할 멜-스펙트로그램을 생성하고, 상기 학습데이터전처리단계(S200a)는, 상기 전처리단계와 동일한 방법으로 분할 멜-스펙트로그램을 생성할 수 있다.In an embodiment of the present invention, in the preprocessing step (S200b), the converted mel-spectrogram is divided into a preset time length and a preset time interval to generate a divided mel-spectrogram, and the learning data preprocessing step (S200a) ) Can generate a split mel-spectrogram in the same manner as in the pretreatment step.

상기 폐음입력단계(S100b) 및 상기 학습데이터입력단계(S100a)를 통해 입력 받은 폐음 데이터(1) 혹은 학습 폐음 데이터는 도 4의 (a) 및 (b)에서와 같이 폐음을 측정 한 길이가 일정하지 않아 다른 폐음 데이터와 직접적으로 비교하기에 적절하지 않다. 따라서 본 발명의 일 실시예에서는 상기 폐음 데이터(1) 혹은 학습 폐음 데이터로부터 획득한 멜-스펙트로그램을 기설정된 시간길이(ts)로 분할하여 분석을 하기 위한 입력 데이터로 사용할 수 있다. 이와 같이 기설정된 시간길이(ts)로 멜-스펙트로그램을 분할함으로써 일정한 크기의 입력 데이터를 획득하여 분석을 수행할 수 있게 되어 분석의 정확도를 높일 수 있게 된다.The lung sound data (1) or the learning lung sound data received through the lung sound input step (S100b) and the learning data input step (S100a) has a constant length measured by the lung sound as in (a) and (b) of FIG. It is not suitable for direct comparison with other lung sound data. Accordingly, in an embodiment of the present invention, the mel-spectrogram obtained from the lung sound data 1 or the learning lung sound data may be divided by a preset time length t s and used as input data for analysis. As described above, by dividing the mel-spectrogram by a preset time length t s , it is possible to acquire input data of a certain size and perform analysis, thereby increasing the accuracy of the analysis.

이 때, 하나의 폐음 데이터에서 하나의 분할 멜-스펙트로그램을 추출하는 경우, 추출되지 않은 영역의 데이터가 분석에 사용되지 않기 때문에, 하나의 폐음 데이터에서 복수의 분할 멜-스펙트로그램을 추출할 수 있다. 이 때 본 발명의 일 실시예에서는 기설정된 시간간격(td)으로 복수의 분할 멜-스펙트로그램을 추출할 수 있다. 바람직하게는 상기 기설정된 시간간격(td)은 상기 기설정된 시간길이(ts)와 같거나 작아서 상기 폐음 데이터가 모두 분석에 사용될 수 있도록 한다.In this case, in the case of extracting one divided mel-spectrogram from one lung sound data, since the data of the unextracted region is not used for analysis, a plurality of divided mel-spectrograms can be extracted from one lung sound data. have. In this case, in an embodiment of the present invention, a plurality of divided mel-spectrograms may be extracted at a preset time interval t d . Preferably, the preset time interval (t d ) is equal to or smaller than the preset time length (t s ) so that all of the lung sound data can be used for analysis.

도 5에는 도 4의 (a)와 같은 멜-스펙트로그램에서 분할 멜-스펙트로그램을 생성하는 모습이 도시되어 있다.FIG. 5 shows a state in which a split mel-spectrogram is generated from the mel-spectrogram as shown in FIG. 4(a).

우선 도 5의 (a)에서와 같이 상기 멜-스펙트로그램에서 박스로 표시된 것과 같은 기설정된 시간길이(ts)의 분할 멜-스펙트로그램을 생성한다.First, as shown in (a) of FIG. 5, a divided mel-spectrogram of a predetermined time length (t s ) as indicated by a box in the mel-spectrogram is generated.

이 후, 도 5의 (b)에서와 같이 기설정된 시간간격(td)을 두고, 동일하게 박스로 표시된 것과 같은 기설정된 시간길이(ts)의 분할 멜-스펙트로그램을 생성한다.Thereafter, as shown in (b) of FIG. 5, with a preset time interval t d , a divided mel-spectrogram of a preset time length t s as indicated by a box is generated.

이 후, 도 5의 (c)에서와 같이 다시 기설정된 시간간격(td)을 두고, 동일하게 박스로 표시된 것과 같은 기설정된 시간길이(ts)의 분할 멜-스펙트로그램을 생성한다.Thereafter, as shown in (c) of FIG. 5, a divided mel-spectrogram of a preset time length (t s ) as indicated by a box is generated again at a preset time interval (t d ).

이와 같은 과정을 반복함으로써 도 4의 (a)에서 도시된 것과 같은 멜-스펙트로그램에서 크기가 일정한 복수의 분할 멜-스펙트로그램을 생성할 수 있고, 이와 같이 크기가 일정한 복수의 분할 멜-스펙트로그램을 통해 폐음을 정확히 분석할 수 있다.By repeating this process, it is possible to generate a plurality of divided mel-spectrograms having a constant size from the mel-spectrogram shown in FIG. 4A, and thus, a plurality of divided mel-spectrograms having a constant size. You can accurately analyze the lung sound through.

본 발명의 일 실시예에서는 상기 기설정된 시간길이(ts)는 3초이고 상기 기설정된 시간간격(td)은 1초일 수 있다.In an embodiment of the present invention, the preset time length (t s ) may be 3 seconds and the preset time interval (t d ) may be 1 second.

도 6은 본 발명의 일 실시예에 따라 특징데이터를 추출하는 방법을 개략적으로 도시하는 도면이다.6 is a diagram schematically showing a method of extracting feature data according to an embodiment of the present invention.

본 발명의 일 실시예에 따르면 상기 폐음특징추출단계(S300b)는, 상기 폐음 2차원 데이터(2)에 대해 컨볼루션 신경망의 컨볼루션 및 풀링을 적용하여 특징데이터를 추출하고, 상기 학습데이터특징추출단계(S300a)는, 상기 폐음특징추출단계(S300b)와 동일한 방법으로 상기 학습 2차원 데이터에 기초하여 학습특징데이터를 추출할 수 있다.According to an embodiment of the present invention, in the lung sound feature extraction step (S300b), feature data is extracted by applying convolution and pooling of a convolutional neural network to the two-dimensional lung sound data (2), and the learning data feature extraction In step S300a, learning feature data may be extracted based on the learning two-dimensional data in the same manner as in the lung sound feature extraction step S300b.

도 6은 상기 폐음 2차원 데이터(2)에 이와 같은 컨볼루션 및 풀링이 적용되는 모습을 도시하고 있다.6 shows a state in which such convolution and pooling are applied to the two-dimensional lung sound data 2.

도 6에서는 도 5에서 생성된 복수의 분할 멜-스펙트로그램을 입력으로 하는 컨볼루션 및 풀링 블록을 확인할 수 있다.In FIG. 6, convolution and pooling blocks using a plurality of divided mel-spectograms generated in FIG. 5 as inputs can be confirmed.

도 6을 참조하면 상기 분할 멜-스펙트로그램을 입력 받으면 복수의 컨볼루션 블록(Conv) 및 풀링 블록(P)을 통해 특성맵을 생성하고, 특성맵의 크기를 점차 줄여가면서, 특성맵의 수를 점차 늘려가는 방식으로 특성을 추출하게 된다.Referring to FIG. 6, when the divided mel-spectrogram is input, a feature map is generated through a plurality of convolution blocks (Conv) and pooling blocks (P), and the size of the feature map is gradually reduced, while reducing the number of feature maps. Characteristics are extracted in a way that increases gradually.

이와 같은 컨볼루션 블록(Conv)는 입력으로부터 특성맵을 생성함으로써 특성을 추출하게 되고, 풀링 블록(P)는 특성맵의 크기를 줄여 특성 데이터를 추출할 수 있도록 한다. 이와 같은 구조는 일반적인 컨볼루션 신경망(CNN)에서 컨볼루션 블록과 풀링 블록을 반복하여 연결하여 특성을 추출하는 구성과 동일하다.Such a convolution block (Conv) extracts features by generating a feature map from an input, and the pooling block (P) reduces the size of the feature map to extract feature data. This structure is the same as a configuration in which a characteristic is extracted by repeatedly connecting a convolutional block and a pooling block in a general convolutional neural network (CNN).

도 6에 도시된 바와 같이 최종 풀링 블록(P5)에서는 크기가 1x1인 복수(N개)의 특성맵이 도출된다. 본 발명에서는 이와 같이 도출된 복수의 특성맵을 Flatten 하여 N개의 특성데이터를 추출하게 된다. 본 발명에서는 이와 같이 추출된 N개의 특성데이터 각각을 하나의 카테고리로 하여 N개의 카테고리의 특성데이터를 추출하게 된다.As shown in FIG. 6, in the final pooling block P 5 , a plurality of (N) characteristic maps having a size of 1×1 are derived. In the present invention, N feature data is extracted by flattening a plurality of feature maps derived as described above. In the present invention, characteristic data of N categories are extracted by using each of the N characteristic data extracted as described above as one category.

도 6에 도시된 컨볼루션 블록(Conv) 및 풀링 블록(P)은 본 발명의 일 실시예에 따른 것으로서, 본 발명은 도 6에 도시된 구성에 한정되지 않고, 도 6과는 다른 수의 컨볼루션 블록(Conv) 및 풀링 블록(P)을 포함하여 구성될 수 있다. 예를 들어 도 6에는 4개의 컨볼루션 블록들(Conv)을 포함하여 특성맵을 도출하지만 본 발명의 다른 실시예에서는 5개의 컨볼루션 블록들(Conv)을 포함하여 특성맵을 도출하고 특성데이터를 추출할 수 있다.The convolution block (Conv) and the pooling block (P) shown in FIG. 6 are according to an embodiment of the present invention, and the present invention is not limited to the configuration shown in FIG. 6, and a number of conballs different from that of FIG. It may be configured to include a solution block (Conv) and a pooling block (P). For example, in FIG. 6, a feature map is derived including four convolution blocks (Conv), but in another embodiment of the present invention, a feature map is derived including five convolution blocks (Conv), and feature data is obtained. Can be extracted.

도 7은 본 발명의 일 실시예에 따라 VGG16 신경망 모델을 통해 특징데이터를 추출하는 과정의 데이터를 개략적으로 도시하는 도면이다.7 is a diagram schematically showing data in a process of extracting feature data through a VGG16 neural network model according to an embodiment of the present invention.

본 발명의 일 실시예에서 상기 폐음특징추출단계(S300b)는, 상기 폐음 2차원 데이터(2)에 대해 VGG16 신경망 모델의 컨볼루션 및 풀링을 적용하여 512개의 특징데이터를 추출하고, 상기 학습데이터특징추출단계는, 상기 폐음특징추출단계와 동일한 방법으로 상기 학습 2차원 데이터에 기초하여 학습특징데이터를 추출할 수 있다.In an embodiment of the present invention, in the lung sound feature extraction step (S300b), 512 feature data is extracted by applying convolution and pooling of a VGG16 neural network model to the two-dimensional lung sound data (2), and the learning data feature In the extraction step, learning feature data may be extracted based on the learning two-dimensional data in the same manner as in the lung sound feature extraction step.

VGG16 신경망 모델의 컨볼루션 및 풀링은 도 6에 도시된 것과 유사한 구조를 갖는다. 다만 VGG16 신경망 모델에서는 5개의 블록을 가지고, 각각의 블록에는 컨볼루션 층과 풀링 층이 각각 배치될 수 있다.The convolution and pooling of the VGG16 neural network model has a structure similar to that shown in FIG. 6. However, in the VGG16 neural network model, there are 5 blocks, and a convolution layer and a pooling layer may be disposed in each block.

도 7에는 이와 같은 VGG16 신경망 모델에서의 각각의 층에서의 출력데이터의 일 예가 정리되어 있다.7 shows an example of output data in each layer in the VGG16 neural network model.

도 7에 도시된 실시예에서는 우선 입력으로 150 x 150 크기의 분할 멜-스펙트로그램(150,150,3)이 입력되고, 블록1의 컨볼루션1 및 컨볼루션2 층을 통해 64개의 특성맵이 생성된다(150,150,64). 이후 블록1의 풀링 층을 거치면서 75 x 75 크기의 특성맵이 생성되고(75,75,64), 블록2의 컨볼루션1 및 컨볼루션2 층을 통해 128개의 특성맵이 생성된다(75,75,128). 이후 블록2의 풀링 층을 거치면서 37 x 37 크기의 특성맵이 생성되고(37,37,128), 블록3의 컨볼루션1, 컨볼루션2 및 컨볼루션3 층을 통해 256개의 특성맵이 생성된다(37,37,256). 이후 블록3의 풀링 층을 거치면서 18 x 18 크기의 특성맵이 생성되고(18,18,256), 블록4의 컨볼루션1, 컨볼루션2 및 컨볼루션3 층을 통해 512개의 특성맵이 생성된다(18,18,512). 이후 블록4의 풀링 층을 거치면서 9 x 9 크기의 특성맵이 생성되고(9,9,512), 블록5의 컨볼루션1, 컨볼루션2 및 컨볼루션3 층을 통해 512개의 특성맵이 생성된다(18,18,512). 이후 블록 5의 풀링 층을 거치면서 4 x 4 크기의 특성맵이 생성된다(4,4,512).In the embodiment shown in FIG. 7, first, the divided mel-spectrograms 150, 150, and 3 having a size of 150 x 150 are input as input, and 64 feature maps are generated through the convolution 1 and convolution 2 layers of block 1. (150,150,64). Thereafter, a feature map of size 75 x 75 is generated through the pooling layer of block 1 (75,75,64), and 128 feature maps are generated through the convolution 1 and convolution 2 layers of block 2 (75, 75,128). Thereafter, through the pooling layer of block 2, a feature map of size 37 x 37 is created (37,37,128), and 256 feature maps are generated through the convolution 1, convolution 2, and convolution 3 layers of block 3 ( 37,37,256). After that, through the pooling layer of block 3, a feature map of size 18 x 18 is created (18, 18, 256), and 512 feature maps are generated through the convolution 1, convolution 2 and convolution 3 layers of block 4 ( 18,18,512). After that, through the pooling layer of block 4, a 9 x 9 feature map is generated (9,9,512), and 512 feature maps are generated through the convolution 1, convolution 2 and convolution 3 layers of block 5 ( 18,18,512). Thereafter, a 4 x 4 feature map is generated while passing through the pooling layer of block 5 (4,4,512).

이와 같이 컨볼루션과 풀링을 통해 도출된 (4,4,512)의 특성맵은 이후 두 개의 풀링 층을 더 거치면서 각각 (2,2,512) 및 (1,1,512)의 특성맵이 생성되고, 최종 도출된 (1,1,512)의 특성맵을 Flatten 하여 512개의 특성데이터를 추출하게 된다.The characteristic map of (4,4,512) derived through convolution and pooling in this way goes through two more pooling layers, respectively, the characteristic map of (2,2,512) and (1,1,512) is generated, and the finally derived By flattening the feature map of (1,1,512), 512 feature data are extracted.

도 8은 본 발명의 일 실시예에 따라 추출된 특징데이터의 일 예를 개략적으로 도시하는 도면이다.8 is a diagram schematically showing an example of feature data extracted according to an embodiment of the present invention.

본 발명의 일 실시예에서 상기 특징선별단계(S400a)는, 2 이상의 카테고리의 상기 학습특징데이터 중 상기 분류에 따른 피어슨 상관계수(Pearson Correlation Coefficient)에 기초하여 폐음특징데이터의 카테고리를 도출하여 상기 선별된 카테고리를 결정할 수 있다.In an embodiment of the present invention, the feature selection step (S400a) is performed by deriving a category of lung sound feature data based on a Pearson Correlation Coefficient according to the classification among the learning feature data of two or more categories. You can decide which categories have been created.

도 8에는 전술한 것과 같은 방법을 따라 학습 폐음 데이터로부터 추출된 N개의 카테고리의 학습특징데이터의 일 예가 도시되어 있다. 상기 학습 폐음 데이터는 2 개의 분류로 구분되어 있고, 각각의 분류에 3개의 학습 폐음 데이터(T)가 포함되어 있다. 즉, 분류 1에는 T1, T2 및 T3의 학습 폐음 데이터가 포함되어 있고, 분류 2에는 T4, T5 및 T6의 학습 폐음 데이터가 포함되어 있다.8 shows an example of learning feature data of N categories extracted from the learning lung sound data according to the method described above. The learning lung sound data is classified into two classifications, and each classification includes three learning lung sound data T. That is, classification 1 includes the learning lung sound data of T1, T2, and T3, and the classification 2 includes learning lung sound data of T4, T5, and T6.

각각의 학습 폐음 데이터는 상기 학습데이터입력단계(S100a), 학습데이터전처리단계(S200a) 및 학습데이터특징추출단계(S300a)를 통해 N개의 카테고리의 학습특징데이터가 추출되었다. 예를 들어 상기 학습 폐음 데이터 T1은 F11, F12, F13, F14 …… F1N 의 N개의 카테고리 각각에 대한 N개의 학습특징데이터가 추출되었다. 이와 같이 추출된 N개의 카테고리의 학습특징데이터들은 분류별로 평균 및 분산이 도출될 수 있다. 예를 들어 분류 1의 첫 번째 카테고리인 특징데이터 1의 평균은 m11이고, 분산은 σ2 11이고, 분류 2의 첫 번째 카테고리인 특징데이터 1의 평균은 m21이고, 분산은 σ2 21이다.For each of the learning lung sound data, N categories of learning feature data were extracted through the learning data input step (S100a), the training data preprocessing step (S200a), and the learning data feature extraction step (S300a). For example, the learning lung sound data T1 is F 11 , F 12 , F 13 , F 14 . … N learning feature data for each of the N categories of F 1N were extracted. The average and variance of learning feature data of the N categories extracted as described above may be derived for each classification. For example, the average of feature data 1, the first category of category 1, is m 11 , variance is σ 2 11 , and the average of feature data 1, the first category of category 2, is m 21 , and variance is σ 2 21 . .

상기 특징선별단계(S400a)는 이와 같이 추출된 학습특징데이터를 선별한다. 본 발명의 일 실시예에서는 피어슨 상관계수에 기초하여 학습특징데이터를 선별할 수 있다.In the feature selection step S400a, the extracted learning feature data is selected. In an embodiment of the present invention, learning feature data may be selected based on the Pearson correlation coefficient.

피어슨 상관계수는 두 변수가 서로 상관 관계를 가지고 있는지를 확인하는 척도이다. 두 변수

Figure 112020041466412-pat00002
에 대한 피어슨 상관계수
Figure 112020041466412-pat00003
는 하기 식과 같이 계산될 수 있다.The Pearson correlation coefficient is a measure of whether two variables are correlated with each other. Two variables
Figure 112020041466412-pat00002
Pearson correlation coefficient for
Figure 112020041466412-pat00003
Can be calculated as follows.

Figure 112020041466412-pat00004
Figure 112020041466412-pat00004

Figure 112020041466412-pat00005
는 두 변수
Figure 112020041466412-pat00006
의 공분산이고,
Figure 112020041466412-pat00007
는 각각
Figure 112020041466412-pat00008
의 표준편차이다. 상기 식을 정리하면 하기와 같다.
Figure 112020041466412-pat00005
Are two variables
Figure 112020041466412-pat00006
Is the covariance of
Figure 112020041466412-pat00007
Are each
Figure 112020041466412-pat00008
Is the standard deviation of The above equation is summarized as follows.

Figure 112020041466412-pat00009
Figure 112020041466412-pat00009

이와 같이 계산된 피어슨 상관계수는 [-1, 1]의 값을 가지게 되고, 1이나 -1에 가까우면 상관관계가 있다고 보고, 0이면 상관관계가 없다고 본다.Pearson's correlation coefficient calculated in this way has a value of [-1, 1], and if it is close to 1 or -1, it is considered that there is a correlation, and if it is 0, there is no correlation.

이와 같은 피어슨 상관계수를 도 8에서와 같은 두 분류의 특징데이터에 적용하면, 두 분류의 특징데이터가 서로 음의 상관관계에 있는 경우 상기 피어슨 상관계수가 -1에 가까이 낮게 나오게 된다. 따라서, 본 발명의 일 실시예에서는 상기 피어슨 상관계수가 낮은 특징데이터의 카테고리를 선별하여 폐음 데이터를 분류하는데 사용함으로써 분류의 정확도를 높일 수 있다. 본 발명의 일 실시예에서는 도 7에서와 같이 도출된 512개의 카테고리의 특징데이터 중 상기 피어슨 상관계수에 기초하여 20개의 특징데이터의 카테고리를 선별할 수 있다.When the Pearson correlation coefficient is applied to the feature data of two classifications as shown in FIG. 8, when the feature data of the two classifications has a negative correlation, the Pearson correlation coefficient is lower than -1. Accordingly, in an embodiment of the present invention, the classification accuracy can be improved by selecting a category of feature data having a low Pearson correlation coefficient and using it to classify lung sound data. In an embodiment of the present invention, 20 categories of feature data may be selected based on the Pearson correlation coefficient among the feature data of 512 categories derived as shown in FIG. 7.

도 9는 본 발명의 일 실시예에 따른 뉴로-퍼지 네트워크 기반의 폐음분류단계에서 사용되는 가중 퍼지 소속 함수 기반의 퍼지 신경망(NEWFM)의 구조를 개략적으로 도시하는 도면이다.9 is a diagram schematically showing the structure of a fuzzy neural network (NEWFM) based on a weighted fuzzy membership function used in a lung sound classification step based on a neuro-fuzzy network according to an embodiment of the present invention.

본 발명의 일 실시예에서 상기 폐음분류단계(S500)는, 1 이상의 선별된 폐음특징데이터를 각각 가중 퍼지 소속 함수 기반의 퍼지 신경망(Neuro Network with a Weighted Fuzzy Membership function, NEWFM)에 입력하여, 가중 퍼지 소속 함수의 경계합(Bounded Sum of Weighted Fuzzy Membership functions, BSWFM)을 학습시킬 수 있다. 도 9를 참조하여 가중 퍼지 소속 함수 기반의 퍼지 신경망(NEWFM)을 설명하면, NEWFM은 입력(input) 레이어, 하이퍼박스(hyper box) 레이어, 클래스(class) 레이어를 포함하는 3개의 레이어로 구성될 수 있다. 이때, 입력 레이어는, n개의 특징을 가진 입력 패턴이 입력되는, n개의 입력 노드로 구성될 수 있고, 하이퍼박스 레이어는, 각각이 n개의 입력 노드에 대한 n개의 BSWFM을 포함하며 클래스 노드에 연결되는, m개의 하이퍼박스 노드로 구성될 수 있다. 또한, 클래스 레이어는, 각각이 적어도 하나 이상의 하이퍼박스 노드에 연결되는 p개의 클래스 노드로 구성될 수 있다.In an embodiment of the present invention, in the lung sound classification step (S500), each of the selected lung sound feature data is input into a weighted fuzzy membership function-based Fuzzy Neural Network (NEWFM), and weighted Bounded Sum of Weighted Fuzzy Membership functions (BSWFM) can be learned. When a fuzzy neural network (NEWFM) based on a weighted fuzzy membership function is described with reference to FIG. 9, NEWFM is composed of three layers including an input layer, a hyper box layer, and a class layer. I can. At this time, the input layer may be composed of n input nodes into which input patterns having n characteristics are input, and the hyperbox layer includes n BSWFMs for n input nodes, and is connected to the class node. It may consist of m hyperbox nodes. In addition, the class layer may consist of p class nodes, each of which is connected to at least one hyperbox node.

한편, 입력 노드에 입력되는 h번째 입력 패턴은 하기 식과 같이 표현될 수 있다.Meanwhile, the h-th input pattern input to the input node may be expressed as follows.

Figure 112020041466412-pat00010
Figure 112020041466412-pat00010

이 때, class는 분류 결과를 가리키며, Fh는 입력 패턴의 n개의 특징(선별된 폐음특징데이터)을 나타낸다.At this time, class indicates the classification result, and F h indicates n features (selected lung sound feature data) of the input pattern.

하이퍼박스 노드 Bl는 각각, n 개의 퍼지 집합으로 구성되는데, 그 중 i번째 퍼지 집합은 도 6에서와 같이, Bl i로 표현되는 가중 퍼지 소속 함수(Weighted Fuzzy Membership function, WFM)를 가진다. Each hyperbox node B l is composed of n fuzzy sets, of which the i-th fuzzy set has a weighted fuzzy membership function (WFM) represented by B l i as shown in FIG. 6.

도 10은 본 발명의 일 실시예에 따른 폐음분류단계에서 사용되는 NEWFM에 의해 학습시키는 가중 퍼지 소속 함수의 경계합(BSWFM)을 개략적으로 도시하는 도면이다.10 is a diagram schematically showing a boundary sum (BSWFM) of a weighted fuzzy membership function learned by NEWFM used in a lung sound classification step according to an embodiment of the present invention.

도 10에 도시된 바와 같이, 가중 퍼지 소속 함수(WFM) Bl i는 연속된 시 변화 신호 x(t)에 대한 원래의 소속 함수(original membership function)인 μl i 1, μl i 2, μl i 3 등에 대하여, 가중치 Wl i 1, Wl i 2, Wl i3 등을 준 소속 함수를 나타낸다. 도 10에서는, μl i 1, μl i 2, μl i 3 에 대하여, 각각 0.7, 0.8, 0.3의 가중치를 준 WFM(wl i 1, wl i 2, wl i 3)이 도시되었다.As shown in Fig. 10, the weighted fuzzy membership function (WFM) B l i is the original membership function for the continuous time change signal x(t) μ l i 1 , μ l i 2 , For μ l i 3 and the like, it represents the membership function given weights W l i 1 , W l i 2 , W l i3, etc. In FIG. 10, WFM (w l i 1 , w l i 2 , w l i 3 ) given weights of 0.7, 0.8, and 0.3 for μ l i 1 , μ l i 2 , and μ l i 3 , respectively, is shown. Became.

한편, 가중 퍼지 소속 함수의 경계합(BSWFM)은, 도 10의 굵은 선과 같은 다각형 모양으로 나타날 수 있는데, 이 때, 가중 퍼지 소속 함수 Bl i에 대한 BSWFM 값인 BSl i(Fi)은, 하기 식과 같이 표현될 수 있다.On the other hand, the boundary sum (BSWFM) of the weighted fuzzy membership function may appear in a polygonal shape such as the thick line of FIG. 10, in which case BS l i (F i ), which is a BSWFM value for the weighted fuzzy membership function B l i It can be expressed as the following equation.

Figure 112020041466412-pat00011
Figure 112020041466412-pat00011

이 때, Fi는 입력 패턴 Fh의 i번째 특징값을 나타낸다. 도 10에는, v1 i 2 및 vl i 3의 사이에 위치한 Fi에 대한 BSWFM 값이 도시되어 있다.In this case, F i represents the i-th feature value of the input pattern F h . In FIG. 10, BSWFM values for F i located between v 1 i 2 and v 1 i 3 are shown.

도 11은 본 발명의 일 실시예에 따른 특징데이터에서 분류에 따른 가중 퍼지 소속 함수의 경계합(BSWFM)의 일 예를 도시하는 도면이다.11 is a diagram showing an example of a boundary sum (BSWFM) of a weighted fuzzy membership function according to classification in feature data according to an embodiment of the present invention.

도 11에 도시된 바와 같이, 분류 1 및 분류 2에 대해 각각, 본 발명의 일 실시예에 따른 폐음분석단계(S20)의 폐음분류단계(S500)를 적용하는 경우, 폐음 데이터의 N번째 특징데이터의 퍼지 값(fuzzy value)의 분포에서 구분되는 차이점을 확인할 수 있다.As shown in FIG. 11, when the lung sound classification step S500 of the lung sound analysis step S20 according to an embodiment of the present invention is applied to the classification 1 and the classification 2, the N-th feature data of the lung sound data You can see the difference that is distinguished in the distribution of fuzzy values of.

따라서 본 발명의 일 실시예에서 상기 폐음분류단계(S500)는, 학습된 가중 퍼지 소속 함수의 경계합(BSWFM)을 기설정된 값과 비교하여 폐음 데이터의 분류를 도출할 수 있다. 이와 같은 기설정된 값은 복수의 학습데이터를 통해 획득된 데이터에 기초하여 설정될 수 있고, 입력된 폐음 데이터를 분류하기 위하여는 상기 폐음 데이터로부터 추출하여 선별한 폐음특징데이터를 NEWFM에 의해 학습시킨 BSWFM이 상기 미리 설정한 값과 얼마나 차이가 있는지를 비교하여, 상기 폐음 데이터의 분류를 결정할 수 있다. 즉, 상기 기설정된 값은, 2 이상의 분류의 선별된 학습 폐음 데이터의 폐음특징데이터를 각각 가중 퍼지 소속 함수 기반의 퍼지 신경망에 입력하여 가중 퍼지 소속 함수의 경계합을 학습시킨 결과에 기초하여 설정될 수 있다.Accordingly, in the lung sound classification step S500 in an embodiment of the present invention, classification of lung sound data may be derived by comparing the boundary sum (BSWFM) of the learned weighted fuzzy membership function with a preset value. Such a preset value can be set based on data obtained through a plurality of learning data, and in order to classify the input lung sound data, BSWFM, which is extracted from the lung sound data and selected, is learned by NEWFM. The classification of the lung sound data can be determined by comparing how much difference there is with the preset value. That is, the preset value may be set based on the result of learning the boundary sum of the weighted fuzzy membership function by inputting the lung sound feature data of the selected learning lung sound data of two or more categories into a fuzzy neural network based on a weighted fuzzy membership function, I can.

도 12는 본 발명의 일 실시예에 있어서, 컴퓨팅 장치의 내부 구성의 일례를 설명하기 위한 블록도이다.12 is a block diagram illustrating an example of an internal configuration of a computing device according to an embodiment of the present invention.

도 12에 도시한 바와 같이, 컴퓨팅 장치(11000)은 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(11000)은 폐음 분석 시스템에 해당될 수 있다.12, the computing device 11000 includes at least one processor 11100, a memory 11200, a peripheral interface 11300, and an input/output subsystem ( I/O subsystem) 11400, a power circuit 11500, and a communication circuit 11600. In this case, the computing device 11000 may correspond to a lung sound analysis system.

메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다.The memory 11200 may include, for example, high-speed random access memory, magnetic disk, SRAM, DRAM, ROM, flash memory, or nonvolatile memory. have. The memory 11200 may include a software module, an instruction set, or other various data necessary for the operation of the computing device 11000.

이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.In this case, accessing the memory 11200 from another component such as the processor 11100 or the peripheral device interface 11300 may be controlled by the processor 11100.

주변장치 인터페이스(11300)는 컴퓨팅 장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.The peripheral device interface 11300 may couple input and/or output peripheral devices of the computing device 11000 to the processor 11100 and the memory 11200. The processor 11100 may execute various functions for the computing device 11000 and process data by executing a software module or instruction set stored in the memory 11200.

입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input/output subsystem 11400 may couple various input/output peripherals to the peripherals interface 11300. For example, the input/output subsystem 11400 may include a monitor, a keyboard, a mouse, a printer, or a controller for coupling a peripheral device such as a touch screen or a sensor to the peripheral device interface 11300 as needed. According to another aspect, the input/output peripheral devices may be coupled to the peripheral device interface 11300 without going through the input/output subsystem 11400.

전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit 11500 may supply power to all or part of the components of the terminal. For example, the power circuit 11500 may include a power management system, one or more power sources such as batteries or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator or power. It may contain any other components for creation, management, and distribution.

통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.The communication circuit 11600 may enable communication with another computing device using at least one external port.

또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, the communication circuit 11600 may enable communication with other computing devices by transmitting and receiving an RF signal, also known as an electromagnetic signal, including an RF circuit, if necessary.

이러한 도 12의 실시예는, 컴퓨팅 장치(11000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 12에 도시된 일부 컴포넌트가 생략되거나, 도 12에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 12에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.The embodiment of FIG. 12 is only an example of the computing device 11000, and the computing device 11000 omits some of the components shown in FIG. 12, further includes additional components not shown in FIG. 12, or 2 It can have a configuration or arrangement that combines two or more components. For example, a computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor, in addition to the components shown in FIG. 12, and various communication methods (WiFi, 3G, LTE) in the communication circuit 1160 , Bluetooth, NFC, Zigbee, etc.) may include a circuit for RF communication. Components that can be included in the computing device 11000 may be implemented as hardware, software, or a combination of hardware and software including one or more signal processing or application-specific integrated circuits.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded in a computer-readable medium. In particular, the program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal. An application to which the present invention is applied may be installed on a user terminal through a file provided by the file distribution system. For example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to the request of the user terminal.

이상과 같은 본 발명의 일 실시예에 따른 폐음 분석 시스템의 성능을 확인하기 위하여 199건의 데이터를 사용하여 분류 정확도를 도출하였다.In order to confirm the performance of the lung sound analysis system according to an embodiment of the present invention as described above, classification accuracy was derived using 199 data.

상기 199건의 데이터는 171건의 정상 폐음 데이터 및 28건의 비정상 폐음 데이터를 포함하였다. 상기 199건의 데이터는 도 5에서 도시된 바와 같이 멜-스펙트로그램으로 변환되고, 기설정된 시간길이 및 기설정된 시간간격으로 분할하여 분할 멜-스펙트로그램을 생성하게 된다. 이에 따라 1774개의 정상 분할 멜-스펙트로그램 및 267개의 비정상 분할 멜-스펙트로그램이 생성되었고, 이에 기초하여 분석을 수행하였다.The 199 data included 171 normal lung sound data and 28 abnormal lung sound data. As shown in FIG. 5, the 199 data are converted into a mel-spectrogram, and divided into a preset time length and a preset time interval to generate a divided mel-spectrogram. As a result, 1774 normal segmented Mel-Spectrograms and 267 abnormal segmented Mel-Spectrograms were generated, and analysis was performed based on this.

이 중 정상 및 비정상 데이터 사이의 바이어스를 줄이기 위하여 정상 분할 멜-스펙트로그램 중 267개의 데이터를 무작위로 선택하였다. 따라서 267개의 정상 분할 멜-스펙트로그램 및 267개의 비정상 분할 멜-스펙트로그램이 훈련 및 테스트를 위하여 사용되었고, 이 중 380개의 분할 멜-스펙트로그램이 훈련에 사용되었고, 154개의 분할 멜-스펙트로그램이 테스트에 사용되었다.Among them, 267 data were randomly selected from the normal segmented mel-spectrogram to reduce the bias between normal and abnormal data. Therefore, 267 normal split Mel-Spectrograms and 267 Abnormal Split Mel-Spectrograms were used for training and testing. Used for testing.

이와 같은 분할 멜-스펙트로그램에 대해 도 7에 도시된 것과 같은 VGG16 신경망 모델의 컨볼루션 및 풀링을 적용하여 512개의 특징데이터를 추출하였고, 피어슨 상관계수에 기초하여 20개의 특징데이터를 선별하였다. 이와 같이 선별 된 20개의 특징데이터를 각각 5-fold 및 10-fold 학습을 수행한 결과가 하기 표 1과 같이 나타났다.For this split mel-spectrogram, 512 feature data were extracted by applying convolution and pooling of the VGG16 neural network model as shown in FIG. 7, and 20 feature data were selected based on the Pearson correlation coefficient. The results of performing 5-fold and 10-fold learning on the 20 selected feature data, respectively, are shown in Table 1 below.

5-fold5-fold 10-fold10-fold 평균Average 2020 95.47%95.47% 96.22%96.22% 96.1%96.1%

본 발명의 일 실시예에 따르면 입력 받은 폐음 데이터를 2차원 데이터로 변형함으로써 컨볼루션 및 풀링을 통해 특징데이터를 추출할 수 있다.According to an embodiment of the present invention, feature data may be extracted through convolution and pooling by transforming the received lung sound data into 2D data.

본 발명의 일 실시예에 따르면 폐음 2차원 데이터를 기설정된 시간길이 및 기설정된 시간간격으로 분할함으로써 표준화된 크기의 2차원 데이터로부터 특징데이터를 추출하여 폐음을 분석할 수 있다.According to an embodiment of the present invention, by dividing the two-dimensional lung sound data into a preset time length and a preset time interval, feature data may be extracted from the two-dimensional data of a standardized size to analyze the lung sound.

본 발명의 일 실시예에 따르면 학습데이터로부터 특징데이터를 추출하고, 특징데이터를 피어슨 상관계수를 이용하여 선별함으로써 폐음 데이터를 용이하게 분류할 수 있는 특징데이터를 이용하여 분류를 수행할 수 있다.According to an embodiment of the present invention, by extracting feature data from learning data and selecting the feature data using Pearson's correlation coefficient, classification can be performed using feature data capable of easily classifying lung sound data.

본 발명의 일 실시예에 따르면 컨볼루션 및 풀링을 통해 추출된 특징데이터를 가중 퍼지 소속 함수 기반의 퍼지 신경망을 통해 분류함으로써 분류의 정확도를 높일 수 있다.According to an embodiment of the present invention, the accuracy of classification may be improved by classifying feature data extracted through convolution and pooling through a fuzzy neural network based on a weighted fuzzy membership function.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved. Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the claims to be described later.

Claims (10)

1 이상의 프로세서 및 메모리를 포함하는 폐음 분석 시스템에 의해 수행되는 폐음 분석 방법으로서,
폐음 데이터를 입력 받는 폐음입력단계;
상기 폐음 데이터를 시간-주파수의 폐음 2차원 데이터로 변환하는 폐음전처리단계;
변환된 상기 폐음 2차원 데이터에 기초하여 2 이상의 카테고리의 폐음특징데이터를 추출하는 폐음특징추출단계;
2 이상의 카테고리의 상기 폐음특징데이터 중 선별된 카테고리에 해당하는 폐음특징데이터를 선별하는 폐음특징선별단계; 및
학습된 모델 및 선별된 폐음특징데이터에 기초하여 폐음 데이터의 분류를 도출하는 폐음분류단계; 를 포함하고,
상기 선별된 카테고리는,
2 이상의 분류로 구분된 복수의 학습 폐음 데이터에 대하여 상기 폐음전처리단계, 폐음특징추출단계와 동일한 과정으로 2 이상의 카테고리의 폐음특징데이터를 추출하고, 상기 학습 폐음 데이터의 2 이상의 카테고리의 폐음특징데이터 중 상기 분류에 따른 피어슨 상관계수(Pearson Correlation Coefficient)가 기설정된 기준에 부합하는 폐음특징데이터의 카테고리를 도출하여 결정되는, 폐음 분석 방법.
A lung sound analysis method performed by a lung sound analysis system including at least one processor and a memory,
A lung sound input step of receiving lung sound data;
A waste sound preprocessing step of converting the lung sound data into two-dimensional data of the lung sound of time-frequency;
A lung sound feature extraction step of extracting two or more categories of lung sound feature data based on the converted two-dimensional lung sound data;
A lung sound feature selection step of selecting lung sound feature data corresponding to the selected category from among the lung sound feature data of two or more categories; And
A lung sound classification step of deriving classification of the lung sound data based on the learned model and the selected lung sound feature data; Including,
The selected categories are,
For a plurality of learning lung sound data classified into two or more categories, the lung sound feature data of two or more categories are extracted in the same process as the lung sound preprocessing step and the lung sound feature extraction step, and among the lung sound feature data of two or more categories of the learning lung sound data A Pearson Correlation Coefficient according to the classification is determined by deriving a category of lung sound feature data meeting a preset criterion.
청구항 1에 있어서,
상기 폐음분류단계는,
1 이상의 선별된 폐음특징데이터를 각각 가중 퍼지 소속 함수 기반의 퍼지 신경망에 입력하여, 가중 퍼지 소속 함수의 경계합을 학습시키는, 폐음 분석 방법.
The method according to claim 1,
The lung sound classification step,
A lung sound analysis method in which at least one selected lung sound feature data is input into a fuzzy neural network based on a weighted fuzzy membership function, and the boundary sum of the weighted fuzzy membership function is learned.
청구항 2에 있어서,
상기 폐음분류단계는,
학습된 가중 퍼지 소속 함수의 경계합을 기설정된 값과 비교하여 폐음 데이터의 분류를 도출하는, 폐음 분석 방법.
The method according to claim 2,
The lung sound classification step,
A lung sound analysis method that derives classification of lung sound data by comparing the boundary sum of the learned weighted fuzzy membership function with a preset value.
삭제delete 청구항 1에 있어서,
상기 폐음전처리단계는,
입력 받은 상기 폐음 데이터를 멜-스펙트로그램으로 변환하는, 폐음 분석 방법.
The method according to claim 1,
The waste negative pretreatment step,
Lung sound analysis method for converting the received lung sound data into a mel-spectrogram.
청구항 5에 있어서,
상기 폐음전처리단계는,
변환된 멜-스펙트로그램을 기설정된 시간길이 및 기설정된 시간간격으로 분할하여 분할 멜-스펙트로그램을 생성하는, 폐음 분석 방법.
The method of claim 5,
The waste negative pretreatment step,
The converted mel-spectrogram is divided into a preset time length and a preset time interval to generate a divided mel-spectrogram.
청구항 1에 있어서,
상기 폐음특징추출단계는,
상기 폐음 2차원 데이터에 대해 컨볼루션 신경망의 컨볼루션 및 풀링을 적용하여 특징데이터를 추출하는, 폐음 분석 방법.
The method according to claim 1,
The lung sound feature extraction step,
Lung sound analysis method for extracting feature data by applying convolution and pooling of a convolutional neural network to the two-dimensional lung sound data.
청구항 1에 있어서,
상기 폐음특징추출단계는,
상기 폐음 2차원 데이터에 대해 VGG16 신경망 모델의 컨볼루션 및 풀링을 적용하여 특징데이터를 추출하는, 폐음 분석 방법.
The method according to claim 1,
The lung sound feature extraction step,
Lung sound analysis method for extracting feature data by applying convolution and pooling of a VGG16 neural network model to the two-dimensional lung sound data.
폐음 분석 시스템으로서,
폐음 데이터를 입력 받는 데이터입력부;
상기 폐음 데이터를 시간-주파수의 폐음 2차원 데이터로 변환하는 데이터전처리부;
변환된 상기 폐음 2차원 데이터에 기초하여 2 이상의 카테고리의 폐음특징데이터를 추출하는 데이터특징추출부;
2 이상의 카테고리의 상기 폐음특징데이터 중 선별된 카테고리에 해당하는 폐음특징데이터를 선별하는 특징선별부; 및
학습된 모델 및 선별된 폐음특징데이터에 기초하여 폐음 데이터의 분류를 도출하는 폐음분류부; 를 포함하고,
상기 선별된 카테고리는,
2 이상의 분류로 구분된 복수의 학습 폐음 데이터에 대하여 상기 데이터전처리부 및 상기 데이터특징추출부를 통해 2 이상의 카테고리의 폐음특징데이터를 추출하고, 상기 2 이상의 카테고리의 폐음특징데이터 중 상기 분류에 따른 피어슨 상관계수(Pearson Correlation Coefficient)가 기설정된 기준에 부합하는 폐음특징데이터의 카테고리를 도출하여 결정되는, 폐음 분석 시스템.
As a lung sound analysis system,
A data input unit for receiving lung sound data;
A data preprocessing unit converting the lung sound data into two-dimensional data of the lung sound of time-frequency;
A data feature extracting unit for extracting two or more categories of lung sound feature data based on the converted two-dimensional lung sound data;
A feature selection unit for selecting lung sound feature data corresponding to the selected category from among the lung sound feature data of two or more categories; And
A lung sound classification unit for deriving classification of lung sound data based on the learned model and the selected lung sound feature data; Including,
The selected categories are,
Pearson's correlation according to the classification among the lung sound feature data of two or more categories is extracted through the data preprocessing unit and the data feature extraction unit for a plurality of learning lung sound data divided into two or more categories. A lung sound analysis system in which a Pearson Correlation Coefficient is determined by deriving a category of lung sound feature data meeting a preset criterion.
청구항 9에 있어서,
상기 폐음분류부는,
1 이상의 선별된 폐음특징데이터를 각각 가중 퍼지 소속 함수 기반의 퍼지 신경망에 입력하여, 가중 퍼지 소속 함수의 경계합을 학습시키는, 폐음 분석 시스템.
The method of claim 9,
The waste sound classification unit,
Lung sound analysis system that inputs one or more selected lung sound feature data into a fuzzy neural network based on a weighted fuzzy membership function, and learns the boundary sum of the weighted fuzzy membership function.
KR1020200048724A 2020-04-22 2020-04-22 Lung Sound Analysis Method and System Based on Neuro-fuzzy Network Active KR102186157B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200048724A KR102186157B1 (en) 2020-04-22 2020-04-22 Lung Sound Analysis Method and System Based on Neuro-fuzzy Network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200048724A KR102186157B1 (en) 2020-04-22 2020-04-22 Lung Sound Analysis Method and System Based on Neuro-fuzzy Network

Publications (1)

Publication Number Publication Date
KR102186157B1 true KR102186157B1 (en) 2020-12-03

Family

ID=73779631

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200048724A Active KR102186157B1 (en) 2020-04-22 2020-04-22 Lung Sound Analysis Method and System Based on Neuro-fuzzy Network

Country Status (1)

Country Link
KR (1) KR102186157B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668556A (en) * 2021-01-21 2021-04-16 广州联智信息科技有限公司 Breath sound identification method and system
KR102376188B1 (en) * 2021-12-15 2022-03-17 가천대학교 산학협력단 Method and System for Feature Information Selection for Classification of Lung Sounds using Deep-Learning
WO2022140583A1 (en) 2020-12-22 2022-06-30 Cornell University Classifying biomedical acoustics based on image representation
CN114869224A (en) * 2022-03-28 2022-08-09 浙江大学 Classification and detection of lung diseases based on collaborative deep learning and lung auscultation sounds
KR102462201B1 (en) * 2022-03-23 2022-11-02 가천대학교 산학협력단 Method and System for select of pulmonary auscultation information that determines lung disease
WO2024063505A1 (en) * 2022-09-22 2024-03-28 서울대학교산학협력단 Breath sound classification model generation method and device, and wheezing determination method and system using same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062781A (en) * 2015-09-22 2017-03-30 ゼロックス コーポレイションXerox Corporation Detection of important objects based on similarity using deep CNN pooling layer as a feature
KR101901307B1 (en) * 2017-12-18 2018-09-21 가천대학교 산학협력단 Method, apparatus and computer-readable recording medium for classifying classes using deep neural network with weighted fuzzy membership function
US20190008475A1 (en) * 2017-07-04 2019-01-10 Tata Consultancy Services Limited Systems and methods for detecting pulmonary abnormalities using lung sounds
KR20200056952A (en) * 2018-11-15 2020-05-25 고려대학교 산학협력단 Device and method for optimal channel selection using correlation and filter-bank common spatial pattern features in brain-computer interface

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062781A (en) * 2015-09-22 2017-03-30 ゼロックス コーポレイションXerox Corporation Detection of important objects based on similarity using deep CNN pooling layer as a feature
US20190008475A1 (en) * 2017-07-04 2019-01-10 Tata Consultancy Services Limited Systems and methods for detecting pulmonary abnormalities using lung sounds
KR101901307B1 (en) * 2017-12-18 2018-09-21 가천대학교 산학협력단 Method, apparatus and computer-readable recording medium for classifying classes using deep neural network with weighted fuzzy membership function
KR20200056952A (en) * 2018-11-15 2020-05-25 고려대학교 산학협력단 Device and method for optimal channel selection using correlation and filter-bank common spatial pattern features in brain-computer interface

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022140583A1 (en) 2020-12-22 2022-06-30 Cornell University Classifying biomedical acoustics based on image representation
EP4266989A4 (en) * 2020-12-22 2024-11-13 Cornell University CLASSIFICATION OF BIOMEDICAL ACOUSTICS BASED ON IMAGE REPRESENTATION
CN112668556A (en) * 2021-01-21 2021-04-16 广州联智信息科技有限公司 Breath sound identification method and system
CN112668556B (en) * 2021-01-21 2024-06-07 广东白云学院 Breathing sound identification method and system
KR102376188B1 (en) * 2021-12-15 2022-03-17 가천대학교 산학협력단 Method and System for Feature Information Selection for Classification of Lung Sounds using Deep-Learning
KR102462201B1 (en) * 2022-03-23 2022-11-02 가천대학교 산학협력단 Method and System for select of pulmonary auscultation information that determines lung disease
CN114869224A (en) * 2022-03-28 2022-08-09 浙江大学 Classification and detection of lung diseases based on collaborative deep learning and lung auscultation sounds
WO2024063505A1 (en) * 2022-09-22 2024-03-28 서울대학교산학협력단 Breath sound classification model generation method and device, and wheezing determination method and system using same

Similar Documents

Publication Publication Date Title
KR102186157B1 (en) Lung Sound Analysis Method and System Based on Neuro-fuzzy Network
Bardou et al. Lung sounds classification using convolutional neural networks
Xie et al. Audio-based snore detection using deep neural networks
Reichert et al. Analysis of respiratory sounds: state of the art
AU2013239327B2 (en) A method and apparatus for processing patient sounds
Palaniappan et al. Computer-based respiratory sound analysis: a systematic review
Mondal et al. Detection of lungs status using morphological complexities of respiratory sounds
Harper et al. Modeling and measurement of flow effects on tracheal sounds
KR102376188B1 (en) Method and System for Feature Information Selection for Classification of Lung Sounds using Deep-Learning
Swarnkar et al. Neural network based algorithm for automatic identification of cough sounds
CN105962897B (en) A kind of adaptive sound of snoring signal detecting method
CN110234279B (en) Method for characterizing sleep disordered breathing
Engin et al. Extraction of low-dimensional features for single-channel common lung sound classification
Balasubramanian et al. Machine Learning-Based Classification of Pulmonary Diseases through Real-Time Lung Sounds.
CN110113998B (en) Methods to characterize sleep-disordered breathing
CN113679413B (en) VMD-CNN-based lung sound feature recognition and classification method and system
KR102186159B1 (en) Heart Sound Analysis Method and System Based on Pearson Correlation Coefficient and Neuro-fuzzy Network
TWI848197B (en) Method and apparatus for detecting respiratory function
Kala et al. An objective measure of signal quality for pediatric lung auscultations
Faustino Crackle and wheeze detection in lung sound signals using convolutional neural networks
KR102462201B1 (en) Method and System for select of pulmonary auscultation information that determines lung disease
KR102320100B1 (en) Heart Sound Analysis Method and System Based on Neuro-fuzzy Network
CN114464200A (en) Lung function detection method, system and device based on earphone and readable storage medium
Ullah et al. Unsupervised framework for single channel heart and lung sounds separation in data constrained environments
Bhattacharyya et al. Novel algorithm to identify and differentiate specific digital signature of breath sound in patients with diffuse parenchymal lung disease

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20200422

PA0201 Request for examination
PA0302 Request for accelerated examination

Patent event date: 20200507

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

Patent event date: 20200422

Patent event code: PA03021R01I

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20200708

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20201125

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20201127

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20201127

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20231025

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20241024

Start annual number: 5

End annual number: 5