[go: up one dir, main page]

KR102849692B1 - Drowsiness risk assessment method and system tailored to the driver in the vehicle - Google Patents

Drowsiness risk assessment method and system tailored to the driver in the vehicle

Info

Publication number
KR102849692B1
KR102849692B1 KR1020230042626A KR20230042626A KR102849692B1 KR 102849692 B1 KR102849692 B1 KR 102849692B1 KR 1020230042626 A KR1020230042626 A KR 1020230042626A KR 20230042626 A KR20230042626 A KR 20230042626A KR 102849692 B1 KR102849692 B1 KR 102849692B1
Authority
KR
South Korea
Prior art keywords
driver
drowsiness
risk
extracted
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020230042626A
Other languages
Korean (ko)
Other versions
KR20240147858A (en
Inventor
박상용
이정기
양철승
구기원
정지성
최준혁
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020230042626A priority Critical patent/KR102849692B1/en
Publication of KR20240147858A publication Critical patent/KR20240147858A/en
Application granted granted Critical
Publication of KR102849692B1 publication Critical patent/KR102849692B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/024Measuring pulse rate or heart rate
    • A61B5/0245Measuring pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • B62D1/02Steering controls, i.e. means for initiating a change of direction of the vehicle vehicle-mounted
    • B62D1/04Hand wheels
    • B62D1/046Adaptations on rotatable parts of the steering wheel for accommodation of switches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/043Identity of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Cardiology (AREA)
  • Mechanical Engineering (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Evolutionary Computation (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

차량 운전자의 상태를 실시간 모니터링하고, 졸음 방지 등의 안전 기능을 제공하려는 방법 및 시스템이 제공된다. 본 발명의 실시예에 따른 차량 내 운전자 개인맞춤형 졸음 위험도 판단 방법은, 차량 내 설치되는 카메라, 차량의 스티어링 휠에 마련되는 ECG(심전도) 센서 및 지문 센서 및 운전석 시트에 설치되는 차압 센서가 구비되는 센서부를 통해 데이터를 획득하는 단계; 프로세서가, 획득된 데이터를 기반으로 운전자 인증을 수행하는 단계; 운전자 인증이 정상적으로 수행되면, 프로세서가 획득된 데이터를 기반으로 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정하는 단계; 및 운전자 인증이 정상적으로 수행되면, 프로세서가, 획득된 데이터를 기반으로 운전자의 졸음 위험도를 판단하는 단계;를 포함한다. 이에 의해, 개인인증 과정부터 생체신호 취득 과정까지 피부 습도 정도, 차량 내부의 밝기 등을 추정하여 가중치를 다르게 적용하여 각 상황에 맞게 개인인증 및 생체신호 취득 정확도를 높게 유지할 수 있다. 또한, 운전자의 졸음 상태를 탐지하여, 졸음운전 감지 시에 경보음 대신, 바이노럴 비트를 제공하여 졸음운전을 예방할 수 있다.A method and system for monitoring the driver's condition in real time and providing safety features such as drowsiness prevention are provided. A method for assessing the risk of driver drowsiness in a vehicle, according to an embodiment of the present invention, comprises the steps of: acquiring data through a sensor unit including a camera installed in the vehicle, an ECG (electrocardiogram) sensor and a fingerprint sensor provided on the steering wheel of the vehicle, and a differential pressure sensor installed on the driver's seat; performing driver authentication based on the acquired data by a processor; if driver authentication is successfully performed, estimating the driver's real-time heart rate, respiration rate, and HRV (heart rate variability) based on the acquired data by the processor; and if driver authentication is successfully performed, determining the driver's risk of drowsiness based on the acquired data by the processor. Accordingly, from the personal authentication process to the biosignal acquisition process, factors such as skin moisture content and interior vehicle brightness are estimated and weighted differently to maintain a high level of personal authentication and biosignal acquisition accuracy tailored to each situation. Furthermore, by detecting the driver's drowsiness, the system can prevent drowsy driving by providing binaural beats instead of an alarm sound when drowsy driving is detected.

Description

차량 내 운전자 개인맞춤형 졸음 위험도 판단 방법 및 시스템{Drowsiness risk assessment method and system tailored to the driver in the vehicle}Drowsiness risk assessment method and system tailored to the driver in the vehicle

본 발명은 운전자 졸음 위험도 판단 방법 및 시스템에 관한 것으로, 더욱 상세하게는 차량 운전자의 상태를 실시간 모니터링하고, 졸음 방지 등의 안전 기능을 제공하려는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for determining the risk of driver drowsiness, and more particularly, to a method and system for monitoring the condition of a vehicle driver in real time and providing safety functions such as drowsiness prevention.

운전자의 생체 신호를 활용하여 운전자의 상태를 실시간 모니터링하는 기술은 다양하게 발전해왔다. Technologies for monitoring a driver's condition in real time by utilizing the driver's bio-signals have been developed in various ways.

구체적으로, 한국공개특허 제10-2022-0000771호의 경우, 핸들에 뇌파 중 하나인 세타파(졸음파) 감지센서(SENSE)를 설치하여, 운전자의 상태를 모니터링하는 기술에 관한 것이다. Specifically, Korean Patent Publication No. 10-2022-0000771 relates to a technology for monitoring the driver's condition by installing a theta wave (sleepiness wave) detection sensor (SENSE), one of the brain waves, on the steering wheel.

이러한 종래 기술은, 실제 환경에서 다양한 요인(밝기, 측정 부위, 측정면적, 피부 습도 정도)에 의해 변화를 고려하지 않으므로, 실제 인증의 수행 시 밝기에 의한 안면 인식 불가, skin to electrode 임피던스 변화로 인한 생체신호와 지문 이미지 변화 때문에 발생하는 정확도가 떨어지는 단점이 존재한다. These conventional technologies do not take into account changes due to various factors (brightness, measurement site, measurement area, skin humidity) in an actual environment, and therefore have the disadvantage of poor accuracy due to changes in biometric signals and fingerprint images caused by changes in skin-to-electrode impedance and inability to recognize faces due to brightness when performing actual authentication.

따라서, 개인인증 과정부터 생체신호 취득 과정까지 피부 습도 정도, 차량 내부의 밝기 등을 추정하여 가중치를 다르게 적용하여 각 상황에 맞게 개인인증 및 생체신호 취득 정확도를 높게 유지할 수 있는 방안의 모색이 요구된다. Therefore, it is necessary to find a way to maintain high accuracy of personal authentication and bio-signal acquisition according to each situation by estimating skin humidity level, brightness inside the vehicle, etc. from the personal authentication process to the bio-signal acquisition process and applying different weights.

한국공개특허 제10-2022-0000771호(발명의 명칭: 자동차 운전시 졸음을 방지 하기 위하여 핸들에 뇌파 중 하나인 세타파(졸음파) 감지센서(SENSE)를 원형으로 감아 운전자가 졸음에 빠질 때 세타파를 감지해 경보음을 발생시켜 졸음 운전을 방지하는 센서)Korean Patent Publication No. 10-2022-0000771 (Title of the invention: A sensor that detects theta waves (sleepiness waves), one of the brain waves, by wrapping a sensor (SENSE) in a circular shape around the steering wheel to prevent drowsiness while driving, detects theta waves when the driver becomes drowsy, and generates an alarm sound to prevent drowsy driving)

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 개인인증 과정부터 생체신호 취득 과정까지 피부 습도 정도, 차량 내부의 밝기 등을 추정하여 가중치를 다르게 적용하여 각 상황에 맞게 개인인증 및 생체신호 취득 정확도를 높게 유지할 수 있는 차량 내 운전자 개인맞춤형 졸음 위험도 판단 방법 및 시스템을 제공함에 있다.The present invention has been devised to solve the above problems, and the purpose of the present invention is to provide a method and system for determining the risk of driver drowsiness customized for a driver in a vehicle, which can maintain a high level of accuracy in personal authentication and bio-signal acquisition by estimating the level of skin humidity, brightness inside a vehicle, etc. and applying different weights from the personal authentication process to the bio-signal acquisition process.

또한, 본 발명의 다른 목적은, 운전자의 졸음 상태를 탐지하여, 졸음운전 감지 시에 경보음 대신, 바이노럴 비트를 제공하여 졸음운전을 예방할 수 있는 차량 내 운전자 개인맞춤형 졸음 위험도 판단 방법 및 시스템을 제공함에 있다.In addition, another object of the present invention is to provide a method and system for determining the risk of driver drowsiness customized for a driver in a vehicle, which detects the driver's drowsiness state and provides binaural beats instead of an alarm sound when drowsy driving is detected, thereby preventing drowsy driving.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 차량 내 운전자 개인맞춤형 졸음 위험도 판단 방법은, 차량 내 설치되는 카메라, 차량의 스티어링 휠에 마련되는 ECG(심전도) 센서 및 지문 센서 및 운전석 시트에 설치되는 차압 센서가 구비되는 센서부를 통해 데이터를 획득하는 단계; 프로세서가, 획득된 데이터를 기반으로 운전자 인증을 수행하는 단계; 운전자 인증이 정상적으로 수행되면, 프로세서가 획득된 데이터를 기반으로 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정하는 단계; 및 운전자 인증이 정상적으로 수행되면, 프로세서가, 획득된 데이터를 기반으로 운전자의 졸음 위험도를 판단하는 단계;를 포함한다.According to one embodiment of the present invention for achieving the above object, a method for determining a driver's risk of drowsiness in a vehicle, the method includes: a step of obtaining data through a sensor unit including a camera installed in the vehicle, an ECG (electrocardiogram) sensor and a fingerprint sensor provided on a steering wheel of the vehicle, and a differential pressure sensor installed on a driver's seat; a step of a processor performing driver authentication based on the obtained data; a step of the processor estimating the driver's real-time heart rate, respiration rate, and HRV (heart rate variability) based on the obtained data when the driver authentication is performed normally; and a step of the processor determining the driver's risk of drowsiness based on the obtained data when the driver authentication is performed normally.

그리고 프로세서는, 차량 내 설치되는 카메라를 통해, 운전자의 얼굴 이미지를 획득하는 경우, 카메라의 조도 센서를 통해 밝기 정보를 추출하여 얼굴 이미지의 밝기를 보정할 수 있다. And, when the processor acquires a face image of the driver through a camera installed in the vehicle, it can correct the brightness of the face image by extracting brightness information through the camera's light sensor.

또한, 프로세서는, 밝기 정보를 추출하여 얼굴 이미지의 밝기가 보정되면, 밝기가 보정된 얼굴 이미지를 대상으로 개인별 얼굴 특징점을 추출할 수 있다. Additionally, the processor can extract brightness information and, when the brightness of the face image is corrected, extract individual facial feature points from the brightness-corrected face image.

그리고 프로세서는, 차량의 스티어링 휠에 마련되는 ECG 센서 및 지문 센서를 통해 운전자의 ECG 신호 및 지문 이미지를 추출하는 경우, 운전자(운전석 탑승자)의 피부(손바닥)의 피부 임피던스를 기반으로 측정되는 운전자의 피부(손바닥) 습도를 기준으로 ECG 신호 및 지문 이미지에 각각 운전자 인증을 위한 가중치를 부여하여, 운전자의 피부 습도 측정값이 기설정된 임계값 이상인 경우, ECG 신호에 상대적으로 더 높은 운전자 인증을 위한 가중치를 부여하고, 운전자의 피부 습도 측정값이 기설정된 임계값 미만인 경우, 지문 이미지에 상대적으로 더 높은 운전자 인증을 위한 가중치를 부여할 수 있다. And, when the processor extracts the driver's ECG signal and fingerprint image through the ECG sensor and fingerprint sensor provided on the steering wheel of the vehicle, the processor assigns a weight for driver authentication to the ECG signal and fingerprint image respectively based on the driver's skin (palm) humidity measured based on the skin impedance of the driver's (passenger's seat passenger's) skin (palm), so that when the driver's skin humidity measurement value is higher than a preset threshold, a relatively higher weight for driver authentication is assigned to the ECG signal, and when the driver's skin humidity measurement value is lower than the preset threshold, a relatively higher weight for driver authentication is assigned to the fingerprint image.

또한, 프로세서는, 데이터를 획득하는 단계에서 획득된 데이터를 정규화하고, 정규화된 데이터를 학습 데이터로 활용하여 지엽적인 특징을 추출하기 위한 CNN 알고리즘을 학습시키고, 새로 정규화된 데이터를 학습된 CNN 알고리즘의 성능에 대한 증명 절차를 수행하고, 성능이 증명된 CNN 알고리즘만을 선별하여 운전자 인증 절차에 활용할 수 있다. In addition, the processor can normalize the data acquired in the data acquisition step, train a CNN algorithm to extract local features by utilizing the normalized data as learning data, perform a verification process for the performance of the trained CNN algorithm on the newly normalized data, and select only the CNN algorithms with proven performance to be used in the driver authentication process.

그리고 운전자의 심박수, 호흡수 및 HRV를 추정하는 단계는, 운전자 인증이 정상적으로 수행된 이후, 스티어링 휠에 마련되는 ECG 센서를 통해, 운전자의 양손이 스티어링 휠에 접촉된 상태인 것으로 판단되는 경우, 프로세서가, ECG 센서를 통해 추출되는 운전자의 ECG 신호와 카메라를 통해 획득되는 얼굴 이미지, 운전석 시트에 설치되는 차압 센서를 통해 추출되는 차압 신호를 기반으로 운전자의 심박수, 호흡수 및 HRV를 추정할 수 있다. And the step of estimating the driver's heart rate, respiration rate, and HRV is, after driver authentication is normally performed, if it is determined that the driver's both hands are in contact with the steering wheel through the ECG sensor provided on the steering wheel, the processor can estimate the driver's heart rate, respiration rate, and HRV based on the driver's ECG signal extracted through the ECG sensor, the facial image acquired through the camera, and the differential pressure signal extracted through the differential pressure sensor installed on the driver's seat.

또한, 운전자의 졸음 위험도를 판단하는 단계는, 카메라를 통해 운전자 졸음위험도의 제1 판단 요인을 추출하고, 추정하는 단계에서 추정된 HRV를 기반으로 운전자 졸음위험도의 제2 판단 요인을 추출하여, 운전자의 졸음 위험도를 판단하고, 운전자 졸음위험도의 제1 판단 요인은, 얼굴 이미지를 기반으로 분석되는 운전자의 눈꺼풀 상태(열림/닫힘)이고, 운전자 졸음위험도의 제2 판단 요인은, HRV의 주파수 분석을 통해 계산되는 부교감신경 활성도일 수 있다. In addition, the step of determining the driver's drowsiness risk may include extracting a first determination factor of the driver's drowsiness risk through a camera, and extracting a second determination factor of the driver's drowsiness risk based on the estimated HRV in the estimation step, thereby determining the driver's drowsiness risk. The first determination factor of the driver's drowsiness risk may be the driver's eyelid state (open/closed) analyzed based on a facial image, and the second determination factor of the driver's drowsiness risk may be parasympathetic nerve activity calculated through frequency analysis of HRV.

그리고 운전자의 졸음 위험도를 판단하는 단계는, 추정된 HRV를 기반으로 운전자 졸음위험도의 제2 판단 요인을 추출하는 경우, 시간 도메인에서 측정된 HRV 데이터를 주파수 도메인으로 변환하고 주파수 대역별로 신호의 강도를 분석하여, 부교감신경 활성도를 계산할 수 있다. And in the step of judging the driver's drowsiness risk, when extracting the second judgment factor of the driver's drowsiness risk based on the estimated HRV, the HRV data measured in the time domain is converted to the frequency domain and the intensity of the signal is analyzed by frequency band to calculate the parasympathetic nerve activity.

또한, 운전자의 졸음 위험도를 판단하는 단계는, 졸음 위험도가 기설정된 임계값 이상인 경우, 운전자의 졸음을 깨우기 위해, 운전석 시트에 설치되는 차압 센서를 활용하여 운전자 왼편과 오른편에 상이한 주파수(베타파 출력)를 발생시켜 운전자에게 바이노럴 비트가 전달되도록 할 수 있다. In addition, the step of determining the driver's drowsiness risk level can be performed by using a pressure sensor installed on the driver's seat to generate different frequencies (beta wave output) on the left and right sides of the driver to transmit binaural beats to the driver in order to wake up the driver if the drowsiness risk level is higher than a preset threshold.

한편, 본 발명의 다른 실시예에 따른, 차량 내 운전자 개인맞춤형 졸음 위험도 판단 시스템은, 차량 내 설치되는 카메라, 차량의 스티어링 휠에 마련되는 ECG(심전도) 센서 및 지문 센서 및 운전석 시트에 설치되는 차압 센서가 구비되는 센서부; 및 획득된 데이터를 기반으로 운전자 인증을 수행하고, 운전자 인증이 정상적으로 수행되면, 획득된 데이터를 기반으로 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정하며, 획득된 데이터를 기반으로 운전자의 졸음 위험도를 판단하는 프로세서;를 포함한다. Meanwhile, according to another embodiment of the present invention, a system for determining a driver's risk of drowsiness in a vehicle includes a sensor unit including a camera installed in the vehicle, an ECG (electrocardiogram) sensor and a fingerprint sensor provided on a steering wheel of the vehicle, and a differential pressure sensor installed on a driver's seat; and a processor for performing driver authentication based on acquired data, estimating the driver's real-time heart rate, respiration rate, and HRV (heart rate variability) based on the acquired data when the driver authentication is performed normally, and determining the driver's risk of drowsiness based on the acquired data.

그리고 본 발명의 다른 실시예에 따른, 차량 내 운전자 개인맞춤형 졸음 위험도 판단 방법은, 차량 내 설치되는 카메라, 차량의 스티어링 휠에 마련되는 ECG 센서 및 지문 센서 및 운전석 시트에 설치되는 차압 센서가 구비되는 센서부를 통해 데이터를 획득하는 단계; 프로세서가, 획득된 데이터를 기반으로 운전자 인증을 수행하는 단계; 및 운전자 인증이 정상적으로 수행되면, 프로세서가, 획득된 데이터를 기반으로 운전자의 졸음 위험도를 판단하는 단계;를 포함한다. And according to another embodiment of the present invention, a method for determining a driver's risk of drowsiness in a vehicle according to a personalized method comprises: a step of obtaining data through a sensor unit including a camera installed in the vehicle, an ECG sensor and a fingerprint sensor provided on a steering wheel of the vehicle, and a differential pressure sensor installed on a driver's seat; a step of a processor performing driver authentication based on the obtained data; and a step of the processor determining the driver's risk of drowsiness based on the obtained data if the driver authentication is performed normally.

또한, 본 발명의 다른 실시예에 따른, 차량 내 운전자 개인맞춤형 졸음 위험도 판단 시스템은, 차량 내 설치되는 카메라, 차량의 스티어링 휠에 마련되는 ECG(심전도) 센서 및 지문 센서 및 운전석 시트에 설치되는 차압 센서가 구비되는 센서부; 및 획득된 데이터를 기반으로 운전자 인증을 수행하고, 운전자 인증이 정상적으로 수행되면, 획득된 데이터를 기반으로 운전자의 졸음 위험도를 판단하는 프로세서;를 포함한다.In addition, according to another embodiment of the present invention, a system for determining the risk of driver drowsiness in a vehicle according to a personalized system includes a sensor unit including a camera installed in the vehicle, an ECG (electrocardiogram) sensor and a fingerprint sensor provided on a steering wheel of the vehicle, and a differential pressure sensor installed on a driver's seat; and a processor for performing driver authentication based on the acquired data, and determining the risk of driver drowsiness based on the acquired data if the driver authentication is performed normally.

이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 개인인증 과정부터 생체신호 취득 과정까지 피부 습도 정도, 차량 내부의 밝기 등을 추정하여 가중치를 다르게 적용하여 각 상황에 맞게 개인인증 및 생체신호 취득 정확도를 높게 유지할 수 있다.As described above, according to embodiments of the present invention, from the personal authentication process to the bio-signal acquisition process, the skin humidity level, the brightness inside the vehicle, etc. are estimated and weights are applied differently to maintain a high level of personal authentication and bio-signal acquisition accuracy according to each situation.

또한, 운전자의 졸음 상태를 탐지하여, 졸음운전 감지 시에 경보음 대신, 바이노럴 비트를 제공하여 졸음운전을 예방할 수 있다.Additionally, it can detect the driver's drowsiness and prevent drowsy driving by providing binaural beats instead of an alarm sound when drowsy driving is detected.

도 1은 본 발명의 일 실시예에 따른 차량 내 운전자 개인맞춤형 졸음 위험도 판단 시스템의 설명에 제공된 도면,
도 2는, 본 발명의 일 실시예에 따른 차량 내부에 센서부가 설치된 모습이 예시된 도면,
도 3은, 본 발명의 일 실시예에 따른 스티어링 휠에 ECG(심전도) 센서 및 지문 센서가 설치된 모습이 예시된 도면,
도 4는, 본 발명의 일 실시예에 따른 차량 내 운전자 개인맞춤형 졸음 위험도 판단 방법의 설명에 제공된 흐름도,
도 5는, 본 발명의 일 실시예에 따른 운전자 인증을 수행하는 단계의 더욱 상세한 설명에 제공된 도면,
도 6은, 본 발명의 일 실시예에 따른 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정하는 단계의 더욱 상세한 설명에 제공된 도면, 그리고
도 7은, 본 발명의 일 실시예에 따른 운전자의 졸음 위험도를 판단하는 단계의 더욱 상세한 설명에 제공된 도면이다.
FIG. 1 is a drawing provided for the description of a vehicle driver personalized drowsiness risk assessment system according to one embodiment of the present invention;
FIG. 2 is a drawing illustrating a sensor unit installed inside a vehicle according to one embodiment of the present invention.
FIG. 3 is a drawing illustrating an ECG (electrocardiogram) sensor and a fingerprint sensor installed on a steering wheel according to one embodiment of the present invention.
Figure 4 is a flowchart provided to explain a method for determining the risk of driver drowsiness in a vehicle according to one embodiment of the present invention.
FIG. 5 is a drawing provided for a more detailed description of the steps for performing driver authentication according to one embodiment of the present invention;
FIG. 6 is a drawing provided for a more detailed description of the steps for estimating a driver's real-time heart rate, respiration rate, and HRV (heart rate variability) according to one embodiment of the present invention; and
FIG. 7 is a drawing provided for a more detailed description of a step for determining a driver's drowsiness risk according to one embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 차량 내 운전자 개인맞춤형 졸음 위험도 판단 시스템의 설명에 제공된 도면이고, 도 2는, 본 발명의 일 실시예에 따른 차량 내부에 센서부가 설치된 모습이 예시된 도면이며, 도 3은, 본 발명의 일 실시예에 따른 스티어링 휠에 ECG(심전도) 센서(112) 및 지문 센서(113)가 설치된 모습이 예시된 도면이다. FIG. 1 is a drawing provided for the description of a driver's personalized drowsiness risk assessment system in a vehicle according to one embodiment of the present invention, FIG. 2 is a drawing illustrating a sensor unit installed inside a vehicle according to one embodiment of the present invention, and FIG. 3 is a drawing illustrating an ECG (electrocardiogram) sensor (112) and a fingerprint sensor (113) installed on a steering wheel according to one embodiment of the present invention.

본 실시예에 따른 차량 내 운전자 개인맞춤형 졸음 위험도 판단 시스템(이하에서는 '시스템'으로 총칭하기로 함)은, 개인인증 과정부터 생체신호 취득 과정까지 피부 습도 정도, 차량 내부의 밝기 등을 추정하여 가중치를 다르게 적용하여 각 상황에 맞게 개인인증 및 생체신호 취득 정확도를 높게 유지할 수 있으며, 운전자의 졸음 상태를 탐지하여, 졸음운전 감지 시에 경보음 대신, 바이노럴 비트를 제공할 수 있다. The in-vehicle driver drowsiness risk assessment system (hereinafter collectively referred to as the “system”) according to the present embodiment estimates skin humidity level, brightness inside the vehicle, etc. from the personal authentication process to the bio-signal acquisition process, and applies different weights to maintain high accuracy of personal authentication and bio-signal acquisition according to each situation, and detects the driver’s drowsiness state, and provides binaural beats instead of an alarm sound when drowsy driving is detected.

이를 위해 시스템은, 센서부(110), 프로세서(120) 및 저장부(130)를 포함할 수 있다. For this purpose, the system may include a sensor unit (110), a processor (120), and a storage unit (130).

센서부(110)는, 차량 내 설치되는 카메라(111), 차량의 스티어링 휠에 마련되는 ECG(심전도) 센서(112) 및 지문 센서(113) 및 운전석 시트에 설치되는 차압 센서(114)가 구비되어, 프로세서(120)가 동작하는데 필요한 데이터를 획득할 수 있다. The sensor unit (110) is equipped with a camera (111) installed in the vehicle, an ECG (electrocardiogram) sensor (112) and a fingerprint sensor (113) installed on the steering wheel of the vehicle, and a differential pressure sensor (114) installed on the driver's seat, so that the processor (120) can obtain data necessary for operation.

즉, 센서부(110)는, 차량 내 설치되는 카메라(111)를 통해, 운전자의 얼굴 이미지를 획득하며, 차량의 스티어링 휠에 마련되는 ECG 센서(112)를 통해, 운전자의 ECG 신호를 추출하고, 차량의 스티어링 휠에 마련되는 지문 센서(113)를 통해 운전자의 지문 이미지를 추출하며, 운전석 시트에 설치된 차압 센서(114)를 통해 차압 신호를 추출할 수 있다. That is, the sensor unit (110) can obtain a face image of the driver through a camera (111) installed in the vehicle, extract an ECG signal of the driver through an ECG sensor (112) installed on the steering wheel of the vehicle, extract a fingerprint image of the driver through a fingerprint sensor (113) installed on the steering wheel of the vehicle, and extract a differential pressure signal through a differential pressure sensor (114) installed on the driver's seat.

여기서, ECG 센서(112)는, 전기 전도성을 가진 복수 개의 금속 재질의 판으로 구성될 수 있다. Here, the ECG sensor (112) may be composed of a plurality of plates made of a metal material having electrical conductivity.

그리고 ECG 센서(112)는, 생체신호 전극을 통해 운전자의 생체 신호가 추출되면, 추출되는 운전자의 생체 신호를 대상으로 아날로그 필터링 작업을 수행하고, 필터링된 신호에서 개인별 고유특징을 추출할 수 있다. And, when the driver's bio-signal is extracted through the bio-signal electrode, the ECG sensor (112) performs an analog filtering operation on the extracted driver's bio-signal and can extract individual unique features from the filtered signal.

또한, ECG 센서(112)는, 생체신호 전극을 활용하여 운전자의 피부(손바닥)의 피부 임피던스를 획득하고, 이를 기반으로 운전자의 피부(손바닥) 습도를 측정(추정)할 수 있다. In addition, the ECG sensor (112) can obtain the skin impedance of the driver's skin (palm) by utilizing a biosignal electrode, and measure (estimate) the driver's skin (palm) humidity based on this.

지문 센서(113)는, 운전자의 지문 이미지가 추출되면, 추출된 지문 이미지 내 개인별 고유특징을 디지털 형태로 추출하는 지문인식 모듈(미도시)을 포함할 수 있다. 여기서, 추출된 지문 이미지 내 개인별 고유특징은, 지문의 능선 끝과 분기점 등에 대한 개인별 특징이 포함될 수 있다. The fingerprint sensor (113) may include a fingerprint recognition module (not shown) that extracts, in digital form, individual unique features within the extracted fingerprint image when the driver's fingerprint image is extracted. Here, the individual unique features within the extracted fingerprint image may include individual features such as the ridge ends and branch points of the fingerprint.

운전석 시트에 설치된 차압 센서(114)는, 운전자의 심박 데이터를 획득하고, 프로세서(120)는, 차압 센서(114)를 통해 획득된 심박 데이터를 대상으로 신호 필터링 및 신호 분석 과정을 거쳐 BCG 신호 데이터를 추출할 수 있다. The differential pressure sensor (114) installed on the driver's seat acquires the driver's heart rate data, and the processor (120) can extract BCG signal data by performing signal filtering and signal analysis processes on the heart rate data acquired through the differential pressure sensor (114).

저장부(130)는, 프로세서(120)가 동작함에 있어 필요한 프로그램 및 데이터를 저장할 수 있는 저장 매체이다. The storage unit (130) is a storage medium that can store programs and data necessary for the processor (120) to operate.

프로세서(120)는 시스템의 제반사항을 처리하기 위해 마련된다. The processor (120) is provided to process all matters of the system.

예를 들면, 프로세서(120)는 획득된 데이터를 기반으로 운전자 인증을 수행하고, 운전자 인증이 정상적으로 수행되면, 획득된 데이터를 기반으로 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정하며, 획득된 데이터를 기반으로 운전자의 졸음 위험도를 판단할 수 있다. For example, the processor (120) performs driver authentication based on the acquired data, and if the driver authentication is performed normally, the processor estimates the driver's real-time heart rate, respiration rate, and HRV (heart rate variability) based on the acquired data, and can determine the driver's drowsiness risk based on the acquired data.

첨언하면, 스티어링 휠에서 측정되는 심전도의 경우 신호의 질(SNR)은 높지만 운전자가 양손을 핸들에 올려야 하는 단점이 있어, 프로세서(120)는, 스티어링 휠에서 측정되는 심전도를 분석하여 피크 디텍션과 주파수 분석을 통해 운전자의 심박과 호흡을 추정하고 이 값을 레이블화하여 카메라(111)에서 취득되는 얼굴 이미지와 차압 센서(114)에서 취득되는 차압신호를 매칭시켜 딥러닝 기술을 활용해 운전자의 상태를 분석할 수 있다. In addition, in the case of an electrocardiogram measured from a steering wheel, the signal quality (SNR) is high, but there is a disadvantage that the driver must place both hands on the steering wheel. Therefore, the processor (120) analyzes the electrocardiogram measured from the steering wheel, estimates the driver's heart rate and respiration through peak detection and frequency analysis, labels these values, and matches the facial image acquired from the camera (111) and the differential pressure signal acquired from the differential pressure sensor (114) to analyze the driver's condition using deep learning technology.

도 4는, 본 발명의 일 실시예에 따른 차량 내 운전자 개인맞춤형 졸음 위험도 판단 방법의 설명에 제공된 흐름도이다. FIG. 4 is a flowchart provided to explain a method for determining a driver's personalized drowsiness risk in a vehicle according to one embodiment of the present invention.

본 실시예에 따른 차량 내 운전자 개인맞춤형 졸음 위험도 판단 방법은, 도 1 내지 도 3을 참조하여 전술한 시스템에 의해 실행될 수 있다. The method for determining the risk of driver drowsiness in a vehicle according to the present embodiment can be executed by the system described above with reference to FIGS. 1 to 3.

차량 내 운전자 개인맞춤형 졸음 위험도 판단 방법은, 센서부(110)를 통해 데이터를 획득하고(S410), 프로세서(120)를 통해, 획득된 데이터를 기반으로 운전자 인증을 수행할 수 있다(S420). A method for determining the risk of driver drowsiness in a vehicle can obtain data through a sensor unit (110) (S410) and perform driver authentication based on the obtained data through a processor (120) (S420).

여기서, 센서부(110)를 통한 데이터 획득 작업(S410)은, 운전자 인증이 정상적으로 수행된 이후에도, S430 단계 또는 S440 단계의 진행을 위해, 프로세서(120)의 요청에 따라 재차 수행될 수 있다. Here, the data acquisition task (S410) through the sensor unit (110) may be performed again at the request of the processor (120) to proceed with step S430 or step S440 even after driver authentication is performed normally.

그리고 차량 내 운전자 개인맞춤형 졸음 위험도 판단 방법은, 운전자 인증이 정상적으로 수행되면, 프로세서(120)를 통해, 획득된 데이터를 기반으로 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정할 수 있으며(S430), 획득된 데이터를 기반으로 운전자의 졸음 위험도를 판단할 수 있다(S440).And, the method for determining the driver's risk of drowsiness in a vehicle can estimate the driver's real-time heart rate, respiration rate, and HRV (heart rate variability) based on the acquired data through the processor (120) when driver authentication is performed normally (S430), and determine the driver's risk of drowsiness based on the acquired data (S440).

예를 들면, 프로세서는, 운전자 인증이 정상적으로 수행된 이후, 스티어링 휠에 마련되는 ECG 센서(112)를 통해, 운전자의 양손이 스티어링 휠에 접촉된 상태인 것으로 판단되는 경우, ECG 센서(112)를 통해 추출되는 운전자의 ECG 신호와 카메라(111)를 통해 획득되는 얼굴 이미지, 운전석 시트에 설치되는 차압 센서(114)를 통해 추출되는 차압 신호를 기반으로 운전자의 심박수, 호흡수 및 HRV를 추정할 수 있다. For example, if the processor determines that the driver's both hands are in contact with the steering wheel through the ECG sensor (112) provided on the steering wheel after driver authentication is normally performed, the processor can estimate the driver's heart rate, respiration rate, and HRV based on the driver's ECG signal extracted through the ECG sensor (112), the facial image acquired through the camera (111), and the differential pressure signal extracted through the differential pressure sensor (114) installed on the driver's seat.

그리고 프로세서는, 운전자의 졸음 위험도를 판단하는 경우, 카메라(111)를 통해 운전자 졸음위험도의 제1 판단 요인을 추출하고, 추정하는 단계에서 추정된 HRV를 기반으로 운전자 졸음위험도의 제2 판단 요인을 추출하여, 운전자의 졸음 위험도를 판단할 수 있다. And, when determining the driver's drowsiness risk, the processor extracts a first determination factor of the driver's drowsiness risk through the camera (111), and extracts a second determination factor of the driver's drowsiness risk based on the estimated HRV in the estimation step, thereby determining the driver's drowsiness risk.

이때, 운전자 졸음위험도의 제1 판단 요인은, 얼굴 이미지를 기반으로 분석되는 운전자의 눈꺼풀 상태(열림/닫힘)이고, 운전자 졸음위험도의 제2 판단 요인은, HRV의 주파수 분석을 통해 계산되는 부교감신경 활성도일 수 있다. At this time, the first factor in determining the driver's drowsiness risk may be the driver's eyelid state (open/closed) analyzed based on the facial image, and the second factor in determining the driver's drowsiness risk may be the parasympathetic nerve activity calculated through frequency analysis of HRV.

도 5는, 본 발명의 일 실시예에 따른 운전자 인증을 수행하는 단계의 더욱 상세한 설명에 제공된 도면이다. FIG. 5 is a drawing provided for a more detailed description of steps for performing driver authentication according to one embodiment of the present invention.

시스템은, 운전자 인증을 수행하기 위해, 카메라(111)를 통한 이미지 추출 작업(A), 차압 센서(114)를 통한 생체신호(BCG) 추출 작업(B) 및 스티어링 휠을 통한 생체신호(ECG), 지문 이미지 추출 작업(C)를 수행할 수 있다. The system can perform an image extraction task (A) through a camera (111), a bio-signal (BCG) extraction task (B) through a differential pressure sensor (114), and a bio-signal (ECG) and fingerprint image extraction task (C) through a steering wheel to perform driver authentication.

구체적으로, 시스템은, 카메라(111)를 통한 이미지 추출 작업(A)을 수행하는 경우, 차량 내 설치되는 카메라(111)를 통해, 운전자의 얼굴 이미지를 획득하는 경우, 카메라(111)의 조도 센서를 통해 밝기 정보를 추출하여 얼굴 이미지의 밝기를 보정할 수 있으며, 밝기 정보를 추출하여 얼굴 이미지의 밝기가 보정되면, 밝기가 보정된 얼굴 이미지를 대상으로 개인별 얼굴 특징점(ex. 윤곽, 눈, 코, 입 등)을 추출할 수 있다. Specifically, when the system performs an image extraction task (A) through a camera (111), when acquiring a driver's face image through a camera (111) installed in a vehicle, the system can correct the brightness of the face image by extracting brightness information through a light sensor of the camera (111), and when the brightness of the face image is corrected by extracting the brightness information, the system can extract individual facial feature points (e.g., contour, eyes, nose, mouth, etc.) from the brightness-corrected face image.

그리고 시스템은, 차압 센서(114)를 통한 생체신호(BCG) 추출 작업(B)을 수행하는 경우, 운전석 시트에 설치된 차압 센서(114)를 통해, 운전자의 심박 데이터를 획득하고, 프로세서(120)를 활용하여 심박 데이터를 대상으로 신호 필터링(전처리) 및 신호 분석 과정을 거쳐 BCG 신호 데이터를 추출할 수 있다. And, when the system performs the bio-signal (BCG) extraction task (B) through the differential pressure sensor (114), the system can obtain the driver's heart rate data through the differential pressure sensor (114) installed on the driver's seat, and extract BCG signal data by performing signal filtering (preprocessing) and signal analysis processes on the heart rate data using the processor (120).

또한, 시스템은, 스티어링 휠을 통한 생체신호(ECG), 지문 이미지 추출 작업(C)을 수행하는 경우, 전기 전도성을 가진 복수 개의 금속 재질의 판으로 구성되는 ECG 센서(112)를 통해, ECG 신호가 추출되면, 필터링 과정을 거쳐 개인별 고유특징을 추출하고, 생체신호 전극을 활용하여 운전자의 피부(손바닥)의 피부 임피던스를 획득하고, 이를 기반으로 운전자의 피부(손바닥) 습도를 측정(추정)할 수 있다. In addition, when the system performs a bio-signal (ECG) and fingerprint image extraction task (C) through a steering wheel, the system extracts an ECG signal through an ECG sensor (112) composed of a plurality of electrically conductive metal plates, extracts individual unique features through a filtering process, obtains skin impedance of the driver's skin (palm) using a bio-signal electrode, and measures (estimates) the driver's skin (palm) humidity based on this.

그리고 시스템은, 스티어링 휠을 통한 생체신호(ECG), 지문 이미지 추출 작업(C)을 수행하는 경우, 운전자의 피부(손바닥)의 피부 임피던스를 기반으로 측정되는 운전자의 피부(손바닥) 습도를 기준으로 ECG 신호 및 지문 이미지에 각각 운전자 인증을 위한 가중치를 할 수 있다. And, when the system performs a bio-signal (ECG) and fingerprint image extraction task (C) through a steering wheel, the system can weight the ECG signal and fingerprint image for driver authentication based on the driver's skin (palm) humidity measured based on the skin impedance of the driver's skin (palm).

구체적으로 예를 들면, 시스템은, 운전자의 피부 습도 측정값이 기설정된 임계값 이상인 경우, ECG 신호에 상대적으로 더 높은 운전자 인증을 위한 가중치를 부여하고, 운전자의 피부 습도 측정값이 기설정된 임계값 미만인 경우, 지문 이미지에 상대적으로 더 높은 운전자 인증을 위한 가중치를 부여할 수 있다. For example, the system may assign a relatively higher weight for driver authentication to an ECG signal if the driver's skin moisture measurement is above a preset threshold, and may assign a relatively higher weight for driver authentication to a fingerprint image if the driver's skin moisture measurement is below the preset threshold.

그리고 시스템은, 이미지 추출 작업(A), 생체신호(BCG) 추출 작업(B) 및 지문 이미지 추출 작업(C)를 통해 획득된 데이터를 CNN 알고리즘(딥러닝 모델)에 적용하여, 운전자 인증 작업(D)을 수행할 수 있다. And the system can perform a driver authentication task (D) by applying data obtained through an image extraction task (A), a biosignal (BCG) extraction task (B), and a fingerprint image extraction task (C) to a CNN algorithm (deep learning model).

구체적으로, 시스템은, 운전자 인증 작업(D)을 수행하는 경우, 획득된 데이터를 학습용 데이터와 증명용 데이터로 나눈 뒤, 학습용 데이터를 이용하여 모델 생성 및 학습 진행하고, 실시간 데이터를 취득하여 분류 모델을 통한 개인인증 작업을 진행할 수 있다. Specifically, when the system performs a driver authentication task (D), it divides the acquired data into learning data and verification data, then creates and trains a model using the learning data, and acquires real-time data to perform personal authentication using a classification model.

즉, 시스템은, 이미지 추출 작업(A), 생체신호(BCG) 추출 작업(B) 및 지문 이미지 추출 작업(C)를 통해 획득된 데이터를 정규화하고, 정규화된 데이터를 학습 데이터로 활용하여 지엽적인 특징을 추출하기 위한 CNN 알고리즘을 학습시키고, 새로 정규화된 데이터를 학습된 CNN 알고리즘의 성능에 대한 증명 절차를 수행하고, 성능이 증명된 CNN 알고리즘만을 선별하여 운전자 인증 절차에 활용할 수 있다. That is, the system normalizes data acquired through image extraction task (A), biosignal (BCG) extraction task (B), and fingerprint image extraction task (C), trains a CNN algorithm to extract minor features using the normalized data as learning data, performs a performance verification process for the trained CNN algorithm on the newly normalized data, and selects only the CNN algorithms with proven performance to be used in the driver authentication process.

도 6은, 본 발명의 일 실시예에 따른 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정하는 단계의 더욱 상세한 설명에 제공된 도면이다. FIG. 6 is a diagram provided for a more detailed description of a step of estimating a driver's real-time heart rate, respiration rate, and HRV (heart rate variability) according to one embodiment of the present invention.

시스템은, 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정하기 위해, Lead-off Detection 작업(1), 스티어링 휠을 통한 생체신호(ECG) 추출 작업(2), 카메라(111), 차량용 시트를 통한 이미지 및 생체신호(ECG) 추출 작업(3) 및 CNN 알고리즘을 통한 모델 학습 및 적용 작업(4)을 수행할 수 있다. The system can perform a Lead-off Detection task (1), a bio-signal (ECG) extraction task (2) through a steering wheel, an image and bio-signal (ECG) extraction task (3) through a camera (111) and a vehicle seat, and a model learning and application task (4) through a CNN algorithm to estimate the driver's real-time heart rate, respiration rate, and HRV (heart rate variability).

구체적으로, 시스템은, Lead-off Detection 작업(1)을 수행하는 경우, 스티어링 휠에 마련되는 ECG 센서(112)를 통해, 운전자의 양손이 스티어링 휠에 접촉된 상태인지 여부를 판단할 수 있다. Specifically, when the system performs the Lead-off Detection task (1), it can determine whether the driver's both hands are in contact with the steering wheel through the ECG sensor (112) provided on the steering wheel.

그리고 시스템은, 스티어링 휠을 통한 생체신호(ECG) 추출 작업(2)을 수행하는 경우, 스티어링 휠에 마련되는 ECG 센서(112)를 통해, 생체신호(ECG)가 추출되면, 신호 필터링 및 신호 분석 과정을 거쳐 BCG 신호 데이터를 추출하고, 피크 디텍션(저주파 필터링, 미분, 이동평균, 임계치 검출 등의 과정을 거쳐 R-피크 검출), 주파수 분석(FFT)을 통한 심박, 호흡, R-Peak 분석을 수행할 수 있다. And, when the system performs the bio-signal (ECG) extraction task (2) through the steering wheel, when the bio-signal (ECG) is extracted through the ECG sensor (112) provided on the steering wheel, the system extracts BCG signal data through signal filtering and signal analysis processes, and performs heart rate, respiration, and R-Peak analysis through peak detection (R-peak detection through processes such as low-frequency filtering, differentiation, moving average, and threshold detection) and frequency analysis (FFT).

또한, 시스템은, 스티어링 휠을 통한 생체신호(ECG) 추출 작업(2)을 수행하는 과정에서, 획득되는 데이터를 대상으로 레이블링 작업(전처리 작업)을 수행하여, 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정하기 위한 CNN 알고리즘의 학습 데이터로 매칭시킬 수 있다. In addition, the system can perform a labeling task (preprocessing task) on the data acquired during the process of extracting a bio-signal (ECG) through a steering wheel (2), and match it with learning data of a CNN algorithm for estimating the driver's real-time heart rate, respiration rate, and HRV (heart rate variability).

예를 들면, 시스템은, 스티어링 휠에 양손을 항상 대지 않으므로 양손을 일정 시간 이상 댈 때마다 레이블링하여 학습데이터로 이용할 수 있다. For example, since the system does not always have both hands on the steering wheel, it can label each time it has both hands on the steering wheel for a certain amount of time and use that as training data.

그리고 시스템은, 카메라(111), 차량용 시트를 통한 이미지 및 생체신호(ECG) 추출 작업(3)을 수행하는 경우, 운전자 인증을 위해 수행된 카메라(111)를 통한 이미지 추출 작업(A) 결과와, 차압 센서(114)를 통한 생체신호(BCG) 추출 작업(B)의 결과를 활용할 수 있다. And, when the system performs the image and bio-signal (ECG) extraction task (3) through the camera (111) and the vehicle seat, the result of the image extraction task (A) through the camera (111) performed for driver authentication and the result of the bio-signal (BCG) extraction task (B) through the differential pressure sensor (114) can be utilized.

또한, 시스템은, CNN 알고리즘을 통한 모델 학습 및 적용 작업(4)을 수행하는 경우, 이미지 및 생체신호(ECG) 추출 작업(3)의 결과 데이터와 생체신호(ECG) 추출 작업(2)의 결과 데이터(레이블링 데이터)를 학습용 데이터로 활용하여, 지엽적인 특징을 추출하기 위한 CNN 알고리즘의 모델 생성 및 학습 진행하고, 실시간 데이터를 학습된 CNN 알고리즘의 모델에 적용하여, CNN 알고리즘의 모델 성능에 대한 증명 절차를 수행하고, 성능이 증명된 CNN 알고리즘의 모델만을 선별하여 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정할 수 있다. In addition, when the system performs model learning and application tasks (4) through a CNN algorithm, the result data of the image and bio-signal (ECG) extraction task (3) and the result data (labeling data) of the bio-signal (ECG) extraction task (2) are used as learning data to generate and train a model of a CNN algorithm for extracting local features, and by applying real-time data to the model of the trained CNN algorithm, a verification procedure for the model performance of the CNN algorithm is performed, and only models of the CNN algorithm with proven performance are selected to estimate the driver's real-time heart rate, respiration rate, and HRV (heart rate variability).

도 7은, 본 발명의 일 실시예에 따른 운전자의 졸음 위험도를 판단하는 단계의 더욱 상세한 설명에 제공된 도면이다. FIG. 7 is a drawing provided for a more detailed description of a step for determining a driver's drowsiness risk according to one embodiment of the present invention.

시스템은, 운전자의 졸음 위험도를 판단하기 위해, 심박변이도(HRV) 추정 작업(가), 카메라(111)를 통한 운전자 졸음위험도의 제1 판단 요인 추출 작업(나), 심박변이도를 통한 운전자 졸음위험도의 제2 판단 요인 추출 작업(다) 및 제1, 제2 판단 요인을 통한 졸음위험도 판단 작업(라)을 수행할 수 있다. The system can perform a task of estimating heart rate variability (HRV) (a), a task of extracting a first judgment factor for driver drowsiness risk through a camera (111) (b), a task of extracting a second judgment factor for driver drowsiness risk through heart rate variability (c), and a task of judging drowsiness risk through the first and second judgment factors (d) to determine the driver's drowsiness risk.

구체적으로, 시스템은, 심박변이도(HRV) 추정 작업(가)을 수행하는 경우, 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)의 추정 결과 중 HRV를 활용할 수 있다. Specifically, when the system performs a heart rate variability (HRV) estimation task (a), the system can utilize HRV among the estimation results of the driver's real-time heart rate, respiration rate, and HRV (heart rate variability).

그리고 시스템은, 카메라(111)를 통한 운전자 졸음위험도의 제1 판단 요인 추출 작업(나)을 수행하는 경우, 카메라(111)를 이용하여 얼굴 이미지 데이터를 추출하면, 운전자의 눈꺼풀 상태(열림/닫힘 정도)를 분류할 수 있는 CNN 알고리즘의 모델을 활용하여, 얼굴 이미지 데이터를 분석할 수 있다. And, when the system performs the first judgment factor extraction task (b) of the driver drowsiness risk level through the camera (111), if facial image data is extracted using the camera (111), the facial image data can be analyzed by utilizing a model of a CNN algorithm that can classify the state of the driver's eyelids (degree of opening/closing).

이때, 운전자의 눈꺼풀 상태(열림/닫힘 정도)를 분류할 수 있는 CNN 알고리즘의 모델은, 얼굴 이미지 데이터를 학습 데이터로 활용하여 학습시킬 수 있으며, 학습된 CNN 알고리즘의 모델은, 성능에 대한 증명 절차를 수행하고, 성능이 증명된 CNN 알고리즘의 모델만이 선별되어, 운전자의 눈꺼풀 상태(열림/닫힘 정도)를 분류할 수 있다. At this time, a CNN algorithm model capable of classifying the driver's eyelid state (open/closed degree) can be trained using facial image data as learning data, and the trained CNN algorithm model performs a performance verification procedure, and only models of the CNN algorithm with proven performance are selected to classify the driver's eyelid state (open/closed degree).

또한, 시스템은, 심박변이도를 통한 운전자 졸음위험도의 제2 판단 요인 추출 작업(다)을 수행하는 경우, 부교감 신경 활성도가 높을수록 졸음에 빠지기 쉽기 때문에, 부교감신경 활성도를 계산하여, 졸음 위험도를 판단할 수 있다. In addition, when the system performs the second factor extraction task (d) of driver drowsiness risk assessment through heart rate variability, the higher the parasympathetic nerve activity, the easier it is to fall into drowsiness, so the system can calculate the parasympathetic nerve activity and assess the drowsiness risk.

즉, 시스템은, 심박변이도를 통한 운전자 졸음위험도의 제2 판단 요인 추출 작업(다)을 수행하는 경우, 시간 도메인에서 측정된 HRV 데이터를 주파수 도메인으로 변환하고 주파수 대역별로 신호의 강도를 분석하여, 부교감신경 활성도를 계산할 수 있다. 여기서, 시스템은, 신호의 고주파 대역의 강도가 증가할수록 교감신경 활성도 증가하게 되고, 저주파 대역의 강도는 부교감신경 활성도 증가하게 되는 성질을 이용하여, 부교감신경 활성도를 계산할 수 있다. That is, when the system performs the task of extracting the second judgment factor of the driver's drowsiness risk level through heart rate variability (D), it can calculate parasympathetic nerve activity by converting HRV data measured in the time domain into the frequency domain and analyzing the intensity of the signal by frequency band. Here, the system can calculate parasympathetic nerve activity by utilizing the property that as the intensity of the high-frequency band of the signal increases, sympathetic nerve activity increases, and as the intensity of the low-frequency band increases, parasympathetic nerve activity increases.

그리고 시스템은, 제1, 제2 판단 요인을 통한 졸음위험도 판단 작업(라)을 수행하는 경우, 졸음 위험도가 기설정된 임계값 이상이면, 운전자의 졸음을 깨우기 위해, 운전석 시트에 설치되는 차압 센서(114)를 활용하여 운전자 왼편과 오른편에 상이한 주파수(베타파 출력)를 발생시켜 운전자에게 바이노럴 비트가 전달되도록 함으로써, 졸음운전을 예방할 수 있다.And, when the system performs the task of judging the risk of drowsiness (D) through the first and second judgment factors, if the risk of drowsiness is higher than a preset threshold, the system can prevent drowsy driving by generating different frequencies (beta wave output) on the left and right sides of the driver's seat using a differential pressure sensor (114) installed on the driver's seat to transmit binaural beats to the driver in order to wake up the driver.

한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.Meanwhile, it goes without saying that the technical idea of the present invention can also be applied to a computer-readable recording medium containing a computer program that performs the functions of the device and method according to the present embodiment. In addition, the technical idea according to various embodiments of the present invention can be implemented in the form of computer-readable code recorded on a computer-readable recording medium. The computer-readable recording medium can be any data storage device that can be read by a computer and store data. For example, the computer-readable recording medium can be a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical disk, a hard disk drive, etc. In addition, the computer-readable code or program stored on the computer-readable recording medium can be transmitted through a network connected between computers.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and various modifications can be made by a person having ordinary skill in the art to which the present invention pertains without departing from the gist of the present invention as claimed in the claims, and such modifications should not be understood individually from the technical idea or prospect of the present invention.

110 : 센서부
111 : 카메라
112 : ECG(심전도) 센서
113 : 지문 센서
114 : 차압(Peizo) 센서
120 : 프로세서
130 : 저장부
110: Sensor section
111: Camera
112: ECG (electrocardiogram) sensor
113: Fingerprint sensor
114: Differential pressure (Peizo) sensor
120: Processor
130: Storage

Claims (12)

차량 내 설치되는 카메라, 차량의 스티어링 휠에 마련되는 ECG(심전도) 센서 및 지문 센서 및 운전석 시트에 설치되는 차압 센서가 구비되는 센서부를 통해 데이터를 획득하는 단계;
프로세서가, 획득된 데이터를 기반으로 운전자 인증을 수행하는 단계;
운전자 인증이 정상적으로 수행되면, 프로세서가 획득된 데이터를 기반으로 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정하는 단계; 및
운전자 인증이 정상적으로 수행되면, 프로세서가, 획득된 데이터를 기반으로 운전자의 졸음 위험도를 판단하는 단계;를 포함하며,
프로세서는,
차량 내 설치되는 카메라를 통해, 운전자의 얼굴 이미지를 획득하는 경우, 카메라의 조도 센서를 통해 밝기 정보를 추출하여 얼굴 이미지의 밝기를 보정하며,
프로세서는,
밝기 정보를 추출하여 얼굴 이미지의 밝기가 보정되면, 밝기가 보정된 얼굴 이미지를 대상으로 얼굴 윤곽, 눈, 코, 입이 포함되는 개인별 얼굴 특징점을 추출하고,
프로세서는,
차량의 스티어링 휠에 마련되는 ECG 센서 및 지문 센서를 통해 운전자의 ECG 신호 및 지문 이미지를 추출하는 경우, 운전자(운전석 탑승자)의 피부(손바닥)의 피부 임피던스를 기반으로 측정되는 운전자의 피부(손바닥) 습도를 기준으로 ECG 신호 및 지문 이미지에 각각 운전자 인증을 위한 가중치를 부여하여,
운전자의 피부 습도 측정값이 기설정된 임계값 이상인 경우, ECG 신호에 상대적으로 더 높은 운전자 인증을 위한 가중치를 부여하고,
운전자의 피부 습도 측정값이 기설정된 임계값 미만인 경우, 지문 이미지에 상대적으로 더 높은 운전자 인증을 위한 가중치를 부여하며,
운전자의 심박수, 호흡수 및 HRV를 추정하는 단계는,
운전자 인증이 정상적으로 수행된 이후, 스티어링 휠에 마련되는 ECG 센서를 통해, 운전자의 양손이 스티어링 휠에 접촉된 상태인 것으로 판단되는 경우, 프로세서가, ECG 센서를 통해 추출되는 운전자의 ECG 신호와 카메라를 통해 획득되는 얼굴 이미지, 운전석 시트에 설치되는 차압 센서를 통해 추출되는 차압 신호를 기반으로 운전자의 심박수, 호흡수 및 HRV를 추정하며,
운전자의 졸음 위험도를 판단하는 단계는,
카메라를 통해 운전자 졸음위험도의 제1 판단 요인을 추출하고, 추정하는 단계에서 추정된 HRV를 기반으로 운전자 졸음위험도의 제2 판단 요인을 추출하여, 운전자의 졸음 위험도를 판단하고,
운전자 졸음위험도의 제1 판단 요인은,
얼굴 이미지를 기반으로 분석되는 운전자의 눈꺼풀 상태(열림/닫힘)이고,
운전자 졸음위험도의 제2 판단 요인은,
HRV의 주파수 분석을 통해 계산되는 부교감신경 활성도이며,
운전자의 졸음 위험도를 판단하는 단계는,
추정된 HRV를 기반으로 운전자 졸음위험도의 제2 판단 요인을 추출하는 경우, 시간 도메인에서 측정된 HRV 데이터를 주파수 도메인으로 변환하고 주파수 대역별로 신호의 강도를 분석하여, 부교감신경 활성도를 계산하며,
데이터를 획득하는 단계는,
운전자의 양손이 스티어링 휠에 접촉될 때마다, ECG 센서를 통해 운전자의 ECG 신호를 추출하고,
프로세서는,
운전자의 ECG 신호가 추출되면, 추출된 ECG 신호를 대상으로 레이블링 작업을 수행하여, 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정하기 위한 CNN 알고리즘의 학습 데이터로 활용하는 것을 특징으로 하는 차량 내 운전자 개인맞춤형 졸음 위험도 판단 방법.
A step of acquiring data through a sensor unit including a camera installed in a vehicle, an ECG (electrocardiogram) sensor and fingerprint sensor installed on the steering wheel of the vehicle, and a differential pressure sensor installed on the driver's seat;
A step in which the processor performs driver authentication based on the acquired data;
If driver authentication is performed normally, the processor estimates the driver's real-time heart rate, respiration rate, and HRV (heart rate variability) based on the acquired data; and
If driver authentication is performed normally, the processor includes a step of determining the driver's drowsiness risk based on the acquired data;
The processor is,
When acquiring a driver's face image through a camera installed in the vehicle, the brightness information is extracted through the camera's light sensor to correct the brightness of the face image.
The processor is,
When the brightness of the face image is corrected by extracting brightness information, individual facial feature points including the face contour, eyes, nose, and mouth are extracted from the brightness-corrected face image.
The processor is,
When extracting the driver's ECG signal and fingerprint image through the ECG sensor and fingerprint sensor installed on the steering wheel of the vehicle, the ECG signal and fingerprint image are each given a weight for driver authentication based on the driver's (passenger's) skin (palm) humidity measured based on the skin impedance of the driver's (passenger's) skin (palm).
If the driver's skin moisture measurement value is above a preset threshold, the ECG signal is given a relatively higher weight for driver authentication,
If the driver's skin moisture measurement value is below a preset threshold, the fingerprint image is given a relatively higher weight for driver authentication.
The steps to estimate the driver's heart rate, breathing rate and HRV are:
After driver authentication is normally performed, if it is determined that both of the driver's hands are in contact with the steering wheel through the ECG sensor installed on the steering wheel, the processor estimates the driver's heart rate, respiration rate, and HRV based on the driver's ECG signal extracted through the ECG sensor, the facial image acquired through the camera, and the differential pressure signal extracted through the differential pressure sensor installed on the driver's seat.
The steps to determine the driver's risk of drowsiness are:
The first factor for determining the driver's drowsiness risk is extracted through the camera, and the second factor for determining the driver's drowsiness risk is extracted based on the estimated HRV in the estimation step, thereby determining the driver's drowsiness risk.
The first factor in determining the risk of driver drowsiness is
The driver's eyelid status (open/closed) is analyzed based on the facial image,
The second factor in determining the risk of driver drowsiness is
It is the parasympathetic nerve activity calculated through frequency analysis of HRV.
The steps to determine the driver's risk of drowsiness are:
When extracting the second judgment factor of driver drowsiness risk based on the estimated HRV, the HRV data measured in the time domain is converted to the frequency domain, and the signal intensity is analyzed by frequency band to calculate the parasympathetic nerve activity.
The steps to acquire data are:
Whenever the driver's hands touch the steering wheel, the driver's ECG signal is extracted through the ECG sensor.
The processor is,
A method for assessing the risk of driver drowsiness in a vehicle, characterized in that when a driver's ECG signal is extracted, a labeling task is performed on the extracted ECG signal and the extracted ECG signal is used as learning data for a CNN algorithm for estimating the driver's real-time heart rate, respiration rate, and HRV (heart rate variability).
삭제delete 삭제delete 삭제delete 청구항 1에 있어서,
프로세서는,
데이터를 획득하는 단계에서 획득된 데이터를 정규화하고, 정규화된 데이터를 학습 데이터로 활용하여 지엽적인 특징을 추출하기 위한 CNN 알고리즘을 학습시키고, 새로 정규화된 데이터를 학습된 CNN 알고리즘의 성능에 대한 증명 절차를 수행하고, 성능이 증명된 CNN 알고리즘만을 선별하여 운전자 인증 절차에 활용하는 것을 특징으로 하는 차량 내 운전자 개인맞춤형 졸음 위험도 판단 방법.
In claim 1,
The processor is,
A method for assessing the risk of driver drowsiness in a vehicle, characterized by normalizing the acquired data in the data acquisition stage, training a CNN algorithm to extract local features using the normalized data as learning data, performing a verification process for the performance of the trained CNN algorithm using the newly normalized data, and selecting only the CNN algorithms with proven performance to use in the driver authentication process.
삭제delete 삭제delete 삭제delete 청구항 1에 있어서,
운전자의 졸음 위험도를 판단하는 단계는,
졸음 위험도가 기설정된 임계값 이상인 경우, 운전자의 졸음을 깨우기 위해, 운전석 시트에 설치되는 차압 센서를 활용하여 운전자 왼편과 오른편에 상이한 주파수(베타파 출력)를 발생시켜 운전자에게 바이노럴 비트가 전달되도록 하는 것을 특징으로 하는 차량 내 운전자 개인맞춤형 졸음 위험도 판단 방법.
In claim 1,
The steps to determine the driver's risk of drowsiness are:
A method for determining the risk of drowsiness of a driver in a vehicle, characterized in that when the risk of drowsiness exceeds a preset threshold, a pressure sensor installed on the driver's seat is used to generate different frequencies (beta wave output) on the left and right sides of the driver to transmit binaural beats to the driver in order to wake the driver up.
차량 내 설치되는 카메라, 차량의 스티어링 휠에 마련되는 ECG(심전도) 센서 및 지문 센서 및 운전석 시트에 설치되는 차압 센서가 구비되는 센서부; 및
획득된 데이터를 기반으로 운전자 인증을 수행하고, 운전자 인증이 정상적으로 수행되면, 획득된 데이터를 기반으로 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정하며, 획득된 데이터를 기반으로 운전자의 졸음 위험도를 판단하는 프로세서;를 포함하며,
프로세서는,
차량 내 설치되는 카메라를 통해, 운전자의 얼굴 이미지를 획득하는 경우, 카메라의 조도 센서를 통해 밝기 정보를 추출하여 얼굴 이미지의 밝기를 보정하며,
프로세서는,
밝기 정보를 추출하여 얼굴 이미지의 밝기가 보정되면, 밝기가 보정된 얼굴 이미지를 대상으로 얼굴 윤곽, 눈, 코, 입이 포함되는 개인별 얼굴 특징점을 추출하고,
프로세서는,
차량의 스티어링 휠에 마련되는 ECG 센서 및 지문 센서를 통해 운전자의 ECG 신호 및 지문 이미지를 추출하는 경우, 운전자(운전석 탑승자)의 피부(손바닥)의 피부 임피던스를 기반으로 측정되는 운전자의 피부(손바닥) 습도를 기준으로 ECG 신호 및 지문 이미지에 각각 운전자 인증을 위한 가중치를 부여하여,
운전자의 피부 습도 측정값이 기설정된 임계값 이상인 경우, ECG 신호에 상대적으로 더 높은 운전자 인증을 위한 가중치를 부여하고,
운전자의 피부 습도 측정값이 기설정된 임계값 미만인 경우, 지문 이미지에 상대적으로 더 높은 운전자 인증을 위한 가중치를 부여하며,
프로세서는,
운전자 인증이 정상적으로 수행된 이후, 스티어링 휠에 마련되는 ECG 센서를 통해, 운전자의 양손이 스티어링 휠에 접촉된 상태인 것으로 판단되는 경우, ECG 센서를 통해 추출되는 운전자의 ECG 신호와 카메라를 통해 획득되는 얼굴 이미지, 운전석 시트에 설치되는 차압 센서를 통해 추출되는 차압 신호를 기반으로 운전자의 심박수, 호흡수 및 HRV를 추정하며,
프로세서는,
카메라를 통해 운전자 졸음위험도의 제1 판단 요인이 추출되면, 추정된 HRV를 기반으로 운전자 졸음위험도의 제2 판단 요인을 추출하여, 운전자의 졸음 위험도를 판단하고,
운전자 졸음위험도의 제1 판단 요인은,
얼굴 이미지를 기반으로 분석되는 운전자의 눈꺼풀 상태(열림/닫힘)이고,
운전자 졸음위험도의 제2 판단 요인은,
HRV의 주파수 분석을 통해 계산되는 부교감신경 활성도이며,
프로세서는,
추정된 HRV를 기반으로 운전자 졸음위험도의 제2 판단 요인을 추출하는 경우, 시간 도메인에서 측정된 HRV 데이터를 주파수 도메인으로 변환하고 주파수 대역별로 신호의 강도를 분석하여, 부교감신경 활성도를 계산하며,
ECG 센서는,
운전자의 양손이 스티어링 휠에 접촉될 때마다, 운전자의 ECG 신호를 추출하고,
프로세서는,
운전자의 ECG 신호가 추출되면, 추출된 ECG 신호를 대상으로 레이블링 작업을 수행하여, 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정하기 위한 CNN 알고리즘의 학습 데이터로 활용하는 것을 특징으로 하는 차량 내 운전자 개인맞춤형 졸음 위험도 판단 시스템.
A sensor unit including a camera installed in the vehicle, an ECG (electrocardiogram) sensor and a fingerprint sensor installed on the steering wheel of the vehicle, and a differential pressure sensor installed on the driver's seat; and
A processor that performs driver authentication based on the acquired data, estimates the driver's real-time heart rate, respiration rate, and HRV (heart rate variability) based on the acquired data when the driver authentication is performed normally, and determines the driver's drowsiness risk based on the acquired data;
The processor is,
When acquiring a driver's face image through a camera installed in the vehicle, the brightness information is extracted through the camera's light sensor to correct the brightness of the face image.
The processor is,
When the brightness of the face image is corrected by extracting brightness information, individual facial feature points including the face contour, eyes, nose, and mouth are extracted from the brightness-corrected face image.
The processor is,
When extracting the driver's ECG signal and fingerprint image through the ECG sensor and fingerprint sensor installed on the steering wheel of the vehicle, the ECG signal and fingerprint image are each given a weight for driver authentication based on the driver's (passenger's) skin (palm) humidity measured based on the skin impedance of the driver's (passenger's) skin (palm).
If the driver's skin moisture measurement value is above a preset threshold, the ECG signal is given a relatively higher weight for driver authentication,
If the driver's skin moisture measurement value is below a preset threshold, the fingerprint image is given a relatively higher weight for driver authentication.
The processor is,
After driver authentication is normally performed, if it is determined that the driver's both hands are in contact with the steering wheel through the ECG sensor installed on the steering wheel, the driver's heart rate, breathing rate, and HRV are estimated based on the driver's ECG signal extracted through the ECG sensor, the facial image acquired through the camera, and the differential pressure signal extracted through the differential pressure sensor installed on the driver's seat.
The processor is,
When the first judgment factor of the driver's drowsiness risk is extracted through the camera, the second judgment factor of the driver's drowsiness risk is extracted based on the estimated HRV, and the driver's drowsiness risk is determined.
The first factor in determining the risk of driver drowsiness is
The driver's eyelid status (open/closed) is analyzed based on the facial image,
The second factor in determining the risk of driver drowsiness is
It is the parasympathetic nerve activity calculated through frequency analysis of HRV.
The processor is,
When extracting the second judgment factor of driver drowsiness risk based on the estimated HRV, the HRV data measured in the time domain is converted to the frequency domain, and the signal intensity is analyzed by frequency band to calculate the parasympathetic nerve activity.
The ECG sensor is
Every time the driver's hands touch the steering wheel, the driver's ECG signal is extracted,
The processor is,
A vehicle driver drowsiness risk assessment system tailored to the driver's individuality, characterized in that when a driver's ECG signal is extracted, a labeling task is performed on the extracted ECG signal and the extracted ECG signal is used as learning data for a CNN algorithm for estimating the driver's real-time heart rate, respiration rate, and HRV (heart rate variability).
차량 내 설치되는 카메라, 차량의 스티어링 휠에 마련되는 ECG 센서 및 지문 센서 및 운전석 시트에 설치되는 차압 센서가 구비되는 센서부를 통해 데이터를 획득하는 단계;
프로세서가, 획득된 데이터를 기반으로 운전자 인증을 수행하는 단계; 및
운전자 인증이 정상적으로 수행되면, 프로세서가, 획득된 데이터를 기반으로 운전자의 졸음 위험도를 판단하는 단계;를 포함하고,
프로세서는,
차량 내 설치되는 카메라를 통해, 운전자의 얼굴 이미지를 획득하는 경우, 카메라의 조도 센서를 통해 밝기 정보를 추출하여 얼굴 이미지의 밝기를 보정하며,
프로세서는,
밝기 정보를 추출하여 얼굴 이미지의 밝기가 보정되면, 밝기가 보정된 얼굴 이미지를 대상으로 얼굴 윤곽, 눈, 코, 입이 포함되는 개인별 얼굴 특징점을 추출하고,
프로세서는,
차량의 스티어링 휠에 마련되는 ECG 센서 및 지문 센서를 통해 운전자의 ECG 신호 및 지문 이미지를 추출하는 경우, 운전자(운전석 탑승자)의 피부(손바닥)의 피부 임피던스를 기반으로 측정되는 운전자의 피부(손바닥) 습도를 기준으로 ECG 신호 및 지문 이미지에 각각 운전자 인증을 위한 가중치를 부여하여,
운전자의 피부 습도 측정값이 기설정된 임계값 이상인 경우, ECG 신호에 상대적으로 더 높은 운전자 인증을 위한 가중치를 부여하고,
운전자의 피부 습도 측정값이 기설정된 임계값 미만인 경우, 지문 이미지에 상대적으로 더 높은 운전자 인증을 위한 가중치를 부여하며,
졸음 위험도를 판단하는 단계는,
운전자 인증이 정상적으로 수행된 이후, 스티어링 휠에 마련되는 ECG 센서를 통해, 운전자의 양손이 스티어링 휠에 접촉된 상태인 것으로 판단되는 경우, 프로세서가, ECG 센서를 통해 추출되는 운전자의 ECG 신호와 카메라를 통해 획득되는 얼굴 이미지, 운전석 시트에 설치되는 차압 센서를 통해 추출되는 차압 신호를 기반으로 운전자의 심박수, 호흡수 및 HRV를 추정하며,
졸음 위험도를 판단하는 단계는,
카메라를 통해 운전자 졸음위험도의 제1 판단 요인을 추출하고, 추정하는 단계에서 추정된 HRV를 기반으로 운전자 졸음위험도의 제2 판단 요인을 추출하여, 운전자의 졸음 위험도를 판단하고,
운전자 졸음위험도의 제1 판단 요인은,
얼굴 이미지를 기반으로 분석되는 운전자의 눈꺼풀 상태(열림/닫힘)이고,
운전자 졸음위험도의 제2 판단 요인은,
HRV의 주파수 분석을 통해 계산되는 부교감신경 활성도이며,
졸음 위험도를 판단하는 단계는,
추정된 HRV를 기반으로 운전자 졸음위험도의 제2 판단 요인을 추출하는 경우, 시간 도메인에서 측정된 HRV 데이터를 주파수 도메인으로 변환하고 주파수 대역별로 신호의 강도를 분석하여, 부교감신경 활성도를 계산하며,
데이터를 획득하는 단계는,
운전자의 양손이 스티어링 휠에 접촉될 때마다, ECG 센서를 통해 운전자의 ECG 신호를 추출하고,
프로세서는,
운전자의 ECG 신호가 추출되면, 추출된 ECG 신호를 대상으로 레이블링 작업을 수행하여, 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정하기 위한 CNN 알고리즘의 학습 데이터로 활용하는 것을 특징으로 하는 차량 내 운전자 개인맞춤형 졸음 위험도 판단 방법.
A step of acquiring data through a sensor unit including a camera installed in a vehicle, an ECG sensor and fingerprint sensor installed on the steering wheel of the vehicle, and a differential pressure sensor installed on the driver's seat;
A step in which the processor performs driver authentication based on the acquired data; and
If driver authentication is performed normally, the processor includes a step of determining the driver's drowsiness risk based on the acquired data;
The processor is,
When acquiring a driver's face image through a camera installed in the vehicle, the brightness information is extracted through the camera's light sensor to correct the brightness of the face image.
The processor is,
When the brightness of the face image is corrected by extracting brightness information, individual facial feature points including the face contour, eyes, nose, and mouth are extracted from the brightness-corrected face image.
The processor is,
When extracting the driver's ECG signal and fingerprint image through the ECG sensor and fingerprint sensor installed on the steering wheel of the vehicle, the ECG signal and fingerprint image are each given a weight for driver authentication based on the driver's (passenger's) skin (palm) humidity measured based on the skin impedance of the driver's (passenger's) skin (palm).
If the driver's skin moisture measurement value is above a preset threshold, the ECG signal is given a relatively higher weight for driver authentication,
If the driver's skin moisture measurement value is below a preset threshold, the fingerprint image is given a relatively higher weight for driver authentication.
The steps to determine the risk of drowsiness are:
After driver authentication is normally performed, if it is determined that both of the driver's hands are in contact with the steering wheel through the ECG sensor installed on the steering wheel, the processor estimates the driver's heart rate, respiration rate, and HRV based on the driver's ECG signal extracted through the ECG sensor, the facial image acquired through the camera, and the differential pressure signal extracted through the differential pressure sensor installed on the driver's seat.
The steps to determine the risk of drowsiness are:
The first factor for determining the driver's drowsiness risk is extracted through the camera, and the second factor for determining the driver's drowsiness risk is extracted based on the estimated HRV in the estimation step, thereby determining the driver's drowsiness risk.
The first factor in determining the risk of driver drowsiness is
The driver's eyelid status (open/closed) is analyzed based on the facial image,
The second factor in determining the risk of driver drowsiness is
It is the parasympathetic nerve activity calculated through frequency analysis of HRV.
The steps to determine the risk of drowsiness are:
When extracting the second judgment factor of driver drowsiness risk based on the estimated HRV, the HRV data measured in the time domain is converted to the frequency domain, and the signal intensity is analyzed by frequency band to calculate the parasympathetic nerve activity.
The steps to acquire data are:
Whenever the driver's hands touch the steering wheel, the driver's ECG signal is extracted through the ECG sensor.
The processor is,
A method for assessing the risk of driver drowsiness in a vehicle, characterized in that when a driver's ECG signal is extracted, a labeling task is performed on the extracted ECG signal and the extracted ECG signal is used as learning data for a CNN algorithm for estimating the driver's real-time heart rate, respiration rate, and HRV (heart rate variability).
차량 내 설치되는 카메라, 차량의 스티어링 휠에 마련되는 ECG(심전도) 센서 및 지문 센서 및 운전석 시트에 설치되는 차압 센서가 구비되는 센서부; 및
획득된 데이터를 기반으로 운전자 인증을 수행하고, 운전자 인증이 정상적으로 수행되면, 획득된 데이터를 기반으로 운전자의 졸음 위험도를 판단하는 프로세서;를 포함하며,
프로세서는,
차량 내 설치되는 카메라를 통해, 운전자의 얼굴 이미지를 획득하는 경우, 카메라의 조도 센서를 통해 밝기 정보를 추출하여 얼굴 이미지의 밝기를 보정하며,
프로세서는,
밝기 정보를 추출하여 얼굴 이미지의 밝기가 보정되면, 밝기가 보정된 얼굴 이미지를 대상으로 얼굴 윤곽, 눈, 코, 입이 포함되는 개인별 얼굴 특징점을 추출하고,
프로세서는,
차량의 스티어링 휠에 마련되는 ECG 센서 및 지문 센서를 통해 운전자의 ECG 신호 및 지문 이미지를 추출하는 경우, 운전자(운전석 탑승자)의 피부(손바닥)의 피부 임피던스를 기반으로 측정되는 운전자의 피부(손바닥) 습도를 기준으로 ECG 신호 및 지문 이미지에 각각 운전자 인증을 위한 가중치를 부여하여,
운전자의 피부 습도 측정값이 기설정된 임계값 이상인 경우, ECG 신호에 상대적으로 더 높은 운전자 인증을 위한 가중치를 부여하고,
운전자의 피부 습도 측정값이 기설정된 임계값 미만인 경우, 지문 이미지에 상대적으로 더 높은 운전자 인증을 위한 가중치를 부여하며,
프로세서는,
운전자 인증이 정상적으로 수행된 이후, 스티어링 휠에 마련되는 ECG 센서를 통해, 운전자의 양손이 스티어링 휠에 접촉된 상태인 것으로 판단되는 경우, ECG 센서를 통해 추출되는 운전자의 ECG 신호와 카메라를 통해 획득되는 얼굴 이미지, 운전석 시트에 설치되는 차압 센서를 통해 추출되는 차압 신호를 기반으로 운전자의 심박수, 호흡수 및 HRV를 추정하며,
프로세서는,
카메라를 통해 운전자 졸음위험도의 제1 판단 요인이 추출되면, 추정된 HRV를 기반으로 운전자 졸음위험도의 제2 판단 요인을 추출하여, 운전자의 졸음 위험도를 판단하고,
운전자 졸음위험도의 제1 판단 요인은,
얼굴 이미지를 기반으로 분석되는 운전자의 눈꺼풀 상태(열림/닫힘)이고,
운전자 졸음위험도의 제2 판단 요인은,
HRV의 주파수 분석을 통해 계산되는 부교감신경 활성도이며,
프로세서는,
추정된 HRV를 기반으로 운전자 졸음위험도의 제2 판단 요인을 추출하는 경우, 시간 도메인에서 측정된 HRV 데이터를 주파수 도메인으로 변환하고 주파수 대역별로 신호의 강도를 분석하여, 부교감신경 활성도를 계산하며,
ECG 센서는,
운전자의 양손이 스티어링 휠에 접촉될 때마다, 운전자의 ECG 신호를 추출하고,
프로세서는,
운전자의 ECG 신호가 추출되면, 추출된 ECG 신호를 대상으로 레이블링 작업을 수행하여, 운전자의 실시간 심박수, 호흡수 및 HRV(심박변이도)를 추정하기 위한 CNN 알고리즘의 학습 데이터로 활용하는 것을 특징으로 하는 차량 내 운전자 개인맞춤형 졸음 위험도 판단 시스템.
A sensor unit including a camera installed in the vehicle, an ECG (electrocardiogram) sensor and a fingerprint sensor installed on the steering wheel of the vehicle, and a differential pressure sensor installed on the driver's seat; and
A processor that performs driver authentication based on the acquired data, and if the driver authentication is performed normally, determines the driver's drowsiness risk based on the acquired data;
The processor is,
When acquiring a driver's face image through a camera installed in the vehicle, the brightness information is extracted through the camera's light sensor to correct the brightness of the face image.
The processor is,
When the brightness of the face image is corrected by extracting brightness information, individual facial feature points including the face contour, eyes, nose, and mouth are extracted from the brightness-corrected face image.
The processor is,
When extracting the driver's ECG signal and fingerprint image through the ECG sensor and fingerprint sensor installed on the steering wheel of the vehicle, the ECG signal and fingerprint image are each given a weight for driver authentication based on the driver's (passenger's) skin (palm) humidity measured based on the skin impedance of the driver's (passenger's) skin (palm).
If the driver's skin moisture measurement value is above a preset threshold, the ECG signal is given a relatively higher weight for driver authentication,
If the driver's skin moisture measurement value is below a preset threshold, the fingerprint image is given a relatively higher weight for driver authentication.
The processor is,
After driver authentication is normally performed, if it is determined that the driver's both hands are in contact with the steering wheel through the ECG sensor installed on the steering wheel, the driver's heart rate, breathing rate, and HRV are estimated based on the driver's ECG signal extracted through the ECG sensor, the facial image acquired through the camera, and the differential pressure signal extracted through the differential pressure sensor installed on the driver's seat.
The processor is,
When the first judgment factor of the driver's drowsiness risk is extracted through the camera, the second judgment factor of the driver's drowsiness risk is extracted based on the estimated HRV, and the driver's drowsiness risk is determined.
The first factor in determining the risk of driver drowsiness is
The driver's eyelid status (open/closed) is analyzed based on the facial image,
The second factor in determining the risk of driver drowsiness is
It is the parasympathetic nerve activity calculated through frequency analysis of HRV.
The processor is,
When extracting the second judgment factor of driver drowsiness risk based on the estimated HRV, the HRV data measured in the time domain is converted to the frequency domain, and the signal intensity is analyzed by frequency band to calculate the parasympathetic nerve activity.
The ECG sensor is
Every time the driver's hands touch the steering wheel, the driver's ECG signal is extracted,
The processor is,
A vehicle driver drowsiness risk assessment system tailored to the driver's individuality, characterized in that when a driver's ECG signal is extracted, a labeling task is performed on the extracted ECG signal and the extracted ECG signal is used as learning data for a CNN algorithm for estimating the driver's real-time heart rate, respiration rate, and HRV (heart rate variability).
KR1020230042626A 2023-03-31 2023-03-31 Drowsiness risk assessment method and system tailored to the driver in the vehicle Active KR102849692B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230042626A KR102849692B1 (en) 2023-03-31 2023-03-31 Drowsiness risk assessment method and system tailored to the driver in the vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230042626A KR102849692B1 (en) 2023-03-31 2023-03-31 Drowsiness risk assessment method and system tailored to the driver in the vehicle

Publications (2)

Publication Number Publication Date
KR20240147858A KR20240147858A (en) 2024-10-10
KR102849692B1 true KR102849692B1 (en) 2025-08-28

Family

ID=93117689

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230042626A Active KR102849692B1 (en) 2023-03-31 2023-03-31 Drowsiness risk assessment method and system tailored to the driver in the vehicle

Country Status (1)

Country Link
KR (1) KR102849692B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018177189A (en) * 2017-04-14 2018-11-15 現代自動車株式会社Hyundai Motor Company Fatigue-based vehicle control device and method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11358566B2 (en) * 2019-03-18 2022-06-14 Lg Electronics Inc. In-vehicle complex biometric authentication system and operation method thereof
KR20220000771A (en) 2020-06-26 2022-01-04 최주영 To prevent drowsiness when driving a car, the theta wave (drowsiness wave) detection sensor (SENSE), one of the brain waves, is wound around the steering wheel in a circular shape to detect theta wave when the driver falls asleep and generate an alarm to prevent drowsy driving.
KR20230018860A (en) * 2021-07-30 2023-02-07 한국공학대학교산학협력단 Device performing driver authentication using body proportion

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018177189A (en) * 2017-04-14 2018-11-15 現代自動車株式会社Hyundai Motor Company Fatigue-based vehicle control device and method

Also Published As

Publication number Publication date
KR20240147858A (en) 2024-10-10

Similar Documents

Publication Publication Date Title
EP3600040B1 (en) Determining emotions using camera-based sensing
KR102367481B1 (en) Method and device to authenticate living body
US8400313B2 (en) Vehicle driver sleep state classification generating device based on Hidden Markov Model, sleep state classification device and warning device
Kong et al. A system of driving fatigue detection based on machine vision and its application on smart device
Lozano et al. Automatic differentiation of normal and continuous adventitious respiratory sounds using ensemble empirical mode decomposition and instantaneous frequency
Venkatesh et al. Human electrocardiogram for biometrics using DTW and FLDA
CN110200640B (en) Non-contact emotion recognition method based on dual-mode sensor
CN111797662A (en) Method for evaluating fatigue score of driver
Abdeldayem et al. ECG-based human authentication using high-level spectro-temporal signal features
CN103815896A (en) Mental fatigue monitoring method, device and system and mobile processing terminal
CN113040773A (en) Data acquisition and processing method
CN112617772B (en) Driving fatigue identification method and system based on pulse wave signals
CN112057087B (en) Method and device for data processing of autonomic nervous function in high-risk population of schizophrenia
CN118894119B (en) Fatigue driving intelligent early warning system based on physiological signal monitoring technology
Maiorana A survey on biometric recognition using wearable devices
CN117770821A (en) Human-caused intelligent cabin driver fatigue detection method, device, vehicle and medium
CN113501005A (en) Method and device for assisting control of vehicle based on physiological information of driver
Kuo et al. Development of automatic wheeze detection algorithm for children with asthma
Maaoui et al. Unsupervised stress detection from remote physiological signal
Kobayashi et al. Development of a mental disorder screening system using support vector machine for classification of heart rate variability measured from single-lead electrocardiography
WO2024249524A1 (en) Rapid eye movement sleep disorder detection to facilitate selective screening for parkinson's disorder
Pouryayevali ECG biometrics: new algorithm and multimodal biometric system
Dong et al. Identity recognition based on the qrs complex dynamics of electrocardiogram
KR102849692B1 (en) Drowsiness risk assessment method and system tailored to the driver in the vehicle
KR102627661B1 (en) Method for analyzing photoplethysmography data and recording medium storing program to implement the method

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601