KR102825582B1 - Method and system for early prediction of self-harm and harm to others accidents based on artificial intelligence - Google Patents
Method and system for early prediction of self-harm and harm to others accidents based on artificial intelligence Download PDFInfo
- Publication number
- KR102825582B1 KR102825582B1 KR1020240137756A KR20240137756A KR102825582B1 KR 102825582 B1 KR102825582 B1 KR 102825582B1 KR 1020240137756 A KR1020240137756 A KR 1020240137756A KR 20240137756 A KR20240137756 A KR 20240137756A KR 102825582 B1 KR102825582 B1 KR 102825582B1
- Authority
- KR
- South Korea
- Prior art keywords
- harm
- risk
- self
- signs
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/01—Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/021—Measuring pressure in heart or blood vessels
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/024—Measuring pulse rate or heart rate
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Measuring devices for evaluating the respiratory organs
- A61B5/082—Evaluation by breath analysis, e.g. determination of the chemical composition of exhaled breath
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Pathology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Data Mining & Analysis (AREA)
- Heart & Thoracic Surgery (AREA)
- Databases & Information Systems (AREA)
- Cardiology (AREA)
- Veterinary Medicine (AREA)
- Physics & Mathematics (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Physiology (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- Pulmonology (AREA)
- Vascular Medicine (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
본 발명은 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템에 관한 것이다. 보다 구체적으로, 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법은, 적어도 하나의 센서로부터 센싱된 위험 환자에 대한 센싱 데이터를 수신하는 단계, 자해 또는 타해 사고와 관련된 위험 행동의 징후를 예측하도록 학습된 인공지능 모델을 이용하여, 상기 센싱 데이터를 분석하는 단계 및 상기 인공지능 모델을 통한 상기 분석 결과를 이용하여, 상기 위험 환자의 상기 자해 또는 상기 타해 사고 중 어느 하나와 관련된 상기 위험 행동의 징후를 예측하는 단계를 포함할 수 있다.The present invention relates to an artificial intelligence-based method and system for early prediction of self-harm and harm to others. More specifically, the artificial intelligence-based method for early prediction of self-harm and harm to others according to the present invention may include a step of receiving sensing data on a dangerous patient sensed from at least one sensor, a step of analyzing the sensing data using an artificial intelligence model learned to predict signs of dangerous behavior related to self-harm or harm to others, and a step of predicting signs of the dangerous behavior related to either self-harm or harm to others of the dangerous patient using a result of the analysis through the artificial intelligence model.
Description
본 발명은 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템에 관한 것이다.The present invention relates to an artificial intelligence-based method and system for early prediction of self-harm and harm to others.
의료기관에서는 환자와 의료진의 안전을 보장하기 위해 다양한 예방 활동과 대응책을 마련하고 있다. 예를 들어, 자살, 자해, 타살, 타해 사고를 예방하기 위해 주변 환경 및 시설의 위험 요소들을 제거하고, 환자의 우울 및 불안 상태를 주기적으로 평가하는 등의 예방 활동을 시행하고 있다.Medical institutions are implementing various preventive activities and countermeasures to ensure the safety of patients and medical staff. For example, they are implementing preventive activities such as eliminating risk factors in the surrounding environment and facilities to prevent suicide, self-harm, homicide, and other-injury accidents, and periodically assessing patients' depression and anxiety levels.
그러나, 이러한 노력에도 불구하고 의료기관 내 자살, 자해, 타살, 타해 사고는 지속적으로 발생하고 있다.However, despite these efforts, suicide, self-harm, homicide, and harm to others continue to occur in medical institutions.
특히, 환자 안전 보고 학습 시스템의 통계에 따르면, 자살, 자해, 타살, 타해 사고는 꾸준히 증가하고 있으며, 더불어, 환자나 보호자가 의료진에게 폭력을 행사하는 사건도 빈번히 발생하고 있어, 이는 의료진의 안전과 생명을 위협하는 심각한 문제로 대두되고 있다. In particular, according to statistics from the Patient Safety Reporting Learning System, suicide, self-harm, homicide, and harm to others are steadily increasing, and incidents of patients or guardians committing violence against medical staff are also occurring frequently, which is emerging as a serious problem that threatens the safety and lives of medical staff.
한편, 자해 및 타해 사고에 대한 현재의 대응 방법은, 주로 비상벨과 보안요원 배치에 의존하고 있다.Meanwhile, current response methods to self-harm and harm to others mainly rely on emergency bells and the deployment of security personnel.
그러나, 이러한 대응 방법은, 위급한 상황이 이미 발생하거나 임박한 상황에서만 실효를 발휘할 수 있어, 타해 사고 예방의 측면에서 한계가 있다. 또한, 우울증이나 반복 자해 환자를 대상으로 하는 기존 연구들은 대부분 환자의 자가 보고에 의존하고 있으며, 이는 환자의 협조가 필요하다는 점에서 실효성이 떨어진다.However, these response methods are effective only when an emergency situation has already occurred or is imminent, so they have limitations in terms of preventing accidents. In addition, most of the existing studies targeting patients with depression or repeated self-harm have relied on patients' self-reports, which is less effective because it requires the cooperation of patients.
즉, 자해 또는 타해 사고와 관련된 충동적인 행동은 매우 빠르게 변화할 수 있기 때문에, 이를 실시간으로 감지할 수 있는 시스템의 필요성이 대두되고 있다.That is, because impulsive behaviors related to self-harm or harm to others can change very quickly, the need for a system that can detect them in real time is emerging.
따라서, 의료기관 내에서 환자와 의료진의 안전을 보장하기 위하여, 정신건강의학과를 포함한 모든 의료 현장에서 자해 및 타해 사고의 위험을 사전에 예측할 수 있는 시스템에 대한 니즈가 존재한다.Therefore, in order to ensure the safety of patients and medical staff within medical institutions, there is a need for a system that can predict the risk of self-harm and harm to others in advance in all medical fields, including psychiatry.
본 발명은 자해 또는 타해 사고와 관련된 위험을 실시간으로 모니터링하고, 이를 예방할 수 있는 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템을 제공하기 위한 것이다.The present invention provides an artificial intelligence-based method and system for early prediction of self-harm and harm to others, which can monitor in real time the risks associated with self-harm or harm to others and prevent them.
보다 구체적으로, 본 발명은 환자의 자해 또는 타해 사고와 관련된 위험 행동을 조기에 예측하고, 예측된 위험 행동을 선제적으로 대응할 수 있는 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템을 제공하기 위한 것이다.More specifically, the present invention is to provide an artificial intelligence-based method and system for early prediction of self-harm and harm to others, which can predict risk behaviors related to self-harm or harm to others in a patient at an early stage and proactively respond to the predicted risk behaviors.
나아가, 본 발명은 자해 또는 타해 사고와 관련된 위험 행동을 조기에 예측하여 즉각적인 예방 조치를 취할 수 있도록 하는 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템을 제공하기 위한 것이다.Furthermore, the present invention provides an artificial intelligence-based method and system for early prediction of self-harm and harm to others, which enables early prediction of risky behaviors related to self-harm or harm to others and immediate preventive measures to be taken.
나아가, 본 발명은 의료기관의 자원을 효율적으로 관리할 수 있도록, 다양한 위험 요소에 따른 대응 조치를 생성하여 제공할 수 있는 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템을 제공하기 위한 것이다.Furthermore, the present invention provides an artificial intelligence-based method and system for early prediction of self-harm and harm to others, which can generate and provide response measures according to various risk factors so as to efficiently manage the resources of medical institutions.
위에서 살펴본 과제를 해결하기 위하여, 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법은, 적어도 하나의 센서로부터 센싱된 위험 환자에 대한 센싱 데이터를 수신하는 단계, 자해 또는 타해 사고와 관련된 위험 행동의 징후를 예측하도록 학습된 인공지능 모델을 이용하여, 상기 센싱 데이터를 분석하는 단계 및 상기 인공지능 모델을 통한 상기 분석 결과를 이용하여, 상기 위험 환자의 상기 자해 또는 상기 타해 사고 중 어느 하나와 관련된 상기 위험 행동의 징후를 예측하는 단계를 포함할 수 있다.In order to solve the problem discussed above, the method for early prediction of self-harm and harm to others based on artificial intelligence according to the present invention may include the steps of receiving sensing data on a risk patient sensed from at least one sensor, analyzing the sensing data using an artificial intelligence model learned to predict signs of risky behavior related to self-harm or harm to others, and predicting signs of the risky behavior related to either self-harm or harm to others of the risk patient using the analysis result through the artificial intelligence model.
나아가, 상기 센싱 데이터는, 상기 위험 환자의 생체 정보 및 상기 위험 환자에 대하여 촬영된 영상을 포함하고, 상기 생체 정보는, 상기 위험 환자의 체온, 맥박, 혈압, 호흡률 및 피부 긴장도 중 적어도 하나를 포함할 수 있다.Furthermore, the sensing data may include biometric information of the at-risk patient and an image captured of the at-risk patient, and the biometric information may include at least one of body temperature, pulse, blood pressure, respiratory rate, and skin tension of the at-risk patient.
나아가, 상기 센싱 데이터를 분석하는 단계에서는, 상기 인공지능 모델을 이용하여, 상기 영상으로부터 상기 위험 환자의 행동을 분석하고, 상기 위험 환자의 상기 행동에 대한 분석 결과를 이용하여, 상기 위험 환자의 행동 정보를 추출할 수 있다.Furthermore, in the step of analyzing the sensing data, the behavior of the at-risk patient can be analyzed from the image using the artificial intelligence model, and the behavior information of the at-risk patient can be extracted using the analysis result of the behavior of the at-risk patient.
나아가, 상기 센싱 데이터를 분석하는 단계에서는, 상기 인공지능 모델을 이용하여, 상기 영상으로부터 상기 위험 환자의 응시 및 주시 패턴을 분석하고, 상기 위험 환자의 상기 응시 및 주시 패턴에 대한 분석 결과를 이용하여, 상기 위험 환자의 시선 추적 정보를 추출할 수 있다.Furthermore, in the step of analyzing the sensing data, the gaze and viewing pattern of the at-risk patient can be analyzed from the image using the artificial intelligence model, and the gaze tracking information of the at-risk patient can be extracted using the analysis result of the gaze and viewing pattern of the at-risk patient.
나아가, 상기 시선 추적 정보는, 상기 위험 환자의 시선의 이동 경로, 응시 대상, 응시 시간 및 주시 빈도 중 적어도 하나를 포함할 수 있다.Furthermore, the gaze tracking information may include at least one of the gaze movement path, gaze target, gaze time, and gaze frequency of the at-risk patient.
나아가, 상기 위험 행동의 징후는, 상기 위험 환자의 상기 생체 정보, 상기 행동 정보 및 상기 시선 추적 정보를 이용하여 예측되고, 복수의 위험도 중 상기 위험 행동의 징후에 따른 위험도를 특정하는 단계 및 상기 특정된 위험도에 근거하여, 상기 위험 행동의 징후와 관련된 상기 자해 또는 상기 타해 사고를 예방하기 위한 대응 조치 정보를 생성하는 단계를 더 포함할 수 있다.Furthermore, the signs of the risky behavior may further include a step of predicting the risk level according to the signs of the risky behavior among a plurality of risk levels by using the biometric information, the behavioral information, and the eye tracking information of the risk patient, and a step of generating countermeasure information to prevent the self-harm or the harm to others accident related to the signs of the risky behavior based on the specified risk level.
나아가, 복수의 위험도는, 서로 다른 위험 행동의 징후로부터 특정되는 제1 위험도 및 제2 위험도를 포함하고, 상기 서로 다른 위험 행동의 징후는, 상기 자해 사고와 관련된 위험 행동의 징후 및 상기 타해 사고와 관련된 위험 행동의 징후를 포함하며, 상기 제1 위험도는, 상기 인공지능 모델을 통해 상기 타해 사고와 관련된 위험 행동의 징후가 예측되는 것에 근거하여 특정되고, 상기 제2 위험도는, 상기 인공지능 모델을 통해 상기 자해 사고와 관련된 위험 행동의 징후가 예측되는 것에 근거하여 특정될 수 있다.Furthermore, the plurality of risk levels include a first risk level and a second risk level that are specified from signs of different risk behaviors, wherein the signs of different risk behaviors include signs of risk behavior related to the self-harm incident and signs of risk behavior related to the other-harm incident, and the first risk level can be specified based on the signs of risk behavior related to the other-harm incident being predicted through the artificial intelligence model, and the second risk level can be specified based on the signs of risk behavior related to the self-harm incident being predicted through the artificial intelligence model.
나아가, 상기 복수의 위험도 각각에는, 서로 다른 대응 조치 정보가 매칭되어 존재하고, 상기 서로 다른 대응 조치 정보는, 상기 제1 위험도에 매칭된 제1 대응 조치 정보 및 상기 제2 위험도에 매칭된 제2 대응 조치 정보를 포함하고, 상기 조치 정보를 생성하는 단계에서는, 상기 특정된 위험도가 상기 제1 위험도에 해당하는 경우, 상기 타해 사고를 예방하기 위한 상기 제1 대응 조치 정보를 생성하고, 상기 특정된 위험도가 상기 제1 위험도와 다른 상기 제2 위험도에 해당하는 경우, 상기 자해 사고를 예방하기 위한 상기 제2 대응 조치 정보를 생성할 수 있다.Furthermore, for each of the plurality of risk levels, different countermeasure information is matched and present, and the different countermeasure information includes first countermeasure information matched to the first risk level and second countermeasure information matched to the second risk level, and in the step of generating the countermeasure information, if the specific risk level corresponds to the first risk level, the first countermeasure information for preventing the third-party harm accident can be generated, and if the specific risk level corresponds to the second risk level different from the first risk level, the second countermeasure information for preventing the self-harm accident can be generated.
한편, 본 발명에 따른 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 시스템은, 적어도 하나의 센서로부터 센싱된 위험 환자에 대한 센싱 데이터를 수신하는 통신부 및 자해 또는 타해 사고와 관련된 위험 행동의 징후를 예측하도록 학습된 인공지능 모델을 이용하여, 상기 센싱 데이터를 분석하는 제어부를 포함하고, 상기 제어부는, 상기 인공지능 모델을 통한 상기 분석 결과를 이용하여, 상기 위험 환자의 상기 자해 또는 상기 타해 사고 중 어느 하나와 관련된 상기 위험 행동의 징후를 예측할 수 있다.Meanwhile, the artificial intelligence-based early prediction system for self-harm and harm to others according to the present invention includes a communication unit that receives sensing data on a dangerous patient sensed from at least one sensor, and a control unit that analyzes the sensing data using an artificial intelligence model learned to predict signs of dangerous behavior related to self-harm or harm to others, wherein the control unit can predict signs of the dangerous behavior related to either self-harm or harm to others of the dangerous patient using the analysis result through the artificial intelligence model.
한편, 본 발명에 따른 프로그램은, 전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장 가능한 프로그램으로서, 상기 프로그램은, 적어도 하나의 센서로부터 센싱된 위험 환자에 대한 센싱 데이터를 수신하는 단계 자해 또는 타해 사고와 관련된 위험 행동의 징후를 예측하도록 학습된 인공지능 모델을 이용하여, 상기 센싱 데이터를 분석하는 단계 및 상기 인공지능 모델을 통한 상기 분석 결과를 이용하여, 상기 위험 환자의 상기 자해 또는 상기 타해 사고 중 어느 하나와 관련된 상기 위험 행동의 징후를 예측하는 단계를 수행하는 명령어들을 포함할 수 있다.Meanwhile, a program according to the present invention is a program that is executed by one or more processes in an electronic device and can be stored in a computer-readable recording medium, wherein the program may include commands for performing a step of receiving sensing data on a dangerous patient sensed from at least one sensor, a step of analyzing the sensing data using an artificial intelligence model learned to predict signs of dangerous behavior related to self-harm or harm to others, and a step of predicting signs of the dangerous behavior related to either self-harm or harm to others of the dangerous patient using a result of the analysis through the artificial intelligence model.
위에서 살펴본 것과 같이, 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템은, 자해 또는 타해 사고와 관련된 위험 행동을 조기에 예측함으로써, 불필요한 사고를 예방하고, 의료기관의 자원(예를 들어, 인력, 시간, 비용 등)을 효율적으로 관리하는 데 기여할 수 있다.As examined above, the artificial intelligence-based self-harm and other-harm accident early prediction method and system according to the present invention can contribute to preventing unnecessary accidents and efficiently managing the resources (e.g., manpower, time, cost, etc.) of medical institutions by early predicting risky behaviors related to self-harm or other-harm accidents.
또한, 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템은, 다양한 센서로부터 센싱된 정보와, 즉시 현장 적용이 가능한 데이터 통합 관리 플랫폼을 구축하여, 위험 환자의 자해 또는 타해 사고와 관련된 위험 행동을 조기에 예측하여 예방하고, 환자와 의료진에게 안전하고 치료 효과 증대에 도움이 되는 의료 서비스 환경을 확립하는 데 기여할 수 있다.In addition, the method and system for early prediction of self-harm and harm to others based on artificial intelligence according to the present invention can contribute to early prediction and prevention of risk behaviors related to self-harm or harm to others of at-risk patients and to establishing a medical service environment that is safe for patients and medical staff and helpful in increasing treatment effectiveness by building a data integration management platform with information sensed from various sensors and immediately applicable to the field.
나아가, 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템은, 위험 환자와 특정 대상 간의 상호 관계 연동 분석을 진행함으로써, 의료기관에 종사하는 의료진이 타해 위험이 높은 환자로부터 자신을 보호할 수 있는 의료 서비스 환경을 마련할 수 있다.Furthermore, the artificial intelligence-based method and system for early prediction of self-harm and harm to others according to the present invention can provide a medical service environment in which medical staff working at medical institutions can protect themselves from patients at high risk of harm to others by conducting a linkage analysis of the mutual relationship between at-risk patients and specific targets.
나아가, 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템은, 자해 및 타해 사고와 관련된 센싱 데이터들을 기반으로 데이터베이스를 구축함으로써, 이를 타겟으로 하는 다양한 디지털 치료제 개발이 이루어지도록 할 수 있다.Furthermore, the artificial intelligence-based method and system for early prediction of self-harm and harm to others according to the present invention can enable the development of various digital therapeutics targeting self-harm and harm to others by constructing a database based on sensing data related to self-harm and harm to others.
나아가, 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템은, 환자의 자해 또는 타해 사고와 관련된 위험 행동을 조기에 예측하고, 예측된 위험 행동을 선제적으로 대응할 수 있는 대응 조치 정보를 생성하여 제공할 수 있다. 이를 통해, 의료기관에서는 장기적으로 안전 요원 등 인력 수요가 줄어 경제적 부담을 획기적으로 줄일 수 있다.Furthermore, the AI-based self-harm and other-harm accident early prediction method and system according to the present invention can early predict a patient's risk behavior related to self-harm or other-harm accidents and generate and provide response measure information that can proactively respond to the predicted risk behavior. Through this, medical institutions can drastically reduce the economic burden by reducing the demand for personnel such as safety personnel in the long term.
도 1 및 도 2, 도 3a 및 도 3b는 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템을 설명하기 위한 개념도들이다.
도 4는 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법을 설명하기 위한 흐름도이다.
도 5a, 도 5b, 도 6, 도 7, 도 8 및 도 9는 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법을 설명하기 위한 개념도들이다.FIGS. 1 and 2, 3a and 3b are conceptual diagrams for explaining an artificial intelligence-based method and system for early prediction of self-harm and harm to others according to the present invention.
Figure 4 is a flowchart for explaining an artificial intelligence-based method for early prediction of self-harm and harm to others according to the present invention.
FIG. 5a, FIG. 5b, FIG. 6, FIG. 7, FIG. 8, and FIG. 9 are conceptual diagrams for explaining an artificial intelligence-based method for early prediction of self-harm and harm to others according to the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments disclosed in this specification will be described in detail with reference to the attached drawings. Regardless of the drawing symbols, identical or similar components will be given the same reference numerals and redundant descriptions thereof will be omitted. The suffixes "module" and "part" used for components in the following description are assigned or used interchangeably only for the convenience of writing the specification, and do not have distinct meanings or roles in themselves. In addition, when describing embodiments disclosed in this specification, if it is determined that a specific description of a related known technology may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the attached drawings are only intended to facilitate easy understanding of the embodiments disclosed in this specification, and the technical ideas disclosed in this specification are not limited by the attached drawings, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and technical scope of the present invention.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The terms are used only to distinguish one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When it is said that a component is "connected" or "connected" to another component, it should be understood that it may be directly connected or connected to that other component, but that there may be other components in between. On the other hand, when it is said that a component is "directly connected" or "directly connected" to another component, it should be understood that there are no other components in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly indicates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, it should be understood that terms such as “comprises” or “have” are intended to specify the presence of a feature, number, step, operation, component, part or combination thereof described in the specification, but do not exclude in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts or combinations thereof.
본 발명은 다양한 센서로부터 수집되는 정보를 분석하여, 위험 환자의 자해 또는 타해 사고와 관련된 위험 행동을 조기(또는 사전)에 예측할 수 있는 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템에 관한 것이다.The present invention relates to an artificial intelligence-based method and system for early prediction of self-harm and harm to others, which can predict (or in advance) risk behavior related to self-harm or harm to others of at-risk patients by analyzing information collected from various sensors.
자해(Self-Harm)는 개인이 자신의 신체나 정신에 해를 가하는 모든 행동을 의미할 수 있다. 이는 고의적으로 자신의 신체 조직을 손상시키는 행위로 나타나며, 정서적 고통을 해소하거나 감정적인 해방을 위한 방법으로 사용될 수 있다. 자해의 예로는, 신체적 손상(예를 들어, 칼이나 날카로운 도구로 자신을 베거나 긁는 행위, 벽에 머리를 부딪히는 행위 등), 약물 남용(예를 들어, 고의적으로 과다한 양의 약물이나 알코올을 섭취하는 행위), 자가 중독(예를 들어, 독성 물질을 섭취하여 신체에 해를 가하는 행위) 등을 포함할 수 있다.Self-harm can refer to any behavior that an individual does to harm their own body or mind. It can be an intentional act of damaging one's own body tissues and can be used as a way to relieve emotional pain or emotional release. Examples of self-harm include physical harm (e.g., cutting or scratching oneself with a knife or sharp object, banging one's head against a wall, etc.), substance abuse (e.g., deliberately consuming excessive amounts of drugs or alcohol), and self-poisoning (e.g., ingesting toxic substances to harm one's body).
타해(Harm to Others)는 개인이 타인에게 신체적, 정신적 또는 물리적 손상을 입히는 모든 행동을 의미할 수 있다. 타해의 예로는, 신체적 폭력(예를 들어 타인을 때리거나 물리적 손상을 입히는 행위), 정신적 폭력(예를 들어, 타인에게 고의적으로 심리적 고통을 주는 행위), 물질적 피해(예를 들어, 타인의 소유물에 고의적으로 손상을 입히거나 파괴하는 행위) 등을 포함할 수 있다.Harm to Others can refer to any behavior that causes physical, mental, or physical harm to another person. Examples of harm to others include physical violence (e.g., hitting or physically harming another person), psychological violence (e.g., intentionally causing psychological distress to another person), and material harm (e.g., intentionally damaging or destroying another person's property).
한편, 도 1에 도시된 것과 같이, 본 발명에서 설명되는 “다양한 센서”는, 접촉식 센서(1) 및 비접촉식 센서(2)를 포함할 수 있다.Meanwhile, as illustrated in FIG. 1, the “various sensors” described in the present invention may include a contact sensor (1) and a non-contact sensor (2).
접촉식 센서(1)는, 환자의 신체와 접촉하여 환자의 생체 정보(예를 들어, 체온, 맥박, 혈압, 호흡률, 피부 긴장도 등)를 센싱(또는 측정)할 수 있는 센서들을 포함할 수 있다. 이 경우, 접촉식 센서는 스마트 워치로 이루어진 웨이러블 기기를 포함할 수 있다. 예를 들어, 접촉식 센서는 체온 센서(Temperature sensor), 맥박 센서(Heart rate sensor), 혈압 센서(Blood pressure sensor), 호흡률 센서(Respiration rate sensor), 피부 긴장도 센서(Skin tension sensor), ECG 센서(Electrocardiogram sensor), SPO2 센서(Oxygen saturation sensor), 피부 전도도 센서(Galvanic skin response sensor), 가속도계(Accelerometer), 자이로스코프(Gyroscope), 근전도 센서 (Electromyography sensor) 등을 포함할 수 있다.The contact sensor (1) may include sensors that can sense (or measure) the patient's bio-information (e.g., body temperature, pulse, blood pressure, respiration rate, skin tension, etc.) by coming into contact with the patient's body. In this case, the contact sensor may include a wearable device consisting of a smart watch. For example, the contact sensor may include a temperature sensor, a heart rate sensor, a blood pressure sensor, a respiration rate sensor, a skin tension sensor, an electrocardiogram sensor, an SPO2 sensor, a galvanic skin response sensor, an accelerometer, a gyroscope, an electromyography sensor, etc.
비접촉식 센서(2)는, 환자의 신체와 접촉하지 않고 환자와 관련된 다양한 정보(예를 들어, 생체 징후(또는 생체 정보), 위치 정보, 영상 데이터, 4D 레이더 등)를 센싱할 수 있는 센서들을 포함할 수 있다. 예를 들어, 카메라(예를 들어, RGB 카메라, IR 카메라 등), CCTV, 영상 센서(Imaging sensor), 적외선 센서(Infrared sensor), 레이더 센서(Radar sensor), LiDAR 센서(Light Detection and Ranging sensor), 초음파 센서(Ultrasonic sensor), 4D 레이더 센서(4D radar sensor), 마이크로파 센서(Microwave sensor), 광학 센서(Optical sensor), 레이저 도플러 센서(Laser Doppler sensor), 위치 센서(Position sensor), 로봇(Robot) 등을 포함할 수 있다.The non-contact sensor (2) may include sensors that can sense various information related to a patient (e.g., vital signs (or biometric information), location information, image data, 4D radar, etc.) without coming into contact with the patient's body. For example, it may include a camera (e.g., RGB camera, IR camera, etc.), CCTV, imaging sensor, infrared sensor, radar sensor, LiDAR sensor (Light Detection and Ranging sensor), ultrasonic sensor, 4D radar sensor, microwave sensor, optical sensor, laser Doppler sensor, position sensor, robot, etc.
다만, 접촉식 센서(1) 및 비접촉식 센서(2)에 포함되는 센서들은 반드시 이에 한정되는 것은 아니며, 위에서 언급한 센서 외에도 다양한 종류의 센서를 포함할 수 있다.However, the sensors included in the contact sensor (1) and the non-contact sensor (2) are not necessarily limited to this, and may include various types of sensors in addition to the sensors mentioned above.
나아가, 본 발명에서 설명되는 “위험 환자”는 정신 질환으로 인한 통증(Pain)을 느끼는 환자를 의미할 수 있으며, 본 발명에서 위험 환자는 “환자” 또는 “사용자”와 혼용되어 사용될 수 있다.Furthermore, the “at-risk patient” described in the present invention may mean a patient who feels pain due to a mental illness, and in the present invention, the “at-risk patient” may be used interchangeably with “patient” or “user.”
본 발명에서는 설명의 편의를 위하여, “정신 질환”을 중심으로 설명하나, 반드시 이에 한정되는 것은 아니다. 즉, 본 발명에서 설명되는 위험 환자는, 정신 질환을 갖는 환자(예를 들어, 정신질환자) 외에도, 다양한 질환(예를 들어, 만성 통증, 알코올 중독, 약물 남용 및 의존 등)을 가진 환자를 모두 포함할 수 있다.In the present invention, for the convenience of explanation, the description focuses on “mental illness”, but is not necessarily limited thereto. That is, the at-risk patients described in the present invention may include not only patients with mental illness (e.g., mentally ill patients), but also patients with various diseases (e.g., chronic pain, alcoholism, drug abuse and dependence, etc.).
다시 도 1을 참조하면, 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템(이하, “자해 및 타해 사고 조기 예측 시스템, 100)은 다양한 접촉식 센서(1)를 통합적으로 적용할 수 있는 스마트 워치 형태의 디바이스와, 개인정보 보호를 위한 비식별화를 적용한 영상 데이터 및 위치 정보 데이터를 수집할 수 있는 센서 기반 실시간 감시 시스템을 구축할 수 있다.Referring again to FIG. 1, the artificial intelligence-based self-harm and other-harm accident early prediction method and system (hereinafter, “self-harm and other-harm accident early prediction system, 100) according to the present invention can construct a smartwatch-type device capable of comprehensively applying various contact sensors (1), and a sensor-based real-time surveillance system capable of collecting image data and location information data to which anonymization for personal information protection has been applied.
일 예로서, 자해 및 타해 사고 조기 예측 시스템(100)은 야간에도 환자의 인식이 가능하도록 하는 센서 기반 실시간 감시 시스템을 구축할 수 있으며, 화장실이나 샤워실 등의 영상 확보가 불가능한 공간에서 시도되는 자해 또는 타해 사고와 관련된 위험 행동을 감지할 수 있는 센서 기반 실시간 감시 시스템을 구축(예를 들어, 천장에 레이더 센서를 부착하여 머리까지의 거리를 측정하고 일정 수준(ex: 지상 기준 2M 이상) 가까워지면 위험을 감지)할 수 있다.As an example, the early prediction system for self-harm and harm to others (100) can build a sensor-based real-time surveillance system that enables patient recognition even at night, and can build a sensor-based real-time surveillance system that can detect dangerous behavior related to self-harm or harm to others attempted in a space where video acquisition is impossible, such as a bathroom or shower room (for example, a radar sensor can be attached to the ceiling to measure the distance to the head and detect danger when it gets close to a certain level (ex: 2 m or more from the ground).
한편, 종래에는 개인의 행동에서 추출되는 데이터들을 이용하여 위험 행동을 예측하지만, 자해 또는 타해 사고와 관련된 위험 행동의 대부분은 개인의 행동보다는 개인과 개인 간 또는 개인과 그룹 간의 상호작용에 의해 유발되는 경우가 많다. 따라서, 상호작용에 의해 발생하는 자해 또는 타해 사고를 예측하기 위해서는, 개인의 행동만이 아니라 근접 공간에 존재하는 그룹의 영상 데이터의 수집과 분석이 필요하다.Meanwhile, conventionally, data extracted from individual behaviors are used to predict risky behaviors, but most risky behaviors related to self-harm or harm to others are often caused by interactions between individuals or between individuals and groups rather than individual behaviors. Therefore, in order to predict self-harm or harm to others caused by interactions, it is necessary to collect and analyze image data of groups existing in close space as well as individual behaviors.
이에, 자해 및 타해 사고 조기 예측 시스템(100)은, 개인과 개인 간의 상호작용을 대상으로 하는 복수의 멀티모달(Multi Modal) 센싱(또는 센서) 데이터의 수집과 분석을 통하여, 보다 완전한 형태의 자해 및 타해 사고 조기 예측 알고리즘을 구현(또는 개발)할 수 있다.Accordingly, the self-harm and harm to others early prediction system (100) can implement (or develop) a more complete self-harm and harm to others early prediction algorithm through the collection and analysis of multiple multi-modal sensing (or sensor) data targeting interactions between individuals.
일 예로서, 카메라 기반의 행동 감지는 신뢰성 확보를 위해 시계열 분석 시간이 필요하며, 너무 빠른 알람은 잦은 오판으로 알람의 신뢰성을 하락시킬 수 있다. 이에, 자해 및 타해 사고 조기 예측 시스템(100)은, 영상 분석과 추가 센서를 활용한 멀티모달을 데이터 세트로 하는 보다 강건한 인식 알고리즘을 도출하여 신뢰성을 강화할 수 있다. 즉, 자해 및 타해 사고 조기 예측 시스템(100)은 강건한 인식 알고리즘을 적용하여 자해 또는 타해 사고와 관련된 위험 행동을 조기에 인지(또는 예측)하고, 신뢰성을 유지하는 위험 행동 인식 알고리즘을 구현할 수 있다.For example, camera-based behavior detection requires time series analysis time to secure reliability, and too fast alarms can reduce the reliability of the alarms due to frequent false judgments. Accordingly, the self-harm and other-harm accident early prediction system (100) can enhance reliability by deriving a more robust recognition algorithm that uses image analysis and multimodal data sets utilizing additional sensors. That is, the self-harm and other-harm accident early prediction system (100) can recognize (or predict) risky behaviors related to self-harm or other-harm accidents early by applying a robust recognition algorithm, and implement a risky behavior recognition algorithm that maintains reliability.
다른 예로서, 자해 및 타해 사고 조기 예측 시스템(100)은 멀티모달 알고리즘으로 자해 또는 타해 사고와 관련된 위험 행동의 징후를 분석할 수 있다. 보다 구체적으로, 자해 및 타해 사고 조기 예측 시스템(100)은 행동 인식과 생체 정보 데이터 세트를 학습한 딥러닝 네트워크 모델을 확보하고, 확보된 네트워크 모델을 실시간 현장 데이터에 적용하여 위험 행동의 징후를 예측할 수 있다.As another example, the early prediction system for self-harm and harm to others (100) can analyze signs of risky behaviors related to self-harm or harm to others using a multimodal algorithm. More specifically, the early prediction system for self-harm and harm to others (100) can secure a deep learning network model that has learned behavior recognition and biometric information data sets, and apply the secured network model to real-time field data to predict signs of risky behaviors.
또 다른 예로서, 자해 및 타해 사고 조기 예측 시스템(100)은 위험 환자들의 위험 행동 전 응시 및 주시 패턴을 분석하는 시선 추적 알고리즘을 이용하여, 위험 환자들의 이상 징후 예측(예를 들어, 위험 행동의 징후 예측)에 활용할 수 있다. 시선 추적 알고리즘에 대한 보다 구체적인 내용은 후술하여 설명하도록 한다.As another example, the early prediction system for self-harm and harm to others (100) can be utilized to predict abnormal signs of at-risk patients (e.g., predict signs of at-risk behavior) by using an eye-tracking algorithm that analyzes gaze and gaze patterns of at-risk patients before their risky behavior. More specific details about the eye-tracking algorithm will be described later.
한편, 자해 또는 타해와 관련된 위험을 예측만 하는 것으로는 유의미한 예방 효과를 기대할 수 없다. 자해 또는 타해 사고를 예방하기 위해서는 현장에서 감지되는 위험도 상승을 기반으로 선제적으로 대응할 수 있는 추가적인 시스템의 구축이 필요하다.On the other hand, predicting risks related to self-harm or harm to others alone cannot be expected to have a significant preventive effect. In order to prevent self-harm or harm to others, it is necessary to establish an additional system that can proactively respond based on increased risk detected in the field.
이에, 자해 및 타해 사고 조기 예측 시스템(100)은 위기관리 기반 모니터링 및 신속대응 시스템(예를 들어, 실시간 그룹 알람(또는 통합 알람), 위험도 상승 환자에게 선제적으로 제공할 수 있는 모바일 인지행동치료(또는 반응형 인지행동치료), 서큘레이팅 로봇을 이용한 순회 등)을 구축하여, 신속한 대응과 관리 효율화를 동시에 시도할 수 있다.Accordingly, the early prediction system for self-harm and harm to others (100) can attempt to simultaneously achieve rapid response and management efficiency by establishing a crisis management-based monitoring and rapid response system (e.g., real-time group alarm (or integrated alarm), mobile cognitive behavioral therapy (or responsive cognitive behavioral therapy) that can be proactively provided to patients with increased risk, and patrol using a circulating robot, etc.).
나아가, 자해 및 타해 사고 조기 예측 시스템(100)은 애플리케이션(Application), 소프트웨어(software), 웹 사이트(Web-site) 등의 다양한 플랫폼(platform) 형태로 구현될 수 있다.Furthermore, the early prediction system for self-harm and harm to others (100) can be implemented in various platform forms such as applications, software, and websites.
이하에서는 첨부된 도면과 함께, 위에서 살펴본 자해 및 타해 사고 조기 예측 시스템(100)의 구성에 대하여 보다 구체적으로 설명하도록 한다. 도 2는 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템을 설명하기 위한 개념도이다.Below, the configuration of the self-harm and other-harm accident early prediction system (100) discussed above will be described in more detail with the attached drawings. Figure 2 is a conceptual diagram for explaining the artificial intelligence-based self-harm and other-harm accident early prediction method and system according to the present invention.
도 2에 도시된 것과 같이, 본 발명에 따른 자해 및 타해 사고 조기 예측 시스템(100)은 센싱부(110), 통신부(120), 저장부(130) 및 제어부(140) 중 적어도 하나를 포함할 수 있다.As illustrated in FIG. 2, the self-harm and harm to others accident early prediction system (100) according to the present invention may include at least one of a sensing unit (110), a communication unit (120), a storage unit (130), and a control unit (140).
센싱부(110)는 적어도 하나의 센서를 포함할 수 있다. 보다 구체적으로, 센싱부(110)는 위험 환자(U1)와 관련된 정보(또는 위험 환자(U1)가 위치하는 공간에 대한 정보)를 센싱하기 위한 것으로서, 접촉식 센서(111) 및 비접촉식 센서(112)를 포함할 수 있다.The sensing unit (110) may include at least one sensor. More specifically, the sensing unit (110) is for sensing information related to a risk patient (U1) (or information about a space where a risk patient (U1) is located), and may include a contact sensor (111) and a non-contact sensor (112).
예를 들어, 접촉식 센서(111)에는 체온 센서(Temperature sensor), 맥박 센서(Heart rate sensor), 혈압 센서(Blood pressure sensor), 호흡률 센서(Respiration rate sensor), 피부 긴장도 센서(Skin tension sensor), ECG 센서(Electrocardiogram sensor), SPO2 센서(Oxygen saturation sensor), 피부 전도도 센서(Galvanic skin response sensor), 가속도계(Accelerometer), 자이로스코프(Gyroscope), 근전도 센서 (Electromyography sensor) 중 적어도 하나가 포함될 수 있다.For example, the contact sensor (111) may include at least one of a temperature sensor, a heart rate sensor, a blood pressure sensor, a respiration rate sensor, a skin tension sensor, an electrocardiogram sensor, an oxygen saturation sensor, a galvanic skin response sensor, an accelerometer, a gyroscope, and an electromyography sensor.
다른 예를 들어, 비접촉식 센서(112)에는 카메라, CCTV, 영상 센서(Imaging sensor), 적외선 센서(Infrared sensor), 레이더 센서(Radar sensor), LiDAR 센서(Light Detection and Ranging sensor), 초음파 센서(Ultrasonic sensor), 4D 레이더 센서(4D radar sensor), 마이크로파 센서(Microwave sensor), 광학 센서(Optical sensor), 레이저 도플러 센서(Laser Doppler sensor), 위치 센서(Position sensor), 로봇(Robot) 중 적어도 하나가 포함될 수 있다.For another example, the non-contact sensor (112) may include at least one of a camera, a CCTV, an imaging sensor, an infrared sensor, a radar sensor, a LiDAR sensor (Light Detection and Ranging sensor), an ultrasonic sensor, a 4D radar sensor, a microwave sensor, an optical sensor, a laser Doppler sensor, a position sensor, and a robot.
다만, 본 발명에서 센싱부(110)를 구성하는 센서의 종류는 특별한 제한이 없으며, 각각의 센서에 의해 정의되는 기능이 구현되기만 하면 족하다.However, in the present invention, there is no particular limitation on the type of sensor constituting the sensing unit (110), and it is sufficient as long as the function defined by each sensor is implemented.
다음으로, 통신부(120)는 관제 시스템(또는 관제 서버, 또는 관제실, 1000), 장치(또는 디바이스), 외부 서버 및 하나 이상의 네트워크 등과 무선 또는 유선 네트워크를 통해 연결되어, 자해 및 타해 사고 조기 예측 시스템(100)의 동작에 필요한 전반적인 데이터 및 정보를 수신 또는 송신하도록 이루어질 수 있다.Next, the communication unit (120) may be connected to a control system (or control server, or control room, 1000), a device (or device), an external server, and one or more networks via a wireless or wired network to receive or transmit overall data and information necessary for the operation of the self-harm and other-harm accident early prediction system (100).
여기에서, 관제 시스템(1000)은 특정 병원(예를 들어, 정신 병원) 내 위치하는 환자들을 관제하도록 이루어지며, 자해 및 타해 사고 조기 예측 시스템(100)에서 제공되는 다양한 정보(예를 들어, 위험 환자(U1)에 대한 대응 조치 정보)를 이용하여 환자들을 관리할 수 있다. 다만, 본 발명에서는 설명의 편의를 위하여, “병원”을 중심으로 설명하나, 반드시 이에 한정되는 것은 아니다(예를 들어, 대중교통, 회사, 공공기관 등 다양한 곳에서 활용 가능함).Here, the control system (1000) is configured to control patients located in a specific hospital (e.g., a mental hospital), and can manage patients using various information (e.g., information on response measures for at-risk patients (U1)) provided by the self-harm and harm to others early prediction system (100). However, in the present invention, for the convenience of explanation, the explanation is centered on a “hospital,” but is not necessarily limited thereto (e.g., it can be utilized in various places such as public transportation, companies, and public institutions).
또한, 통신부(120)는 센싱부(110)로부터 센싱된 센싱 데이터를 수신할 수 있다. 예를 들어, 통신부(120)는 센싱부(110)로부터 센싱된 위험 환자(U1)의 생체 정보, 위치 정보, 위험 환자(U1)가 촬영된 영상 등을 수신할 수 있다.In addition, the communication unit (120) can receive sensing data sensed from the sensing unit (110). For example, the communication unit (120) can receive biometric information, location information, and images of the at-risk patient (U1) sensed from the sensing unit (110).
나아가, 통신부(120)는 통신하는 디바이스의 통신 규격에 따라 다양한 통신 방식을 지원할 수 있다.Furthermore, the communication unit (120) can support various communication methods depending on the communication standards of the communicating device.
예를 들어, 통신부(120)는 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication), 블루투스(Bluetooth™RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 통신 대상과 통신하도록 이루어질 수 있다.For example, the communication unit (120) may be configured to communicate with a communication target using at least one of the following technologies: WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), 5G (5th Generation Mobile Telecommunication), Bluetooth™ (Bluetooth™), RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra-Wideband), ZigBee, NFC (Near Field Communication), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus).
한편, 저장부(130)는 “데이터베이스(DB, Database)” 또는 “메모리(memory)”로도 명명될 수 있으며, 본 발명과 관련된 다양한 정보를 저장하도록 이루어질 수 있다. 본 발명에서 저장부(130)는 자해 및 타해 사고 조기 예측 시스템(100) 자체에 구비될 수 있다. 또한, 저장부(130)의 적어도 일부는 클라우드 서버(또는 클라우드 저장소)로 구성될 수 있다. 즉, 저장부(130)는 본 발명에 따른 자해 및 타해 사고 조기 예측 시스템(100)의 동작에 필요한 정보(또는 데이터)가 저장되는 공간이면 충분하며, 물리적인 공간에 제약은 없는 것으로 이해될 수 있다.Meanwhile, the storage unit (130) may also be called a “database (DB)” or a “memory” and may be configured to store various information related to the present invention. In the present invention, the storage unit (130) may be provided in the self-harm and other-harm accident early prediction system (100) itself. In addition, at least a part of the storage unit (130) may be configured as a cloud server (or cloud storage). That is, the storage unit (130) may be sufficient as a space where information (or data) necessary for the operation of the self-harm and other-harm accident early prediction system (100) according to the present invention is stored, and it may be understood that there are no restrictions on the physical space.
저장부(130)에는 위험 환자(U1)와 관련된 다양한 정보가 저장될 수 있다. 예를 들어, 위험 환자(U1)와 관련된 다양한 정보에는, 환자의 얼굴, 음성, 이름, 성별, 연령, 성향(또는 성격), 질환(또는 질병), 질환 발생일, 치료(또는 진료) 이력, 직업, 관심사, 취미 등이 포함될 수 있다.The storage unit (130) may store various information related to the at-risk patient (U1). For example, various information related to the at-risk patient (U1) may include the patient's face, voice, name, gender, age, disposition (or personality), disease (or illness), disease occurrence date, treatment (or care) history, occupation, interests, hobbies, etc.
한편, 저장부(130)에는 위험 환자(U1)의 자해 또는 타해 사고와 관련된 생체 정보, 행동 정보 및 시선 추적 정보 중 적어도 하나에 대한 정보가 매칭되어 저장될 수 있다.Meanwhile, in the storage unit (130), information on at least one of biometric information, behavioral information, and eye tracking information related to self-harm or harm to others of a dangerous patient (U1) can be matched and stored.
먼저 타해 사고의 경우, 위험 환자(U1) 외에도, 타해 사고의 대상이 되는 타해 대상자(예를 들어, 의료진, 다른 환자 등) 및 특정 객체(예를 들어, 장비, 기구, 사물, 물건 등) 중 적어도 하나가 존재할 수 있다. 이와 관련하여, 제어부(140)는 위험 환자(U1)와 타해 대상자와의 상호 관계 및 생체 징후를 연동 분석하여, 위험 환자(U1)와 타해 대상자의 생체 정보, 행동 정보 및 시선 추적 정보 중 적어도 하나를 추출(또는 수집)할 수 있다.First, in the case of a third-party accident, in addition to the dangerous patient (U1), there may be at least one of the third-party victims (e.g., medical staff, other patients, etc.) and specific objects (e.g., equipment, instruments, objects, things, etc.) that are the targets of the third-party accident. In this regard, the control unit (140) may analyze the relationship and vital signs between the dangerous patient (U1) and the third-party victims to extract (or collect) at least one of the vital information, behavioral information, and eye tracking information of the dangerous patient (U1) and the third-party victims.
예를 들어, 도 3a에 도시된 것과 같이, 제어부(140)는 타해 사고와 관련된 위험 행동이 발생하기 전에, 센싱부(110)로부터 센싱되어 저장(또는 기록)된 위험 환자(U1)의 생체 정보(ex: “체온 : 38°C”, “맥박 : 100 bpm”, “혈압 : 140/90 mmHg”, “호흡률 : 22 breaths per minute”, 311) 및 타해 대상자(U2)의 생체 정보(ex: “체온 : 37.5°C”, “맥박 : 90 bpm”, “혈압 : 120/80 mmHg”, “호흡률 : 19 breaths per minute”, 321)를 추출할 수 있다.For example, as illustrated in FIG. 3a, the control unit (140) can extract biometric information (ex: “body temperature: 38°C”, “pulse: 100 bpm”, “blood pressure: 140/90 mmHg”, “respiratory rate: 22 breaths per minute”, 311) of a dangerous patient (U1) and biometric information (ex: “body temperature: 37.5°C”, “pulse: 90 bpm”, “blood pressure: 120/80 mmHg”, “respiratory rate: 19 breaths per minute”, 321) of a target of harm (U2) before a dangerous behavior related to a harm accident occurs.
또한, 제어부(140)는 인공지능 모델(또는 인공지능 알고리즘, 150)을 기반으로, 위험 환자(U1)의 타해 사고와 관련된 영상(310)을 분석하여, 위험 환자(U1)의 타해 사고와 관련된 위험 행동이 발생하기 전의 행동 정보 및 시선 추적 정보를 수집할 수 있다. 예를 들어, 제어부(140)는 분석 결과를 기반으로, 위험 환자(U1)의 타해 사고와 관련된 위험 행동이 발생하기 전의 행동 정보(ex: “오른 손을 지속적으로 드는 행동을 취함”, “양발과 양손을 모두 떨고 있음”, 312), 시선 추적 정보(ex: “응시 시간 : 5초 이상”, “응시 대상 : 초록색 옷을 입은 사람”, “시선 이동 경로 : 응시 대상의 얼굴에 고정”, “주시 빈도 : 응시 대상에만 집중, 다른 곳은 주시하지 않음”, 313) 및 타해 대상자(U2)의 행동 정보(ex: “양손으로 검정색 옷을 입은 사람에게 제스처를 취함”, 322), 시선 추적 정보(ex: “응시 시간 : 2초 미만”, “응시 대상 : 검정색 옷을 입은 사람”, “시선 이동 경로 : 응시 대상을 한번 살펴본 후, 주변 환경을 살펴봄”, “주시 빈도 : 주변 환경의 주시 빈도가 높음”, 323)를 추출할 수 있다.In addition, the control unit (140) can analyze the video (310) related to the accident involving a dangerous patient (U1) based on an artificial intelligence model (or artificial intelligence algorithm, 150) to collect behavioral information and eye tracking information before the occurrence of the dangerous behavior related to the accident involving a dangerous patient (U1). For example, the control unit (140) can extract, based on the analysis results, behavioral information (ex: “Continuously raises the right hand”, “Shakes both feet and both hands”, 312) before a dangerous behavior related to a harm accident of a dangerous patient (U1) occurs, eye tracking information (ex: “Gaze time: 5 seconds or more”, “Gaze target: Person wearing green clothes”, “Gaze movement path: Fixed on the face of the gaze target”, “Gaze frequency: Focuses only on the gaze target, does not gaze elsewhere”, 313) and behavioral information of a harm target (U2) (ex: “Makes a gesture with both hands to a person wearing black clothes”, 322), eye tracking information (ex: “Gaze time: less than 2 seconds”, “Gaze target: Person wearing black clothes”, “Gaze movement path: Looks at the gaze target once and then looks at the surrounding environment”, “Gaze frequency: High gaze frequency of the surrounding environment”, 323).
다음으로 자해 사고의 경우, 위험 환자(U1) 외에도, 특정 객체(예를 들어, 사람, 장비, 기구, 사물, 물건 등)가 존재할 수 있다. 이와 관련하여, 제어부(140)는 특정 객체가 존재하는 경우, 위험 환자(U1)와 특정 객체와의 상호 관계를 연동 분석하여, 위험 환자(U1)의 생체 정보, 행동 정보 및 시선 추적 정보 중 적어도 하나를 추출할 수 있다.Next, in the case of a self-harm incident, in addition to the at-risk patient (U1), a specific object (e.g., a person, equipment, apparatus, object, thing, etc.) may exist. In this regard, if a specific object exists, the control unit (140) may analyze the relationship between the at-risk patient (U1) and the specific object to extract at least one of the biometric information, behavioral information, and eye tracking information of the at-risk patient (U1).
예를 들어, 도 3b에 도시된 것과 같이, 제어부(140)는 자해 사고와 관련된 위험 행동이 발생하기 전에, 센싱부(110)로부터 센싱되어 저장(또는 기록)된 위험 환자(U1)의 생체 정보(ex: “체온 : 38°C”, “맥박 : 100 bpm”, “혈압 : 140/90 mmHg”, “호흡률 : 24 breaths per minute”, 331)를 추출할 수 있다.For example, as illustrated in FIG. 3b, the control unit (140) can extract biometric information (ex: “body temperature: 38°C”, “pulse: 100 bpm”, “blood pressure: 140/90 mmHg”, “respiratory rate: 24 breaths per minute”, 331) of a dangerous patient (U1) sensed and stored (or recorded) by the sensing unit (110) before a dangerous behavior related to self-harm occurs.
또한, 제어부(140)는 인공지능 모델을 기반으로, 위험 환자(U1)의 자해 사고와 관련된 영상(330)을 분석하여, 위험 환자(U1)의 자해 사고와 관련된 위험 행동이 발생하기 전의 행동 정보 및 시선 추적 정보를 수집할 수 있다. 예를 들어, 제어부(140)는 분석 결과를 기반으로, 위험 환자(U1)의 자해 사고와 관련된 위험 행동이 발생하기 전의 행동 정보(ex: “가만히 앉아서 침묵한 상태로 몸을 떨고 있음”, “응시 대상을 주시하다가 고개를 돌리며 주변을 계속 탐색”, 332) 및 시선 추적 정보(ex: “응시 시간 : 3초 이상”, “응시 대상 : 하얀색 줄”, “시선 이동 경로 : 응시 대상을 한번 살펴본 후, 주변 환경을 살펴봄”, “주시 빈도 : 3~5초 간격으로 반복”, 333)를 추출할 수 있다.In addition, the control unit (140) can analyze the video (330) related to the self-harm incident of the at-risk patient (U1) based on the artificial intelligence model, and collect behavioral information and eye tracking information prior to the occurrence of the dangerous behavior related to the self-harm incident of the at-risk patient (U1). For example, the control unit (140) can extract behavioral information (ex: “sitting still and shaking in a silent state”, “looking at the target of gaze and then turning the head and continuously searching the surroundings”, 332) and eye tracking information (ex: “gaze time: 3 seconds or more”, “gaze target: white line”, “gaze movement path: looking at the target of gaze once and then looking at the surroundings”, “gaze frequency: repeating at 3 to 5 second intervals”, 333) prior to the occurrence of the dangerous behavior related to the self-harm incident of the at-risk patient (U1) based on the analysis result.
다만, 위험 환자(U1)의 자해 또는 타해 사고와 관련된 생체 정보, 행동 정보 및 시선 추적 정보가 반드시 이에 한정되는 것은 아니다. 예를 들어, 저장부(130)에는 i) 위험 환자(U1)의 평상시(또는 평균) 생체 정보, 행동 정보 및 시선 추적 정보와, ii) 위험 환자(U1)의 자해 또는 타해 사고와 관련된 위험 행동이 발생한 직후의 생체 정보, 행동 정보 및 시선 추적 정보 중 적어도 하나가 더 포함될 수 있다.However, the biometric information, behavioral information, and eye tracking information related to self-harm or harm to others of the at-risk patient (U1) are not necessarily limited thereto. For example, the storage unit (130) may further include at least one of i) normal (or average) biometric information, behavioral information, and eye tracking information of the at-risk patient (U1), and ii) biometric information, behavioral information, and eye tracking information immediately after the occurrence of a risky behavior related to self-harm or harm to others of the at-risk patient (U1).
나아가, 저장부(130)에는 자해 및 타해 사고 조기 예측 시스템(100)에 등록된 위험 환자(U1) 외에, 다른 환자(또는 위험 환자 또는 사용자)들의 자해 또는 타해 사고와 관련된 생체 정보, 행동 정보 및 시선 추적 정보 중 적어도 하나에 대한 정보가 매칭되어 저장될 수 있다.Furthermore, in the storage unit (130), in addition to the at-risk patient (U1) registered in the self-harm and harm-to-other early prediction system (100), information on at least one of biometric information, behavioral information, and eye tracking information related to self-harm or harm-to-other of other patients (or at-risk patients or users) can be matched and stored.
이 경우, 다른 환자들의 생체 정보, 행동 정보 및 시선 추적 정보 중 적어도 하나와 관련된 정보는, 예를 들어, i) 자해 및 타해 사고 조기 예측 시스템(100)과 연동된 서버(예를 들어, 병원(또는 의료 기관) 서버)로부터 수집된 정보이거나, ii) 외부 서버(또는 웹 사이트)로부터 수집된 자해 또는 타해 사고와 관련된 영상을 분석하여 수집(또는 특정)된 정보이거나, iii) 외부 기관(예를 들어, 의료 기관, 연구 기관 등)으로부터 수집된 정보이거나, iv) 자해 및 타해 사고와 관련된 사고 기록으로부터 수집된 정보 중 적어도 하나에 해당할 수 있다.In this case, information related to at least one of the biometric information, behavioral information, and eye tracking information of other patients may correspond to at least one of, for example, i) information collected from a server (e.g., a hospital (or medical institution) server) linked to the self-harm and harm-to-other accident early prediction system (100), ii) information collected (or specified) by analyzing a video related to self-harm or harm-to-other accident collected from an external server (or website), iii) information collected from an external organization (e.g., a medical institution, a research institute, etc.), or iv) information collected from an accident record related to self-harm and harm-to-other accident.
일 예로서, 본 발명에서는 센싱부(110)로부터 센싱된 영상에, 자해 및 타해 사고 조기 예측 시스템(100)에 등록된 위험 환자(U1)가 아닌 새로운 위험 환자가 존재할 경우, 위험 환자와 다른 환자들의 생체 정보, 행동 정보 및 시선 추적 정보 중 적어도 하나와 관련된 정보를 이용하여, 상기 새로운 위험 환자의 자해 또는 타해 사고와 관련된 위험 행동의 징후를 예측할 수 있다.As an example, in the present invention, if a new at-risk patient other than a at-risk patient (U1) registered in the early prediction system for self-harm and harm to others (100) exists in an image sensed from a sensing unit (110), it is possible to predict signs of dangerous behavior related to self-harm or harm to others of the new at-risk patient by using information related to at least one of the biometric information, behavioral information, and eye tracking information of the at-risk patient and other patients.
즉, 본 발명에서는 위험 환자(U1)의 자해 또는 타해 사고와 관련된 생체 정보, 행동 정보 및 시선 추적 정보와, 다른 환자들의 자해 또는 타해 사고와 관련된 생체 정보, 행동 정보 및 시선 추적 정보를 이용하여 데이터베이스를 구축할 수 있다.That is, in the present invention, a database can be constructed using biometric information, behavioral information, and eye tracking information related to self-harm or harm to others of a patient at risk (U1) and biometric information, behavioral information, and eye tracking information related to self-harm or harm to others of other patients.
더 나아가, 저장부(130)에는 본 발명에 따른 자해 및 타해 사고 조기 예측 시스템(100)의 동작에 필요한 데이터들 및 명령어들이 저장될 수 있다. 예를 들어, 저장부(130)에는 인공지능 모델(150)의 학습에 필요한 학습 데이터 세트가 저장될 수 있으며, 제어부(140)에 의해 처리되거나 처리될 예정인 데이터, 소프트웨어(Software), 펌웨어(Firmware), 프로그램 코드(Source Code) 및 명령어들이 더 저장될 수 있다.Furthermore, data and commands required for the operation of the self-harm and harm to others accident early prediction system (100) according to the present invention may be stored in the storage unit (130). For example, a learning data set required for learning an artificial intelligence model (150) may be stored in the storage unit (130), and data, software, firmware, program code (Source Code), and commands processed or scheduled to be processed by the control unit (140) may be further stored.
한편, 제어부(150)는 “프로세서(processor)”로도 명명될 수 있으며, 본 발명과 관련된 자해 및 타해 사고 조기 예측 시스템(100)의 전반적인 동작을 제어하는 역할을 수행할 수 있다. 제어부(140)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나, 사용자에게 적절한 정보 및 기능을 제공 또는 처리하기 위한 일련의 데이터 처리를 수행할 수 있다.Meanwhile, the control unit (150) may also be called a “processor” and may play a role in controlling the overall operation of the self-harm and other-harm accident early prediction system (100) related to the present invention. The control unit (140) may process signals, data, information, etc. input or output through the components discussed above, or may perform a series of data processing to provide or process appropriate information and functions to the user.
제어부(140)는 인공지능 모델(150)이 위험 환자(U1)의 자해 또는 타해 사고와 관련된 위험 행동의 징후를 예측하도록, 학습 데이터(또는 학습 데이터 세트)를 이용하여 인공지능 모델(150)을 학습시킬 수 있다.The control unit (140) can train the artificial intelligence model (150) using learning data (or a learning data set) to predict signs of risky behavior related to self-harm or harm to others of a dangerous patient (U1).
인공지능 모델(150)의 학습 데이터는 다양할 수 있다. 위에서 살펴본 것과 같이, 제어부(140)는 저장부(130)에 저장된 위험 환자(U1)의 자해 또는 타해 사고와 관련된 생체 정보, 행동 정보 및 시선 추적 정보를 학습 데이터로 하여 인공지능 모델(150)을 학습시킬 수 있다. 다른 예로서, 제어부(140)는 저장부(130)에 저장된 다른 환자들의 자해 또는 타해 사고와 관련된 생체 정보, 행동 정보 및 시선 추적 정보를 학습 데이터로 하여 인공지능 모델(150)을 학습시킬 수 있다.The learning data of the artificial intelligence model (150) may be diverse. As described above, the control unit (140) may train the artificial intelligence model (150) using the biometric information, behavioral information, and eye tracking information related to self-harm or harm to others of a dangerous patient (U1) stored in the storage unit (130) as learning data. As another example, the control unit (140) may train the artificial intelligence model (150) using the biometric information, behavioral information, and eye tracking information related to self-harm or harm to others of other patients stored in the storage unit (130) as learning data.
이하에서는 위에서 살펴본 인공지능 기반의 자해 및 타해 사고 조기 예측 시스템의 구성에 근거하여, 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법에 대하여 보다 구체적으로 설명하도록 한다. 도 4는 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법을 설명하기 위한 흐름도이고, 도 5a, 도 5b, 도 6, 도 7, 도 8 및 도 9는 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법을 설명하기 위한 개념도들이다.Hereinafter, based on the configuration of the AI-based self-harm and other-harm accident early prediction system discussed above, the AI-based self-harm and other-harm accident early prediction method according to the present invention will be described in more detail. FIG. 4 is a flowchart for explaining the AI-based self-harm and other-harm accident early prediction method according to the present invention, and FIGS. 5a, 5b, 6, 7, 8, and 9 are conceptual diagrams for explaining the AI-based self-harm and other-harm accident early prediction method according to the present invention.
한편, 본 발명에서는 적어도 하나의 센서로부터 센싱된 위험 환자에 대한 센싱 데이터를 수신하는 과정이 진행될 수 있다(S410, 도 4 참조).Meanwhile, in the present invention, a process of receiving sensing data on a risk patient sensed from at least one sensor may be performed (S410, see FIG. 4).
제어부(140)는 센싱부(110)를 제어하여, 위험 환자에 대한 센싱 데이터를 수신할 수 있다. 여기에서 센싱 데이터는, 위험 환자(U1)의 생체 정보 및 위험 환자에 대하여 촬영된 영상을 포함할 수 있다. 예를 들어, 도 5a에 도시된 것과 같이, 제어부(140)는 센싱부(110)를 제어하여, 센싱부(110)에 포함된 적어도 하나의 센서로부터 센싱된 위험 환자(U1)에 대하여 촬영된 영상(510) 및 위험 환자의 생체 정보(511)를 수신(또는 획득 또는 수집)할 수 있다.The control unit (140) can control the sensing unit (110) to receive sensing data about a risk patient. Here, the sensing data can include biometric information of the risk patient (U1) and an image captured of the risk patient. For example, as illustrated in FIG. 5A, the control unit (140) can control the sensing unit (110) to receive (or acquire or collect) an image (510) captured of the risk patient (U1) and biometric information (511) of the risk patient sensed by at least one sensor included in the sensing unit (110).
이 경우, 위험 환자(U1)의 생체 정보(511)는, 위험 환자(U1)의 신체에 접촉된 접촉식 센서(111)로부터 센싱된 정보일 수 있다. 이러한 생체 정보(511)에는 위험 환자(U1)의 체온, 맥박, 혈압, 호흡률 및 피부 긴장도 중 적어도 하나를 포함할 수 있다. 다만, 생체 정보는 반드시 이에 한정되는 것은 아니며, 언급한 것 외에도 다양한 정보(예를 들어, 혈중 산소 포화도, 심전도, 혈당 수치, 체중, 신체 활동량, 수면 패턴 등)를 더 포함할 수 있다.In this case, the biometric information (511) of the at-risk patient (U1) may be information sensed from a contact sensor (111) in contact with the body of the at-risk patient (U1). The biometric information (511) may include at least one of the body temperature, pulse, blood pressure, respiratory rate, and skin tension of the at-risk patient (U1). However, the biometric information is not necessarily limited thereto, and may further include various information (e.g., blood oxygen saturation, electrocardiogram, blood sugar level, weight, physical activity level, sleep pattern, etc.) in addition to the above.
또한, 위험 환자(U1)에 대하여 촬영된 영상(510)은 비접촉식 센서(112)로부터 센싱된 정보일 수 있다. 이때, 비접촉식 센서(112)로부터 센싱되는 정보는, 상기 영상(510) 외에도 위험 환자(U1)의 위치 정보 및 생체 정보(또는 생체 징후), 위험 환자에 대하여 촬영된 4D 레이더 등을 더 포함할 수 있다. 즉, 본 발명에서는 접촉식 센서(111)뿐만 아니라, 비접촉식 센서(112)를 통해 위험 환자(U1)의 생체 정보를 센싱하는 것도 가능하도록 이루어질 수 있다.In addition, the image (510) captured of the at-risk patient (U1) may be information sensed from a non-contact sensor (112). At this time, the information sensed from the non-contact sensor (112) may further include, in addition to the image (510), location information and biometric information (or biometric signs) of the at-risk patient (U1), 4D radar captured of the at-risk patient, etc. That is, in the present invention, it may be possible to sense biometric information of the at-risk patient (U1) not only through the contact sensor (111) but also through the non-contact sensor (112).
이와 관련하여, 본 발명에서는 제어부(140)가 센싱부(110)의 제어를 통해 센싱 데이터를 수신하는 것 외에도, 다양한 방식을 이용하여 위험 환자(U1)와 관련된 센싱 데이터를 수신할 수 있다.In this regard, in the present invention, in addition to the control unit (140) receiving sensing data through the control of the sensing unit (110), sensing data related to a patient at risk (U1) can be received using various methods.
일 예로서, 제어부(140)는 자해 및 타해 사고 조기 예측 시스템(100)에 기 설정된 기준에 근거하여, 센싱부(110)로부터 위험 환자(U1)에 대한 센싱 데이터를 수신할 수 있다. 여기에서 기 설정된 기준은, i) 위험 환자(U1)의 생체 정보 중 적어도 하나의 요소가 기 설정된 위험 수치(예를 들어, 맥박 100 bpm) 이상인 경우, ii) 위험 환자(U1)가 센싱된 공간(또는 위치)에 일정 수(예를 들어, 10명) 이상의 사람들이 존재하는 경우, iii) 위험 환자(U1)의 신체에 접촉된 접촉식 센서(111)가 인식이 되지 않는 경우 중 적어도 하나를 포함할 수 있다.As an example, the control unit (140) may receive sensing data on a risk patient (U1) from the sensing unit (110) based on criteria set in the self-harm and harm to others early prediction system (100). Here, the criteria set in advance may include at least one of: i) when at least one element of the biometric information of the risk patient (U1) is equal to or higher than a preset risk value (e.g., pulse 100 bpm), ii) when a certain number (e.g., 10) or more people exist in the space (or location) where the risk patient (U1) is sensed, iii) when the contact sensor (111) in contact with the body of the risk patient (U1) is not recognized.
다만, 본 발명에서는 설명의 편의를 위하여, 센싱 데이터가 수신되는 방식을 그 어느 하나로 한정하지 않는다.However, for convenience of explanation, the present invention does not limit the method by which sensing data is received to any one.
즉, 제어부(140)는 다양한 방식을 이용하여 센싱 데이터를 수신함으로써, 보다 안정적이고 정확한 실시간 모니터링이 가능해지며, 더 나아가, 환경의 변화나 위험 환자(U)의 상태 변화에도 유연하게 대응할 수 있어, 신속하고 효과적인 위험 관리가 가능하다.That is, the control unit (140) receives sensing data using various methods, thereby enabling more stable and accurate real-time monitoring, and furthermore, it can flexibly respond to changes in the environment or changes in the condition of a patient at risk (U), thereby enabling rapid and effective risk management.
나아가, 제어부(140)는 위험 환자에 대하여 촬영된 영상(510)에 위험 환자(U1) 외에, 위험 환자(U1)와 근접 공간에 위치한 다른 특정 대상자(예를 들어, 환자, 의료진 등)가 포함되어 있을 경우, 다른 대상에 대한 센싱 데이터를 함께 수신할 수 있다. 예를 들어, 제어부(140)는 센싱부(110)를 제어하여 다른 대상(U2)에 대한 생체 정보(ex: “체온 : 37°C”, “맥박 : 90 bpm”, “혈압 : 120/80 mmHg”, “호흡률 : 20 breaths per minute”, 521)를 수신할 수 있다.Furthermore, if the image (510) taken of the dangerous patient includes, in addition to the dangerous patient (U1), other specific subjects (e.g., patients, medical staff, etc.) located in a close space with the dangerous patient (U1), the control unit (140) can receive sensing data for the other subjects together. For example, the control unit (140) can control the sensing unit (110) to receive biometric information (ex: “body temperature: 37°C”, “pulse: 90 bpm”, “blood pressure: 120/80 mmHg”, “respiratory rate: 20 breaths per minute”, 521) for the other subject (U2).
이 경우, 본 발명에서 특정 대상자는 “타해 대상자”로도 명명될 수 있으며, 이하에서는 설명의 편의를 위하여, 두 용어를 별도로 구분하지 않고 혼용하여 사용하도록 한다.In this case, a specific target in the present invention may also be referred to as a “target of another,” and for convenience of explanation, the two terms will be used interchangeably without distinguishing between them hereinafter.
한편, 본 발명에서는 자해 또는 타해 사고와 관련된 위험 행동의 징후를 예측하도록 학습된 인공지능 모델을 이용하여, 센싱 데이터를 분석하는 과정이 진행될 수 있다(S420, 도 4 참조).Meanwhile, in the present invention, a process of analyzing sensing data can be performed using an artificial intelligence model learned to predict signs of risky behavior related to self-harm or harm to others (S420, see FIG. 4).
위에서 살펴본 것과 같이, 제어부(140)는 저장부(130)에 저장된 자해 또는 타해 사고와 관련된 다양한 데이터들을 학습 데이터로 하여 인공지능 모델(150)을 학습시킬 수 있다.As discussed above, the control unit (140) can train an artificial intelligence model (150) using various data related to self-harm or harm to others stored in the storage unit (130) as learning data.
제어부(140)는 기 학습된 인공지능 모델(150)을 이용하여, 센싱 데이터에 대한 분석을 수행할 수 있다. 보다 구체적으로, 도 5a에 도시된 것과 같이, 제어부(140)는 기 학습된 인공지능 모델(150)을 이용하여, 위험 환자(U1)에 대하여 촬영된 영상(510)을 분석할 수 있다.The control unit (140) can perform analysis on sensing data using a pre-learned artificial intelligence model (150). More specifically, as shown in FIG. 5a, the control unit (140) can analyze an image (510) captured of a dangerous patient (U1) using a pre-learned artificial intelligence model (150).
먼저, 제어부(140)는 인공지능 모델(150)을 이용한 영상(510) 분석을 통해 위험 환자(U1)의 행동을 분석할 수 있다. First, the control unit (140) can analyze the behavior of a patient at risk (U1) by analyzing an image (510) using an artificial intelligence model (150).
일 예로서, 영상 데이터는 연속적인 프레임으로 구성되므로, 제어부(140)는 영상(510)을 프레임 단위로 추출할 수 있다. 그리고, 제어부(140)는 인공지능 모델(150)을 이용하여, 각 프레임에서 위험 환자(U1)의 주요 관절 위치(또는 키포인트)를 검출하고, 검출된 키포인트를 기반으로 위험 환자(U1)의 행동을 분석할 수 있다. 키포인트는 위험 환자(U1)의 자세 또는 제스처 등을 나타내는 좌표 정보로, 이를 기반으로 위험 환자(U1)의 행동을 분석할 수 있다.As an example, since the image data is composed of continuous frames, the control unit (140) can extract the image (510) in frame units. Then, the control unit (140) can detect the main joint positions (or key points) of the at-risk patient (U1) in each frame using the artificial intelligence model (150), and analyze the behavior of the at-risk patient (U1) based on the detected key points. The key points are coordinate information indicating the posture or gestures of the at-risk patient (U1), and the behavior of the at-risk patient (U1) can be analyzed based on these.
다른 예로서, 제어부(140)는 인공지능 모델(150)을 이용하여, 영상(510)의 각 프레임에서 위험 환자(U1)의 위치를 검출하고, 연속된 프레임 간에 위험 환자(U1)의 움직임을 추적할 수 있다. 그리고, 제어부(140)는 인공지능 모델(150)을 이용하여, 추적된 위험 환자(U1)의 움직임을 분석하고 특정 행동(예를 들어, 몸을 움켜쥠, 흔들림, 특정 자세 등)을 인식할 수 있다. 나아가, 제어부(140)는 인식된 특정 행동으로부터 특징 벡터(예를 들어, 행동의 종류, 지속 시간, 빈도 등)를 추출하고, 추출된 특징 벡터(feature vector)를 기반으로 위험 환자(U1)의 행동 패턴을 분석할 수 있다.As another example, the control unit (140) can detect the position of the at-risk patient (U1) in each frame of the image (510) and track the movement of the at-risk patient (U1) between consecutive frames using the artificial intelligence model (150). Then, the control unit (140) can analyze the movement of the tracked at-risk patient (U1) and recognize a specific behavior (e.g., grasping the body, shaking, a specific posture, etc.) using the artificial intelligence model (150). Furthermore, the control unit (140) can extract a feature vector (e.g., type, duration, frequency, etc. of the behavior) from the recognized specific behavior and analyze the behavior pattern of the at-risk patient (U1) based on the extracted feature vector.
다음으로, 제어부(140)는 위험 환자(U1)에 대한 행동 분석 결과를 이용하여, 위험 환자(U1)의 행동 정보를 추출할 수 있다. 예를 들어, 도 5a에 도시된 것과 같이, 제어부(140)는 위험 환자(U1)의 행동 분석 결과를 기반으로, 위험 환자(U1)의 행동 정보(ex: “오른손을 지속적으로 드는 행동을 취함, 512)를 추출(또는 특정)할 수 있다.Next, the control unit (140) can extract behavioral information of the at-risk patient (U1) by using the behavioral analysis results for the at-risk patient (U1). For example, as illustrated in Fig. 5a, the control unit (140) can extract (or specify) behavioral information (ex: “taking a behavior of continuously raising the right hand, 512) of the at-risk patient (U1) based on the behavioral analysis results of the at-risk patient (U1).
나아가, 제어부(140)는 영상(510)에 포함된 특정 대상자(U2)의 행동을 분석하여, 특정 대상자(U2)의 행동 정보를 추출할 수 있다. 예를 들어, 제어부(140)는 인공지능 모델(150)을 이용하여 특정 대상자(U2)의 행동을 분석하고, 분석 결과를 기반으로 특정 대상자(U2)의 행동 정보(ex: “양손으로 검정색 옷을 입은 사람에게 제스처를 취함, 522)를 추출할 수 있다.In addition, the control unit (140) can analyze the behavior of a specific subject (U2) included in the image (510) to extract behavior information of the specific subject (U2). For example, the control unit (140) can analyze the behavior of a specific subject (U2) using an artificial intelligence model (150) and extract behavior information of the specific subject (U2) (ex: “Making a gesture with both hands toward a person wearing black clothes, 522) based on the analysis result.
한편, 제어부(140)는 인공지능 모델(또는 시선 추적 알고리즘 또는 시전 추적 알고리즘을 기반으로 학습된 인공지능 모델, 150)을 이용하여, 영상(510)으로부터 위험 환자(U1)의 응시 및 주시 패턴을 분석할 수 있다.Meanwhile, the control unit (140) can analyze the gaze and gaze pattern of a risk patient (U1) from the image (510) using an artificial intelligence model (or an artificial intelligence model learned based on a gaze tracking algorithm or a vision tracking algorithm, 150).
일 예로서, 제어부(140)는 인공지능 모델(150)을 이용하여, 영상(510)으로부터 위험 환자(U1)의 눈동자 위치를 검출하고, 검출된 눈동자 위치를 기반으로 위험 환자(U1)의 시선의 방향을 추적할 수 있다. 그리고, 제어부(140)는 추적된 시선의 방향을 이용해서 위험 환자(U1)의 응시 및 주시 패턴을 결정할 수 있다.As an example, the control unit (140) can detect the eye position of a risk patient (U1) from an image (510) using an artificial intelligence model (150), and track the direction of the gaze of the risk patient (U1) based on the detected eye position. Then, the control unit (140) can determine the gaze and fixation pattern of the risk patient (U1) using the tracked direction of the gaze.
그리고, 제어부(140)는 위험 환자의 응시 및 주시 패턴에 대한 분석 결과를 이용하여, 위험 환자(U1)의 시선 추적 정보를 추출할 수 있다. 예를 들어, 도 5b에 도시된 것과 같이, 제어부(140)는 상기 결정된 위험 환자(U1)의 응시 및 주시 패턴에 근거하여, 위험 환자(U1)의 시선 추적 정보(ex: “응시 시간 : 5초 이상”, “응시 대상 : 회색 옷을 입은 사람”, “시선 이동 경로 : 응시 대상의 얼굴에 고정”, “주시 빈도 : 응시 대상에만 집중”, 531)를 추출할 수 있다.And, the control unit (140) can extract the gaze tracking information of the risk patient (U1) by using the analysis result of the gaze and fixation pattern of the risk patient. For example, as illustrated in FIG. 5b, the control unit (140) can extract the gaze tracking information of the risk patient (U1) (ex: “Gaze time: 5 seconds or more”, “Gaze target: person wearing gray clothes”, “Gaze movement path: fixed on the face of the gaze target”, “Gaze frequency: focused only on the gaze target”, 531) based on the determined gaze and fixation pattern of the risk patient (U1).
여기에서, 시선 추적 정보는 위험 환자(U1)의 시선의 이동 경로, 응시 대상, 응시 시간 및 주시 빈도 중 적어도 하나를 포함할 수 있다. 이때, 응시 대상의 경우, 특정 대상자(U2) 외에도 특정 객체(예를 들어, 장비, 기구, 사물, 물건 등)가 응시 대상에 포함될 수 있다. 다만, 시선 추적 정보에 포함되는 정보는 반드시 이에 한정되는 것은 아니며, 언급한 것 외에도 다양한 정보(예를 들어, 시선의 방향, 시선 고정 시간, 주변 탐색 빈도, 응시 대상의 변경 횟수, 응시 시각적 정보, 응시 대상의 특성 등)가 더 포함될 수 있다.Here, the gaze tracking information may include at least one of the gaze movement path, gaze target, gaze time, and gaze frequency of the at-risk patient (U1). At this time, in the case of the gaze target, in addition to a specific subject (U2), a specific object (e.g., equipment, apparatus, object, thing, etc.) may be included in the gaze target. However, the information included in the gaze tracking information is not necessarily limited to this, and in addition to what is mentioned, various information (e.g., gaze direction, gaze fixation time, surrounding search frequency, number of changes in gaze target, gaze visual information, characteristics of gaze target, etc.) may be further included.
나아가, 제어부(140)는 인공지능 모델(150)을 이용하여 영상(510)에 포함된 특정 대상자(U2)의 응시 및 주시 패턴을 분석하고, 특정 대상자(U2)의 시선 추적 정보를 추출할 수 있다. 예를 들어, 도 5b에 도시된 것과 같이, 제어부(140)는 특정 대상자(U2)의 응시 및 주시 패턴에 대한 분석 결과를 통해, 특정 대상자(U2)의 시선 추적 정보(ex: “응시 시간 : 2초 미만”, “응시 대상 : 검정색 옷을 입은 사람”, “시선 이동 경로 : 응시 대상과 주변 환경을 번갈아가며 살펴봄”, “주시 빈도 : 주변 환경의 주시 빈도가 높음”, 541)를 추출할 수 있다.Furthermore, the control unit (140) can analyze the gaze and fixation pattern of a specific subject (U2) included in the image (510) using the artificial intelligence model (150), and extract the gaze tracking information of the specific subject (U2). For example, as illustrated in FIG. 5b, the control unit (140) can extract the gaze tracking information of the specific subject (U2) (ex: “Gaze time: less than 2 seconds”, “Gaze target: person wearing black clothes”, “Gaze movement path: looks at the gaze target and surrounding environment alternately”, “Gaze frequency: high gaze frequency of the surrounding environment”, 541) through the analysis result of the gaze and fixation pattern of the specific subject (U2).
한편, 제어부(140)는 영상(510)으로부터 위험 환자(U1)까지의 거리가 일정 거리 이상인 경우, 인공지능 알고리즘을 이용하여 위험 환자(U1)의 시선의 방향을 예측하고, 예측된 시선의 방향을 기반으로 위험 환자의 시선 추적 정보를 추출할 수 있다.Meanwhile, if the distance from the image (510) to the at-risk patient (U1) is greater than a certain distance, the control unit (140) can predict the direction of the gaze of the at-risk patient (U1) using an artificial intelligence algorithm and extract gaze tracking information of the at-risk patient based on the predicted direction of the gaze.
구체적으로, 제어부(140)는 센싱부(또는 비접촉식 센서, 110)로부터 영상(510)에서 위험 환자(U1)까지의 거리가 기 설정된 거리(ex: 2M) 이상인 경우, 헤드 포즈 추정(Head Pose Estimation) 알고리즘을 기반으로, 위험 환자(U1)의 시선의 방향을 예측할 수 있다. 다만, 상술한 기 설정된 거리의 수치는 일 예시에 불과할 뿐, 기 설정된 거리의 수치가 반드시 이에 한정되는 것은 아니며, 다양하게 변경될 수 있음은 당연하다.Specifically, the control unit (140) can predict the direction of the gaze of the patient at risk (U1) based on the head pose estimation algorithm when the distance from the sensing unit (or non-contact sensor, 110) to the patient at risk (U1) in the image (510) is greater than or equal to a preset distance (ex: 2M). However, the above-described preset distance value is only an example, and the preset distance value is not necessarily limited thereto, and it is obvious that it may be changed in various ways.
그리고, 제어부(140)는 예측된 시선의 방향을 이용하여, 위험 환자(U1)의 응시 및 주시 패턴을 결정하고, 이를 기반으로 위험 환자(U1)의 시선 추적 정보를 추출할 수 있다.And, the control unit (140) can determine the gaze and viewing pattern of the at-risk patient (U1) using the predicted gaze direction, and extract the gaze tracking information of the at-risk patient (U1) based on this.
나아가, 제어부(140)는 영상(510)으로부터 위험 환자(U1)와 근접 공간에 위치한 특정 대상자(U2)의 거리가 기 설정된 거리 이상인 경우에도, 위에서 살펴본 프로세스를 통해 특정 대상자(U2)의 시선 추적 정보를 추출할 수 있다. 예를 들어, 제어부(140)는 헤드 포즈 추정(Head Pose Estimation) 알고리즘을 이용하여 특정 대상자(U2)의 시선의 방향을 예측하고, 예측된 시선의 방향을 기반으로 특정 대상자(U2)의 시선 추적 정보(ex: “응시 시간 : 2초 미만”, “응시 대상 : 검정색 옷을 입은 사람”, “시선 이동 경로 : 응시 대상과 주변 환경을 번갈아가며 살펴봄”, “주시 빈도 : 주변 환경의 주시 빈도가 높음”, 541)를 추출할 수 있다.Furthermore, the control unit (140) can extract the gaze tracking information of the specific subject (U2) through the process described above even when the distance between the at-risk patient (U1) and the specific subject (U2) located in the vicinity is greater than the preset distance from the image (510). For example, the control unit (140) can predict the gaze direction of the specific subject (U2) using a head pose estimation algorithm, and extract the gaze tracking information of the specific subject (U2) based on the predicted gaze direction (ex: “gaze time: less than 2 seconds”, “gaze target: person wearing black clothes”, “gaze movement path: looks at the gaze target and the surrounding environment alternately”, “gaze frequency: high gaze frequency of the surrounding environment”, 541).
즉, 본 발명에서는 위험 환자(U1)의 생체 정보 및 행동 정보뿐만 아니라, 시선 추적 정보도 함께 추출함으로써, 위험 환자(U1)와 상호 작용하는 인물 또는 객체에 대한 정보를 통해, 위험 환자(U1)의 행동 분석 및 위험 요소 식별에 유용하게 활용할 수 있다.That is, in the present invention, not only the biometric information and behavioral information of the at-risk patient (U1) but also the gaze tracking information is extracted, so that the information on the person or object interacting with the at-risk patient (U1) can be usefully utilized for behavior analysis and risk factor identification of the at-risk patient (U1).
한편, 본 발명에서는 인공지능 모델을 통한 분석 결과를 이용하여, 위험 환자의 자해 또는 타해 사고 중 어느 하나와 관련된 위험 행동의 징후를 예측하는 과정이 진행될 수 있다(S430, 도 4 참조).Meanwhile, in the present invention, a process of predicting signs of risk behavior related to either self-harm or harm to others of a risk patient can be performed using analysis results through an artificial intelligence model (S430, see FIG. 4).
제어부(140)는 인공지능 모델(150)을 통한 분석 결과를 기반으로, 위험 환자의 자해 또는 타해 사고 중 어느 하나와 관련된 위험 행동의 징후를 예측할 수 있다.The control unit (140) can predict signs of risk behavior related to either self-harm or harm to others by a risk patient based on the analysis results through the artificial intelligence model (150).
여기에서 위험 행동의 징후란, 타해 또는 자해 사고와 관련하여 자신 또는 타인의 건강과 안전을 위협하는 행동이나 사고를 예고하는 경고 신호를 포함할 수 있다. 이러한 위험 행동의 징후는, 신체적, 정서적, 행동적, 언어적 등의 형태로 나타날 수 있다.Here, signs of risk behavior may include warning signs that foretell actions or incidents that threaten the health and safety of oneself or others, such as harm or self-harm. These signs of risk behavior may be physical, emotional, behavioral, or verbal.
위에서 살펴본 것과 같이, 제어부(140)는 인공지능 모델(150)을 이용하여, 위험 환자(U1)의 생체 정보, 행동 정보 및 시선 추적 정보를 추출할 수 있다. 이에 따라, 위험 행동의 징후는, 위험 환자(U1)의 생체 정보, 행동 정보 및 시선 추적 정보를 이용하여 예측될 수 있다.As discussed above, the control unit (140) can extract biometric information, behavioral information, and eye tracking information of a risk patient (U1) using an artificial intelligence model (150). Accordingly, signs of risky behavior can be predicted using the biometric information, behavioral information, and eye tracking information of a risk patient (U1).
보다 구체적으로, 제어부(140)는 추출된 위험 환자(U1)의 생체 정보, 행동 정보 및 시선 추적 정보 및 특정 대상자(U2)의 생체 정보, 행동 정보 및 시선 추적 정보를 기반으로, 위험 환자(U1)와 특정 대상자(U2) 간의 상호 관계를 연동 분석할 수 있다.More specifically, the control unit (140) can perform a linkage analysis of the relationship between the at-risk patient (U1) and the specific subject (U2) based on the extracted biometric information, behavioral information, and eye tracking information of the at-risk patient (U1) and the biometric information, behavioral information, and eye tracking information of the specific subject (U2).
그리고, 제어부(140)는 상호 관계 연동 분석 결과를 기반으로, 위험 환자(U1)의 자해 또는 타해 사고 중 어느 하나와 관련된 위험 행동의 징후를 예측할 수 있다.And, the control unit (140) can predict signs of risk behavior related to either self-harm or harm to others of the at-risk patient (U1) based on the results of the mutual relationship linkage analysis.
일 예로서, 제어부(140)는 위험 환자(U1)와 특정 대상자(U2) 간의 생체 정보, 행동 정보 및 시선 추적 정보에 대한 상호 관계를 연동 분석 결과, 상기 정보들이 타해 사고와 연관되어 있는 것으로 특정하고, 위험 환자(U1)의 타해 사고와 관련된 위험 행동의 징후를 예측할 수 있다.As an example, the control unit (140) may analyze the relationship between biometric information, behavioral information, and eye tracking information between a risk patient (U1) and a specific subject (U2) and determine that the information is related to a third-party accident, and may predict signs of risky behavior related to the third-party accident of the risk patient (U1).
다른 예로서, 제어부(140)는 위험 환자(U1)와 관련된 데이터로 학습된 인공지능 모델(150)을 이용하여, 위험 환자(U1)의 생체 정보, 행동 정보 및 시선 추적 정보가 타해 사고와 연관되어 있는 것으로 특정하고, 위험 환자(U1)의 타해 사고와 관련된 위험 행동의 징후를 예측할 수 있다.As another example, the control unit (140) can use an artificial intelligence model (150) learned with data related to a risk patient (U1) to identify that the biometric information, behavioral information, and eye tracking information of the risk patient (U1) are related to a risk-related accident, and predict signs of risky behavior related to the risk-related accident of the risk patient (U1).
즉, 본 발명에서는 위에서 살펴본 것과 같이, 위험 환자(U1)의 자해 또는 타해 사고와 관련된 생체 정보, 행동 정보 및 시선 추적 정보와, 다른 환자들의 자해 또는 타해 사고와 관련된 생체 정보, 행동 정보 및 시선 추적 정보를 이용하여 데이터베이스가 구축되어 있기 때문에, 위험 환자(U1)의 생체 정보, 행동 정보 및 시선 추적 정보가 자해 또는 타해 사고 중 어느 사고와 관련된 위험 행동의 징후를 나타내는지를 예측할 수 있다.That is, since in the present invention, as discussed above, a database is constructed using biometric information, behavioral information, and eye tracking information related to self-harm or harm to others of a patient at risk (U1), and biometric information, behavioral information, and eye tracking information related to self-harm or harm to others of other patients, it is possible to predict whether the biometric information, behavioral information, and eye tracking information of a patient at risk (U1) exhibit signs of risky behavior related to either self-harm or harm to others.
한편, 본 발명에 따른 자해 및 타해 사고 조기 예측 시스템(100)에는, 서로 다른 위험 행동의 징후 각각에 따라 복수의 위험도가 매칭(또는 설정)되어 존재할 수 있다.Meanwhile, in the early prediction system (100) for self-harm and harm to others according to the present invention, multiple risk levels may be matched (or set) according to each of the signs of different risk behaviors.
여기에서 복수의 위험도는, 서로 다른 위험 행동의 징후로부터 특정되는 제1 위험도 및 제2 위험도를 포함할 수 있다. 또한, 서로 다른 위험 행동의 징후는, 자해 사고와 관련된 위험 행동의 징후 및 타해 사고와 관련된 위험 행동의 징후를 포함할 수 있다.Here, the multiple risk levels may include a first risk level and a second risk level, which are specified from signs of different risk behaviors. In addition, the signs of different risk behaviors may include signs of risk behaviors related to self-harm thoughts and signs of risk behaviors related to other-harm thoughts.
이와 관련하여, 제1 위험도는 인공지능 모델(150)을 통해 타해 사고와 관련된 위험 행동의 징후가 예측되는 것에 근거하여 특정될 수 있다. 또한, 제2 위험도는 인공지능 모델(150)을 통해 자해 사고와 관련된 위험 행동의 징후가 예측되는 것에 근거하여 특정될 수 있다.In this regard, the first risk level can be specified based on the prediction of signs of risky behavior related to harm through the artificial intelligence model (150). In addition, the second risk level can be specified based on the prediction of signs of risky behavior related to self-harm through the artificial intelligence model (150).
한편, 제어부(140)는 위험 환자(U1)의 자해 또는 타해 사고 중 어느 하나와 관련된 위험 행동의 징후 예측이 완료되면, 복수의 위험도 중 예측된 위험 행동의 징후에 매칭된 위험도를 특정할 수 있다. 예를 들어, 위에서 살펴본 것과 같이, 예측된 위험 환자(U1)의 위험 행동의 징후가 타해 사고와 관련된 위험 행동의 징후라고 가정하자. 제어부(140)는 복수의 위험도 중 타해 사고와 관련된 제1 위험도를 특정할 수 있다.Meanwhile, when the control unit (140) completes predicting the signs of risk behavior related to either self-harm or harm to others of the at-risk patient (U1), it can specify a risk level that matches the signs of the predicted risk behavior among multiple risk levels. For example, as discussed above, assume that the signs of the predicted risk behavior of the at-risk patient (U1) are signs of risk behavior related to harm to others. The control unit (140) can specify the first risk level related to harm to others among multiple risk levels.
그리고, 제어부(140)는 특정된 위험도에 근거하여, 위험 행동의 징후와 관련된 자해 또는 타해 사고를 예방하기 위한 대응 조치 정보(또는 조치 정보, 또는 예방 조치 정보, 또는 대응 정보)를 생성할 수 있다.And, the control unit (140) can generate response action information (or action information, or preventive action information, or response information) to prevent self-harm or harm to others related to signs of risky behavior based on a specific level of risk.
본 발명에서 복수의 위험도 각각에 따라 생성되는 조치 정보가 다를 수 있다. 복수의 위험도 각각에는 서로 다른 대응 조치 정보가 매칭되어 존재할 수 있다. 여기에서 서로 다른 대응 조치 정보는, 제1 위험도에 매칭된 제1 대응 조치 정보 및 제2 위험도에 매칭된 제2 조치 정보를 포함할 수 있다.In the present invention, the generated action information may be different for each of the multiple risk levels. Different response action information may be matched and exist for each of the multiple risk levels. Here, the different response action information may include first response action information matched to the first risk level and second action information matched to the second risk level.
예를 들어, 서로 다른 조치 정보에는, i) 타해 또는 자해 사고를 예방하기 위한 인력(예를 들어, 보안 인력, 의료진 등)의 배치와 관련된 정보, ii) 타해 또는 자고 사고를 예방하기 위해 대응에 필요한 시간, iii) 타해 또는 자해 사고 예방 조치 완료 후 환자를 관리하기 위한 정보(예를 들어, 모니터링 강화, 주변 환경 개선, 알림 정보 등), iv) 타해 또는 자해 사고를 예방하기 위한 교육 및 치료 프로그램 정보 중 적어도 하나가 포함될 수 있다. 다만, 서로 다른 조치 정보에 포함되는 정보는 반드시 이에 한정되는 것은 아니며, 언급한 것 외에도 다양한 조치들이 더 포함될 수 있다.For example, the different action information may include at least one of: i) information related to the deployment of personnel (e.g., security personnel, medical personnel, etc.) to prevent harm to others or self-harm, ii) time required for response to prevent harm to others or self-harm, iii) information for managing patients after completion of measures to prevent harm to others or self-harm (e.g., strengthening monitoring, improving the surrounding environment, notification information, etc.), iv) information on education and treatment programs to prevent harm to others or self-harm. However, the information included in the different action information is not necessarily limited to this, and various other measures may be included in addition to those mentioned.
이때, 제1 조치 정보 및 제2 조치 정보 각각에 포함된 정보에 따라 진행되는 조치는 서로 다를 수 있다.At this time, the actions taken depending on the information contained in each of the first action information and the second action information may be different.
일 예로서, 제1 조치 정보의 경우, 위험 환자(U1)의 타해 사고를 예방하기 위한 인력이 “5명” 정도 필요할 수 있다. 이와 다르게, 제2 조치 정보의 경우, 위험 환자(U1)의 자해 사고를 예방하기 위한 인력이, 타해 사고를 예방하기 위한 인력보다 적은 “2명” 정도 필요할 수 있다.For example, in the case of the first action information, “5” people may be needed to prevent the at-risk patient (U1) from harming others. In contrast, in the case of the second action information, “2” people may be needed to prevent the at-risk patient (U1) from harming others, which is less than the number of people needed to prevent the at-risk patient (U1) from harming others.
다른 예로서, 제1 조치 정보의 경우, 타해 사고 예방 조치 완료 후 위험 환자(U1)를 관리하기 위한 모니터링 인원이 “2명” 정도 필요할 수 있다. 이와 다르게, 제2 조치 정보의 경우, 자해 사고 예방 조치 완료 후 위험 환자(U1)를 관리하기 위한 모니터링 인원이 “1명” 정도 필요할 수 있다.As another example, for the first action information, “two” monitoring personnel may be needed to manage the at-risk patient (U1) after the completion of the prevention of other-injury accidents. In contrast, for the second action information, “one” monitoring personnel may be needed to manage the at-risk patient (U1) after the completion of the prevention of self-injury accidents.
또 다른 예로서, 제1 조치 정보의 경우, 위험 환자(U1)의 타해 사고를 예방하기 위해 타해 사고 예방과 관련된 교육 및 치료 프로그램에 대한 정보가 포함될 수 있다. 이와 다르게, 제2 조치 정보의 경우, 위험 환자(U1)의 자해 사고를 예방하기 위해 자해 사고 예방과 관련된 교육 및 치료 프로그램에 대한 정보가 포함될 수 있다.As another example, for the first action information, information on education and treatment programs related to preventing harm to others may be included to prevent harm to others by the at-risk patient (U1). Alternatively, for the second action information, information on education and treatment programs related to preventing harm to others may be included to prevent harm to themselves by the at-risk patient (U1).
이와 관련하여, 제어부(140)는 특정된 위험도가 제1 위험도에 해당하는 경우, 타해 사고를 예방하기 위한 제1 대응 조치 정보를 생성할 수 있다. 이와 다르게, 특정된 위험도가 제1 위험도와 다른 제2 위험도에 해당하는 경우, 자해 사고를 예방하기 위한 제2 대응 조치 정보를 생성할 수 있다.In this regard, the control unit (140) can generate first response measure information for preventing an accident involving another person if the specified risk level corresponds to the first risk level. Alternatively, if the specified risk level corresponds to a second risk level different from the first risk level, the control unit (140) can generate second response measure information for preventing a self-harm accident.
나아가, 복수의 위험도 각각에는 가중치가 설정되어 존재할 수 있다. 이 경우, 기 설정된 가중치는, i) 자해 및 타해 사고 조기 예측 시스템(100)에 의해 자체적으로 설정되거나, ii) 자해 및 타해 사고 조기 예측 시스템(100)을 이용하는 관리자(예를 들어, 의료진)로부터 설정받을 수 있다.In addition, weights may be set for each of the multiple risk levels. In this case, the preset weights may be i) set by the self-harm and other-harm accident early prediction system (100) or ii) set by an administrator (e.g., medical staff) using the self-harm and other-harm accident early prediction system (100).
예를 들어, 자해 및 타해 사고 조기 예측 시스템(100)에 의해 자체적으로 가중치가 설정되는 경우, 위험 환자(U1)가 자해 또는 타해 중 어느 사고에 더 관련이 높은 환자인지에 근거하여 가중치를 설정할 수 있다. 다른 예를 들어, 자해 및 타해 사고 조기 예측 시스템(100)을 이용하는 관리자로부터 가중치가 설정되는 경우, 자해 또는 타해 사고 중 더 빠른 조치가 필요하다고 판단되는 사고에 따라 가중치를 설정할 수 있다.For example, if the weight is set by the self-harm and other-harm accident early prediction system (100) itself, the weight can be set based on whether the at-risk patient (U1) is more related to self-harm or other-harm accidents. For another example, if the weight is set by the manager using the self-harm and other-harm accident early prediction system (100), the weight can be set based on which accident is judged to require faster action, self-harm or other-harm accidents.
즉, 본 발명에서는 예측된 위험도에 따른 조치 정보를 생성하여 제공함으로써, 의료기관에서 환자의 자해 및 타해 사고를 효과적으로 예방하고, 환자에 대한 맞춤형 관리와 의료 자원을 효율적으로 관리하는 데 기여할 수 있다.That is, by generating and providing action information according to the predicted risk level, the present invention can effectively prevent self-harm and harm to others by patients in medical institutions, and can contribute to customized management of patients and efficient management of medical resources.
한편, 제어부(140)는 타해 사고 조기 예측 시스템(100)과 연동된 관제 서버(1000)에, 자해 또는 타해 사고를 예방하기 위한 알림 정보를 제공할 수 있다.Meanwhile, the control unit (140) can provide notification information for preventing self-harm or other-harm accidents to the control server (1000) linked to the early prediction system for other-harm accidents (100).
제어부(140)는 예측된 위험 행동의 징후에 따라 생성된 조치 정보를 포함하는 알림 정보를 생성하고, 생성된 알림 정보를 관제 서버(1000)에 제공할 수 있다. 예를 들어, 도 6에 도시된 것과 같이, 제어부(140)는 위험 환자(U1)의 타해 사고를 예방하기 위한 제1 조치 정보를 포함하는 알림 정보(ex: “ “A 구역에서 타해 사고가 예측됨에 따라 아래의 조치가 필요함”, “대상자 : A 환자”, “필요 인력 : 의사 1명, 간호사 2명, 보안 요원 2명”, “대응 매뉴얼 : 타해 대상자와의 즉각적인 격리 필요”, 600)를 관제 서버(1000)의 디스플레이부에 출력할 수 있다.The control unit (140) can generate notification information including action information generated according to signs of predicted dangerous behavior, and provide the generated notification information to the control server (1000). For example, as illustrated in FIG. 6, the control unit (140) can output notification information including first action information for preventing a harm accident of a dangerous patient (U1) (ex: “As a harm accident is predicted in Zone A, the following actions are required”, “Target: Patient A”, “Required personnel: 1 doctor, 2 nurses, 2 security personnel”, “Response manual: Immediate isolation from target of harm required”, 600) to the display unit of the control server (1000).
이때, 위에서 살펴본 것과 같이, 위험도에 따른 가중치가 설정된 경우, 관제 서버에 제공되는 알림 정보의 알림 우선순위, 알림 크기(예를 들어, 알림창 크기, 알림 음성 및 진동 크기), 알림 지속 시간, 알림 반복 주기 등이 다르게 설정되어 제공될 수 있다. 일 예로서, 제1 위험도에 가중치가 더 높게 설정된 경우, 제1 조치 정보를 포함하는 알림 정보의 크기가, 제2 조치 정보를 포함하는 알림 정보의 크기보다 더 크게 제공될 수 있다.At this time, as examined above, if a weight is set according to risk, the notification priority, notification size (e.g., notification window size, notification voice and vibration size), notification duration, notification repetition cycle, etc. of the notification information provided to the control server may be set and provided differently. As an example, if a higher weight is set for the first risk, the size of the notification information including the first action information may be provided larger than the size of the notification information including the second action information.
한편, 환자들마다 자해 또는 타해 사고와 관련된 위험 행동이 발생할 수 있는 생체 정보, 행동 정보 및 시선 추적 정보 중 적어도 하나가 다를 수 있다.Meanwhile, at least one of the biometric information, behavioral information, and eye tracking information that may indicate risky behaviors related to self-harm or harm to others may differ from patient to patient.
예를 들어, 도 7에 도시된 것과 같이, 제1 환자(710)는 맥박이 “90 bpm” 이상일 경우에 자해 사고와 관련된 위험 행동이 발생할 가능성이 높고, 제2 환자(720)는 맥박이 “100bpm” 이상일 경우에 자해 사고와 관련된 위험 행동이 발생할 가능성이 높을 수 있다.For example, as illustrated in FIG. 7, a first patient (710) may be more likely to engage in risky behaviors related to self-harm when the pulse rate is “90 bpm” or higher, and a second patient (720) may be more likely to engage in risky behaviors related to self-harm when the pulse rate is “100 bpm” or higher.
다른 예를 들어, 제1 환자(710)는 가만히 앉아서 침묵한 상태로 몸을 떨고 있는 행동을 취할 경우에 자해 사고와 관련된 위험 행동이 발생할 가능성이 높고, 제2 환자(720)는 양손에 주먹을 쥐었다 폈다 하는 동작을 취할 경우에 자해 사고와 관련된 위험 행동이 발생할 가능성이 높을 수 있다.For another example, patient 1 (710) may be more likely to exhibit risky behaviors associated with self-harm when sitting still and shaking in silence, and patient 2 (720) may be more likely to exhibit risky behaviors associated with self-harm when making fists with both hands.
즉, 환자(또는 위험 환자)들 각각마다 위험 행동이 발생할 가능성이 있는 생체 징후의 정도가 다를 수 있으며, 이러한 정보들은 타해 사고 조기 예측 시스템(100)에 저장되어 존재할 수 있다.That is, the degree of vital signs that indicate a risky behavior may vary for each patient (or at-risk patient), and such information may be stored and present in the early prediction system for other-cause accidents (100).
제어부(140)는 서로 다른 환자들의 정보들로 학습된 인공지능 모델(150)을 이용하여, 환자들 각각의 자해 또는 타해 사고와 관련된 위험 행동의 징후를 서로 다르게 예측할 수 있다. 예를 들어, 도 8에 도시된 것과 같이, 제어부(140)는 인공지능 모델(150)을 이용하여, 제1 환자(710)에 대하여 촬영된 영상(810)을 분석하여, 제1 환자(710)의 생체 정보(ex: “ex: “체온 : 37.5°C”, “맥박 : 90 bpm”, “혈압 : 130/85 mmHg”, “호흡률 : 23 breaths per minute”, 811), 행동 정보(ex: ex: “가만히 앉아서 침묵한 상태로 몸을 떨고 있음”, “창 밖을 주시하다가 고개를 돌리며 주변을 계속 탐색”, 812) 및 시선 추적 정보(ex: “응시 시간 : 3초 이상”, “응시 대상 : 창 밖”, “시선 이동 경로 : 창 밖을 한번 살펴본 후, 주변 환경을 살펴봄”, “주시 빈도 : 3~5초 간격으로 반복”, 813)를 추출할 수 있다.The control unit (140) can predict signs of risky behavior related to self-harm or harm to others differently for each patient by using an artificial intelligence model (150) learned from information on different patients. For example, as illustrated in FIG. 8, the control unit (140) can analyze an image (810) captured of a first patient (710) using an artificial intelligence model (150) to extract biometric information (ex: “ex: “Body temperature: 37.5°C”, “Pulse: 90 bpm”, “Blood pressure: 130/85 mmHg”, “Respiratory rate: 23 breaths per minute”, 811) of the first patient (710), behavioral information (ex: ex: “Sitting still and shivering in silence”, “Looking out the window and then turning the head to continuously search the surroundings”, 812) and gaze tracking information (ex: “Gaze time: 3 seconds or more”, “Gaze target: Outside the window”, “Gaze movement path: Looking out the window once and then looking at the surroundings”, “Gaze frequency: Repeatedly at 3 to 5 second intervals”, 813).
그리고, 제어부(140)는 추출된 제1 환자(710)의 생체 정보(811), 행동 정보(812) 및 시선 추적 정보(813)를 이용하여, 제1 환자(710)의 자해 사고와 관련된 위험 행동의 징후를 예측할 수 있다.In addition, the control unit (140) can predict signs of risky behavior related to self-harm of the first patient (710) by using the extracted biometric information (811), behavioral information (812), and eye tracking information (813) of the first patient (710).
나아가, 제어부(140)는 자해 사고와 관련된 위험 행동의 징후가 예측된 것에 근거하여 제2 위험도를 특정하고, 제2 위험도에 매칭된 제2 조치 정보를 생성할 수 있다. 이어서, 제어부(140)는 생성된 제2 조치 정보를 포함하는 알림 정보를 생성하여 관제 서버(1000)에 제공할 수 있다. 예를 들어, 도 9에 도시된 것과 같이, 제어부(140)는 제2 조치 정보를 포함하는 알림 정보(ex: “A 구역에서 자해 사고가 예측됨에 따라 아래의 조치가 필요함”, “대상자 : 제1 환자”, “필요 인력 : 의사 1명, 간호사 1명”, “대응 매뉴얼 : 위험 물건과 격리 필요”, 900)를 관제 서버(1000)의 디스플레이부에 출력할 수 있다.Furthermore, the control unit (140) can specify a second risk level based on the predicted signs of risky behavior related to self-harm accidents and generate second action information matching the second risk level. Then, the control unit (140) can generate notification information including the generated second action information and provide it to the control server (1000). For example, as illustrated in FIG. 9, the control unit (140) can output notification information including the second action information (ex: “Since a self-harm accident is predicted in Zone A, the following actions are required”, “Target:
위에서 살펴본 것과 같이, 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템은, 자해 또는 타해 사고와 관련된 위험 행동을 조기에 예측함으로써, 불필요한 사고를 예방하고, 의료기관의 자원(예를 들어, 인력, 시간, 비용 등)을 효율적으로 관리하는 데 기여할 수 있다.As examined above, the artificial intelligence-based self-harm and other-harm accident early prediction method and system according to the present invention can contribute to preventing unnecessary accidents and efficiently managing the resources (e.g., manpower, time, cost, etc.) of medical institutions by early predicting risky behaviors related to self-harm or other-harm accidents.
또한, 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템은, 다양한 센서로부터 센싱된 정보와, 즉시 현장 적용이 가능한 데이터 통합 관리 플랫폼을 구축하여, 위험 환자의 자해 또는 타해 사고와 관련된 위험 행동을 조기에 예측하여 예방하고, 환자와 의료진에게 안전하고 치료 효과 증대에 도움이 되는 의료 서비스 환경을 확립하는 데 기여할 수 있다.In addition, the method and system for early prediction of self-harm and harm to others based on artificial intelligence according to the present invention can contribute to early prediction and prevention of risk behaviors related to self-harm or harm to others of at-risk patients and to establishing a medical service environment that is safe for patients and medical staff and helpful in increasing treatment effectiveness by building a data integration management platform with information sensed from various sensors and immediately applicable to the field.
나아가, 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템은, 위험 환자와 특정 대상 간의 상호 관계 연동 분석을 진행함으로써, 의료기관에 종사하는 의료진이 타해 위험이 높은 환자로부터 자신을 보호할 수 있는 의료 서비스 환경을 마련할 수 있다.Furthermore, the artificial intelligence-based method and system for early prediction of self-harm and harm to others according to the present invention can provide a medical service environment in which medical staff working at medical institutions can protect themselves from patients at high risk of harm to others by conducting a linkage analysis of the mutual relationship between at-risk patients and specific targets.
나아가, 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템은, 자해 및 타해 사고와 관련된 센싱 데이터들을 기반으로 데이터베이스를 구축함으로써, 이를 타겟으로 하는 다양한 디지털 치료제 개발이 이루어지도록 할 수 있다.Furthermore, the artificial intelligence-based method and system for early prediction of self-harm and harm to others according to the present invention can enable the development of various digital therapeutics targeting self-harm and harm to others by constructing a database based on sensing data related to self-harm and harm to others.
나아가, 본 발명에 따른 인공지능 기반의 자해 및 타해 사고 조기 예측 방법 및 시스템은, 환자의 자해 또는 타해 사고와 관련된 위험 행동을 조기에 예측하고, 예측된 위험 행동을 선제적으로 대응할 수 있는 대응 조치 정보를 생성하여 제공할 수 있다. 이를 통해, 의료기관에서는 장기적으로 안전 요원 등 인력 수요가 줄어 경제적 부담을 획기적으로 줄일 수 있다.Furthermore, the AI-based self-harm and other-harm accident early prediction method and system according to the present invention can early predict a patient's risk behavior related to self-harm or other-harm accidents and generate and provide response measure information that can proactively respond to the predicted risk behavior. Through this, medical institutions can drastically reduce the economic burden by reducing the demand for personnel such as safety personnel in the long term.
한편, 위에서 살펴본 본 발명은, 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 이러한 컴퓨터로 판독될 수 있는 매체(또는 기록 매체)에 저장 가능한 프로그램으로서 구현될 수 있다.Meanwhile, the present invention discussed above can be implemented as a program that is executed by one or more processes on a computer and can be stored on a medium (or recording medium) that can be read by the computer.
나아가, 위에서 살펴본 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드 또는 명령어로서 구현하는 것이 가능하다. 즉, 본 발명은 프로그램의 형태로 제공될 수 있다. Furthermore, the present invention discussed above can be implemented as a computer-readable code or command on a medium in which a program is recorded. That is, the present invention can be provided in the form of a program.
한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. Meanwhile, computer-readable media include all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, and optical data storage devices.
나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.Furthermore, the computer-readable medium may be a server or cloud storage that includes storage and that the electronic device can access through communication. In this case, the computer can download the program according to the present invention from the server or cloud storage through wired or wireless communication.
나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.Furthermore, in the present invention, the computer described above is an electronic device equipped with a processor, i.e., a CPU (Central Processing Unit), and there is no particular limitation on its type.
한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.Meanwhile, the above detailed description should not be construed as restrictive in all respects but should be considered as illustrative. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.
Claims (10)
기 학습된 인공지능 모델을 이용하여, 상기 센싱 데이터를 분석하는 단계; 및
상기 인공지능 모델을 통한 상기 분석 결과를 이용하여, 상기 위험 환자의 자해 또는 타해 사고와 관련된 서로 다른 위험 행동의 징후 중 어느 하나의 사고와 관련된 위험 행동의 징후를 예측하는 단계;
상기 서로 다른 위험 행동의 징후에 따라 설정된 복수의 위험도 중 상기 예측된 위험 행동의 징후에 따른 위험도를 특정하는 단계; 및
상기 특정된 위험도에 근거하여, 상기 예측된 위험 행동의 징후와 관련된 상기 어느 하나의 사고를 예방하기 위한 대응 조치 정보를 생성하는 단계를 포함하고,
상기 서로 다른 위험 행동의 징후는,
상기 타해 사고와 관련된 위험 행동의 징후 및 상기 자해 사고와 관련된 위험 행동의 징후를 포함하고,
상기 복수의 위험도는,
상기 타해 사고와 관련된 위험 행동의 징후가 예측되는 것에 근거하여 특정되는 제1 위험도 및
상기 자해 사고와 관련된 위험 행동의 징후가 예측되는 것에 근거하여 특정되는 제2 위험도를 포함하며,
상기 복수의 위험도 각각에는, 기 설정된 가중치가 설정되어 존재하고,
상기 대응 조치 정보를 생성하는 단계에서는,
상기 기 설정된 가중치가 설정된 복수의 위험도 중 특정된 위험도에 따라, 상기 자해 또는 상기 타해 사고를 예방하기 위한 서로 다른 대응 조치 정보를 생성하는 것을 특징으로 하는 자해 또는 타해 사고 조기 예측 방법.A step of receiving sensing data on a risk patient sensed from at least one sensor;
A step of analyzing the sensing data using a learned artificial intelligence model; and
A step of predicting signs of risk behavior related to one of the signs of different risk behaviors related to self-harm or harm to others of the at-risk patient by using the analysis results through the artificial intelligence model;
A step of specifying a risk level according to a sign of the predicted risk behavior among multiple risk levels set according to the signs of the above different risk behaviors; and
A step of generating response action information to prevent any one of the above accidents related to the signs of the above predicted risk behavior based on the above specified risk level,
Signs of the different risk behaviors mentioned above are:
Including signs of risk behavior related to the above-mentioned harm incident and signs of risk behavior related to the above-mentioned self-harm incident,
The above multiple risks are:
The first risk level is determined based on the predicted signs of risk behavior related to the above-mentioned accidents, and
Includes a second risk level specified based on the predicted signs of risk behavior related to the above self-harm incident,
For each of the above multiple risks, a preset weight is set and exists.
In the step of generating the above response action information,
A method for early prediction of self-harm or harm to others, characterized in that it generates different response measure information for preventing self-harm or harm to others according to a specific risk level among a plurality of risk levels for which the preset weights are set.
상기 센싱 데이터는,
상기 위험 환자의 생체 정보 및 상기 위험 환자에 대하여 촬영된 영상을 포함하고,
상기 생체 정보는,
상기 위험 환자의 체온, 맥박, 혈압, 호흡률 및 피부 긴장도 중 적어도 하나를 포함하는 것을 특징으로 하는 자해 또는 타해 사고 조기 예측 방법.In the first paragraph,
The above sensing data is,
Contains the biometric information of the above-mentioned at-risk patient and images taken of the above-mentioned at-risk patient,
The above biometric information is,
A method for early prediction of self-harm or harm to others, characterized in that it includes at least one of body temperature, pulse, blood pressure, respiratory rate, and skin tension of the above-mentioned at-risk patient.
상기 센싱 데이터를 분석하는 단계에서는,
상기 인공지능 모델을 이용하여, 상기 영상으로부터 상기 위험 환자의 행동을 분석하고,
상기 위험 환자의 상기 행동에 대한 분석 결과를 이용하여, 상기 위험 환자의 행동 정보를 추출하는 것을 특징으로 하는 자해 또는 타해 사고 조기 예측 방법.In the second paragraph,
In the step of analyzing the above sensing data,
Using the above artificial intelligence model, the behavior of the at-risk patient is analyzed from the above image,
A method for early prediction of self-harm or harm to others, characterized by extracting behavioral information of a risk patient by using the analysis results of the behavior of the risk patient.
상기 센싱 데이터를 분석하는 단계에서는,
상기 인공지능 모델을 이용하여, 상기 영상으로부터 상기 위험 환자의 응시 및 주시 패턴을 분석하고,
상기 위험 환자의 상기 응시 및 주시 패턴에 대한 분석 결과를 이용하여, 상기 위험 환자의 시선 추적 정보를 추출하는 것을 특징으로 하는 자해 또는 타해 사고 조기 예측 방법.In the third paragraph,
In the step of analyzing the above sensing data,
Using the above artificial intelligence model, the gaze and gaze patterns of the at-risk patient are analyzed from the above image,
A method for early prediction of self-harm or harm to others, characterized by extracting gaze tracking information of the at-risk patient by using the analysis results of the gaze and gaze patterns of the at-risk patient.
상기 시선 추적 정보는,
상기 위험 환자의 시선의 이동 경로, 응시 대상, 응시 시간 및 주시 빈도 중 적어도 하나를 포함하는 것을 특징으로 하는 자해 또는 타해 사고 조기 예측 방법.In paragraph 4,
The above gaze tracking information is,
A method for early prediction of self-harm or harm to others, characterized by including at least one of the gaze movement path, gaze target, gaze time, and gaze frequency of the above-mentioned at-risk patient.
상기 위험 행동의 징후는,
상기 위험 환자의 상기 생체 정보, 상기 행동 정보 및 상기 시선 추적 정보를 이용하여 예측되는 것을 특징으로 하는 자해 또는 타해 사고 조기 예측 방법.In paragraph 4,
Signs of the above risk behaviors include:
A method for early prediction of self-harm or harm to others, characterized in that the prediction is made using the biometric information, the behavioral information, and the eye tracking information of the at-risk patient.
상기 복수의 위험도는,
상기 서로 다른 위험 행동의 징후로부터 특정되는 상기 제1 위험도 및 상기 제2 위험도를 포함하고,
상기 제1 위험도는,
상기 인공지능 모델을 통해 상기 타해 사고와 관련된 위험 행동의 징후가 예측되는 것에 근거하여 특정되고,
상기 제2 위험도는,
상기 인공지능 모델을 통해 상기 자해 사고와 관련된 위험 행동의 징후가 예측되는 것에 근거하여 특정되는 것을 특징으로 하는 자해 또는 타해 사고 조기 예측 방법.In the first paragraph,
The above multiple risks are:
Including the first risk level and the second risk level specified from the signs of the above different risk behaviors,
The first risk above is,
Specified based on the prediction of signs of risk behavior related to the above-mentioned accident through the above-mentioned artificial intelligence model,
The second risk level above is,
A method for early prediction of self-harm or harm to others, characterized in that the signs of risk behavior related to the self-harm incident are predicted through the artificial intelligence model.
상기 복수의 위험도 각각에는, 상기 서로 다른 대응 조치 정보가 매칭되어 존재하고,
상기 서로 다른 대응 조치 정보는,
상기 제1 위험도에 매칭된 제1 대응 조치 정보 및 상기 제2 위험도에 매칭된 제2 대응 조치 정보를 포함하고,
상기 조치 정보를 생성하는 단계에서는,
상기 특정된 위험도가 상기 제1 위험도에 해당하는 경우, 상기 타해 사고를 예방하기 위한 상기 제1 대응 조치 정보를 생성하고,
상기 특정된 위험도가 상기 제1 위험도와 다른 상기 제2 위험도에 해당하는 경우, 상기 자해 사고를 예방하기 위한 상기 제2 대응 조치 정보를 생성하는 것을 특징으로 하는 자해 또는 타해 사고 조기 예측 방법.In Article 7,
For each of the above multiple risk levels, different response action information is matched and exists.
The above different response measures information is:
Including first response measure information matched to the first risk level and second response measure information matched to the second risk level,
In the step of generating the above action information,
If the above-mentioned specific risk level corresponds to the above-mentioned first risk level, the above-mentioned first response measure information is generated to prevent the above-mentioned third-party accident,
A method for early prediction of self-harm or harm to others, characterized in that when the above-mentioned specific risk level corresponds to the second risk level different from the above-mentioned first risk level, the second response measure information for preventing the self-harm accident is generated.
상기 시스템은,
적어도 하나의 센서로부터 센싱된 위험 환자에 대한 센싱 데이터를 수신하고,
기 학습된 상기 인공지능 모델을 이용하여, 상기 센싱 데이터를 분석하며,
상기 인공지능 모델을 통한 상기 분석 결과를 이용하여, 상기 위험 환자의 자해 또는 타해 사고와 관련된 서로 다른 위험 행동의 징후 중 어느 하나의 사고와 관련된 위험 행동의 징후를 예측하고,
상기 서로 다른 위험 행동의 징후에 따라 설정된 복수의 위험도 중 상기 예측된 위험 행동의 징후에 따른 위험도를 특정하며,
상기 특정된 위험도에 근거하여, 상기 예측된 위험 행동의 징후와 관련된 상기 어느 하나의 사고를 예방하기 위한 대응 조치 정보를 생성하고,
상기 서로 다른 위험 행동의 징후는,
상기 타해 사고와 관련된 위험 행동의 징후 및 상기 자해 사고와 관련된 위험 행동의 징후를 포함하고,
상기 복수의 위험도는,
상기 타해 사고와 관련된 위험 행동의 징후가 예측되는 것에 근거하여 특정되는 제1 위험도 및
상기 자해 사고와 관련된 위험 행동의 징후가 예측되는 것에 근거하여 특정되는 제2 위험도를 포함하며,
상기 복수의 위험도 각각에는, 기 설정된 가중치가 설정되어 존재하고,
상기 제어부는,
상기 기 설정된 가중치가 설정된 복수의 위험도 중 특정된 위험도에 따라, 상기 자해 또는 상기 타해 사고를 예방하기 위한 서로 다른 대응 조치 정보를 생성하는 것을 특징으로 하는 자해 또는 타해 사고 조기 예측 시스템.In an early prediction system for self-harm or harm to others, including a communication unit, a storage unit, a control unit, and an artificial intelligence model,
The above system,
Receive sensing data about a risk patient sensed from at least one sensor,
Using the above learned artificial intelligence model, the sensing data is analyzed,
Using the analysis results through the artificial intelligence model, predict the signs of risk behavior related to one of the signs of risk behavior related to self-harm or harm to others of the at-risk patient,
Among the multiple risk levels set according to the signs of the above different risk behaviors, the risk level according to the signs of the predicted risk behavior is specified.
Based on the above specified risk level, generate response action information to prevent any of the above accidents related to the signs of the above predicted risk behavior,
Signs of the different risk behaviors mentioned above are:
Including signs of risk behavior related to the above-mentioned harm incident and signs of risk behavior related to the above-mentioned self-harm incident,
The above multiple risks are:
The first risk level is determined based on the predicted signs of risk behavior related to the above-mentioned accidents, and
Includes a second risk level specified based on the predicted signs of risk behavior related to the above self-harm incident,
For each of the above multiple risks, a preset weight is set and exists.
The above control unit,
An early prediction system for self-harm or harm to others, characterized in that it generates different response measure information for preventing self-harm or harm to others according to a specific risk level among a plurality of risk levels for which the preset weights are set.
상기 프로그램은,
적어도 하나의 센서로부터 센싱된 위험 환자에 대한 센싱 데이터를 수신하는 단계;
기 학습된 인공지능 모델을 이용하여, 상기 센싱 데이터를 분석하는 단계; 및
상기 인공지능 모델을 통한 상기 분석 결과를 이용하여, 상기 위험 환자의 자해 또는 타해 사고와 관련된 서로 다른 위험 행동의 징후 중 어느 하나의 사고와 관련된 위험 행동의 징후를 예측하는 단계;
상기 서로 다른 위험 행동의 징후에 따라 설정된 복수의 위험도 중 상기 예측된 위험 행동의 징후에 따른 위험도를 특정하는 단계; 및
상기 특정된 위험도에 근거하여, 상기 예측된 위험 행동의 징후와 관련된 상기 어느 하나의 사고를 예방하기 위한 대응 조치 정보를 생성하는 단계를 수행하는 명령어들을 포함하고,
상기 서로 다른 위험 행동의 징후는,
상기 타해 사고와 관련된 위험 행동의 징후 및 상기 자해 사고와 관련된 위험 행동의 징후를 포함하고,
상기 복수의 위험도는,
상기 타해 사고와 관련된 위험 행동의 징후가 예측되는 것에 근거하여 특정되는 제1 위험도 및
상기 자해 사고와 관련된 위험 행동의 징후가 예측되는 것에 근거하여 특정되는 제2 위험도를 포함하며,
상기 복수의 위험도 각각에는, 기 설정된 가중치가 설정되어 존재하고,
상기 대응 조치 정보를 생성하는 단계에서는,
상기 기 설정된 가중치가 설정된 복수의 위험도 중 특정된 위험도에 따라, 상기 자해 또는 상기 타해 사고를 예방하기 위한 서로 다른 대응 조치 정보를 생성하는 것을 특징으로 하는 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램.A program that is executed by one or more processes on an electronic device and stored on a computer-readable recording medium.
The above program is,
A step of receiving sensing data on a risk patient sensed from at least one sensor;
A step of analyzing the sensing data using a learned artificial intelligence model; and
A step of predicting signs of risk behavior related to one of the signs of different risk behaviors related to self-harm or harm to others of the at-risk patient by using the analysis results through the artificial intelligence model;
A step of specifying a risk level according to a sign of the predicted risk behavior among multiple risk levels set according to the signs of the above different risk behaviors; and
Includes commands for performing a step of generating response action information for preventing any one of the above accidents related to the signs of the above predicted risk behavior based on the above specified risk level,
Signs of the different risk behaviors mentioned above are:
Including signs of risk behavior related to the above-mentioned harm incident and signs of risk behavior related to the above-mentioned self-harm incident,
The above multiple risks are:
The first risk level is determined based on the predicted signs of risk behavior related to the above-mentioned accidents, and
Includes a second risk level specified based on the predicted signs of risk behavior related to the above self-harm incident,
For each of the above multiple risks, a preset weight is set and exists.
In the step of generating the above response action information,
A program stored in a computer-readable recording medium, characterized in that it generates different response measure information for preventing self-harm or harm to others according to a specific risk level among a plurality of risk levels for which the preset weights are set.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020240137756A KR102825582B1 (en) | 2024-10-10 | 2024-10-10 | Method and system for early prediction of self-harm and harm to others accidents based on artificial intelligence |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020240137756A KR102825582B1 (en) | 2024-10-10 | 2024-10-10 | Method and system for early prediction of self-harm and harm to others accidents based on artificial intelligence |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR102825582B1 true KR102825582B1 (en) | 2025-06-26 |
Family
ID=96227817
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020240137756A Active KR102825582B1 (en) | 2024-10-10 | 2024-10-10 | Method and system for early prediction of self-harm and harm to others accidents based on artificial intelligence |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102825582B1 (en) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20210053534A (en) * | 2019-11-04 | 2021-05-12 | 주식회사 넥스트케이 | Apparatus for Performing Recognition of Activity Based on Deep Learning and Driving Method Thereof |
| KR20210113465A (en) * | 2020-03-05 | 2021-09-16 | 주식회사 렙딥 | Apparatus and Method for Detecting pessimistic Action based on IT-BT Convergence Technology |
| KR20230004421A (en) * | 2020-10-29 | 2023-01-06 | 주식회사 아디아랩 | System for detecting abnormal behavior based on artificial intelligence |
-
2024
- 2024-10-10 KR KR1020240137756A patent/KR102825582B1/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20210053534A (en) * | 2019-11-04 | 2021-05-12 | 주식회사 넥스트케이 | Apparatus for Performing Recognition of Activity Based on Deep Learning and Driving Method Thereof |
| KR20210113465A (en) * | 2020-03-05 | 2021-09-16 | 주식회사 렙딥 | Apparatus and Method for Detecting pessimistic Action based on IT-BT Convergence Technology |
| KR20230004421A (en) * | 2020-10-29 | 2023-01-06 | 주식회사 아디아랩 | System for detecting abnormal behavior based on artificial intelligence |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Rastogi et al. | A systematic review on machine learning for fall detection system | |
| US9892311B2 (en) | Detecting unauthorized visitors | |
| CN110139598B (en) | Monitoring and tracking system, method, article and apparatus | |
| Jabbar et al. | Applications of cognitive internet of medical things in modern healthcare | |
| Stack | Falls are unintentional: Studying simulations is a waste of faking time | |
| CN114677826B (en) | A violence early warning system for mental patients based on individual behavior and physiological characteristics | |
| Awotunde et al. | Artificial intelligence and an edge-IoMT-based system for combating COVID-19 pandemic | |
| López-Cuevas et al. | FiToViz: A visualisation approach for real-time risk situation awareness | |
| Ranasinghe et al. | Automated activity recognition and monitoring of elderly using wireless sensors: Research challenges | |
| Khamruddin et al. | Healthcare IoT framework for disease prediction and health monitoring in mobile environment | |
| Zhukova et al. | Smart room for patient monitoring based on IoT technologies | |
| Sindhuja | A survey of Internet of Medical Things (IoMT) applications, architectures and challenges in smart healthcare systems | |
| Badawi et al. | A novel multimodal system to predict agitation in people with dementia within clinical settings: A proof of concept | |
| El Arbaoui et al. | A review on the application of the Internet of Things in monitoring autism and assisting parents and caregivers | |
| KR102825582B1 (en) | Method and system for early prediction of self-harm and harm to others accidents based on artificial intelligence | |
| Jeyakumar et al. | A smart virtual vision system for health monitoring | |
| Ianculescu et al. | Improving the Elderly’s Fall Management through Innovative Personalized Remote Monitoring Solution | |
| Mocanu et al. | AmIHomCare: A complex ambient intelligent system for home medical assistance | |
| Prabakar et al. | The Role of Internet of Things Technologies in Revolutionizing Healthcare Delivery and Patient Monitoring | |
| Sun et al. | An overview of aiomt applications | |
| CN116167568A (en) | Medical isolation management method, device, computer equipment and storage medium | |
| Jayashree et al. | Smart assistive technologies for aging society: Requirements, response and reality | |
| KR20230076176A (en) | System for digitally managing dementia risk | |
| Madhu et al. | IoT-enabled applications for elderly support and care: a systematic review | |
| Ahamad et al. | Evolution and contributions of internet of medical things aided emergency COVID-19 health monitoring and quarantine management |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20241010 |
|
| PA0201 | Request for examination |
Patent event code: PA02011R01I Patent event date: 20241010 Comment text: Patent Application |
|
| PA0302 | Request for accelerated examination |
Patent event date: 20241011 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination |
|
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20241211 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20250618 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20250623 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20250623 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration |