WO2024090786A1 - Radar data-based fall detection model training method - Google Patents
Radar data-based fall detection model training method Download PDFInfo
- Publication number
- WO2024090786A1 WO2024090786A1 PCT/KR2023/013890 KR2023013890W WO2024090786A1 WO 2024090786 A1 WO2024090786 A1 WO 2024090786A1 KR 2023013890 W KR2023013890 W KR 2023013890W WO 2024090786 A1 WO2024090786 A1 WO 2024090786A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- fall detection
- fall
- radar data
- model
- detection model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1116—Determining posture transitions
- A61B5/1117—Fall detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Definitions
- the present disclosure relates to a method of learning a fall detection model based on radar data and a fall detection device that performs the same. Specifically, the present disclosure relates to a method of learning an object tracking model for tracking an object in radar data, a method of learning a fall detection model to detect whether an object has fallen, and a fall detection device that performs the same.
- Doppler images are calculated as the change in position over a certain period of time.
- the speed of an object located at a specific location was measured using a Doppler image, and if the measured speed of the object was detected to be above a certain speed, it was judged to be a fall.
- fall detection technology using Doppler images has limitations in that it can only measure speed in a specific direction (range bin), and due to these limitations, there is a limitation in that falls in directions other than the specific direction cannot be detected. .
- fall detection technology using Doppler images had a limitation in that it could only analyze a certain area, not the entire area measured by radar.
- the problem that the present disclosure aims to solve is to provide a method of learning a neural network model for tracking an object based on radar data and detecting whether the object has fallen, and a fall detection device that performs the same.
- a method for learning a fall detection model includes training an object tracking model based on radar data; and training a fall detection model based on features extracted from the radar data through the object tracking model, wherein training the fall detection model includes the radar data and a camera matched with the radar data.
- a fall detection device is a processor configured to train an object tracking model based on radar data and train a fall detection model based on features extracted from the radar data through the object tracking model. Including, wherein the processor acquires a first learning data set consisting of label information related to whether a fall is assigned to the radar data and camera data matched with the radar data, and obtains a first learning data set from the radar data through the object tracking model. Obtain a feature queue by storing at least one extracted feature, input at least one or more features stored in the feature queue into the fall detection model, and output through the fall detection model based on the at least one or more features. It may be configured to train the fall detection model by obtaining a classification value related to whether a fall has occurred, and updating the fall detection model based on the classification value and the label information of the first learning data set.
- the fall detection model learning method and fall detection device it is possible to track an object and detect a fall based only on radar data. Through this, it is possible to provide the effect of tracking objects and detecting falls using only radar data, even in environments where cameras are difficult to install.
- a fall detection model is trained using a learning data set configured to detect falls occurring in various postures, regardless of the fall posture. It can provide the effect of detecting falls.
- the time required for learning the fall detection model is reduced by using features extracted through the object tracking model in learning the fall detection model. You can do it.
- the accuracy of the fall detection task is improved while maintaining the accuracy of the object tracking task at a certain level by alternately learning the object tracking model and the fall detection model. It can be increased.
- the object tracking model and the fall detection model are trained or executed using a two-dimensional heatmap, thereby reducing the relatively low performance radar (
- the object tracking model and fall detection model can also be run on radar's own processor.
- FIG. 1 is a schematic diagram of a fall detection device according to an embodiment of the present disclosure.
- FIG. 2 is a diagram illustrating an aspect of training an object tracking model according to an embodiment of the present disclosure and an aspect of calculating location information of an object using the learned object tracking model.
- FIG. 3 is a diagram illustrating an aspect of learning a fall detection model according to an embodiment of the present disclosure and an aspect of detecting a fall using a fall detection model that has completed learning.
- FIG. 4 is a diagram illustrating an aspect of learning an object tracking model and a fall detection model according to an embodiment of the present disclosure.
- Figure 5 shows an aspect of calculating an object's location information and a classification value related to whether a fall occurred from radar data using a fully learned object tracking model and a fully learned fall detection model according to an embodiment of the present disclosure. It is a drawing.
- Figure 6 is a flow chart illustrating a method for training a fall detection model according to an embodiment of the present disclosure.
- Figure 7 is a flow chart specifying the steps of training an object tracking model according to an embodiment of the present disclosure.
- Figure 8 is a flow chart specifying the steps of training a fall detection model according to an embodiment of the present disclosure.
- Figure 9 is a flowchart showing an aspect of calculating location information of an object using a fully trained object tracking model and detecting a fall using a fully trained fall detection model according to an embodiment of the present disclosure.
- a method for learning a fall detection model includes training an object tracking model; and training a fall detection model, wherein the step of training the fall detection model includes acquiring a first learning data set consisting of label information related to whether or not a person has fallen assigned to radar data and camera data matched with the radar data. steps; Inputting the radar data into the fall detection model; Obtaining a classification prediction value related to whether a fall occurred output through the fall detection model; And it may include updating the fall detection model based on the classification prediction value and the label information of the first learning data set.
- training the object tracking model includes obtaining a second learning data set consisting of location information of an object calculated from the radar data and camera data matched with the radar data; Inputting the radar data into the object tracking model and obtaining an output value related to the location of the object output through the object tracking model; And it may further include updating the object tracking model based on the output value and location information of the object in the second learning data set.
- training the object tracking model further includes extracting features from the radar data through the object tracking model, wherein inputting the radar data to the fall detection model
- the step includes obtaining a feature queue by storing at least one feature extracted through the object tracking model; and inputting at least one feature stored in the feature queue into the fall detection model.
- the label information includes a first label indicating that a fall occurred in the first frame section of the camera data, and a label indicating that a fall did not occur in the second frame section of the camera data. It can be one of 2 labels.
- the radar data may be composed of a two-dimensional Range-Azimuth heat map and a two-dimensional Range-Elevation heat map.
- a computer-readable recording medium recording a program for executing the fall detection model learning method may be provided.
- a fall detection device includes a processor configured to train an object tracking model and a fall detection model, wherein the processor determines whether a fall has occurred assigned to radar data and camera data matched with the radar data. Obtain a first learning data set consisting of related label information, input the radar data into the fall detection model, obtain a classification prediction value related to whether a fall occurred output through the fall detection model, and classify It may be configured to train the fall detection model by updating the fall detection model based on the prediction value and the label information of the first learning data set.
- the processor acquires a second learning data set consisting of location information of an object calculated from the radar data and camera data matched with the radar data, and uses the radar data to track the object.
- a second learning data set consisting of location information of an object calculated from the radar data and camera data matched with the radar data, and uses the radar data to track the object.
- Enter the model obtain an output value related to the location of the object output through the object tracking model, and update the object tracking model based on the output value and the location information of the object in the second learning data set.
- the processor extracts features from the radar data through the object tracking model, stores at least one or more features extracted through the object tracking model to obtain a feature queue, and It may be configured to input at least one or more features stored in a feature queue into the fall detection model.
- the label information includes a first label indicating that a fall occurred in the first frame section of the camera data, and a label indicating that a fall did not occur in the second frame section of the camera data. It can be one of 2 labels.
- the radar data may be composed of a two-dimensional Range-Azimuth heat map and a two-dimensional Range-Elevation heat map.
- Figure 1 is a schematic diagram of a fall detection device 1000 according to an embodiment of the present disclosure.
- the fall detection apparatus 1000 can track an object based on radar data and train a neural network model to detect whether the object has fallen. Furthermore, the fall detection device 1000 can track an object using a learned neural network model and perform an operation to detect or analyze whether the object has fallen.
- the fall detection device 1000 may include a transceiver 1100, a memory 1200, and a processor 1300.
- the transceiver unit 1100 of the fall detection device 1000 can communicate with any external device.
- the fall detection device 1000 may receive radar data through the transceiver 1100.
- the fall detection device 1000 may obtain execution data for executing a trained neural network model (eg, object tracking model and/or fall detection model) through the transceiver 1100.
- execution data may mean encompassing arbitrary data for properly executing a trained neural network model, including layer information, operation information, structural information, and weight information of the trained neural network model.
- the fall detection device 1000 through the transceiver 1100, transmits any information, including location information of the object, bounding box information defining the object, and/or fall notification, to an external device (or can be transmitted to an external terminal).
- the fall detection device 1000 can connect to a network and transmit and receive various data through the transmitting and receiving unit 1100.
- the transceiver unit 1100 may largely include a wired type and a wireless type. Since the wired type and the wireless type have their own advantages and disadvantages, in some cases, the fall detection device 1000 may be provided with both the wired type and the wireless type.
- a WLAN (Wireless Local Area Network) type communication method such as Wi-Fi can be mainly used.
- cellular communication such as LTE or 5G communication methods, can be used.
- the wireless communication protocol is not limited to the above-described example, and any appropriate wireless type of communication method can be used.
- LAN Local Area Network
- USB Universal Serial Bus
- the memory 1200 of the fall detection device 1000 can store various types of information. Various data may be temporarily or semi-permanently stored in the memory 1200. Examples of memory 1200 include hard disk drive (HDD), solid state drive (SSD), flash memory, read-only memory (ROM), random access memory (RAM), etc. This can be.
- the memory 1200 may be provided as built into the fall detection device 1000 or in a detachable form.
- the memory 1200 contains information necessary for the operation of the fall detection device 1000, including an operating program (OS: Operating System) for operating the fall detection device 1000 and a program for operating each component of the fall detection device 1000.
- OS Operating System
- the processor 1300 may control the overall operation of the fall detection device 1000.
- the processor 1300 trains an object tracking model to track an object based on radar data to be described later, calculates location information of an object through a trained object tracking model, and trains a fall detection model.
- the overall operation of the fall detection device 1000 can be controlled, including the operation of calculating a classification value related to whether a fall has occurred using a fall detection model for which training has been completed.
- the processor 1300 may load and execute a program for the overall operation of the fall detection device 1000 from the memory 1200.
- the processor 1300 may be implemented as an application processor (AP), a central processing unit (CPU), a microcontroller unit (MCU), or a similar device depending on hardware, software, or a combination thereof.
- AP application processor
- CPU central processing unit
- MCU microcontroller unit
- hardware may be provided in the form of an electronic circuit that processes electrical signals to perform a control function
- software may be provided in the form of a program or code that drives the hardware circuit
- FIG. 2 is a diagram illustrating an aspect of training an object tracking model according to an embodiment of the present disclosure and an aspect of calculating location information of an object using the learned object tracking model.
- FIG. 2(a) is a diagram illustrating an aspect of learning an object tracking model according to an embodiment of the present disclosure
- FIG. 2(b) is a diagram illustrating a fully trained object tracking model according to an embodiment of the present disclosure. This is a diagram showing how to calculate the location information of an object from radar data.
- the fall detection apparatus 1000 may perform an operation of training a neural network model (hereinafter referred to as an object tracking model) for tracking an object based on radar data.
- an object tracking model a neural network model
- the object that is the target of fall detection must be tracked from radar data, so the fall detection device 1000 tracks the object and provides location information of the object and/or a bounding box that defines the object. It may be configured to train an object tracking model for computing.
- the fall detection device 1000 may train an object tracking model using a learning data set of the object tracking model consisting of radar data and camera data matched with the radar data. At this time, the coordinates of the radar data and the coordinates of the camera data are calibrated, so conversion between each coordinate is possible.
- the fall detection apparatus 1000 may train an object tracking model using a learning data set of the object tracking model consisting of location information of objects calculated based on radar data and camera data.
- location information of an object may be calculated using a first image obtained from a first camera installed at a first location and a second image obtained from a second camera installed at a second location.
- the fall detection device 1000 extracts the skeletal information of the object through a pose estimation technique for each image, and establishes location information of the object and a bounding box that defines the object based on the skeletal information of the extracted object. You can obtain (bounding box).
- the fall detection device 1000 acquires the intersection of the straight line connecting the object's skeletal information acquired through one camera and the corresponding camera and the straight line connecting the object's skeletal information and the corresponding camera through another camera, and obtains each Based on the intersections corresponding to the skeleton information, the location information of the object and the bounding box that defines the object can be obtained.
- a bounding box that defines an object can be obtained to include intersections corresponding to each skeletal information.
- the location information of an object can be calculated based on the coordinate information of the bounding box that defines the object.
- each image was acquired using two cameras, and the location information of the object was calculated from each image.
- the location information of the calculated object may be inaccurate. Therefore, when occlusion occurs between objects, the first image obtained from the first camera installed at the first location, the second image obtained from the second camera installed at the second location, and the third camera installed at the third location It can be implemented to calculate the location information of the object using the acquired third image.
- the fall detection device 1000 may input radar data into an object tracking model and obtain an output value related to the location of the object output through the object tracking model. At this time, the fall detection device 1000 may update the object tracking model based on the output value and the location information of the camera-based object included in the learning data set of the object tracking model. Specifically, the fall detection device 1000 is configured so that the output value is approximated to the position information of the camera-based object based on the difference between the output value and the position information of the camera-based object included in the learning data set of the object tracking model. , the object tracking model can be trained by updating the parameters (or weights) of the object tracking model.
- the fall detection device 1000 performs an operation of calculating object location information (or bounding box defining the object) from radar data using a learned object tracking model. can do.
- the fall detection device 1000 may be configured to acquire radar data to be analyzed and input the radar data into a learned object tracking model.
- the fall detection device 1000 may acquire the location information of the object output through the learned object tracking model.
- the object tracking model that has completed learning is trained to output an output value approximated to the position information of the object that is ground-truth from the radar data through a learning data set consisting of the position information of the object calculated based on radar data and camera data. Therefore, the location information of the object can be calculated from radar data.
- the learning method of the object tracking model is explained, focusing on calculating the location information of the object.
- the fall detection device 1000 defines the object as well as the location information of the object from the radar data using a learning data set consisting of bounding box information that defines the object based on the above-described radar data and camera data. You will be able to train an object tracking model to calculate the bounding box.
- FIG. 3 is a diagram illustrating an aspect of learning a fall detection model according to an embodiment of the present disclosure and an aspect of detecting a fall using a fall detection model that has completed learning.
- FIG. 3(a) is a diagram showing an aspect of learning a fall detection model according to an embodiment of the present disclosure
- FIG. 3(b) shows a fall detection model that has completed learning according to an embodiment of the present disclosure. This is a diagram showing how to calculate a classification value related to whether a fall has occurred from radar data.
- the fall detection apparatus 1000 may perform an operation of training a neural network model (hereinafter, fall detection model) for detecting a fall of an object based on radar data.
- the fall detection device 1000 may train a fall detection model using a fall detection model training data set consisting of radar data and label information related to whether or not a fall has been assigned to camera data matched with the radar data.
- a fall detection model training data set consisting of radar data and label information related to whether or not a fall has been assigned to camera data matched with the radar data.
- the frames belonging to the first frame section of the camera data corresponding to the section in which a fall occurred e.g., a fall while standing, a fall while lying down, or a fall while sitting
- there is a second frame indicating that the fall occurred. 1 label can be assigned.
- frames belonging to the second frame section of camera data corresponding to a section in which no fall occurred e.g., a section corresponding to a state in which an object is sitting, a state in which an object is lying down, a state in which an object is walking, a state in which an object is running, etc.
- a second label indicating that a fall did not occur may be assigned to frames belonging to the second frame section.
- the fall detection device 1000 may input radar data from the fall detection model's training data set to the fall detection model and obtain a classification prediction value related to whether a fall occurred, which is output through the fall detection model. At this time, the fall detection device 1000 may update the fall detection model based on the classification prediction value and label information included in the fall detection model training data set. Specifically, the fall detection device 1000 determines the classification prediction value as a fall condition based on the classification prediction value and the label information included in the learning data set of the fall detection model, if the label information of the corresponding frame includes the first label indicating that a fall occurred. If the label information of the corresponding frame includes a second label indicating that the fall did not occur, the classification prediction value is output as the second value corresponding to the fact that the fall was not detected. To do so, the fall detection model can be trained by updating the parameters (or weights) of the fall detection model.
- the fall detection device 1000 may perform an operation of calculating a classification value indicating that a fall of an object has occurred from radar data using a fall detection model that has completed learning.
- the fall detection device 1000 may be configured to acquire radar data to be analyzed and input the radar data into a fall detection model on which learning has been completed.
- the fall detection device 1000 may obtain a classification value output through a fall detection model that has completed learning.
- the fall detection model that has completed training is trained to output a classification prediction value corresponding to the label information from the radar data through a learning data set consisting of label information assigned according to whether or not there was a fall for the radar data and camera data. From the data, a classification value can be calculated according to whether a fall occurred.
- the fall detection model that has completed learning outputs a first classification value indicating that a fall occurred when a fall was detected in the radar data, and outputs a first classification value indicating that a fall occurred when a fall was not detected in the radar data. It may be configured to output the second classification value that represents the second classification value.
- FIG. 4 When describing FIG. 4, overlapping content described in relation to FIGS. 2 and 3 may be omitted. However, this is only for convenience of explanation and should not be construed as limiting.
- FIG. 4 is a diagram illustrating an aspect of learning an object tracking model and a fall detection model according to an embodiment of the present disclosure.
- the fall detection device 1000 may perform an operation of linking and training an object tracking model for tracking an object and a fall detection model for detecting a fall of an object, based on radar data. You can. Specifically, the fall detection device 1000 models an object tracking model using a learning data set consisting of radar data, label information related to whether a fall has been assigned to camera data matched with the radar data, and location information of the object calculated from the camera data. and a fall detection model can be trained.
- the fall detection device 1000 may input radar data (eg, radar data in the form of a heatmap) into an object tracking model and obtain an output value related to the location information of the object output through the object tracking model. At this time, the fall detection device 1000 may train an object tracking model based on the output value and the location information (ground-truth) of the object calculated from the camera data of the learning data set. Specifically, the fall detection device 1000 may update the parameters of the object tracking model so that the object tracking model outputs an output value that approximates the location information of the object calculated from camera data.
- radar data eg, radar data in the form of a heatmap
- some layers of the object tracking model may be configured to extract features representing the characteristics of the frame for each frame of radar data.
- the fall detection device 1000 may be implemented to train a fall detection model based on features extracted through an object tracking model.
- the fall detection apparatus 1000 may obtain a feature queue by sequentially storing at least one feature extracted from the object tracking model.
- the fall detection device 1000 stores at least one feature, including a first feature extracted from the first frame of the radar data and a second feature extracted from the second frame of the radar data, for each frame to obtain a feature queue. You can.
- the fall detection device 1000 may input at least one feature stored in the feature queue into the fall detection model and obtain a classification prediction value related to whether a fall occurred, which is output through the fall detection model. Furthermore, the fall detection device 1000 may train a fall detection model based on label information and classification prediction values assigned to each frame of camera data matched to radar data included in the learning data set. For example, when the fall detection device 1000 is assigned a first label indicating that a fall has occurred to a frame of camera data corresponding to the first frame of radar data, the fall detection model creates the first label based on the first feature. The parameters of the fall detection model may be updated to output the first classification prediction value corresponding to the label (that is, to classify the first frame as having occurred a fall).
- the fall detection device 1000 creates a fall detection model based on the second feature.
- the parameters of the fall detection model may be updated to output a second classification prediction value corresponding to the second label (that is, to classify the second frame as having not occurred a fall).
- the fall detection device 1000 may be configured to alternately perform learning of the object tracking model and learning of the fall detection model.
- the fall detection apparatus 1000 may be configured to repeatedly perform the operations of training an object tracking model a predetermined number of times and training a fall detection model a predetermined number of times.
- the fall detection device 1000 according to an embodiment of the present disclosure alternately trains an object tracking model and a fall detection model, so that the object tracking task of the object tracking model and the fall detection task of the fall detection model improve the performance of each other's tasks.
- the object tracking model and the fall detection model can be trained in a way that maximizes the accuracy of the fall detection model while maintaining the accuracy of the object tracking model at a certain level.
- Figure 5 shows an aspect of calculating an object's location information and a classification value related to whether a fall occurred from radar data using a fully learned object tracking model and a fully learned fall detection model according to an embodiment of the present disclosure. It is a drawing.
- the fall detection device 1000 calculates location information of the object and classification values related to whether a fall of the object has occurred from radar data using a learned object tracking model and a fall detection model. You can.
- the fall detection device 1000 may be configured to input radar data to be analyzed (eg, radar data in the form of a heat map) into a learned object tracking model and/or a learned fall detection model. At this time, the fall detection device 1000 may acquire the location information of the object through the learned object tracking model.
- the learned object tracking model is based on the object's position information (ground-truth) calculated from the radar data and the camera data matched to the radar data, and the output value is approximated to the object's position information from the radar data. Since it has been trained to output, the location information of objects can be calculated from layer data.
- the learned object tracking model may be configured to extract features representing characteristic information of the frame for each frame of radar data to be analyzed.
- the fall detection apparatus 1000 may obtain a feature queue by storing at least one extracted feature for each frame.
- the fall detection device 1000 can input features stored in the feature queue for each frame into a fall detection model that has been trained, and obtain a classification value related to whether the object has fallen, which is output through the fall detection model that has completed learning.
- the fall detection model that has completed learning is derived from the features of the feature queue through a learning data set consisting of label information assigned according to whether or not there was a fall for the features extracted from radar data and the frames of camera data corresponding to the features.
- the fall detection device 1000 can obtain location information of an object and a classification value related to whether a fall of the object has occurred from radar data through a fully learned object tracking model and a fully learned fall detection model. .
- radar data input to the object tracking model and/or fall detection model may be in the form of a two-dimensional heat map.
- radar data included in the learning data set may consist of a two-dimensional Range-Azimuth heat map and a two-dimensional Range-Elevation heat map.
- the fall detection device 1000 inputs the two-dimensional Range-Azimuth heat map and the two-dimensional Range-Elevation heat map of each frame into an object tracking model and/or a fall detection model, It may be implemented to train an object tracking model and/or a fall detection model, or calculate location information and/or classification values of an object.
- the fall detection device 1000 can execute an object tracking model and a fall detection model even on the radar's own processor, which has relatively low performance.
- FIGS. 6 to 8 a method for learning an object tracking model and a fall detection model according to an embodiment of the present disclosure will be described with reference to FIGS. 6 to 8.
- overlapping embodiments described in relation to FIGS. 2 to 5 may be omitted. However, this is only for convenience of explanation and should not be construed as limiting.
- Figure 6 is a flow chart illustrating a method for training a fall detection model according to an embodiment of the present disclosure.
- a method of training a fall detection model may include training an object tracking model (S1000) and training a fall detection model (S2000).
- the fall detection device 1000 may train an object tracking model that performs a task for tracking an object based on radar data. Specifically, the fall detection device 1000 may track an object and train an object tracking model to calculate the location information of the object and/or a bounding box that defines the object. The details of training the object tracking model will be described in more detail in FIG. 7.
- the fall detection device 1000 may train a fall detection model to detect a fall of an object based on radar data.
- the fall detection device 1000 may train a fall detection model to determine whether an object has fallen in the frame based on the frame-by-frame features of the radar data extracted through the object tracking model in step S1000. there is.
- the contents of training the fall detection model will be described in more detail in FIG. 8.
- Figure 7 is a flow chart specifying the step (S1000) of training an object tracking model according to an embodiment of the present disclosure.
- the step of training an object tracking model according to an embodiment of the present disclosure is the step of acquiring a learning data set consisting of location information of the object calculated from radar data and camera data matched with the radar data (S1100), radar Inputting data into the object tracking model, obtaining an output value output through the object tracking model (S1200), and updating the object tracking model based on the output value and the location information of the object in the learning data set (S1300) ) may further be included.
- the fall detection device 1000 acquires a learning data set for training an object tracking model.
- the learning data set may be composed of radar data and object location information calculated from camera data matched with the radar data for each frame.
- the radar data may be radar data in the form of a heat map, for example, a two-dimensional Range-Azimuth heat map and a two-dimensional Range-Elevation heat map.
- the location information of the object may include a first image obtained from a first camera installed at a first location, a second image obtained from a second camera installed at a second location, and/or a third image obtained from a third camera installed at a third location.
- 3 Can be calculated using images.
- the fall detection device 1000 extracts the skeletal information of the object through a pose estimation technique for each image, and establishes location information of the object and a bounding box that defines the object based on the skeletal information of the extracted object. You can obtain (bounding box).
- the fall detection device 1000 acquires the intersection of the straight line connecting the object's skeletal information acquired through one camera and the corresponding camera and the straight line connecting the object's skeletal information and the corresponding camera through another camera, and obtains each Based on the intersections corresponding to the skeleton information, the location information of the object and the bounding box that defines the object can be obtained.
- the fall detection device 1000 includes heat map data (for example, two-dimensional Range-Azimuth heat map data and two-dimensional Range-Elevation heat map data) can be input into an object tracking model, and output values related to the location of the object output through the object tracking model can be obtained.
- heat map data For example, two-dimensional Range-Azimuth heat map data and two-dimensional Range-Elevation heat map data
- the object tracking model may be configured to extract features representing characteristic information of the heatmap data from heatmap data through some layers included in the object tracking model.
- the fall detection device 1000 may be configured to obtain at least one or more extracted features and store them in a feature queue.
- the fall detection device 1000 uses ground-truth information on the location of the object calculated from the camera data of the learning data set. ) and the object tracking model can be trained based on the output values output through the object tracking model. Specifically, the fall detection device 1000 may update the parameters of the object tracking model so that the object tracking model outputs an output value that approximates the location information of the object calculated from camera data.
- the fall detection device 1000 may perform an operation of calculating the location information of an object (or a bounding box defining the object) from radar data using a learned object tracking model.
- the fall detection device 1000 may be configured to acquire radar data to be analyzed (eg, radar data in the form of a heat map) and input the radar data into a learned object tracking model.
- the fall detection device 1000 may acquire the location information of the object output through the learned object tracking model.
- the object tracking model that has completed learning is trained to output an output value approximated to the position information of the object that is ground-truth from the radar data through a learning data set consisting of the position information of the object calculated based on radar data and camera data. Therefore, it is possible to calculate object location information indicating the location of the object from radar data.
- Figure 8 is a flow chart specifying the step (S2000) of training a fall detection model according to an embodiment of the present disclosure.
- the step of training a fall detection model according to an embodiment of the present disclosure is the step of acquiring a learning data set consisting of label information related to whether a fall has been assigned to radar data and camera data matched with the radar data (S2100). , inputting radar data into a fall detection model (S2200), obtaining a classification prediction value related to whether a fall occurred output through the fall detection model (S2300), and labeling the classification prediction value and the learning data set.
- a step of updating the fall detection model based on the information (S2400) may be further included.
- the fall detection device 1000 uses a learning data set for training a fall detection model.
- the learning data set may be composed of radar data and label information assigned to each frame of camera data matched for each frame with the radar data. For example, in the frames belonging to the first frame section of the camera data corresponding to the section in which a fall (e.g., a fall while standing, a fall while lying down, or a fall while sitting) occurred, it is indicated that a fall occurred.
- a first label representing the first label may be assigned.
- frames belonging to the second frame section of the camera data corresponding to the section in which no fall occurred e.g., the section corresponding to the state in which the object is sitting, the state in which the object is lying, the state in which the object is walking, the state in which the object is running, etc.
- a second label indicating that a fall did not occur may be assigned.
- the fall detection device 1000 may input radar data consisting of a plurality of frames into the fall detection model.
- the fall detection device 1000 may be configured to input radar data in the form of a two-dimensional heat map into a fall detection model.
- radar data may be composed of a two-dimensional Range-Azimuth heat map and a two-dimensional Range-Elevation heat map for each frame.
- the step of inputting radar data into a fall detection model includes obtaining a feature queue by storing at least one feature extracted through the above-described object tracking model; And it may further include inputting at least one feature stored in the feature queue into the fall detection model.
- the fall detection device 1000 includes at least one feature including a first feature extracted from the first frame of the radar data and a second feature extracted from the second frame of the radar data through some layers of the object tracking model. You can obtain feature queues saved for each frame.
- the fall detection apparatus 1000 may be configured to input the first feature or the second feature stored in the feature queue into the fall detection model.
- the fall detection device 1000 uses the fall detection model from the above-described radar data (e.g., features stored in the feature queue). It is possible to obtain a classification prediction value related to whether a fall occurred or not.
- the fall detection device 1000 uses the classification prediction value output through the fall detection model and the radar included in the learning data set.
- the parameters of the fall detection model can be updated based on the label information assigned to each frame of camera data matched to the data.
- the fall detection model when the fall detection device 1000 is assigned a first label indicating that a fall has occurred to a frame of camera data corresponding to the first frame of radar data, the fall detection model is configured to use the first label extracted from the first frame. Based on the feature, the parameters of the fall detection model may be updated to output the first classification prediction value corresponding to the first label (that is, to classify the first frame as having occurred a fall). For example, when the fall detection device 1000 is assigned a second label indicating that no fall occurred to the frame of camera data corresponding to the second frame of radar data, the fall detection model is extracted from the second frame. Based on the second feature, the parameters of the fall detection model may be updated to output a second classification prediction value corresponding to the second label (that is, to classify that a fall did not occur for the second frame).
- the fall detection device 1000 detects that a fall of an object has occurred from radar data (e.g., a feature queue in which features extracted from frames of radar data are stored) using a fall detection model that has completed learning. An operation can be performed to calculate the classification value it represents.
- the fall detection apparatus 1000 may be configured to input features stored for each frame in a feature queue obtained from radar data of an analysis target into a fall detection model on which learning has been completed. At this time, the fall detection device 1000 may obtain a classification value related to whether a fall of the object output has occurred through a fall detection model that has completed learning.
- the fall detection model that has completed learning is provided with label information from radar data through a learning data set consisting of radar data (e.g., at least one or more features extracted from radar data) and label information assigned according to whether or not there was a fall for camera data. Since it has been learned to output a classification prediction value corresponding to , it is possible to calculate a classification value according to whether a fall occurred from the radar data to be analyzed. Specifically, the fall detection model that has completed learning outputs a first classification value indicating that a fall occurred when a fall was detected in the radar data, and outputs a first classification value indicating that a fall occurred when a fall was not detected in the radar data. It may be configured to output the second classification value that represents the second classification value.
- Figure 9 is a flowchart showing an aspect of calculating location information of an object using a fully trained object tracking model and detecting a fall using a fully trained fall detection model according to an embodiment of the present disclosure.
- the trained object tracking model and the trained fall detection model according to an embodiment of the present disclosure may be executed in the processor of the radar itself. Specifically, the radar processor acquires radar data (e.g., radar data in the form of a heat map), inputs the radar data into a learned object tracking model, and provides location information (or object location information) calculated through the learned object tracking model. You can obtain the corresponding bounding box.
- radar data e.g., radar data in the form of a heat map
- location information or object location information
- the radar processor acquires features representing characteristic information of each frame of radar data extracted through some layers of the object tracking model for which learning has been completed, acquires a feature queue by storing features for each frame, and obtains features stored in the feature queue. It can be configured to input into the fall detection model on which learning has been completed.
- the radar processor acquires a classification value related to whether the object has fallen through the learned fall detection model, and if it is determined that a fall has occurred based on the classification value, it notifies the protection terminal or institutional terminal that a fall has occurred. Can be configured to send notifications. On the other hand, if it is determined that a fall did not occur based on the classification value, it may be configured to repeatedly perform the task of tracking the object and detecting the fall of the object based on radar data.
- the fall detection device 1000 there is a need for the fall detection device 1000 according to an embodiment of the present disclosure to detect falls, but in environments where it is difficult to detect falls through a camera due to individual privacy (e.g., nursing homes, nursing hospitals, restrooms, etc.) It may be used in .
- individual privacy e.g., nursing homes, nursing hospitals, restrooms, etc.
- the fall detection model learning method and fall detection device it is possible to track an object and detect a fall based only on radar data. Through this, it is possible to provide the effect of tracking objects and detecting falls using only radar data, even in environments where cameras are difficult to install.
- a fall detection model is trained using a learning data set configured to detect falls occurring in various postures, regardless of the fall posture. It can provide the effect of detecting falls.
- the time required for learning the fall detection model is reduced by using features extracted through the object tracking model in learning the fall detection model. You can do it.
- the accuracy of the fall detection task is improved while maintaining the accuracy of the object tracking task at a certain level by alternately learning the object tracking model and the fall detection model. It can be increased.
- the object tracking model and the fall detection model are trained or executed using radar data in the form of a two-dimensional heat map, thereby improving relative performance.
- Object tracking models and fall detection models can also be run on the processor of this low-level radar itself. Through this, the effect of tracking objects and detecting falls can be provided through the radar's own processor.
- Various operations of the fall detection device 1000 described above may be stored in the memory 1200 of the fall detection device 1000, and the processor 1300 of the fall detection device 1000 performs the operations stored in the memory 1200. may be provided to do so.
- the method of learning a fall detection model based on radar data as described above and the fall detection device that performs the same can be applied to various fields such as sports, medical, smart home, and industrial fields.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Dentistry (AREA)
- Physiology (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Train Traffic Observation, Control, And Security (AREA)
- Radar Systems Or Details Thereof (AREA)
- Instructional Devices (AREA)
Abstract
Description
본 개시는 레이더 데이터에 기반한 낙상 감지 모델의 학습 방법 및 이를 수행하는 낙상 감지 장치에 관한 것이다. 구체적으로 본 개시는 레이더 데이터의 객체를 추적하기 위한 객체 추적 모델의 학습 방법과 객체의 낙상 여부를 감지하기 위한 낙상 감지 모델의 학습 방법 및 이를 수행하는 낙상 감지 장치에 관한 것이다.The present disclosure relates to a method of learning a fall detection model based on radar data and a fall detection device that performs the same. Specifically, the present disclosure relates to a method of learning an object tracking model for tracking an object in radar data, a method of learning a fall detection model to detect whether an object has fallen, and a fall detection device that performs the same.
인공지능 기술이 발전하면서 다양한 산업 분야에서 인공지능 기술들이 활용되고 있다. 특히 인공지능 기법을 이용한 레이더 처리 기술이 고도화됨에 따라 레이더에 기반하여 객체의 낙상을 감지하는 기술이 주목받고 있다.As artificial intelligence technology develops, it is being used in various industrial fields. In particular, as radar processing technology using artificial intelligence techniques becomes more advanced, technology that detects falling objects based on radar is attracting attention.
종래에는 도플러 이미지를 이용하여 객체의 낙상을 감지하였다. 도플러 이미지는 위치(range)에 대해 일정 시간에 따른 변화량으로 계산된다. 종래에는 도플러 이미지를 이용하여 특정 위치에 위치하는 객체의 속도를 측정하고 측정된 객체의 속도가 일정 이상의 속도로 감지되면 낙상으로 판단하였다. 다만 도플러 이미지를 이용한 낙상 감지 기술은 특정 방향(range bin)으로의 속도만을 측정할 수 있다는 제약이 존재하며, 이러한 제약으로 인하여 특정 방향이 아닌 다른 방향으로의 낙상은 감지할 수 없다는 한계가 존재하였다. 나아가 도플러 이미지를 이용한 낙상 감지 기술은 레이더가 측정하는 전체 영역이 아닌 일부 영역에 대하여만 분석이 가능하다는 한계가 존재하였다.Conventionally, a fall of an object was detected using Doppler images. Doppler images are calculated as the change in position over a certain period of time. Conventionally, the speed of an object located at a specific location was measured using a Doppler image, and if the measured speed of the object was detected to be above a certain speed, it was judged to be a fall. However, fall detection technology using Doppler images has limitations in that it can only measure speed in a specific direction (range bin), and due to these limitations, there is a limitation in that falls in directions other than the specific direction cannot be detected. . Furthermore, fall detection technology using Doppler images had a limitation in that it could only analyze a certain area, not the entire area measured by radar.
이에 인공지능 기술을 이용하여 레이더 데이터에 근거하여 객체의 낙상을 감지하기 위한 새로운 기술의 개발이 요구되는 실정이다. Accordingly, there is a need to develop a new technology to detect the fall of an object based on radar data using artificial intelligence technology.
본 개시가 해결하고자 하는 일 과제는, 레이더 데이터에 기반하여 객체를 추적하고, 객체의 낙상 여부를 감지하기 위한 신경망 모델의 학습 방법, 및 이를 수행하는 낙상 감지 장치를 제공하는 것이다.The problem that the present disclosure aims to solve is to provide a method of learning a neural network model for tracking an object based on radar data and detecting whether the object has fallen, and a fall detection device that performs the same.
본 개시가 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The problem to be solved by the present disclosure is not limited to the above-mentioned problems, and problems not mentioned can be clearly understood by those skilled in the art from this specification and the attached drawings. .
본 개시의 일 실시예에 따른 낙상 감지 모델의 학습 방법은, 레이더 데이터에 기반하여 객체 추적 모델을 훈련시키는 단계; 및 상기 객체 추적 모델을 통하여 상기 레이더 데이터로부터 추출된 피처에 기반하여, 낙상 감지 모델을 훈련시키는 단계를 포함하되, 상기 낙상 감지 모델을 훈련시키는 단계는, 상기 레이더 데이터 및 상기 레이더 데이터와 매칭된 카메라 데이터에 할당된 낙상 여부와 관련된 레이블 정보로 구성된 제1 학습 데이터 셋을 획득하는 단계; 상기 객체 추적 모델을 통하여 상기 레이더 데이터로부터 추출된 적어도 하나 이상의 피처들을 저장하여 피처 큐를 획득하는 단계; 상기 피처 큐에 저장된 적어도 하나 이상의 피처들을 상기 낙상 감지 모델에 입력하는 단계; 상기 적어도 하나 이상의 피처들에 기반하여 상기 낙상 감지 모델을 통하여 출력되는 낙상이 발생하였는지 여부와 관련된 분류 값을 획득하는 단계; 및 상기 분류 값과 상기 제1 학습 데이터 셋의 상기 레이블 정보에 기반하여 상기 낙상 감지 모델을 갱신하는 단계를 포함할 수 있다.A method for learning a fall detection model according to an embodiment of the present disclosure includes training an object tracking model based on radar data; and training a fall detection model based on features extracted from the radar data through the object tracking model, wherein training the fall detection model includes the radar data and a camera matched with the radar data. Obtaining a first learning data set consisting of label information related to whether or not a fall has been assigned to the data; acquiring a feature queue by storing at least one feature extracted from the radar data through the object tracking model; Inputting at least one feature stored in the feature queue into the fall detection model; Obtaining a classification value related to whether a fall has occurred output through the fall detection model based on the at least one feature; And it may include updating the fall detection model based on the classification value and the label information of the first learning data set.
본 개시의 일 실시예에 따른 낙상 감지 장치는, 레이더 데이터에 기반하여 객체 추적 모델을 훈련시키고, 상기 객체 추적 모델을 통하여 상기 레이더 데이터로부터 추출된 피처에 기반하여 낙상 감지 모델을 훈련시키도록 구성된 프로세서를 포함하되, 상기 프로세서는, 상기 레이더 데이터 및 상기 레이더 데이터와 매칭된 카메라 데이터에 할당된 낙상 여부와 관련된 레이블 정보로 구성된 제1 학습 데이터 셋을 획득하고, 상기 객체 추적 모델을 통하여 상기 레이더 데이터로부터 추출된 적어도 하나 이상의 피처들을 저장하여 피처 큐를 획득하고, 상기 피처 큐에 저장된 적어도 하나 이상의 피처들을 상기 낙상 감지 모델에 입력하고, 상기 적어도 하나 이상의 피처들에 기반하여 상기 낙상 감지 모델을 통하여 출력되는 낙상이 발생하였는지 여부와 관련된 분류 값을 획득하고, 상기 분류 값과 상기 제1 학습 데이터 셋의 상기 레이블 정보에 기반하여 상기 낙상 감지 모델을 갱신하여 상기 낙상 감지 모델을 훈련시키도록 구성될 수 있다. A fall detection device according to an embodiment of the present disclosure is a processor configured to train an object tracking model based on radar data and train a fall detection model based on features extracted from the radar data through the object tracking model. Including, wherein the processor acquires a first learning data set consisting of label information related to whether a fall is assigned to the radar data and camera data matched with the radar data, and obtains a first learning data set from the radar data through the object tracking model. Obtain a feature queue by storing at least one extracted feature, input at least one or more features stored in the feature queue into the fall detection model, and output through the fall detection model based on the at least one or more features. It may be configured to train the fall detection model by obtaining a classification value related to whether a fall has occurred, and updating the fall detection model based on the classification value and the label information of the first learning data set.
본 개시의 기술적 해결방법이 상술한 기술적 해결방법들로 제한되는 것은 아니며, 언급되지 아니한 기술적 해결방법들은 본 명세서 및 첨부된 도면으로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The technical solutions of the present disclosure are not limited to the above-described technical solutions, and technical solutions not mentioned are clearly understood by those skilled in the art from this specification and the attached drawings. It could be.
본 개시의 일 실시예에 따른 낙상 감지 모델의 학습 방법 및 낙상 감지 장치에 따르면, 레이더 데이터에만 근거하여 객체를 추적하고 낙상을 감지할 수 있다. 이를 통하여 카메라가 설치되기 어려운 환경에서도 레이더 데이터만을 이용하여 객체를 추적하고 낙상을 감지하는 효과를 제공할 수 있다. According to the fall detection model learning method and fall detection device according to an embodiment of the present disclosure, it is possible to track an object and detect a fall based only on radar data. Through this, it is possible to provide the effect of tracking objects and detecting falls using only radar data, even in environments where cameras are difficult to install.
본 개시의 일 실시예에 따른 낙상 감지 모델의 학습 방법 및 낙상 감지 장치에 따르면, 다양한 자세로 발생하는 낙상을 감지할 수 있도록 구성된 학습 데이터 세트를 이용하여 낙상 감지 모델을 훈련시킴으로써 낙상 자세와 무관하게 낙상을 감지할 수 있는 효과를 제공할 수 있다. According to the fall detection model learning method and fall detection device according to an embodiment of the present disclosure, a fall detection model is trained using a learning data set configured to detect falls occurring in various postures, regardless of the fall posture. It can provide the effect of detecting falls.
본 개시의 일 실시예에 따른 낙상 감지 모델의 학습 방법 및 낙상 감지 장치에 따르면, 객체 추적 모델을 통하여 추출된 피처를 낙상 감지 모델의 학습에서 이용함으로써, 낙상 감지 모델의 학습에 소요되는 시간을 감소시킬 수 있다. According to the fall detection model learning method and fall detection device according to an embodiment of the present disclosure, the time required for learning the fall detection model is reduced by using features extracted through the object tracking model in learning the fall detection model. You can do it.
본 개시의 일 실시예에 따른 낙상 감지 모델의 학습 방법 및 낙상 감지 장치에 따르면, 객체 추적 모델과 낙상 감지 모델을 번갈아가면서 학습시킴으로써 객체 추적 태스크의 정확도를 일정 수준으로 유지하면서도 낙상 감지 태스크의 정확도를 증대시킬 수 있다. According to the fall detection model learning method and fall detection device according to an embodiment of the present disclosure, the accuracy of the fall detection task is improved while maintaining the accuracy of the object tracking task at a certain level by alternately learning the object tracking model and the fall detection model. It can be increased.
본 개시의 일 실시예에 따른 낙상 감지 모델의 학습 방법 및 낙상 감지 장치에 따르면, 2차원의 히트맵을 이용하여 객체 추적 모델 및 낙상 감지 모델을 학습시키거나 실행함으로써, 상대적으로 성능이 낮은 레이더(radar) 자체의 프로세서에서도 객체 추적 모델과 낙상 감지 모델이 실행될 수 있다. According to the fall detection model learning method and fall detection device according to an embodiment of the present disclosure, the object tracking model and the fall detection model are trained or executed using a two-dimensional heatmap, thereby reducing the relatively low performance radar ( The object tracking model and fall detection model can also be run on radar's own processor.
본 개시의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다. The effects of the present disclosure are not limited to the effects described above, and effects not mentioned can be clearly understood by those skilled in the art from this specification and the attached drawings.
도 1은 본 개시의 일 실시예에 따른 낙상 감지 장치의 개략도이다.1 is a schematic diagram of a fall detection device according to an embodiment of the present disclosure.
도 2는 본 개시의 일 실시예에 따른 객체 추적 모델을 학습시키는 양상과 학습이 완료된 객체 추적 모델을 이용하여 객체의 위치 정보를 연산하는 양상을 도시한 도면이다.FIG. 2 is a diagram illustrating an aspect of training an object tracking model according to an embodiment of the present disclosure and an aspect of calculating location information of an object using the learned object tracking model.
도 3은 본 개시의 일 실시예에 따른 낙상 감지 모델을 학습시키는 양상과 학습이 완료된 낙상 감지 모델을 이용하여 낙상을 감지하는 양상을 도시한 도면이다.FIG. 3 is a diagram illustrating an aspect of learning a fall detection model according to an embodiment of the present disclosure and an aspect of detecting a fall using a fall detection model that has completed learning.
도 4는 본 개시의 일 실시예에 따른 객체 추적 모델과 낙상 감지 모델을 학습시키는 양상을 도시한 도면이다.FIG. 4 is a diagram illustrating an aspect of learning an object tracking model and a fall detection model according to an embodiment of the present disclosure.
도 5는 본 개시의 일 실시예에 따른 학습이 완료된 객체 추적 모델과 학습이 완료된 낙상 감지 모델을 이용하여 레이더 데이터로부터 객체의 위치 정보와 낙상이 발생하였는지 여부와 관련된 분류 값을 연산하는 양상을 도시한 도면이다.Figure 5 shows an aspect of calculating an object's location information and a classification value related to whether a fall occurred from radar data using a fully learned object tracking model and a fully learned fall detection model according to an embodiment of the present disclosure. It is a drawing.
도 6은 본 개시의 일 실시예에 따른 낙상 감지 모델을 훈련시키는 방법을 도시한 순서도이다.Figure 6 is a flow chart illustrating a method for training a fall detection model according to an embodiment of the present disclosure.
도 7은 본 개시의 일 실시예에 따른 객체 추적 모델을 훈련시키는 단계를 구체화한 순서도이다. Figure 7 is a flow chart specifying the steps of training an object tracking model according to an embodiment of the present disclosure.
도 8은 본 개시의 일 실시예에 따른 낙상 감지 모델을 훈련시키는 단계를 구체화한 순서도이다. Figure 8 is a flow chart specifying the steps of training a fall detection model according to an embodiment of the present disclosure.
도 9는 본 개시의 일 실시예에 따른 학습이 완료된 객체 추적 모델을 이용하여 객체의 위치 정보를 연산하고 학습이 완료된 낙상 감지 모델을 이용하여 낙상을 감지하는 일 양상을 나타낸 흐름도이다. Figure 9 is a flowchart showing an aspect of calculating location information of an object using a fully trained object tracking model and detecting a fall using a fully trained fall detection model according to an embodiment of the present disclosure.
본 개시의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.The above-described objects, features and advantages of the present disclosure will become more apparent through the following detailed description in conjunction with the accompanying drawings. However, since the present disclosure can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail below.
명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명하며, 이에 대한 중복되는 설명은 생략하기로 한다.Like reference numerals throughout the specification in principle refer to the same elements. In addition, components with the same function within the scope of the same idea shown in the drawings of each embodiment will be described using the same reference numerals, and overlapping descriptions thereof will be omitted.
본 개시와 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.If it is determined that a detailed description of a known function or configuration related to the present disclosure may unnecessarily obscure the gist of the present disclosure, the detailed description will be omitted. In addition, numbers (eg, first, second, etc.) used in the description of this specification are merely identifiers to distinguish one component from another component.
또한, 이하의 실시예에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes “module” and “part” for components used in the following examples are given or used interchangeably only for the ease of writing the specification, and do not have distinct meanings or roles in themselves.
이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.In the following examples, singular terms include plural terms unless the context clearly dictates otherwise.
이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.In the following embodiments, terms such as include or have mean the presence of features or components described in the specification, and do not exclude in advance the possibility of adding one or more other features or components.
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타낸 것으로, 본 개시가 반드시 도시된 바에 한정되지 않는다.In the drawings, the sizes of components may be exaggerated or reduced for convenience of explanation. For example, the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of explanation, and the present disclosure is not necessarily limited to what is shown.
어떤 실시예가 달리 구현 가능한 경우에 특정한 프로세스의 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 프로세스가 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다.If an embodiment can be implemented differently, the order of specific processes may be performed differently from the order described. For example, two processes described in succession may be performed substantially simultaneously, or may proceed in an order opposite to that in which they are described.
이하의 실시예에서, 구성 요소 등이 연결되었다고 할 때, 구성 요소들이 직접적으로 연결된 경우뿐만 아니라 구성요소들 중간에 구성 요소들이 개재되어 간접적으로 연결된 경우도 포함한다.In the following embodiments, when components are connected, this includes not only the case where the components are directly connected, but also the case where the components are indirectly connected by intervening between the components.
예컨대, 본 명세서에서 구성 요소 등이 전기적으로 연결되었다고 할 때, 구성 요소 등이 직접 전기적으로 연결된 경우뿐만 아니라, 그 중간에 구성 요소 등이 개재되어 간접적으로 전기적 연결된 경우도 포함한다.For example, in this specification, when components, etc. are said to be electrically connected, this includes not only cases where the components are directly electrically connected, but also cases where components, etc. are interposed and indirectly electrically connected.
본 개시의 일 실시예에 따른 낙상 감지 모델의 학습 방법은, 객체 추적 모델을 훈련시키는 단계; 및 낙상 감지 모델을 훈련시키는 단계를 포함하되, 상기 낙상 감지 모델을 훈련시키는 단계는, 레이더 데이터 및 레이더 데이터와 매칭된 카메라 데이터에 할당된 낙상 여부와 관련된 레이블 정보로 구성된 제1 학습 데이터 셋을 획득하는 단계; 상기 레이더 데이터를 상기 낙상 감지 모델에 입력하는 단계; 상기 낙상 감지 모델을 통하여 출력되는 낙상이 발생하였는지 여부와 관련된 분류 예측 값을 획득하는 단계; 및 상기 분류 예측 값과 상기 제1 학습 데이터 셋의 상기 레이블 정보에 기반하여 상기 낙상 감지 모델을 갱신하는 단계를 포함할 수 있다.A method for learning a fall detection model according to an embodiment of the present disclosure includes training an object tracking model; and training a fall detection model, wherein the step of training the fall detection model includes acquiring a first learning data set consisting of label information related to whether or not a person has fallen assigned to radar data and camera data matched with the radar data. steps; Inputting the radar data into the fall detection model; Obtaining a classification prediction value related to whether a fall occurred output through the fall detection model; And it may include updating the fall detection model based on the classification prediction value and the label information of the first learning data set.
본 개시의 일 실시예에 따르면, 상기 객체 추적 모델을 훈련시키는 단계는, 상기 레이더 데이터 및 상기 레이더 데이터와 매칭된 카메라 데이터로부터 연산된 객체의 위치 정보로 구성된 제2 학습 데이터 셋을 획득하는 단계; 상기 레이더 데이터를 상기 객체 추적 모델에 입력하고, 상기 객체 추적 모델을 통하여 출력되는 객체의 위치와 관련된 출력 값을 획득하는 단계; 및 상기 출력 값과 상기 제2 학습 데이터 셋의 객체의 위치 정보에 기반하여 상기 객체 추적 모델을 갱신하는 단계를 더 포함할 수 있다. According to an embodiment of the present disclosure, training the object tracking model includes obtaining a second learning data set consisting of location information of an object calculated from the radar data and camera data matched with the radar data; Inputting the radar data into the object tracking model and obtaining an output value related to the location of the object output through the object tracking model; And it may further include updating the object tracking model based on the output value and location information of the object in the second learning data set.
본 개시의 일 실시예에 따르면, 상기 객체 추적 모델을 훈련시키는 단계는, 상기 객체 추적 모델을 통하여 상기 레이더 데이터로부터 피처를 추출하는 단계를 더 포함하되, 상기 레이더 데이터를 상기 낙상 감지 모델에 입력하는 단계는, 상기 객체 추적 모델을 통하여 추출된 적어도 하나 이상의 피처들을 저장하여 피처 큐를 획득하는 단계; 및 상기 피처 큐에 저장된 적어도 하나 이상의 피처들을 상기 낙상 감지 모델에 입력하는 단계를 포함할 수 있다. According to an embodiment of the present disclosure, training the object tracking model further includes extracting features from the radar data through the object tracking model, wherein inputting the radar data to the fall detection model The step includes obtaining a feature queue by storing at least one feature extracted through the object tracking model; and inputting at least one feature stored in the feature queue into the fall detection model.
본 개시의 일 실시예에 따르면, 상기 레이블 정보는, 상기 카메라 데이터의 제1 프레임 구간은 낙상이 발생했음을 나타내는 제1 레이블 및 상기 카메라 데이터의 제2 프레임 구간은 낙상이 발생하지 않았음을 나타내는 제2 레이블 중 하나일 수 있다. According to an embodiment of the present disclosure, the label information includes a first label indicating that a fall occurred in the first frame section of the camera data, and a label indicating that a fall did not occur in the second frame section of the camera data. It can be one of 2 labels.
본 개시의 일 실시예에 따르면, 상기 레이더 데이터는, 2차원의 Range-Azimuth 히트맵 및 2차원의 Range-Elevation 히트맵으로 구성될 수 있다. According to an embodiment of the present disclosure, the radar data may be composed of a two-dimensional Range-Azimuth heat map and a two-dimensional Range-Elevation heat map.
본 개시의 일 실시예에 따르면, 상기 낙상 감지 모델의 학습 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공될 수 있다.According to an embodiment of the present disclosure, a computer-readable recording medium recording a program for executing the fall detection model learning method may be provided.
본 개시의 일 실시예에 따른 낙상 감지 장치는, 객체 추적 모델 및 낙상 감지 모델을 훈련시키도록 구성된 프로세서를 포함하되, 상기 프로세서는, 레이더 데이터 및 레이더 데이터와 매칭된 카메라 데이터에 할당된 낙상 여부와 관련된 레이블 정보로 구성된 제1 학습 데이터 셋을 획득하고, 상기 레이더 데이터를 상기 낙상 감지 모델에 입력하고, 상기 낙상 감지 모델을 통하여 출력되는 낙상이 발생하였는지 여부와 관련된 분류 예측 값을 획득하고, 상기 분류 예측 값과 상기 제1 학습 데이터 셋의 상기 레이블 정보에 기반하여 상기 낙상 감지 모델을 갱신하여 상기 낙상 감지 모델을 훈련시키도록 구성될 수 있다. A fall detection device according to an embodiment of the present disclosure includes a processor configured to train an object tracking model and a fall detection model, wherein the processor determines whether a fall has occurred assigned to radar data and camera data matched with the radar data. Obtain a first learning data set consisting of related label information, input the radar data into the fall detection model, obtain a classification prediction value related to whether a fall occurred output through the fall detection model, and classify It may be configured to train the fall detection model by updating the fall detection model based on the prediction value and the label information of the first learning data set.
본 개시의 일 실시예에 따르면, 상기 프로세서는, 상기 레이더 데이터 및 상기 레이더 데이터와 매칭된 카메라 데이터로부터 연산된 객체의 위치 정보로 구성된 제2 학습 데이터 셋을 획득하고, 상기 레이더 데이터를 상기 객체 추적 모델에 입력하고, 상기 객체 추적 모델을 통하여 출력되는 객체의 위치와 관련된 출력 값을 획득하고, 상기 출력 값과 상기 제2 학습 데이터 셋의 객체의 위치 정보에 기반하여 상기 객체 추적 모델을 갱신하여 상기 객체 추적 모델을 훈련시키도록 구성될 수 있다. According to an embodiment of the present disclosure, the processor acquires a second learning data set consisting of location information of an object calculated from the radar data and camera data matched with the radar data, and uses the radar data to track the object. Enter the model, obtain an output value related to the location of the object output through the object tracking model, and update the object tracking model based on the output value and the location information of the object in the second learning data set. Can be configured to train an object tracking model.
본 개시의 일 실시예에 따르면, 상기 프로세서는, 상기 객체 추적 모델을 통하여 상기 레이더 데이터로부터 피처를 추출하고, 상기 객체 추적 모델을 통하여 추출된 적어도 하나 이상의 피처들을 저장하여 피처 큐를 획득하고, 상기 피처 큐에 저장된 적어도 하나 이상의 피처들을 상기 낙상 감지 모델에 입력하도록 구성될 수 있다. According to an embodiment of the present disclosure, the processor extracts features from the radar data through the object tracking model, stores at least one or more features extracted through the object tracking model to obtain a feature queue, and It may be configured to input at least one or more features stored in a feature queue into the fall detection model.
본 개시의 일 실시예에 따르면, 상기 레이블 정보는, 상기 카메라 데이터의 제1 프레임 구간은 낙상이 발생했음을 나타내는 제1 레이블 및 상기 카메라 데이터의 제2 프레임 구간은 낙상이 발생하지 않았음을 나타내는 제2 레이블 중 하나일 수 있다. According to an embodiment of the present disclosure, the label information includes a first label indicating that a fall occurred in the first frame section of the camera data, and a label indicating that a fall did not occur in the second frame section of the camera data. It can be one of 2 labels.
본 개시의 일 실시예에 따르면, 상기 레이더 데이터는, 2차원의 Range-Azimuth 히트맵 및 2차원의 Range-Elevation 히트맵으로 구성될 수 있다. According to an embodiment of the present disclosure, the radar data may be composed of a two-dimensional Range-Azimuth heat map and a two-dimensional Range-Elevation heat map.
이하에서는 도 1 내지 도 9를 참고하여 본 개시의 일 실시예에 따른 낙상 감지 장치, 및/또는 낙상 감지 장치에 의하여 수행되는 객체 추적 모델의 학습 방법과 낙상 감지 모델의 학습 방법에 관하여 설명한다. Hereinafter, a fall detection device according to an embodiment of the present disclosure and/or a method of learning an object tracking model and a method of learning a fall detection model performed by the fall detection device will be described with reference to FIGS. 1 to 9.
도 1은 본 개시의 일 실시예에 따른 낙상 감지 장치(1000)의 개략도이다. Figure 1 is a schematic diagram of a
본 개시의 일 실시예에 따른 낙상 감지 장치(1000)는 레이더 데이터에 근거하여 객체를 추적하고, 객체의 낙상 여부를 감지하기 위한 신경망 모델을 훈련시킬 수 있다. 나아가 낙상 감지 장치(1000)는 학습이 완료된 신경망 모델을 이용하여 객체를 추적하고, 객체의 낙상 여부를 감지하거나 분석하는 동작을 수행할 수 있다. The
본 개시의 일 실시예에 따른 낙상 감지 장치(1000)는 송수신부(1100), 메모리(1200), 및 프로세서(1300)를 포함할 수 있다.The
낙상 감지 장치(1000)의 송수신부(1100)는 임의의 외부 기기와 통신을 수행할 수 있다. 예컨대, 낙상 감지 장치(1000)는, 송수신부(1100)를 통해, 레이더 데이터를 수신할 수 있다. 또한 낙상 감지 장치(1000)는, 송수신부(1100)를 통하여 학습이 완료된 신경망 모델(예컨대, 객체 추적 모델 및/또는 낙상 감지 모델)을 실행시키기 위한 실행 데이터를 획득할 수 있다. 여기서 실행 데이터는 학습이 완료된 신경망 모델의 계층 정보, 연산 정보, 구조 정보 및 가중치 정보 등을 포함하여 학습이 완료된 신경망 모델을 적절하게 실행시키기 위한 임의의 데이터를 포괄하는 의미일 수 있다. 또한, 낙상 감지 장치(1000)는, 송수신부(1100)를 통하여, 객체의 위치 정보, 객체를 정의한 바운딩박스(Bounding box) 정보, 및/또는 낙상 알림을 포함하여 임의의 정보를 외부 장치(혹은 외부 단말)로 송신할 수 있다. The
낙상 감지 장치(1000)는, 송수신부(1100)를 통해, 네트워크에 접속하여 각종 데이터를 송수신할 수 있다. 송수신부(1100)는 크게 유선 타입과 무선 타입을 포함할 수 있다. 유선 타입과 무선 타입은 각각의 장단점을 가지므로, 경우에 따라 낙상 감지 장치(1000)에는 유선 타입과 무선 타입이 동시에 마련될 수도 있다. 여기서, 무선 타입의 경우에는 주로 와이파이(Wi-Fi) 같은 WLAN(Wireless Local Area Network) 계열의 통신 방식을 이용할 수 있다. 또는, 무선 타입의 경우에는 셀룰러 통신, 예컨대, LTE, 5G 계열의 통신 방식을 이용할 수 있다. 다만, 무선 통신 프로토콜이 상술한 예시에 제한되는 것은 아니며, 임의의 적절한 무선 타입의 통신 방식을 이용하는 것도 가능하다. 유선 타입의 경우에는 LAN(Local Area Network)이나 USB(Universal Serial Bus) 통신이 대표적인 예이며 그 외의 다른 방식도 가능하다.The
낙상 감지 장치(1000)의 메모리(1200)는 각종 정보를 저장할 수 있다. 메모리(1200)에는 각종 데이터가 임시적으로 또는 반영구적으로 저장될 수 있다. 메모리(1200)의 예로는 하드 디스크(HDD: Hard Disk Drive), SSD(Solid State Drive), 플래쉬 메모리(flash memory), 롬(ROM: Read-Only Memory), 램(RAM: Random Access Memory) 등이 있을 수 있다. 메모리(1200)는 낙상 감지 장치(1000)에 내장되는 형태나 탈부착 가능한 형태로 제공될 수 있다. 메모리(1200)에는 낙상 감지 장치(1000)를 구동하기 위한 운용 프로그램(OS: Operating System)이나 낙상 감지 장치(1000)의 각 구성을 동작시키기 위한 프로그램을 비롯해 낙상 감지 장치(1000)의 동작에 필요한 각종 데이터가 저장될 수 있다.The
프로세서(1300)는 낙상 감지 장치(1000)의 전반적인 동작을 제어할 수 있다. 예컨대, 프로세서(1300)는 후술할 레이더 데이터에 기반하여 객체를 추적하기 위한 객체 추적 모델을 훈련시키는 동작, 훈련이 완료된 객체 추적 모델을 통하여 객체의 위치 정보를 연산하는 동작, 낙상 감지 모델을 훈련시키는 동작, 훈련이 완료된 낙상 감지 모델을 이용하여 낙상이 발생하였는지 여부와 관련된 분류 값을 연산하는 동작 등을 포함하여 낙상 감지 장치(1000)의 전반적인 동작을 제어할 수 있다. 구체적으로 프로세서(1300)는 메모리(1200)로부터 낙상 감지 장치(1000)의 전반적인 동작을 위한 프로그램을 로딩하여 실행할 수 있다. 프로세서(1300)는 하드웨어나 소프트웨어 또는 이들의 조합에 따라 AP(Application Processor), CPU(Central Processing Unit), MCU(Microcontroller Unit)나 이와 유사한 장치로 구현될 수 있다. 이때, 하드웨어적으로는 전기적 신호를 처리하여 제어 기능을 수행하는 전자 회로 형태로 제공될 수 있으며, 소프트웨어적으로는 하드웨어적 회로를 구동시키는 프로그램이나 코드 형태로 제공될 수 있다.The
이하에서는 도 2 내지 도 9를 참고하여 본 개시의 일 실시예에 따른 낙상 감지 장치(1000)의 동작, 객체 추적 모델의 학습 방법, 및/또는 낙상 감지 모델의 학습 방법을 보다 구체적으로 서술하기로 한다.Hereinafter, with reference to FIGS. 2 to 9, the operation of the
도 2는 본 개시의 일 실시예에 따른 객체 추적 모델을 학습시키는 양상과 학습이 완료된 객체 추적 모델을 이용하여 객체의 위치 정보를 연산하는 양상을 도시한 도면이다. 구체적으로 도 2(a)는 본 개시의 일 실시예에 따른 객체 추적 모델을 학습시키는 양상을 도시한 도면이며, 도 2(b)는 본 개시의 일 실시예에 따른 학습이 완료된 객체 추적 모델을 이용하여 레이더 데이터로부터 객체의 위치 정보를 연산하는 양상을 도시한 도면이다.FIG. 2 is a diagram illustrating an aspect of training an object tracking model according to an embodiment of the present disclosure and an aspect of calculating location information of an object using the learned object tracking model. Specifically, FIG. 2(a) is a diagram illustrating an aspect of learning an object tracking model according to an embodiment of the present disclosure, and FIG. 2(b) is a diagram illustrating a fully trained object tracking model according to an embodiment of the present disclosure. This is a diagram showing how to calculate the location information of an object from radar data.
본 개시의 일 실시예에 따른 낙상 감지 장치(1000)는 레이더 데이터에 근거하여 객체를 추적하기 위한 신경망 모델(이하, 객체 추적 모델)을 훈련시키는 동작을 수행할 수 있다. 낙상을 감지하기 위해서는 레이더 데이터로부터 낙상 감지 대상인 객체를 추적하여야 하기에, 낙상 감지 장치(1000)는 객체를 추적(tracking)하여 객체의 위치 정보 및/또는 객체를 정의하는 바운딩박스(bounding box)를 연산하기 위한 객체 추적 모델을 훈련시키도록 구성될 수 있다. The
구체적으로 낙상 감지 장치(1000)는 레이더 데이터 및 레이더 데이터와 매칭된 카메라 데이터로 구성된 객체 추적 모델의 학습 데이터 세트를 이용하여 객체 추적 모델을 훈련시킬 수 있다. 이때, 레이더 데이터의 좌표와 카메라 데이터의 좌표는 캘리브레이션(calibration)되어 있어 각 좌표 간의 변환이 가능하다. Specifically, the
일 예로, 낙상 감지 장치(1000)는 레이더 데이터 및 카메라 데이터에 기반하여 연산된 객체의 위치 정보로 구성된 객체 추적 모델의 학습 데이터 세트를 이용하여 객체 추적 모델을 훈련시킬 수 있다. 일 예로, 객체의 위치 정보는 제1 위치에 설치된 제1 카메라로부터 획득된 제1 영상, 제2 위치에 설치된 제2 카메라로부터 획득한 제2 영상을 이용하여 연산될 수 있다. 구체적으로 낙상 감지 장치(1000)는 각 영상에 대하여 자세 예측(pose estimation) 기법을 통하여 객체의 골격 정보를 추출하고, 추출된 객체의 골격 정보에 기반하여 객체의 위치 정보와 객체를 정의하는 바운딩박스(bounding box)를 획득할 수 있다. 예컨대, 낙상 감지 장치(1000)는 하나의 카메라를 통하여 획득한 객체의 골격 정보와 해당 카메라를 연결한 직선과 다른 카메라를 통하여 객체의 골격 정보와 해당 카메라를 연결한 직선의 교점을 획득하고, 각 골격 정보에 대응되는 교점들에 기반하여 객체의 위치 정보와 객체를 정의하는 바운딩박스(bounding box)를 획득할 수 있다. 예컨대, 각 골격 정보에 대응되는 교점들을 포함하도록 객체를 정의하는 바운딩박스를 획득할 수 있다. 예컨대, 객체를 정의하는 바운딩박스의 좌표 정보에 기반하여 객체의 위치 정보를 연산할 수 있다. 한편 전술한 예에서는 2대의 카메라를 이용하여 각각의 영상을 획득하고, 각각의 영상으로부터 객체의 위치 정보를 연산하는 것으로 설명하였다. 다만, 2대의 카메라를 사용하는 경우 객체 간의 오클루전(occlusion)이 발생하는 경우가 존재할 수 있으며, 객체 간의 오클루전이 발생하는 경우에는 연산된 객체의 위치 정보가 부정확할 수 있다. 따라서 객체 간의 오클루전이 발생하는 경우에는 제1 위치에 설치된 제1 카메라로부터 획득된 제1 영상, 제2 위치에 설치된 제2 카메라로부터 획득한 제2 영상, 및 제3 위치에 설치된 제3 카메라로부터 획득한 제3 영상을 이용하여 객체의 위치 정보를 연산하도록 구현될 수 있다. As an example, the
낙상 감지 장치(1000)는 레이더 데이터를 객체 추적 모델에 입력하고, 객체 추적 모델을 통하여 출력되는 객체의 위치와 관련된 출력 값을 획득할 수 있다. 이때, 낙상 감지 장치(1000)는 출력 값과 객체 추적 모델의 학습 데이터 세트에 포함된 카메라 기반의 객체의 위치 정보에 기반하여 객체 추적 모델을 갱신할 수 있다. 구체적으로 낙상 감지 장치(1000)는 출력 값과 객체 추적 모델의 학습 데이터 세트에 포함된 카메라 기반의 객체의 위치 정보의 차이에 기반하여, 출력 값이 카메라 기반의 객체의 위치 정보에 근사되어 출력되도록, 객체 추적 모델의 파라미터(또는 가중치)를 갱신하여 객체 추적 모델을 훈련시킬 수 있다. The
본 개시의 일 실시예에 따른 낙상 감지 장치(1000)는 학습이 완료된 객체 추적 모델을 이용하여 레이더 데이터로부터 객체의 위치 정보(또는 객체를 정의하는 바운딩박스(bounding box))를 연산하는 동작을 수행할 수 있다. 구체적으로 낙상 감지 장치(1000)는 분석 대상의 레이더 데이터를 획득하고, 레이더 데이터를 학습이 완료된 객체 추적 모델에 입력하도록 구성될 수 있다. 이때, 낙상 감지 장치(1000)는 학습이 완료된 객체 추적 모델을 통하여 출력되는 객체의 위치 정보를 획득할 수 있다. 학습이 완료된 객체 추적 모델은, 레이더 데이터 및 카메라 데이터에 기반하여 연산된 객체의 위치 정보로 구성된 학습 데이터 세트를 통하여, 레이더 데이터로부터 Ground-truth인 객체의 위치 정보에 근사된 출력 값을 출력하도록 학습되었기 때문에, 레이더 데이터로부터 객체의 위치 정보를 연산할 수 있다.The
한편 도 2에서는 객체의 위치 정보를 연산하는 내용을 중심으로 객체 추적 모델의 학습 방법을 설명하였다. 다만 이는 예시에 불과하며, 낙상 감지 장치(1000)는 전술한 레이더 데이터 및 카메라 데이터에 기반하여 객체를 정의한 바운딩박스 정보로 구성된 학습 데이터 세트를 이용하여 레이더 데이터로부터 객체의 위치 정보뿐만 아니라 객체를 정의하는 바운딩박스를 연산하도록 객체 추적 모델을 훈련시킬 수 있을 것이다. Meanwhile, in Figure 2, the learning method of the object tracking model is explained, focusing on calculating the location information of the object. However, this is only an example, and the
도 3은 본 개시의 일 실시예에 따른 낙상 감지 모델을 학습시키는 양상과 학습이 완료된 낙상 감지 모델을 이용하여 낙상을 감지하는 양상을 도시한 도면이다. 구체적으로 도 3(a)는 본 개시의 일 실시예에 따른 낙상 감지 모델을 학습시키는 양상을 도시한 도면이며, 도 3(b)는 본 개시의 일 실시예에 따른 학습이 완료된 낙상 감지 모델을 이용하여 레이더 데이터로부터 낙상이 발생하였는지 여부와 관련된 분류 값을 연산하는 양상을 도시한 도면이다. FIG. 3 is a diagram illustrating an aspect of learning a fall detection model according to an embodiment of the present disclosure and an aspect of detecting a fall using a fall detection model that has completed learning. Specifically, FIG. 3(a) is a diagram showing an aspect of learning a fall detection model according to an embodiment of the present disclosure, and FIG. 3(b) shows a fall detection model that has completed learning according to an embodiment of the present disclosure. This is a diagram showing how to calculate a classification value related to whether a fall has occurred from radar data.
본 개시의 일 실시예에 따른 낙상 감지 장치(1000)는 레이더 데이터에 근거하여 객체의 낙상을 감지하기 위한 신경망 모델(이하, 낙상 감지 모델)을 훈련시키는 동작을 수행할 수 있다. 구체적으로 낙상 감지 장치(1000)는 레이더 데이터 및 레이더 데이터와 매칭된 카메라 데이터에 할당된 낙상 여부와 관련된 레이블 정보로 구성된 낙상 감지 모델의 학습 데이터 세트를 이용하여 낙상 감지 모델을 훈련시킬 수 있다. 낙상(예컨대, 일어선 상태에서의 낙상, 누워있는 상태에서의 낙상, 앉은 상태에서의 낙상)이 발생한 구간에 대응되는 카메라 데이터의 제1 프레임 구간에 속하는 프레임들에는, 낙상이 발생하였음을 나타내는 제1 레이블이 할당될 수 있다. 반면 낙상이 발생하지 않은 구간(예컨대, 객체가 앉아있는 상태, 객체가 누워있는 상태, 객체가 걷는 상태, 객체가 뛰는 상태 등에 대응되는 구간)에 대응되는 카메라 데이터의 제2 프레임 구간에 속하는 프레임들에는, 낙상이 발생하지 않았음을 나타내는 제2 레이블이 제2 프레임 구간에 속하는 프레임들에 할당될 수 있다. 9The
낙상 감지 장치(1000)는 낙상 감지 모델의 학습 데이터 세트의 레이더 데이터를 낙상 감지 모델에 입력하고, 낙상 감지 모델을 통하여 출력되는 낙상이 발생하였는지 여부와 관련된 분류 예측값을 획득할 수 있다. 이때, 낙상 감지 장치(1000)는 분류 예측값과 낙상 감지 모델의 학습 데이터 세트에 포함된 레이블 정보에 기반하여 낙상 감지 모델을 갱신할 수 있다. 구체적으로 낙상 감지 장치(1000)는 분류 예측값과 낙상 감지 모델의 학습 데이터 세트에 포함된 레이블 정보에 기반하여, 해당 프레임의 레이블 정보가 낙상이 발생하였음을 나타내는 제1 레이블을 포함한다면 분류 예측값을 낙상이 감지되었음에 대응되는 제1 값으로 출력하도록, 해당 프레임의 레이블 정보가 낙상이 발생하지 않았음을 나타내는 제2 레이블을 포함한다면 분류 예측값을 낙상이 감지되지 않았음에 대응되는 제2 값으로 출력하도록, 낙상 감지 모델의 파라미터(또는 가중치)를 갱신하여 낙상 감지 모델을 훈련시킬 수 있다. The
본 개시의 일 실시예에 따른 낙상 감지 장치(1000)는 학습이 완료된 낙상 감지 모델을 이용하여 레이더 데이터로부터 객체의 낙상이 발생하였음을 나타내는 분류 값을 연산하는 동작을 수행할 수 있다. 구체적으로 낙상 감지 장치(1000)는 분석 대상의 레이더 데이터를 획득하고, 레이더 데이터를 학습이 완료된 낙상 감지 모델에 입력하도록 구성될 수 있다. 이때, 낙상 감지 장치(1000)는 학습이 완료된 낙상 감지 모델을 통하여 출력되는 분류 값을 획득할 수 있다. 학습이 완료된 낙상 감지 모델은, 레이더 데이터 및 카메라 데이터에 대하여 낙상 여부에 따라 할당된 레이블 정보로 구성된 학습 데이터 세트를 통하여, 레이더 데이터로부터 레이블 정보에 대응되는 분류 예측 값을 출력하도록 학습되었기 때문에, 레이더 데이터로부터 낙상이 발생하였는지 여부에 따른 분류 값을 연산할 수 있다. 구체적으로 학습이 완료된 낙상 감지 모델은, 레이더 데이터에 낙상이 감지된 경우에는 낙상이 발생하였음을 나타내는 제1 분류 값을 출력하고, 레이더 데이터에 낙상이 감지되지 않은 경우에는 낙상이 발생하지 않았음을 나타내는 제2 분류 값을 출력하도록 구성될 수 있다.The
이하에서는 도 4를 참고하여 본 개시의 일 실시예에 따른 객체 추적 모델과 낙상 감지 모델을 연계하여 학습시키는 양상을 설명하기로 한다. 도 4를 설명함에 있어, 도 2 및 도 3과 관련하여 설명한 중복되는 내용들은 생략될 수 있다. 다만 이는 설명의 편의를 위한 것일 뿐 이에 제한적으로 해석되어서는 아니된다. Hereinafter, an aspect of training an object tracking model and a fall detection model in conjunction with one another according to an embodiment of the present disclosure will be described with reference to FIG. 4 . When describing FIG. 4, overlapping content described in relation to FIGS. 2 and 3 may be omitted. However, this is only for convenience of explanation and should not be construed as limiting.
도 4는 본 개시의 일 실시예에 따른 객체 추적 모델과 낙상 감지 모델을 학습시키는 양상을 도시한 도면이다.FIG. 4 is a diagram illustrating an aspect of learning an object tracking model and a fall detection model according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따른 낙상 감지 장치(1000)는 레이더 데이터에 근거하여, 객체를 추적하기 위한 객체 추적 모델과 객체의 낙상을 감지하기 위한 낙상 감지 모델을 연계시켜 함께 훈련시키는 동작을 수행할 수 있다. 구체적으로 낙상 감지 장치(1000)는 레이더 데이터, 레이더 데이터와 매칭된 카메라 데이터에 할당된 낙상 여부와 관련된 레이블 정보, 및 카메라 데이터로부터 연산된 객체의 위치 정보로 구성된 학습 데이터 세트를 이용하여 객체 추적 모델과 낙상 감지 모델을 훈련시킬 수 있다. The
낙상 감지 장치(1000)는 레이더 데이터(예컨대, 히트맵(Heatmap) 형태의 레이더 데이터)를 객체 추적 모델에 입력하고, 객체 추적 모델을 통하여 출력된 객체의 위치 정보와 관련된 출력값을 획득할 수 있다. 이때, 낙상 감지 장치(1000)는 학습 데이터 세트의 카메라 데이터로부터 연산된 객체의 위치 정보(Ground-truth)와 출력 값에 기반하여 객체 추적 모델을 훈련시킬 수 있다. 구체적으로 낙상 감지 장치(1000)는 객체 추적 모델이 카메라 데이터로부터 연산된 객체의 위치 정보에 근사된 출력값을 출력하도록 객체 추적 모델의 파라미터를 갱신할 수 있다. The
한편 객체 추적 모델의 일부 레이어에서는 레이더 데이터의 프레임별로 프레임의 특징을 나타내는 피처를 추출하도록 구성될 수 있다. 이때, 낙상 감지 장치(1000)는 객체 추적 모델을 통하여 추출된 피처에 기반하여 낙상 감지 모델을 훈련시키도록 구현될 수 있다. 구체적으로 낙상 감지 장치(1000)는 객체 추적 모델을 추출된 적어도 하나 이상의 피처들을 순차적으로 저장하여 피처 큐(feature Queue)를 획득할 수 있다. 예컨대, 낙상 감지 장치(1000)는 레이더 데이터의 제1 프레임으로부터 추출된 제1 피처와 레이더 데이터의 제2 프레임으로부터 추출된 제2 피처를 포함한 적어도 하나 이상의 피처들을 프레임별로 저장하여 피처 큐를 획득할 수 있다. Meanwhile, some layers of the object tracking model may be configured to extract features representing the characteristics of the frame for each frame of radar data. At this time, the
이때, 낙상 감지 장치(1000)는 피처 큐에 저장된 적어도 하나 이상의 피처들을 낙상 감지 모델에 입력하고, 낙상 감지 모델을 통하여 출력되는 낙상이 발생하였는지 여부와 관련된 분류 예측 값을 획득할 수 있다. 나아가 낙상 감지 장치(1000)는 학습 데이터 세트에 포함된 레이더 데이터에 매칭된 카메라 데이터의 각 프레임에 할당된 레이블 정보와 분류 예측 값에 기반하여 낙상 감지 모델을 훈련시킬 수 있다. 예컨대, 낙상 감지 장치(1000)는 레이더 데이터의 제1 프레임에 대응되는 카메라 데이터의 프레임에 대하여 낙상이 발생하였음을 나타내는 제1 레이블이 할당된 경우에는 낙상 감지 모델이 제1 피처에 근거하여 제1 레이블에 대응되는 제1 분류 예측값을 출력하도록(즉, 제1 프레임에 대하여 낙상이 발생하였다고 분류하도록) 낙상 감지 모델의 파라미터를 갱신할 수 있다. 예컨대, 낙상 감지 장치(1000)는 레이더 데이터의 제2 프레임에 대응되는 카메라 데이터의 프레임에 대하여 낙상이 발생하지 않았음을 나타내는 제2 레이블이 할당된 경우에는 낙상 감지 모델이 제2 피처에 근거하여 제2 레이블에 대응되는 제2 분류 예측값을 출력하도록(즉, 제2 프레임에 대하여 낙상이 발생하지 않았다고 분류하도록) 낙상 감지 모델의 파라미터를 갱신할 수 있다. At this time, the
한편 본 개시의 일 실시예에 따른 낙상 감지 장치(1000)는 객체 추적 모델의 학습과 낙상 감지 모델의 학습을 번갈아가면서 수행하도록 구성될 수 있다. 예컨대, 낙상 감지 장치(1000)는 미리 정해진 횟수로 객체 추적 모델을 훈련시키고, 미리 정해진 횟수로 낙상 감지 모델을 훈련시키는 동작을 반복적으로 수행하도록 구성될 수 있다. 본 개시의 일 실시예에 따른 낙상 감지 장치(1000)는 번갈아면서 객체 추적 모델과 낙상 감지 모델을 훈련시킴으로써, 객체 추적 모델의 객체 추적 태스크와 낙상 감지 모델의 낙상 감지 태스크가 서로의 태스크의 성능을 극대화하는 방향으로 객체 추적 모델과 낙상 감지 모델이 훈련될 수 있어 객체 추적 모델의 정확도를 일정 수준으로 유지하면서도 낙상 감지 모델의 낙상 감지의 정확도를 증대시키는 효과가 제공될 수 있다. Meanwhile, the
도 5는 본 개시의 일 실시예에 따른 학습이 완료된 객체 추적 모델과 학습이 완료된 낙상 감지 모델을 이용하여 레이더 데이터로부터 객체의 위치 정보와 낙상이 발생하였는지 여부와 관련된 분류 값을 연산하는 양상을 도시한 도면이다.Figure 5 shows an aspect of calculating an object's location information and a classification value related to whether a fall occurred from radar data using a fully learned object tracking model and a fully learned fall detection model according to an embodiment of the present disclosure. It is a drawing.
본 개시의 일 실시예에 따른 낙상 감지 장치(1000)는 학습이 완료된 객체 추적 모델과 낙상 감지 모델을 이용하여 레이더 데이터로부터 객체의 위치 정보 및 객체의 낙상이 발생되었는지 여부와 관련된 분류 값을 연산할 수 있다. 구체적으로 낙상 감지 장치(1000)는 분석 대상의 레이더 데이터(예컨대, 히트맵 형태의 레이더 데이터)를 학습이 완료된 객체 추적 모델 및/또는 학습이 완료된 낙상 감지 모델에 입력하도록 구성될 수 있다. 이때, 낙상 감지 장치(1000)는 학습이 완료된 객체 추적 모델을 통하여 객체의 위치 정보를 획득할 수 있다. 전술한 바와 같이, 학습이 완료된 객체 추적 모델은 레이더 데이터 및 레이더 데이터에 매칭된 카메라 데이터로부터 연산된 객체의 위치 정보(Ground-truth)에 근거하여, 레이더 데이터로부터 객체의 위치 정보에 근사된 출력 값을 출력하도록 훈련되었기 때문에, 레이어 데이터로부터 객체의 위치 정보를 연산할 수 있다. The
한편, 학습이 완료된 객체 추적 모델은 분석 대상의 레이더 데이터의 프레임별로 프레임의 특징 정보를 나타내는 피처를 추출하도록 구성될 수 있다. 이때, 낙상 감지 장치(1000)는 추출된 적어도 하나 이상의 피처들을 프레임별로 저장하여 피처 큐를 획득할 수 있다. 나아가 낙상 감지 장치(1000)는 프레임별로 피처 큐에 저장된 피처를 학습이 완료된 낙상 감지 모델에 입력하고, 학습이 완료된 낙상 감지 모델을 통하여 출력되는 객체의 낙상 여부와 관련된 분류 값을 획득할 수 있다. 전술한 바와 같이, 학습이 완료된 낙상 감지 모델은 레이더 데이터로부터 추출된 피처 및 피처에 대응되는 카메라 데이터의 프레임에 대하여 낙상 여부에 따라 할당된 레이블 정보로 구성된 학습 데이터 세트를 통하여, 피처 큐의 피처로부터 레이블 정보에 대응되는 분류 예측 값을 출력하도록 학습되었기 때문에, 피처 큐의 피처로부터 낙상이 발생하였는지 여부에 따른 분류 값을 연산할 수 있다. 요약하면, 낙상 감지 장치(1000)는 학습이 완료된 객체 추적 모델 및 학습이 완료된 낙상 감지 모델을 통하여, 레이더 데이터로부터 객체의 위치 정보와 객체의 낙상이 발생하였는지 여부와 관련된 분류 값을 획득할 수 있다. Meanwhile, the learned object tracking model may be configured to extract features representing characteristic information of the frame for each frame of radar data to be analyzed. At this time, the
한편 본 개시의 일 실시예에 따른 객체 추적 모델 및/또는 낙상 감지 모델에 입력되는 레이더 데이터는 2차원의 히트맵의 형태일 수 있다. 예컨대, 학습 데이터 세트에 포함된 레이더 데이터는 2차원의 Range-Azimuth 히트맵 및 2차원의 Range-Elevation 히트맵으로 구성될 수 있다. Meanwhile, radar data input to the object tracking model and/or fall detection model according to an embodiment of the present disclosure may be in the form of a two-dimensional heat map. For example, radar data included in the learning data set may consist of a two-dimensional Range-Azimuth heat map and a two-dimensional Range-Elevation heat map.
3차원 정보를 예측하기 위해서는 3차원의 히트맵(Range-Azimuth-Elevation 히트맵)이 필요하다. 다만 3차원의 히트맵을 분석하기 위해서는 많은 연산량이 요구되기 때문에, 성능이 상대적으로 낮은 레이더(radar) 내의 프로세서에서 3차원의 히트맵 형태의 레이더 데이터를 이용하여 객체를 추적하고 객체의 낙상을 감지하는 것은 부적합하다. 따라서 본 개시의 일 실시예에 따른 낙상 감지 장치(1000)는 각 프레임의 2차원의 Range-Azimuth 히트맵 및 2차원의 Range-Elevation 히트맵을 객체 추적 모델 및/또는 낙상 감지 모델에 입력하여, 객체 추적 모델 및/또는 낙상 감지 모델을 훈련시키거나, 객체의 위치 정보 및/또는 분류 값을 연산하도록 구현될 수 있다. 본 개시의 일 실시예에 따른 낙상 감지 장치(1000)는 2차원의 히트맵을 이용함으로써, 상대적으로 성능이 낮은 레이더(radar) 자체의 프로세서에서도 객체 추적 모델과 낙상 감지 모델을 실행할 수 있다.To predict 3D information, a 3D heatmap (Range-Azimuth-Elevation heatmap) is needed. However, because a large amount of computation is required to analyze a 3D heat map, the processor within the radar, which has relatively low performance, uses radar data in the form of a 3D heat map to track objects and detect falls of objects. It is inappropriate to do so. Therefore, the
이하에서는 도 6 내지 도 8을 참고하여 본 개시의 일 실시예에 따른 객체 추적 모델과 낙상 감지 모델의 학습 방법에 대하여 설명하기로 한다. 각 모델의 학습 방법을 설명함에 있어서, 도 2 내지 도 5와 관련하여 설명한 중복되는 실시예는 생략될 수 있다. 다만, 이는 설명의 편의를 위한 것일 뿐이며, 이에 제한적으로 해석되어서는 아니된다.Hereinafter, a method for learning an object tracking model and a fall detection model according to an embodiment of the present disclosure will be described with reference to FIGS. 6 to 8. In describing the learning method of each model, overlapping embodiments described in relation to FIGS. 2 to 5 may be omitted. However, this is only for convenience of explanation and should not be construed as limiting.
도 6은 본 개시의 일 실시예에 따른 낙상 감지 모델을 훈련시키는 방법을 도시한 순서도이다.Figure 6 is a flow chart illustrating a method for training a fall detection model according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따른 낙상 감지 모델을 훈련시키는 방법은, 객체 추적 모델을 훈련시키는 단계(S1000), 및 낙상 감지 모델을 훈련시키는 단계(S2000)를 포함할 수 있다. A method of training a fall detection model according to an embodiment of the present disclosure may include training an object tracking model (S1000) and training a fall detection model (S2000).
객체 추적 모델을 훈련시키는 단계(S1000)에서는, 낙상 감지 장치(1000)는 레이더 데이터에 근거하여 객체를 추적하기 위한 태스크를 수행하는 객체 추적 모델을 훈련시킬 수 있다. 구체적으로 낙상 감지 장치(1000)는 객체를 추적(tracking)하여 객체의 위치 정보 및/또는 객체를 정의하는 바운딩박스(bounding box)를 연산하기 위한 객체 추적 모델을 훈련시킬 수 있다. 객체 추적 모델을 훈련시키는 내용에 대하는 도 7에서 보다 구체적으로 서술하기로 한다. In the step of training an object tracking model (S1000), the
낙상 감지 모델을 훈련시키는 단계(S2000)에서는, 낙상 감지 장치(1000)는 레이더 데이터에 근거하여 객체의 낙상을 감지하기 위한 낙상 감지 모델을 훈련시킬 수 있다. 일 예로, 낙상 감지 장치(1000)는 S1000 단계에서 객체 추적 모델을 통하여 추출된 레이더 데이터의 프레임별 피처에 기반하여 해당 프레임에 객체의 낙상이 발생하였는지 여부를 판단하기 위한 낙상 감지 모델을 훈련시킬 수 있다. 낙상 감지 모델을 훈련시키는 내용에 대하는 도 8에서 보다 구체적으로 서술하기로 한다.In the step of training a fall detection model (S2000), the
도 7은 본 개시의 일 실시예에 따른 객체 추적 모델을 훈련시키는 단계(S1000)를 구체화한 순서도이다. Figure 7 is a flow chart specifying the step (S1000) of training an object tracking model according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따른 객체 추적 모델을 훈련시키는 단계(S1000)는 레이더 데이터 및 레이더 데이터와 매칭된 카메라 데이터로부터 연산된 객체의 위치 정보로 구성된 학습 데이터 셋을 획득하는 단계(S1100), 레이더 데이터를 객체 추적 모델에 입력하고, 객체 추적 모델을 통하여 출력되는 출력 값을 획득하는 단계(S1200), 및 출력 값과 학습 데이터 셋의 객체의 위치 정보에 기반하여 객체 추적 모델을 갱신하는 단계(S1300)를 더 포함할 수 있다. The step of training an object tracking model according to an embodiment of the present disclosure (S1000) is the step of acquiring a learning data set consisting of location information of the object calculated from radar data and camera data matched with the radar data (S1100), radar Inputting data into the object tracking model, obtaining an output value output through the object tracking model (S1200), and updating the object tracking model based on the output value and the location information of the object in the learning data set (S1300) ) may further be included.
레이더 데이터 및 레이더 데이터와 매칭된 카메라 데이터로부터 연산된 객체의 위치 정보로 구성된 학습 데이터 셋을 획득하는 단계(S1100)에서는, 낙상 감지 장치(1000)는 객체 추적 모델을 훈련시키기 위한 학습 데이터 셋을 획득할 수 있다. 구체적으로 학습 데이터 셋은 레이더 데이터와 레이더 데이터와 프레임별로 매칭된 카메라 데이터로부터 연산된 객체의 위치 정보로 구성될 수 있다. 여기서 레이더 데이터는 히트맵 형태의 레이더 데이터일 수 있으며, 예컨대, 2차원의 Range-Azimuth 히트맵 및 2차원의 Range-Elevation 히트맵의 형태일 수 있다. In the step (S1100) of acquiring a learning data set consisting of location information of an object calculated from radar data and camera data matched with the radar data, the
객체의 위치 정보는 제1 위치에 설치된 제1 카메라로부터 획득된 제1 영상, 제2 위치에 설치된 제2 카메라로부터 획득한 제2 영상, 및/또는 제3 위치에 설치된 제3 카메라로부터 획득된 제3 영상을 이용하여 연산될 수 있다. 구체적으로 낙상 감지 장치(1000)는 각 영상에 대하여 자세 예측(pose estimation) 기법을 통하여 객체의 골격 정보를 추출하고, 추출된 객체의 골격 정보에 기반하여 객체의 위치 정보와 객체를 정의하는 바운딩박스(bounding box)를 획득할 수 있다. 예컨대, 낙상 감지 장치(1000)는 하나의 카메라를 통하여 획득한 객체의 골격 정보와 해당 카메라를 연결한 직선과 다른 카메라를 통하여 객체의 골격 정보와 해당 카메라를 연결한 직선의 교점을 획득하고, 각 골격 정보에 대응되는 교점들에 기반하여 객체의 위치 정보와 객체를 정의하는 바운딩박스(bounding box)를 획득할 수 있다.The location information of the object may include a first image obtained from a first camera installed at a first location, a second image obtained from a second camera installed at a second location, and/or a third image obtained from a third camera installed at a third location. 3 Can be calculated using images. Specifically, the
레이더 데이터를 객체 추적 모델에 입력하고, 객체 추적 모델을 통하여 출력되는 출력 값을 획득하는 단계(S1200)에서는, 낙상 감지 장치(1000)는 학습 데이터 셋의 레이더 데이터의 프레임에 대응되는 히트맵 데이터(예컨대, 2차원의 Range-Azimuth 히트맵 데이터 및 2차원의 Range-Elevation 히트맵 데이터)를 객체 추적 모델에 입력하고, 객체 추적 모델을 통하여 출력되는 객체의 위치와 관련된 출력 값을 획득할 수 있다.In the step (S1200) of inputting radar data into the object tracking model and obtaining an output value output through the object tracking model, the
한편 전술한 바와 같이, 객체 추적 모델은 히트맵 데이터로부터 객체 추적 모델에 포함된 일부 레이어를 통하여 히트맵 데이터의 특징 정보를 나타내는 피처를 추출하도록 구성될 수 있다. 이때, 낙상 감지 장치(1000)는 적어도 하나 이상의 추출된 피처들을 획득하여 피처 큐에 저장하도록 구성될 수 있다. Meanwhile, as described above, the object tracking model may be configured to extract features representing characteristic information of the heatmap data from heatmap data through some layers included in the object tracking model. At this time, the
출력 값과 학습 데이터 셋의 객체의 위치 정보에 기반하여 객체 추적 모델을 갱신하는 단계(S1300)에서는, 낙상 감지 장치(1000)는 학습 데이터 셋의 카메라 데이터로부터 연산된 객체의 위치 정보(Ground-truth)와 객체 추적 모델을 통하여 출력된 출력 값에 기반하여 객체 추적 모델을 훈련시킬 수 있다. 구체적으로 낙상 감지 장치(1000)는 객체 추적 모델이 카메라 데이터로부터 연산된 객체의 위치 정보에 근사된 출력값을 출력하도록 객체 추적 모델의 파라미터를 갱신할 수 있다. In the step (S1300) of updating the object tracking model based on the output value and the location information of the object in the learning data set, the
낙상 감지 장치(1000)는 학습이 완료된 객체 추적 모델을 이용하여 레이더 데이터로부터 객체의 위치 정보(또는 객체를 정의하는 바운딩박스(bounding box))를 연산하는 동작을 수행할 수 있다. 구체적으로 낙상 감지 장치(1000)는 분석 대상의 레이더 데이터(예컨대, 히트맵 형태의 레이더 데이터)를 획득하고, 레이더 데이터를 학습이 완료된 객체 추적 모델에 입력하도록 구성될 수 있다. 이때, 낙상 감지 장치(1000)는 학습이 완료된 객체 추적 모델을 통하여 출력되는 객체의 위치 정보를 획득할 수 있다. 학습이 완료된 객체 추적 모델은, 레이더 데이터 및 카메라 데이터에 기반하여 연산된 객체의 위치 정보로 구성된 학습 데이터 세트를 통하여, 레이더 데이터로부터 Ground-truth인 객체의 위치 정보에 근사된 출력 값을 출력하도록 학습되었기 때문에, 레이더 데이터로부터 객체의 위치를 나타내는 객체의 위치 정보를 연산할 수 있다.The
도 8은 본 개시의 일 실시예에 따른 낙상 감지 모델을 훈련시키는 단계(S2000)를 구체화한 순서도이다. Figure 8 is a flow chart specifying the step (S2000) of training a fall detection model according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따른 낙상 감지 모델을 훈련시키는 단계(S2000)는 레이더 데이터 및 레이더 데이터와 매칭된 카메라 데이터에 할당된 낙상 여부와 관련된 레이블 정보로 구성된 학습 데이터 셋을 획득하는 단계(S2100), 레이더 데이터를 낙상 감지 모델에 입력하는 단계(S2200), 낙상 감지 모델을 통하여 출력되는 낙상이 발생하였는지 여부와 관련된 분류 예측 값을 획득하는 단계(S2300), 및 분류 예측 값과 학습 데이터 셋의 레이블 정보에 기반하여 낙상 감지 모델을 갱신하는 단계(S2400)를 더 포함할 수 있다. The step of training a fall detection model according to an embodiment of the present disclosure (S2000) is the step of acquiring a learning data set consisting of label information related to whether a fall has been assigned to radar data and camera data matched with the radar data (S2100). , inputting radar data into a fall detection model (S2200), obtaining a classification prediction value related to whether a fall occurred output through the fall detection model (S2300), and labeling the classification prediction value and the learning data set. A step of updating the fall detection model based on the information (S2400) may be further included.
레이더 데이터 및 레이더 데이터와 매칭된 카메라 데이터에 할당된 낙상 여부와 관련된 레이블 정보로 구성된 학습 데이터 셋을 획득하는 단계(S2100)에서는, 낙상 감지 장치(1000)는 낙상 감지 모델을 훈련시키기 위한 학습 데이터 셋을 획득할 수 있다. 구체적으로 학습 데이터 셋은 레이더 데이터와 레이더 데이터와 프레임별로 매칭된 카메라 데이터의 각 프레임에 대하여 할당된 레이블 정보로 구성될 수 있다. 예컨대, 낙상(예컨대, 일어선 상태에서의 낙상, 누워있는 상태에서의 낙상, 앉은 상태에서의 낙상)이 발생한 구간에 대응되는 카메라 데이터의 제1 프레임 구간에 속하는 프레임들에는, 낙상이 발생하였음을 나타내는 제1 레이블이 할당될 수 있다. 반면 낙상이 발생하지 않은 구간(예컨대, 객체가 앉아있는 상태, 객체가 누워있는 상태, 객체가 걷는 상태, 객체가 뛰는 상태 등에 대응되는 구간)에 대응되는 카메라 데이터의 제2 프레임 구간에 속하는 프레임들에는, 낙상이 발생하지 않았음을 나타내는 제2 레이블이 할당될 수 있다. In the step (S2100) of acquiring a learning data set consisting of radar data and label information related to whether or not a fall has been assigned to the camera data matched with the radar data, the
레이더 데이터를 낙상 감지 모델에 입력하는 단계(S2200)에서는, 낙상 감지 장치(1000)는 복수의 프레임으로 구성된 레이더 데이터를 낙상 감지 모델에 입력할 수 있다. 일 예로, 낙상 감지 장치(1000)는 2차원의 히트맵 형태의 레이더 데이터를 낙상 감지 모델에 입력하도록 구성될 수 있다. 예컨대, 레이더 데이터는 각 프레임에 대한 2차원의 Range-Azimuth 히트맵 및 2차원의 Range-Elevation 히트맵으로 구성될 수 있다. In the step of inputting radar data into the fall detection model (S2200), the
한편 본 개시의 일 실시예에 따르면, 레이더 데이터를 낙상 감지 모델에 입력하는 단계(S2200)는 전술한 객체 추적 모델을 통하여 추출된 적어도 하나 이상의 피처들을 저장하여 피처 큐를 획득하는 단계; 및 피처 큐에 저장된 적어도 하나 이상의 피처들을 낙상 감지 모델에 입력하는 단계를 더 포함할 수 있다. 구체적으로 낙상 감지 장치(1000)는 객체 추적 모델의 일부 레이어를 통하여 레이더 데이터의 제1 프레임으로부터 추출된 제1 피처와 레이더 데이터의 제2 프레임으로부터 추출된 제2 피처를 포함하여 적어도 하나 이상의 피처들을 프레임별로 저장한 피처 큐를 획득할 수 있다. 이때, 낙상 감지 장치(1000)는 피처 큐에 저장된 제1 피처 또는 제2 피처를 낙상 감지 모델에 입력하도록 구성될 수 있다. Meanwhile, according to an embodiment of the present disclosure, the step of inputting radar data into a fall detection model (S2200) includes obtaining a feature queue by storing at least one feature extracted through the above-described object tracking model; And it may further include inputting at least one feature stored in the feature queue into the fall detection model. Specifically, the
낙상 감지 모델을 통하여 출력되는 낙상이 발생하였는지 여부와 관련된 분류 예측 값을 획득하는 단계(S2300)에서는, 낙상 감지 장치(1000)는 전술한 레이더 데이터(예컨대, 피처 큐에 저장된 피처)로부터 낙상 감지 모델을 통하여 출력되는 낙상이 발생하였는지 여부와 관련된 분류 예측 값을 획득할 수 있다. In the step (S2300) of acquiring a classification prediction value related to whether a fall has occurred output through the fall detection model, the
분류 예측 값과 학습 데이터 셋의 레이블 정보에 기반하여 낙상 감지 모델을 갱신하는 단계(S2400)에서는, 낙상 감지 장치(1000)는 낙상 감지 모델을 통하여 출력되는 분류 예측 값과 학습 데이터 셋에 포함된 레이더 데이터에 매칭된 카메라 데이터의 각 프레임에 할당된 레이블 정보에 기반하여 낙상 감지 모델의 파라미터를 갱신할 수 있다. In the step (S2400) of updating the fall detection model based on the classification prediction value and the label information of the learning data set, the
예컨대, 낙상 감지 장치(1000)는 레이더 데이터의 제1 프레임에 대응되는 카메라 데이터의 프레임에 대하여 낙상이 발생하였음을 나타내는 제1 레이블이 할당된 경우에는 낙상 감지 모델이 제1 프레임으로부터 추출된 제1 피처에 근거하여 제1 레이블에 대응되는 제1 분류 예측 값을 출력하도록(즉, 제1 프레임에 대하여 낙상이 발생하였다고 분류하도록) 낙상 감지 모델의 파라미터를 갱신할 수 있다. 예컨대, 낙상 감지 장치(1000)는 레이더 데이터의 제2 프레임에 대응되는 카메라 데이터의 프레임에 대하여 낙상이 발생하지 않았음을 나타내는 제2 레이블이 할당된 경우에는 낙상 감지 모델이 제2 프레임으로부터 추출된 제2 피처에 근거하여 제2 레이블에 대응되는 제2 분류 예측 값을 출력하도록(즉, 제2 프레임에 대하여 낙상이 발생하지 않았다고 분류하도록) 낙상 감지 모델의 파라미터를 갱신할 수 있다.For example, when the
본 개시의 일 실시예에 따른 낙상 감지 장치(1000)는 학습이 완료된 낙상 감지 모델을 이용하여 레이더 데이터(예컨대, 레이더 데이터의 프레임으로부터 추출된 피처들이 저장된 피처 큐)로부터 객체의 낙상이 발생하였음을 나타내는 분류 값을 연산하는 동작을 수행할 수 있다. 구체적으로 낙상 감지 장치(1000)는 분석 대상의 레이더 데이터로부터 획득된 피처 큐에 프레임별로 저장된 피처를 학습이 완료된 낙상 감지 모델에 입력하도록 구성될 수 있다. 이때, 낙상 감지 장치(1000)는 학습이 완료된 낙상 감지 모델을 통하여 출력되는 객체의 낙상이 발생하였는지 여부와 관련된 분류 값을 획득할 수 있다. 학습이 완료된 낙상 감지 모델은, 레이더 데이터(예컨대, 레이더 데이터로부터 추출된 적어도 하나 이상의 피처들) 및 카메라 데이터에 대하여 낙상 여부에 따라 할당된 레이블 정보로 구성된 학습 데이터 세트를 통하여, 레이더 데이터로부터 레이블 정보에 대응되는 분류 예측 값을 출력하도록 학습되었기 때문에, 분석 대상의 레이더 데이터로부터 낙상이 발생하였는지 여부에 따른 분류 값을 연산할 수 있다. 구체적으로 학습이 완료된 낙상 감지 모델은, 레이더 데이터에 낙상이 감지된 경우에는 낙상이 발생하였음을 나타내는 제1 분류 값을 출력하고, 레이더 데이터에 낙상이 감지되지 않은 경우에는 낙상이 발생하지 않았음을 나타내는 제2 분류 값을 출력하도록 구성될 수 있다.The
도 9는 본 개시의 일 실시예에 따른 학습이 완료된 객체 추적 모델을 이용하여 객체의 위치 정보를 연산하고 학습이 완료된 낙상 감지 모델을 이용하여 낙상을 감지하는 일 양상을 나타낸 흐름도이다. 본 개시의 일 실시예에 따른 학습이 완료된 객체 추적 모델과 학습이 완료된 낙상 감지 모델은 레이더 자체의 프로세서에서 실행될 수 있다. 구체적으로 레이더 프로세서는 레이더 데이터(예컨대, 히트맵 형태의 레이더 데이터)를 획득하고, 레이더 데이터를 학습이 완료된 객체 추적 모델에 입력하여 학습이 완료된 객체 추적 모델을 통하여 연산된 객체의 위치 정보(또는 객체에 대응되는 바운딩박스)를 획득할 수 있다. 한편, 레이더 프로세서는 학습이 완료된 객체 추적 모델의 일부 레이어를 통하여 추출된 레이더 데이터의 각 프레임의 특징 정보를 나타내는 피처를 획득하고, 프레임별로 피처를 저장하여 피처 큐를 획득하고, 피처 큐에 저장된 피처를 학습이 완료된 낙상 감지 모델에 입력하도록 구성될 수 있다. 이때 레이더 프로세서는 학습이 완료된 낙상 감지 모델을 통하여 객체의 낙상 여부와 관련된 분류 값을 획득하고, 분류 값에 근거하여 낙상이 발생하였다고 판단된 경우에는 보호나 단말 또는 기관 단말에 낙상이 발생하였음을 알리는 알림을 송신하도록 구성될 수 있다. 반면, 분류 값에 근거하여 낙상이 발생하지 않았다고 판단된 경우에는 레이더 데이터에 근거하여 객체를 추적하고 객체의 낙상을 감지하는 태스크를 반복적으로 수행하도록 구성될 수 있을 것이다. Figure 9 is a flowchart showing an aspect of calculating location information of an object using a fully trained object tracking model and detecting a fall using a fully trained fall detection model according to an embodiment of the present disclosure. The trained object tracking model and the trained fall detection model according to an embodiment of the present disclosure may be executed in the processor of the radar itself. Specifically, the radar processor acquires radar data (e.g., radar data in the form of a heat map), inputs the radar data into a learned object tracking model, and provides location information (or object location information) calculated through the learned object tracking model. You can obtain the corresponding bounding box. Meanwhile, the radar processor acquires features representing characteristic information of each frame of radar data extracted through some layers of the object tracking model for which learning has been completed, acquires a feature queue by storing features for each frame, and obtains features stored in the feature queue. It can be configured to input into the fall detection model on which learning has been completed. At this time, the radar processor acquires a classification value related to whether the object has fallen through the learned fall detection model, and if it is determined that a fall has occurred based on the classification value, it notifies the protection terminal or institutional terminal that a fall has occurred. Can be configured to send notifications. On the other hand, if it is determined that a fall did not occur based on the classification value, it may be configured to repeatedly perform the task of tracking the object and detecting the fall of the object based on radar data.
본 개시의 일 실시예에 따른 낙상 감지 장치(1000)는 낙상을 감지해야 할 필요성이 존재하나, 개인의 프라이버시로 인하여 카메라를 통하여 낙상을 감지하기 어려운 환경(예컨대, 양로원, 요양병원, 화장실 등)에서 활용될 수 있을 것이다. There is a need for the
본 개시의 일 실시예에 따른 낙상 감지 모델의 학습 방법 및 낙상 감지 장치에 따르면, 레이더 데이터에만 근거하여 객체를 추적하고 낙상을 감지할 수 있다. 이를 통하여 카메라가 설치되기 어려운 환경에서도 레이더 데이터만을 이용하여 객체를 추적하고 낙상을 감지하는 효과를 제공할 수 있다. According to the fall detection model learning method and fall detection device according to an embodiment of the present disclosure, it is possible to track an object and detect a fall based only on radar data. Through this, it is possible to provide the effect of tracking objects and detecting falls using only radar data, even in environments where cameras are difficult to install.
본 개시의 일 실시예에 따른 낙상 감지 모델의 학습 방법 및 낙상 감지 장치에 따르면, 다양한 자세로 발생하는 낙상을 감지할 수 있도록 구성된 학습 데이터 세트를 이용하여 낙상 감지 모델을 훈련시킴으로써 낙상 자세와 무관하게 낙상을 감지할 수 있는 효과를 제공할 수 있다. According to the fall detection model learning method and fall detection device according to an embodiment of the present disclosure, a fall detection model is trained using a learning data set configured to detect falls occurring in various postures, regardless of the fall posture. It can provide the effect of detecting falls.
본 개시의 일 실시예에 따른 낙상 감지 모델의 학습 방법 및 낙상 감지 장치에 따르면, 객체 추적 모델을 통하여 추출된 피처를 낙상 감지 모델의 학습에서 이용함으로써, 낙상 감지 모델의 학습에 소요되는 시간을 감소시킬 수 있다. According to the fall detection model learning method and fall detection device according to an embodiment of the present disclosure, the time required for learning the fall detection model is reduced by using features extracted through the object tracking model in learning the fall detection model. You can do it.
본 개시의 일 실시예에 따른 낙상 감지 모델의 학습 방법 및 낙상 감지 장치에 따르면, 객체 추적 모델과 낙상 감지 모델을 번갈아가면서 학습시킴으로써 객체 추적 태스크의 정확도를 일정 수준으로 유지하면서도 낙상 감지 태스크의 정확도를 증대시킬 수 있다. According to the fall detection model learning method and fall detection device according to an embodiment of the present disclosure, the accuracy of the fall detection task is improved while maintaining the accuracy of the object tracking task at a certain level by alternately learning the object tracking model and the fall detection model. It can be increased.
본 개시의 일 실시예에 따른 낙상 감지 모델의 학습 방법 및 낙상 감지 장치에 따르면, 2차원의 히트맵 형태의 레이더 데이터를 이용하여 객체 추적 모델 및 낙상 감지 모델을 학습시키거나 실행함으로써, 상대적으로 성능이 낮은 레이더(radar) 자체의 프로세서에서도 객체 추적 모델과 낙상 감지 모델이 실행될 수 있다. 이를 통하여 레이더 자체 프로세서를 통하여도 객체를 추적하고 낙상을 감지하는 효과를 제공할 수 있다. According to the fall detection model learning method and fall detection device according to an embodiment of the present disclosure, the object tracking model and the fall detection model are trained or executed using radar data in the form of a two-dimensional heat map, thereby improving relative performance. Object tracking models and fall detection models can also be run on the processor of this low-level radar itself. Through this, the effect of tracking objects and detecting falls can be provided through the radar's own processor.
상술한 낙상 감지 장치(1000)의 다양한 동작들은 낙상 감지 장치(1000)의 메모리(1200)에 저장될 수 있으며, 낙상 감지 장치(1000)의 프로세서(1300)는 메모리(1200)에 저장된 동작들을 수행하도록 제공될 수 있다. Various operations of the
이상에서 실시 형태들에 설명된 특징, 구조, 효과 등은 본 개시의 적어도 하나의 실시 형태에 포함되며, 반드시 하나의 실시 형태에만 한정되는 것은 아니다. 나아가, 각 실시 형태에서 예시된 특징, 구조, 효과 등은 실시 형태들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시 형태들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 개시의 범위에 포함되는 것으로 해석되어야 할 것이다.The features, structures, effects, etc. described in the embodiments above are included in at least one embodiment of the present disclosure and are not necessarily limited to only one embodiment. Furthermore, the features, structures, effects, etc. illustrated in each embodiment can be combined or modified and implemented in other embodiments by a person with ordinary knowledge in the field to which the embodiments belong. Accordingly, contents related to such combinations and modifications should be construed as being included in the scope of the present disclosure.
또한, 이상에서 실시 형태를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 개시를 한정하는 것이 아니며, 본 개시가 속하는 분야의 통상의 지식을 가진 자라면 본 실시 형태의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 즉, 실시 형태에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 개시의 범위에 포함되는 것으로 해석되어야 할 것이다.In addition, although the above description focuses on the embodiment, this is only an example and does not limit the present disclosure, and those skilled in the art will be able to understand the above without departing from the essential characteristics of the present embodiment. You will see that various modifications and applications not illustrated are possible. In other words, each component specifically shown in the embodiment can be modified and implemented. And these variations and differences related to application should be construed as being included in the scope of the present disclosure as defined in the attached claims.
상술한 바와 같은 레이더 데이터에 기반한 낙상 감지 모델의 학습 방법 및 이를 수행하는 낙상 감지 장치는 스포츠 분야, 의료 분야, 스마트 홈 분야, 및 산업 분야 등의 다양한 분야에 적용될 수 있다. The method of learning a fall detection model based on radar data as described above and the fall detection device that performs the same can be applied to various fields such as sports, medical, smart home, and industrial fields.
Claims (9)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2022-0138854 | 2022-10-26 | ||
| KR1020220138854A KR102580688B1 (en) | 2022-10-26 | 2022-10-26 | A training method of a fall detection model based on a radar data |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2024090786A1 true WO2024090786A1 (en) | 2024-05-02 |
Family
ID=88191408
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2023/013890 Ceased WO2024090786A1 (en) | 2022-10-26 | 2023-09-15 | Radar data-based fall detection model training method |
Country Status (2)
| Country | Link |
|---|---|
| KR (2) | KR102580688B1 (en) |
| WO (1) | WO2024090786A1 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN117079416B (en) * | 2023-10-16 | 2023-12-26 | 德心智能科技(常州)有限公司 | Multi-person 5D radar fall detection method and system based on artificial intelligence algorithm |
| KR20250144007A (en) | 2024-03-26 | 2025-10-10 | 이후시스(주) | Method for risk detection using radar data |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019158862A (en) * | 2018-03-12 | 2019-09-19 | パナソニックIpマネジメント株式会社 | Tracking device and tracking method |
| KR20210009131A (en) * | 2019-07-16 | 2021-01-26 | 신용섭 | Apparatus for preventing patient fall using radar sensor and method for using the same |
| KR102323343B1 (en) * | 2020-01-28 | 2021-11-08 | 유메인주식회사 | Patient monitering system using rada |
| KR20220036079A (en) * | 2020-09-15 | 2022-03-22 | (주)스마트레이더시스템 | System for detecting posture based on radar point cloud |
| KR20220127981A (en) * | 2021-03-12 | 2022-09-20 | (주)텀브샤인 | Radar sensor and infrared sensor-based fall prediction system and fall prediction method |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102060761B1 (en) * | 2019-04-09 | 2019-12-30 | 주식회사 에이치랩 | System and method for detecting RF-based fall accident using Machine learning |
| KR102258108B1 (en) * | 2020-07-06 | 2021-06-01 | 주식회사 아스코 | apparatus and method for manufacturing coated metal pipe |
| KR102413893B1 (en) * | 2021-11-17 | 2022-06-28 | (주)아이와즈 | Non-face-to-face non-contact fall detection system based on skeleton vector and method therefor |
| KR102410286B1 (en) * | 2021-11-19 | 2022-06-22 | 주식회사 씨앤에이아이 | Method for detecting a falling accident based on deep learning and electronic device thereof |
-
2022
- 2022-10-26 KR KR1020220138854A patent/KR102580688B1/en active Active
-
2023
- 2023-07-19 KR KR1020230093682A patent/KR20240058752A/en active Pending
- 2023-09-15 WO PCT/KR2023/013890 patent/WO2024090786A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019158862A (en) * | 2018-03-12 | 2019-09-19 | パナソニックIpマネジメント株式会社 | Tracking device and tracking method |
| KR20210009131A (en) * | 2019-07-16 | 2021-01-26 | 신용섭 | Apparatus for preventing patient fall using radar sensor and method for using the same |
| KR102323343B1 (en) * | 2020-01-28 | 2021-11-08 | 유메인주식회사 | Patient monitering system using rada |
| KR20220036079A (en) * | 2020-09-15 | 2022-03-22 | (주)스마트레이더시스템 | System for detecting posture based on radar point cloud |
| KR20220127981A (en) * | 2021-03-12 | 2022-09-20 | (주)텀브샤인 | Radar sensor and infrared sensor-based fall prediction system and fall prediction method |
Also Published As
| Publication number | Publication date |
|---|---|
| KR102580688B1 (en) | 2023-09-20 |
| KR20240058752A (en) | 2024-05-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2024090786A1 (en) | Radar data-based fall detection model training method | |
| WO2021075772A1 (en) | Object detection method and device using multiple area detection | |
| WO2021107650A1 (en) | Jointly learning visual motion and confidence from local patches in event cameras | |
| WO2023054822A1 (en) | Artificial intelligence-based method and device for extracting abnormal behavior patterns of livestock | |
| WO2021235682A1 (en) | Method and device for performing behavior prediction by using explainable self-focused attention | |
| WO2022055099A1 (en) | Anomaly detection method and device therefor | |
| WO2022203127A1 (en) | Method for continuously learning object abnormality detection and state classification model, and apparatus therefor | |
| WO2016068593A2 (en) | Block and user terminal for modeling three-dimensional shape and method for modeling three-dimensional shape using same | |
| WO2024136130A1 (en) | Data preprocessing method and device for photovoltaic power plant abnormality detection | |
| WO2024029698A1 (en) | Method for computing cerebral blood flow data and method for training neural network model for computing cerebral blood flow data | |
| WO2023128654A1 (en) | Method for optimizing learning model for target apparatus and system therefor | |
| WO2023017919A1 (en) | Medical image analysis method, medical image analysis device, and medical image analysis system for quantifying joint condition | |
| WO2024253382A1 (en) | Apparatus and method for behavior recognition based on noise skeleton sequence | |
| WO2023022406A1 (en) | Learning ability evaluation method, learning ability evaluation device, and learning ability evaluation system | |
| WO2025013985A1 (en) | Method for training object detector for predicting center of gravity of object projected on ground, method for using trained object detector to identify same object in specific space filmed by plurality of cameras having different viewing frustums, and training device and object-identifying device which use methods | |
| WO2022139200A1 (en) | Same object identification device and identification method, based on skeleton analysis of continuous image frames | |
| WO2023096235A1 (en) | Method and apparatus for evaluating health condition by using skeleton model | |
| WO2022107943A1 (en) | Intelligent smart logistics automation information processing device | |
| WO2022114489A1 (en) | Deep learning support device and deep learning support method | |
| WO2024034920A1 (en) | Passenger detecting method, passenger detecting device, and passenger detecting system | |
| WO2018093158A1 (en) | Deep learning-based educational video training and evaluation system | |
| WO2025121992A1 (en) | Indoor positioning correction system and method | |
| WO2024005425A1 (en) | Wireless receive signal strength indicator (rssi)-based positioning system | |
| WO2025110276A1 (en) | Artificial intelligence-based system for diagnosing and predicting malfunction of smart farm ict equipment | |
| WO2025121993A1 (en) | Indoor positioning correction system and method using deep learning model |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23882893 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 23882893 Country of ref document: EP Kind code of ref document: A1 |