WO2023286677A1 - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- WO2023286677A1 WO2023286677A1 PCT/JP2022/026869 JP2022026869W WO2023286677A1 WO 2023286677 A1 WO2023286677 A1 WO 2023286677A1 JP 2022026869 W JP2022026869 W JP 2022026869W WO 2023286677 A1 WO2023286677 A1 WO 2023286677A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- person
- sleep
- information
- information processing
- radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/0507—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves using microwaves or terahertz waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Measuring devices for evaluating the respiratory organs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/113—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb occurring during breathing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
Definitions
- the present disclosure relates to an information processing device, an information processing method, and a program.
- a non-limiting embodiment of the present disclosure contributes to providing an information processing device, an information processing method, and a program capable of contactlessly detecting changes in a plurality of items related to a person's physical condition.
- An information processing apparatus includes an estimating unit for estimating a plurality of items related to a person's physical condition in time series based on information obtained by detecting a person by radar; and an output unit for outputting information on the detected change in the physical state of the person based on the estimation result obtained in (1).
- a non-limiting embodiment of the present disclosure can, for example, detect changes in a plurality of items related to a person's physical condition without contact.
- FIG. 1 is a diagram showing a configuration example of a body condition detection system according to an embodiment
- FIG. 1 is a block diagram showing a configuration example of a body condition detection system according to an embodiment
- FIG. 3 is a flow chart showing an example of the overall operation of the physical condition detection system according to one embodiment
- Flowchart showing an example of the sleep time zone detection process illustrated in FIG. A diagram showing a setting example of a sleep place definition area according to one embodiment
- FIG. 11 is a diagram showing an example of detection of midway awakening according to an embodiment; A diagram showing an example of detection of a person sitting upright according to an embodiment.
- FIG. 4 is a diagram showing an example of detection of walking speed according to one embodiment;
- FIG. 4 is a diagram showing an example of filtering processing of detected positions according to an embodiment;
- FIG. 4 is a diagram showing an example of state change detection processing according to an embodiment;
- Examples of changes in a person's physical condition include changes in sleep and changes in walking speed (for example, decrease).
- Examples of changes in sleep state include changes in the amount of time spent in non-REM sleep (deep sleep), changes in the amount of time spent in apnea sleep, and changes in the frequency of midway awakenings.
- Detection of REM or non-REM sleep states, or apnea sleep states, using pulse or respiration detection by wearable devices (2) REM, using body motion, respiration, or pulse detection by sensor mats Detection of the state of sleep or non-REM sleep, or awakening in the middle (3) Detection of walking speed using images (hereinafter sometimes referred to as "camera images") of the person to be detected taken by a camera
- method (1) since the device is attached to the person to be detected, for example, the person to be detected may feel uncomfortable or uncomfortable.
- items other than the sleep state for example, walking speed are not measured.
- method (3) uses the camera image of the person to be detected, privacy violations, for example, can become a problem.
- method (3) when estimating the position change of the detection target based on the change in the size of the detection target in the camera image, the size in the camera image changes depending on the movement route of the detection target. may not. Therefore, it may be difficult to estimate walking speed.
- temporal changes in other words, temporal changes
- a single radio wave sensor for example, a millimeter wave radar
- Detect and present to touch Non-limiting examples of multiple items to be detected are "change in sleep state" and "decrease in walking speed”.
- Millimeter-wave radar for example, can detect the position of a person three-dimensionally without contact, so the distance traveled by the person can be calculated without depending on the movement path of the person, and the walking speed of the person can be estimated. .
- millimeter-wave radar can detect, for example, the body movement of the detected person (for example, including changes in the body surface associated with heartbeat or breathing), so based on the body movement during sleep , REM sleep) can be estimated.
- REM sleep based on the body movement during sleep
- an apnea sleep state can be estimated based on the presence or absence of breathing during sleep.
- FIG. 1 is a diagram showing a configuration example of a physical condition detection system 1 according to one embodiment.
- the physical condition detection system 1 may include, for example, a millimeter wave radar 10, a personal computer (PC) 20, servers 30A and 30B, and databases (DB) 40A and 40B.
- PC personal computer
- DB databases
- components 10, 20, 30A, 30B, 40A and 40B may be communicatively connected to each other via a network 50 such as the Internet or a local area network, for example.
- the connection form of the components 10, 20, 30A, 30B, 40A and 40B may be wired or wireless, or may be a mixture of wired and wireless.
- Each of the PC 20, the server 30A and the server 30B is an example of an information processing device.
- the millimeter wave radar 10 is an example of a radio wave sensor, and is installed, for example, in a living room in a building 60 to detect a person P located in the living room as a detection target by radio waves (radar waves) without contact.
- buildings 60 include homes, shops, dormitories, apartment complexes, offices, inns, restaurants, school buildings, laboratories, hospitals, clinics, and the like.
- Detection may be read as, for example, “detection” or “sensing”.
- the frequency of the millimeter wave radar 10 may range from several tens of gigahertz (GHz) to several hundreds of GHz, such as a frequency in the 60 GHz band.
- the PC 20 acquires (or receives) detection results from the millimeter wave radar 10 (hereinafter may be referred to as “radar detection results”, “radar detection information”, or “radar data”) from the millimeter wave radar 10. .
- Radar detection results may be transmitted from the PC 20 via the network 50 to one or both of the servers 30A and 30B, for example. If the millimeter wave radar 10 has a connection (or access) function (in other words, a communication function) to the network 50, the radar detection result is transmitted to one or both of the servers 30A and 30B without going through the PC 20.
- a connection (or access) function in other words, a communication function
- the PC 20 may display information received from one or both of the servers 30A and 30B via the network 50 on the display of the PC 20, for example.
- information processed or generated based on radar detection results in one or both of the servers 30A and 30B may be displayed on the PC 20 .
- Information received via the network 50 may be printed on a printer connected to the PC 20 .
- a mobile terminal such as a smart phone may perform functions equivalent to at least part of the functions of the PC 20 described above as a substitute for or in addition to the PC 20 .
- One of the servers 30A and 30B detects (or estimates or measures) information such as the position of the person P in the living room, body movement, breathing rate (or heart rate) based on the radar detection result. )do.
- the detected information may be sequentially (in other words, chronologically) stored (or accumulated) in the DB 40A, for example.
- the server 30A reads information for a predetermined period (for example, one day's worth) from the DB 40A, and determines the sleep state of the person P (for example, non-REM sleep, apnea sleep, and at least one time period of awakening). , and information such as walking speed is detected (or estimated or measured). The detected information may be stored (or accumulated) in the DB 40B in chronological order (for example, daily).
- the server 30B determines (or detects) whether or not there is a change in the physical condition of the person P based on time-series information (hereinafter sometimes referred to as "time-series data") accumulated in the DB 40B. do.
- time-series data time-series information
- the server 30B sends information indicating that the physical condition of the person P has changed (hereinafter sometimes referred to as "physical condition change information") to the network. 50 to provide (or notify) the PC 20 .
- the PC 20 displays the received physical condition change information on a display of the PC 20 or prints it out by a printer.
- the physical condition change information may be displayed or printed not only by the PC 20 but also by the server 40A or 40B.
- the detection (or estimation or measurement) of various information such as the position of the person P, body movement, breathing rate (or heart rate), sleeping state, and walking speed is performed by one or both of the servers 30A and 30B using radar detection. It may be implemented centrally or distributedly based on the results. In other words, it is not necessary that specific information among various types of information (which may be referred to as “measurement items”) is detected in a specific server.
- the servers 30A and 30B may be integrated into one server, for example. Also, three or more servers may dispersively perform the processing related to detection of the measurement items described above.
- the DBs 40A and 40B may be provided inside the servers 30A and 30B, respectively.
- the storage units or storage devices provided in the servers 30A and 30B may correspond to the DBs 40A and 40B.
- the DBs 40A and 40B may be integrated into one DB, for example. In three or more DBs, the measurement items described above may be accumulated and managed in a distributed manner.
- FIG. 2 is a block diagram showing a configuration example of the physical condition detection system 1 according to one embodiment.
- the millimeter wave radar 10 may include, for example, a detection section 101, a processing section 102 and an output section 103.
- the detection unit 101 transmits a radar wave and receives and detects a reflected wave of the radar wave reflected by a detection target (eg, person P).
- a detection target eg, person P
- the processing unit 102 detects information such as the position, speed, and angle with respect to the millimeter wave radar 10 of the detection target, based on point cloud data corresponding to the detection target, for example, obtained by reflected waves.
- the output unit 103 transmits information (in other words, radar data) obtained by the processing unit 102 to the radar control device 70, for example.
- the radar control device 70 may include a radar communication section 701 and a radar data storage section 702, for example. Note that the radar control device 70 may correspond to, for example, the PC 20 illustrated in FIG. 1, or may correspond to one or both of the servers 30A and 30B illustrated in FIG.
- the radar communication unit 701 communicates with the millimeter wave radar 10 by wire or wirelessly, receives radar data, and stores (memorizes) it in the radar data storage unit 702 .
- the radar communication unit 701 also transmits radar data to the state change detection device 80 by wire or wirelessly, for example.
- the state change detection device 80 detects a change in the physical state of the detection target (for example, person P) based on, for example, radar data.
- the state change detection device 80 is an example of an information processing device, and may correspond to one or both of the servers 30A and 30B illustrated in FIG. 1, for example.
- the state change detection device 80 includes, for example, a radar data reading unit 801, a sleep state estimation unit 802, a walking speed estimation unit 803, an estimation result storage unit 804, an estimation result reading unit 805, a state change detection processing unit 806, a communication unit 807, A radar data storage unit 808 and an estimation result information storage unit 809 may be provided.
- the radar data reading unit 801 reads radar data stored in the radar data storage unit 808 and outputs it to the sleep state estimation unit 802 .
- the radar data storage unit 808 may correspond to, for example, the DB 40A illustrated in FIG.
- the sleep state estimation unit 802 estimates the sleep state of the person P who is the detection target (for example, non-REM sleep, apnea sleep, and a period of midway awakening), for example, based on radar data.
- the walking speed estimation unit 803 estimates the walking speed of the person P, for example, based on radar data. For example, since the walking speed estimation need not be performed during the sleep hours estimated by the sleep state estimation unit 802, it may be performed for a time slot other than the estimated sleep hours of the person P.
- the sleep state estimation unit 802 and walking speed estimation unit 803 may be integrated into one estimation unit, for example.
- the estimation result storage unit 804 stores (memorizes) each estimation result by the sleep state estimation unit 802 and the walking speed estimation unit 803 in the estimation result information storage unit 809, for example.
- the estimation result information storage unit 809 may be integrated with the radar data storage unit 808, for example. Also, the estimation result information storage unit 809 may correspond to the DB 40B illustrated in FIG.
- the estimation result reading unit 805 reads the estimation result stored in the estimation result information storage unit 809 and outputs it to the state change detection processing unit 806 .
- the estimation result storage unit 804 and the estimation result reading unit 805 may be integrated into one writing and reading control unit, for example.
- the state change detection processing unit 806 detects changes in the physical state of the person P based on the estimation result input from the estimation result reading unit 805, for example.
- a detection result may be output to the communication unit 807, for example.
- the communication unit 807 is an example of an output unit, and for example, communicates with the display terminal device 90 (for example, the communication unit 901) wirelessly or by wire, and transmits detection results regarding changes in the physical state of the person P to the display terminal device 90. do.
- the display terminal device 90 may comprise a communication section 901 and a display section 902, for example.
- the display terminal device 90 may correspond to the PC 20 illustrated in FIG. 1, for example.
- the communication unit 901 communicates with the state change detection device 80 (for example, the communication unit 807 ) wirelessly or by wire, receives detection results regarding changes in the physical state of the person P, and outputs the received information to the display unit 902 . do.
- the display unit 902 displays information input from the communication unit 901, for example.
- FIG. 3 is a flowchart showing an example of overall operation of the physical condition detection system 1 according to one embodiment.
- FIG. 4 is a flowchart showing an example of the sleep period detection process (S803) illustrated in FIG.
- radar data is detected in the millimeter wave radar 10 (S101), and the detected radar data is stored (stored) in the radar data storage unit 808 of the state change detection device 80, for example (S102 ).
- the state change detection device 80 periodically reads radar data from the radar data storage unit 808 by the radar data reading unit 801, for example.
- the radar data reading unit 801 reads one day's worth of radar data from the radar data storage unit 808 at 1:00 every day (S801, S802).
- the radar data read from the radar data storage unit 808 is output to, for example, the sleep state estimation unit 802, and the sleep state estimation unit 802 estimates the sleep state of the person P to be detected based on the radar data. (S803).
- the sleep state estimation unit 802 determines whether or not there is a sleep time period based on radar data for one day (S804). An example of the sleep time period detection process will be described later with reference to FIG. As a result of the determination, if there is no sleep time period (S804; NO), for example, estimation by the sleep state estimation unit 802 may be terminated and estimation by the walking speed estimation unit 803 may be executed (S808).
- the sleep state estimation unit 802 estimates, for example, non-REM sleep, apnea sleep, and midway awakening time zones (S805-S807).
- the walking speed estimation unit 803 estimates the walking speed of the person P based on the radar data (S808).
- the estimation result obtained by each process of S805 to S808 is stored (stored) in the estimation result information storage unit 809 by the estimation result storage unit 804, for example (S809).
- S805 to S808 may be performed serially as described above, or may be performed in parallel. When implemented serially, the processing order of S805 to S807 may be changed as appropriate.
- the estimation result stored in the estimation result information storage unit 809 is read by, for example, the estimation result reading unit 805 and output to the state change detection processing unit 806 (S810).
- the state change detection processing unit 806 detects a change in the physical state of the person P, for example, based on the estimation result input from the estimation result reading unit 805 (S811). For example, the state change detection processing unit 806 determines whether or not there is a change in the physical state of the person P based on the sleep state and walking speed estimation results (S812).
- the state change detection processing unit 806 may end the processing.
- the state change detection processing unit 806 sends information about the change in the physical state of the person P to the display terminal device 90 via the communication unit 807, for example. Send (S813).
- the display terminal device 90 When the display terminal device 90 receives information about a change in the physical state of the person P from the state change detection device 80 (S901), the received information is displayed on the screen of the display unit 902, for example (S902).
- the estimation (or detection) of the sleep state of the person P for example, sleep time period, non-REM sleep, apnea sleep, and each time period of awake
- the sleep state estimation unit 802 will be described item by item. .
- the sleep state estimation unit 802 reads, for example, the setting of the sleeping place definition area 501 (see FIG. 5) of the person P (S831).
- the setting of the sleeping place definition area 501 may be performed by, for example, the sleep state estimation unit 802, or may be performed by a setting unit (not shown) in the state change detection device 80.
- the setting data of the sleeping place definition area 501 may be stored in either one of the storage units 808 and 809, or may be stored in another storage unit (not shown) in the state change detection device 80, for example.
- the sleeping place definition area 501 may be set as a three-dimensional (3D) space with respect to the place where the person P sleeps (for example, bedding such as a bed or a mattress) in the living room, as shown in the upper part of FIG.
- 3D three-dimensional
- a sleeping place definition area 501 defined by XYZ coordinates is set in the space above the person P's sleeping place.
- the size (area) of the XY plane of the sleeping place definition area 501 may be set according to the size of bedding such as a bed, mattress, and futon, for example.
- the size of the XY plane of the sleeping place definition area 501 may be set to a size that matches the size of the bedding, or may be set to a size that is slightly smaller or larger than the size of the bedding.
- the sleeping place definition area 501 may be set to a space size corresponding to the three-dimensional space occupied by at least one of the supine position, prone position, and side lying position in the person P's sleeping position.
- the length (in other words, height) of the sleeping place definition area 501 in the Z-axis direction corresponds to the height (in other words, body height) in the sleeping posture (or body position) of the person P.
- the millimeter wave radar 10 can detect the person P sitting upright.
- the height of the sleeping place definition area 501 may be set based on the top surface of bedding such as a bed, a mattress, and a mattress as illustrated in FIG. 5, or may be set based on the floor surface on which the bedding is placed. may In other words, the sleeping place definition area 501 may be set, for example, as a space covered with bedding or as a space not covered with bedding.
- the sleep place definition area 501 for example, whether or not the person P entered the sleep place definition area 501 to go to bed, or whether the person P woke up (including halfway awakening) and entered the sleep place definition area 501 It can be detected based on the radar data (for example, the positional information of the person P) whether or not the person P has left the outside.
- the sleeping time zone of the person P is detected ( (or presumed).
- Sleep start determination condition Detection of entry into sleep place definition area 501
- Sleep end determination condition Detection of exit from sleep place definition area 501 and entry into sleep place definition area 501 within N minutes thereafter undetected
- N may be set to a time during which it can be determined that the person P will not return to his/her sleeping place after waking up, for example, several tens of minutes, such as 30 minutes.
- the sleeping end determination condition is not satisfied, and the sleep time of the person P continues without ending. It may be determined that It should be noted that the period of time of N minutes or less may be determined to be the period of time during which the person P has awakened in the middle.
- the sleep state estimation unit 802 After reading the setting of the sleep place definition area 501 as described above, the sleep state estimation unit 802 acquires, for example, the data of the start time of the radar data (S832), and the acquired data satisfies the sleep start determination condition (1). (S833).
- the sleep state estimation unit 802 when it is determined that the data at the beginning time does not satisfy the sleep start determination condition (1) (S833; NO), the sleep state estimation unit 802, for example, as long as the data at the next time exists (S834; YES ), the data for the next time is acquired (S835), and it is determined whether or not the sleep start determination condition (1) is satisfied.
- the sleep state estimation unit 802 determines whether the next time data satisfies the sleep end determination condition (2) (S836). .
- the sleep state estimation unit 802 when it is determined that the data for the next time does not satisfy the sleep end determination condition (2) (S836; NO), the sleep state estimation unit 802, for example, as long as the data for the next time exists (S837; YES ), the data for the next time is acquired (S838), and it is determined whether or not the sleep end determination condition (2) is satisfied.
- the sleep state estimation unit 802 determines, for example, the time of the data that satisfies the sleep start determination condition (1). and the time of the data that satisfies the sleep end determination condition (2) is recorded as the sleep time period of the person P (S839).
- the sleep state estimating unit 802 checks whether there is data for the next time (S840), and if there is data for the next time (S840; YES), for example, acquires data for the next time (S841), It is determined whether or not the next time data satisfies the sleep start determination condition (1) (S833).
- the sleep state estimating unit 802 obtains data that satisfies the sleep start determination condition (1), then data that satisfies the sleep end determination condition (2), and data that satisfies the sleep end determination condition (2). , and detect and record the period between the times of both data as a sleeping time zone.
- the sleep state estimation unit 802 may end the sleep time slot detection process. For example, the processes after S804 illustrated in FIG. 3 are executed in response to the end of the sleep time slot detection process.
- FIG. 6 shows an example of detection of sleeping hours.
- FIG. 6 exemplarily shows a time zone (7 hours) from 00:00:00 to 07:00:00 and 22:00:00 to 24:00 in a day (24 hours from 00:00 to 24:00).
- Person P's sleeping time period is detected in the time period of :00:00 (4 hours), and the person P wakes up in the middle of the day in the time period of 01:10:20 to 01:20:20 (20 minutes ⁇ N).
- An example presumed to be is shown.
- the estimation of the time zone of non-REM sleep, apnea sleep, and mid-wake may be performed for the sleep time zone detected as described above. In the following, estimation of non-REM sleep, apnea sleep, and nocturnal awakening will be described.
- Respiratory rate and pulse rate are examples of indicators that can determine (or estimate) whether a person is in non-REM sleep.
- respiration rate and pulse rate tend to be stable and regular (in other words, periodic).
- heart rate and respiratory rate tend to increase and become irregular compared to non-REM sleep.
- the sleep state estimation unit 802 measures the respiratory state (for example, breathing rate and pulse rate) during the sleep time zone in which the person P is detected, and the periodic waveform continues.
- the observed time period may be presumed to be non-REM sleep.
- the time slot from 01:10:25 to 01:50:14 may be estimated as the non-REM sleep time slot.
- the vertical axis in FIG. 7 represents the phase change of the radio signal due to the movement of the chest, and the unit is [rad], for example.
- the vertical axis in FIG. 8 is also the same as in FIG.
- the sleep state estimation unit 802 measures the respiratory state (for example, breathing rate and pulse rate) during the sleep time period during which the person P is detected, and ignores the time period during which breathing detection is interrupted. It may be presumed to be a respiratory sleep state. For example, as shown in FIG. 8, the time period from 03:20:27 to 03:20:36 may be estimated as the apnea sleep time period.
- the respiratory state for example, breathing rate and pulse rate
- the sleep state estimation unit 802 detects an act of the person P temporarily leaving the sleeping place (sleep place definition area 501) during sleep, or an act of the person P raising the upper body.
- the duration may be estimated as the time when the awakening occurs.
- the sleep state estimation unit 802 may estimate, for example, the 10-minute period from 01:10:20 to 01:20:20 as the period of awakening.
- the sleep state estimating unit 802 may include, for example, the time period in which the person P's sitting up is detected in the time period of the midway awakening.
- the walking speed estimation unit 803 calculates the distance (D) that the person P has moved in the living room based on the radar data, and divides the distance by the time (T) required for the movement. Estimate the walking speed (V) of
- the estimation of the walking speed V is performed in a time zone excluding the sleep time zone detected in the above-described sleep time zone detection process (S803 in FIG. 3) time zone).
- the amount of radar data used for estimating the walking speed can be reduced. can be reduced.
- the frequency of radar data acquisition by the millimeter wave radar 10 is, for example, several tens of milliseconds to several hundred milliseconds, or if there is an error in the detected position of several centimeters (cm) to several tens of cm, the actual A trajectory fluctuation or shift that does not match the movement of the person P (eg, the upper part of FIG. 12) may occur in the radar radar (eg, the middle part of FIG. 12).
- the walking speed estimator 803 may perform correction (for example, moving average filtering) on the detected position based on the radar data, as shown in the lower part of FIG. 12, for example.
- correction for example, moving average filtering
- the sleep state estimation unit 802 for example, each time period of non-REM sleep, apnea sleep, and midway awakening
- the walking speed estimation unit 803 Based on the time-series data of the walking speed thus obtained, a change point of a tendency change (in other words, a trend) of the physical condition of the person P is detected.
- the state change detection processing unit 806 determines whether there is a change point in the trend fluctuation of the time-series data for each sleeping state and walking speed. When a change point is detected, the state change detection processing unit 806 creates, for example, a prediction model for time-series data after the change point based on time-series data before the change point. For example, an autoregressive (AR) model may be used to create the prediction model.
- AR autoregressive
- each time period of apnea sleep for example, for each time period of apnea sleep, each time period of arousal, and each time series data of walking speed illustrated in (b) to (d) of FIG. may be created separately if is detected.
- the state change detection processing unit 806 determines whether or not the degree of abnormality is equal to or higher than the threshold using the difference between the measured value and the predicted value by the prediction model as an indicator of the degree of abnormality.
- the timing determined to be present is detected as a change point of trend fluctuation.
- (e) of FIG. 13 shows an example in which a change in trend fluctuation (in other words, anomaly) was detected on January 5 with respect to the non-REM sleep period.
- the state change detection processing unit 806, for example, separates measurement items such as non-REM sleep time, apnea sleep time, midway awakening time, and walking speed from each measurement item into which a change point of trend variation is detected, and outputs information to the person. This information is transmitted to the display terminal device 90 as information on changes in P's physical condition.
- the display terminal device 90 displays the information received from the state change detection device 80 on the screen of the display unit 902 of the display terminal device 90, for example.
- the person P himself or another person involved in the health management of the person P for example, the person P's family, caregiver, administrator, doctor in charge, etc.
- the person P's family, caregiver, administrator, doctor in charge, etc. can be informed about the change in the physical condition of the person P. Information is presented.
- FIG. 14 shows an example of the screen display (GUI) of the display unit 902.
- GUI screen display
- FIG. 14 shows an example in which the display screen of display unit 902 is divided into status display area 921 and notification area 922 .
- the state display area 921 displays the time-series data illustrated in (a) to (d) of FIG. For example, it may be indicated that a decrease in NREM sleep time has been detected and an increase in apnea sleep time has been detected.
- the screen display example of the display unit 902 is not limited to the example shown in FIG.
- one of the status display area 921 and the notification area 922 may be selectively displayed.
- any one or more of the time-series data illustrated in (a) to (d) of FIG. 13 may be selectively displayed.
- time-series data that contributed to the detection of changes in physical state may be selectively displayed.
- the time-series data that contributed to the detection of the physical condition change may be highlighted in the condition display area 921 . Any mode of highlighting is acceptable.
- the display mode in the notification area 922 is not limited to the example in FIG. 14 .
- a sound such as an alarm sound may be used to alert the user that a change in physical condition has been detected.
- time-series data with a uniform time axis such as a day (in other words, timing-synchronized), non-REM sleep time, apnea sleep time, mid-awakening time
- a plurality of measurement items related to the physical condition of the person P such as walking speed
- the timing at which the physical condition of the person P changes can be easily grasped for each measurement item.
- Sleeping place definition area 501 may not be set as a three-dimensional space, but may be set, for example, in two dimensions (eg, XY axes excluding the Z-axis direction).
- the items to be measured by the millimeter wave radar 10 may not be all of the non-REM sleep time, the apnea sleep time, the awakening time, and the walking speed, and may be, for example, a combination of some measurement items. .
- the items to be measured by the millimeter wave radar 10 are not limited to the four items of non-REM sleep time, apnea sleep time, halfway awakening time, and walking speed.
- Some of the four items may be replaced with other items related to the physical condition of the person P detectable by the millimeter wave radar 10. Moreover, five or more items related to the physical condition of the person P that can be detected by the millimeter wave radar 10 may be measured by the millimeter wave radar 10 .
- the number of persons to be detected by the millimeter wave radar 10 is not limited to one, and may be two or more. According to the distance resolution of the millimeter wave radar 10, for example, body motion and movement can be detected for each person, so the above-described change in physical condition can be detected for each of a plurality of persons.
- the present disclosure can be realized by software, hardware, or software in cooperation with hardware.
- the functionality of the system described above can be implemented by a computer program.
- FIG. 15 is a diagram showing the hardware configuration of a computer (or information processing device) that implements the functions of each device that constitutes the physical condition detection system 1 described above by means of a program.
- a computer 1100 includes an input device 1101 such as a keyboard, mouse, or touch pad, an output device 1102 such as a display or speaker, a CPU (Central Processing Unit) 1103, a GPU (Graphics Processing Unit) 1104, a ROM (Read Only Memory).
- an input device 1101 such as a keyboard, mouse, or touch pad
- an output device 1102 such as a display or speaker
- a CPU Central Processing Unit
- GPU Graphics Processing Unit
- ROM Read Only Memory
- RAM Random Access Memory
- storage device 1107 such as a hard disk device or SSD (Solid State Drive), DVD-ROM (Digital Versatile Disk Read Only Memory) or from a recording medium such as USB (Universal Serial Bus) memory
- a reading device 1108 for reading information and a transmitting/receiving device 1109 for communicating via a network are provided.
- the reading device 1108 reads a program for realizing the functions of the terminal PC 20 from a recording medium, and stores the program in the storage device 1107 .
- the transmitting/receiving device 1109 communicates with a server device (which may be the server 30 or may be a server device different from the server 30) connected to the network, and realizes the functions of the above devices downloaded from the server device. program is stored in the storage device 1107 .
- the CPU 1103 copies the program stored in the storage device 1107 to the RAM 1106 and sequentially reads and executes the instructions included in the program from the RAM 1106, thereby realizing the functions of the terminal PC 20 according to the above-described embodiment.
- Each functional block used in the description of the above embodiments is partially or wholly implemented as an LSI, which is an integrated circuit, and each process described in the above embodiments is partially or wholly , may be controlled by one LSI or a combination of LSIs.
- An LSI may be composed of individual chips, or may be composed of one chip so as to include some or all of the functional blocks.
- the LSI may have data inputs and outputs.
- LSIs are also called ICs, system LSIs, super LSIs, and ultra LSIs depending on the degree of integration.
- the method of circuit integration is not limited to LSI, and may be realized with a dedicated circuit, a general-purpose processor, or a dedicated processor. Further, an FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connections and settings of the circuit cells inside the LSI may be used.
- FPGA Field Programmable Gate Array
- reconfigurable processor that can reconfigure the connections and settings of the circuit cells inside the LSI may be used.
- the present disclosure may be implemented as digital or analog processing.
- a communication device may include a radio transceiver and processing/control circuitry.
- a wireless transceiver may include a receiver section and a transmitter section, or functions thereof.
- a wireless transceiver (transmitter, receiver) may include an RF (Radio Frequency) module and one or more antennas.
- RF modules may include amplifiers, RF modulators/demodulators, or the like.
- Non-limiting examples of communication devices include telephones (mobile phones, smart phones, etc.), tablets, PCs (laptops, desktops, notebooks, etc.), cameras (digital still/video cameras, etc.), digital players (digital audio/video players, etc.), wearable devices (wearable cameras, smartwatches, tracking devices, etc.), game consoles, digital book readers, telehealth telemedicine Devices, vehicles or mobile vehicles with communication capabilities (automobiles, planes, ships, etc.), and combinations of the various devices described above.
- Communication equipment is not limited to portable or movable equipment, but any type of equipment, device or system that is non-portable or fixed, e.g. smart home devices (household appliances, lighting equipment, smart meters or measuring instruments, control panels, etc.), vending machines, and any other "Things" that can exist on the IoT (Internet of Things) network.
- smart home devices household appliances, lighting equipment, smart meters or measuring instruments, control panels, etc.
- vending machines and any other "Things” that can exist on the IoT (Internet of Things) network.
- CPS Chip Physical Systems
- IoT Internet of Things
- an edge server located in physical space and a cloud server located in cyber space are connected via a network, and processing is performed by processors installed in both servers. Distributed processing is possible.
- each processing data generated in the edge server or cloud server is preferably generated on a standardized platform.
- various sensor groups and IoT application software can be used. Efficiency can be achieved when constructing a system that includes.
- Communication includes data communication by cellular system, wireless LAN system, communication satellite system, etc., as well as data communication by a combination of these.
- Communication apparatus also includes devices such as controllers and sensors that are connected or coupled to communication devices that perform the communication functions described in this disclosure. Examples include controllers and sensors that generate control and data signals used by communication devices to perform the communication functions of the communication apparatus.
- Communication equipment also includes infrastructure equipment, such as base stations, access points, and any other equipment, device, or system that communicates with or controls the various equipment, not limited to those listed above. .
- An embodiment of the present disclosure is suitable for detecting changes in a person's physical condition, for example.
- 1 body condition detection system 10 millimeter wave radar 20 personal computer (PC) 30A, 30B Server 40A, 40B Database (DB) 70 radar control device 80 state change detection device 90 display terminal device 101 detection unit 102 processing unit 701 radar communication unit 702 radar data storage unit 801 radar data reading unit 802 sleep state estimation unit 803 walking speed estimation unit 804 estimation result storage unit 805 estimation Result reading unit 806 State change detection processing unit 807, 901 Communication unit 808 Radar data storage unit 809 Estimation result information storage unit 902 Display unit 921 State display area 922 Notification area 1100 Computer 1101 Input device 1102 Output device 1103 CPU 1104 GPU (Graphics Processing Unit) 1105 ROM (Read Only Memory) 1106 RAM (Random Access Memory) 1107 storage device 1108 reading device 1109 transmitting/receiving device 1110 bus P person
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Social Psychology (AREA)
- Child & Adolescent Psychology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Psychology (AREA)
- Pulmonology (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
Description
本開示は、情報処理装置、情報処理方法、及び、プログラムに関する。 The present disclosure relates to an information processing device, an information processing method, and a program.
監視カメラによって撮影された人物の画像を基に人物の歩行速度を推定し、推定した歩行速度の変化を基に人物の認知機能を評価する技術がある。また、住居内において人物が電源を操作した電気機器の組み合わせや順番を基に、あるいは、人物の衣服に装着した無線タグの位置情報を基に、住居における人物の行動を監視(見守り)する技術がある。 There is a technology that estimates a person's walking speed based on the person's image taken by a surveillance camera and evaluates the person's cognitive function based on changes in the estimated walking speed. Technology that monitors (watches over) a person's behavior in a dwelling based on the combination and order of electrical devices operated by the person within the dwelling, or based on the location information of the wireless tag attached to the person's clothing. There is
人の身体状態の変化を検出する技術については、更なる検討の余地がある。 There is room for further examination of the technology for detecting changes in a person's physical condition.
本開示の非限定的な実施例は、人の身体状態に関する複数の項目についての変化を非接触で検出できる情報処理装置、情報処理方法、及び、プログラムの提供に資する。 A non-limiting embodiment of the present disclosure contributes to providing an information processing device, an information processing method, and a program capable of contactlessly detecting changes in a plurality of items related to a person's physical condition.
本開示の一実施例に係る情報処理装置は、レーダーによって人物を検知した情報に基づいて、前記人物の身体状態に関する複数の項目を時系列に推定する推定部と、前記複数の項目について時系列に得られた推定結果に基づいて、前記人物の身体状態の変化を検出する検出部と、検出した前記人物の身体状態の変化に関する情報を出力する出力部と、を備える。 An information processing apparatus according to an embodiment of the present disclosure includes an estimating unit for estimating a plurality of items related to a person's physical condition in time series based on information obtained by detecting a person by radar; and an output unit for outputting information on the detected change in the physical state of the person based on the estimation result obtained in (1).
なお、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、又は、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 In addition, these generic or specific aspects may be realized by systems, devices, methods, integrated circuits, computer programs, or recording media. may be realized by any combination of
本開示の非限定的な実施例は、例えば、人の身体状態に関する複数の項目についての変化を非接触で検出できる。 A non-limiting embodiment of the present disclosure can, for example, detect changes in a plurality of items related to a person's physical condition without contact.
本開示の一実施例における更なる利点及び効果は、明細書及び図面から明らかにされる。かかる利点及び/又は効果は、いくつかの実施形態並びに明細書及び図面に記載された特徴によってそれぞれ提供されるが、1つ又はそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。 Further advantages and effects of one embodiment of the present disclosure will be made clear from the specification and drawings. Such advantages and/or advantages may be provided by some of the embodiments and features described in the specification and drawings, respectively, but not necessarily all provided to obtain one or more of the same features. no.
以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。尚、本明細書及び図面において、実質的に同一の機能を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functions are denoted by the same reference numerals, thereby omitting redundant description.
<一実施の形態>
人の身体状態の変化を早期に発見し対策を講じることは、健康を維持するためにも重要である。例えば、睡眠状態あるいは歩行速度の変化の検出は、人の集中力、意欲、食欲、運動能力といった身体状態の把握につながるため、抑うつ又は怪我の予防、さらには認知症の発見に応用が可能である。
<One embodiment>
Early detection of changes in a person's physical condition and taking countermeasures are also important for maintaining good health. For example, detection of changes in sleep or walking speed leads to an understanding of physical conditions such as concentration, motivation, appetite, and exercise capacity, and can be applied to prevent depression or injuries, and even detect dementia. be.
人の身体状態の変化の一例としては、睡眠状態の変化および歩行速度の変化(例えば、低下)が挙げられる。睡眠状態の変化の一例としては、ノンレム睡眠(深い睡眠)状態にある時間の増減、無呼吸睡眠状態にある時間の増減、中途覚醒の頻度の増減といった変化が挙げられる。 Examples of changes in a person's physical condition include changes in sleep and changes in walking speed (for example, decrease). Examples of changes in sleep state include changes in the amount of time spent in non-REM sleep (deep sleep), changes in the amount of time spent in apnea sleep, and changes in the frequency of midway awakenings.
以上のような身体状態の変化を検出するため、例えば、以下の(1)~(3)に示す手法が検討される。 In order to detect changes in physical condition as described above, for example, the methods shown in (1) to (3) below are considered.
(1)ウェアラブル機器による脈拍または呼吸の検知を用いた、レム睡眠またはノンレム睡眠の状態、あるいは無呼吸睡眠状態の検出
(2)センサーマットによる体動、呼吸、または脈拍の検知を用いた、レム睡眠またはノンレム睡眠の状態、あるいは中途覚醒の検出
(3)検出対象者をカメラによって撮影した画像(以下「カメラ画像」と称することがある)を用いた歩行速度の検出
(1) Detection of REM or non-REM sleep states, or apnea sleep states, using pulse or respiration detection by wearable devices (2) REM, using body motion, respiration, or pulse detection by sensor mats Detection of the state of sleep or non-REM sleep, or awakening in the middle (3) Detection of walking speed using images (hereinafter sometimes referred to as "camera images") of the person to be detected taken by a camera
なお、以降の説明において、「検出」あるいは「検知」という用語は、例えば、「推定」あるいは「測定」といった用語に相互に読み替えられてもよい。 In the following description, the terms "detection" and "detection" may be interchanged with terms such as "estimation" and "measurement", for example.
ここで、手法(1)では、検出対象者に機器を装着するため、例えば、検出対象者に違和感あるいは不快感を与えかねない。また、手法(2)では、睡眠状態以外の項目(例えば、歩行速度)は測定されない。 Here, in method (1), since the device is attached to the person to be detected, for example, the person to be detected may feel uncomfortable or uncomfortable. In method (2), items other than the sleep state (for example, walking speed) are not measured.
手法(3)では、検出対象者のカメラ画像を用いるため、例えば、プライバシー侵害が問題になり得る。また、手法(3)において、カメラ画像内の検出対象者の大きさの変化を基に検出対象者の位置変化を推定する場合、検出対象者の移動経路によってはカメラ画像内の大きさが変化しないことがあり得る。そのため、歩行速度の推定が難しいことがある。 Since method (3) uses the camera image of the person to be detected, privacy violations, for example, can become a problem. In method (3), when estimating the position change of the detection target based on the change in the size of the detection target in the camera image, the size in the camera image changes depending on the movement route of the detection target. may not. Therefore, it may be difficult to estimate walking speed.
本開示の一実施例では、例えば、検出対象者である人物の身体状態に関する複数の項目の時間変化(別言すると、経時変化)を、単一の電波センサ(例えば、ミリ波レーダー)によって非接触に検出し提示する。検出対象の複数の項目の非限定的な一例は、「睡眠状態の変化」および「歩行速度の低下」である。 In one embodiment of the present disclosure, for example, temporal changes (in other words, temporal changes) of a plurality of items related to the physical condition of a person to be detected are detected by a single radio wave sensor (for example, a millimeter wave radar). Detect and present to touch. Non-limiting examples of multiple items to be detected are "change in sleep state" and "decrease in walking speed".
ミリ波レーダーは、例えば、非接触に人物の位置を3次元的に検出できるため、人物の移動経路に依存せずに当該人物の移動距離を算出でき、したがって、当該人物の歩行速度を推定できる。 Millimeter-wave radar, for example, can detect the position of a person three-dimensionally without contact, so the distance traveled by the person can be calculated without depending on the movement path of the person, and the walking speed of the person can be estimated. .
また、ミリ波レーダーは、例えば、検出した人物の体動(例えば、心拍あるいは呼吸に伴う体表の変動を含む)を検出できるため、睡眠時の体動を基に睡眠状態(例えば、ノンレム睡眠、レム睡眠といった睡眠の深さ)を推定できる。また、睡眠時の呼吸の有無を基に無呼吸睡眠状態を推定できる。 In addition, millimeter-wave radar can detect, for example, the body movement of the detected person (for example, including changes in the body surface associated with heartbeat or breathing), so based on the body movement during sleep , REM sleep) can be estimated. In addition, an apnea sleep state can be estimated based on the presence or absence of breathing during sleep.
<システム構成例>
図1は、一実施の形態に係る身体状態検出システム1の構成例を示す図である。図1に示すように、身体状態検出システム1は、例えば、ミリ波レーダー10、パーソナルコンピュータ(PC)20、サーバ30A及び30B、並びに、データベース(DB)40A及び40Bを備えてよい。
<System configuration example>
FIG. 1 is a diagram showing a configuration example of a physical
これらの構成要素10、20、30A、30B、40A及び40Bは、例えば、インターネットあるいはローカルエリアネットワークのようなネットワーク50を介して相互に通信可能に接続されてよい。構成要素10、20、30A、30B、40A及び40Bの接続形態は、有線及び無線の何れであってもよいし、有線及び無線が混在してもよい。PC20、サーバ30Aおよびサーバ30Bのそれぞれは、情報処理装置の一例である。
These
ミリ波レーダー10は、電波センサの一例であり、例えば、建物60内の居室に設置されて、居室内に位置する人物Pを検知対象として電波(レーダー波)によって非接触で検知する。建物60の非限定的な一例としては、居宅、店舗、寄宿舎、共同住宅、事務所、旅館、料理店、校舎、研究所、病院、診療所などが挙げられる。
The
「検知」は、例えば、「検出」あるいは「センシング」に読み替えられてもよい。ミリ波レーダー10の周波数は、非限定的な一例として、数十ギガヘルツ(GHz)~数百GHzの周波数であってよく、例えば、60GHz帯の周波数であってよい。
"Detection" may be read as, for example, "detection" or "sensing". As a non-limiting example, the frequency of the
PC20は、例えば、ミリ波レーダー10による検知結果(以下「レーダー検知結果」、「レーダー検知情報」、あるいは「レーダーデータ」と称されてもよい)をミリ波レーダー10から取得(あるいは受信)する。
For example, the PC 20 acquires (or receives) detection results from the millimeter wave radar 10 (hereinafter may be referred to as “radar detection results”, “radar detection information”, or “radar data”) from the
レーダー検知結果は、例えば、PC20からネットワーク50経由でサーバ30A及び30Bの一方又は双方へ送信されてよい。なお、ミリ波レーダー10が、ネットワーク50に対する接続(あるいはアクセス)機能(別言すると、通信機能)を有する場合、レーダー検知結果は、PC20を介さずにサーバ30A及び30Bの一方又は双方へ送信されてもよい。
Radar detection results may be transmitted from the PC 20 via the
また、PC20は、例えば、ネットワーク50経由でサーバ30A及び30Bの一方又は双方から受信した情報をPC20の表示部(ディスプレイ)に表示してよい。例えば、サーバ30A及び30Bの一方又は双方においてレーダー検知結果を基に処理あるいは生成された情報(例えば、人物Pの身体状態の変化に関する情報)が、PC20において表示されてよい。PC20に接続されたプリンタに、ネットワーク50経由で受信した情報が印刷されてもよい。
Also, the PC 20 may display information received from one or both of the
なお、PC20の代替あるいは追加で、スマートフォンのような携帯端末が、上述したPC20が有する機能の少なくとも一部と同等の機能を果たしてもよい。 It should be noted that a mobile terminal such as a smart phone may perform functions equivalent to at least part of the functions of the PC 20 described above as a substitute for or in addition to the PC 20 .
サーバ30A及び30Bの一方(例えば、サーバ30A)は、例えば、レーダー検知結果を基に、居室内の人物Pの位置、体動、呼吸数(あるいは心拍数)といった情報を検出(あるいは推定又は測定)する。検出した情報は、例えば、DB40Aに逐次的(別言すると、時系列)に記憶(あるいは蓄積)されてよい。
One of the
また、サーバ30Aは、例えば、DB40Aから所定期間(例えば、一日分)の情報を読み出し、人物Pの睡眠状態(例えば、ノンレム睡眠、無呼吸睡眠、および、中途覚醒の少なくとも1つの時間帯)、および、歩行速度といった情報を検出(あるいは推定又は測定)する。検出した情報は、例えば、DB40Bに時系列(例えば、日ごと)に記憶(あるいは蓄積)されてよい。
Further, the
サーバ30Bは、例えば、DB40Bに蓄積された時系列の情報(以下「時系列データ」と称することがある)を基に、人物Pの身体状態に変化が有るか否かを判定(又は検出)する。人物Pの身体状態に変化が有ると判定した場合、サーバ30Bは、例えば、人物Pの身体状態に変化があることを示す情報(以下「身体状態変化情報」と称することがある)を、ネットワーク50経由でPC20へ提供(あるいは通知)する。PC20は、受信した身体状態変化情報を例えばPC20のディスプレイに表示あるいはプリンタによって印刷する。なお、身体状態変化情報の表示又は印刷は、PC20に限らず、サーバ40A又は40Bにおいて行われてもよい。
The
なお、人物Pの位置、体動、呼吸数(あるいは心拍数)、睡眠状態、および、歩行速度といった各種情報の検出(あるいは推定又は測定)は、サーバ30A及び30Bの一方又は双方において、レーダー検知結果を基に、集中的あるいは分散的に実施されてよい。別言すると、各種情報(「測定項目」と称されてもよい)のうちの特定の情報が特定のサーバにおいて検出される関係である必要はない。
The detection (or estimation or measurement) of various information such as the position of the person P, body movement, breathing rate (or heart rate), sleeping state, and walking speed is performed by one or both of the
例えば、サーバ30A及び30Bは、例えば、1つのサーバに統合されてもよい。また、3台以上のサーバによって、上述した測定項目の検出に関する処理が分散的に実施されてもよい。
For example, the
DB40A及び40Bは、それぞれ、サーバ30A及び30Bの内部に備えられてもよい。別言すると、サーバ30A及び30Bに備えられた記憶部または記憶装置がDB40A及び40Bに相当してもよい。DB40A及び40Bは、例えば、1つのDBに統合されてもよい。3台以上のDBにおいて、上述した測定項目が分散的に蓄積、管理されてもよい。
The
図2は、一実施の形態に係る身体状態検出システム1の構成例を示すブロック図である。図2において、ミリ波レーダー10は、例えば、検出部101、処理部102及び出力部103を備えてよい。
FIG. 2 is a block diagram showing a configuration example of the physical
検出部101は、例えば、レーダー波を送信し、レーダー波が検知対象(例えば、人物P)において反射した反射波を受信、検出する。
The
処理部102は、例えば、反射波によって得られる、検知対象に対応する点群データに基づいて、検知対象のミリ波レーダー10に対する位置、速度、角度といった情報を検出する。
The
出力部103は、例えば、処理部102によって得られた情報(別言すると、レーダーデータ)をレーダー制御装置70へ送信する。
The
レーダー制御装置70は、例えば、レーダー通信部701およびレーダーデータ格納部702を備えてよい。なお、レーダー制御装置70は、例えば、図1に例示したPC20に相当してもよいし、図1に例示したサーバ30Aおよび30Bの一方又は双方に相当してもよい。
The
レーダー通信部701は、例えば、ミリ波レーダー10と有線又は無線によって通信し、レーダーデータを受信し、レーダーデータ格納部702に格納(記憶)する。また、レーダー通信部701は、例えば、レーダーデータを状態変化検出装置80へ有線又は無線によって送信する。
The
状態変化検出装置80は、例えば、レーダーデータを基に検知対象(例えば、人物P)の身体状態の変化を検出する。状態変化検出装置80は、情報処理装置の一例であり、例えば、図1に例示したサーバ30Aおよび30Bの一方又は双方に相当してよい。
The state
状態変化検出装置80は、例えば、レーダーデータ読出部801、睡眠状態推定部802、歩行速度推定部803、推定結果格納部804、推定結果読出部805、状態変化検出処理部806、通信部807、レーダーデータ記憶部808、及び、推定結果情報記憶部809を備えてよい。
The state
レーダーデータ読出部801は、例えば、レーダーデータ記憶部808に記憶されたレーダーデータを読み出して、睡眠状態推定部802へ出力する。なお、レーダーデータ記憶部808は、例えば、図1に例示したDB40Aに相当してよい。
For example, the radar
睡眠状態推定部802は、例えば、レーダーデータに基づいて、検知対象である人物Pの睡眠状態(例えば、ノンレム睡眠、無呼吸睡眠、及び、中途覚醒の時間帯)を推定する。
The sleep
歩行速度推定部803は、例えば、レーダーデータに基づいて、人物Pの歩行速度を推定する。歩行速度の推定は、例えば、睡眠状態推定部802において推定された睡眠時間帯において実行されなくてよいので、人物Pの推定された睡眠時間帯を除いた時間帯について実行されてよい。
The walking
睡眠状態推定部802および歩行速度推定部803は、例えば、1つの推定部に統合されてもよい。
The sleep
推定結果格納部804は、例えば、睡眠状態推定部802及び歩行速度推定部803による各推定結果を推定結果情報記憶部809に格納(記憶)する。なお、推定結果情報記憶部809は、例えば、レーダーデータ記憶部808と統合されてもよい。また、推定結果情報記憶部809は、図1に例示したDB40Bに相当してもよい。
The estimation
推定結果読出部805は、例えば、推定結果情報記憶部809に記憶された推定結果を読み出して状態変化検出処理部806へ出力する。
For example, the estimation
推定結果格納部804および推定結果読出部805は、例えば、1つの書き込み及び読み出し制御部に統合されてもよい。
The estimation
状態変化検出処理部806は、例えば、推定結果読出部805から入力された推定結果に基づいて、人物Pの身体状態の変化を検出する。検出結果は、例えば、通信部807に出力されてよい。
The state change
通信部807は、出力部の一例であり、例えば、表示端末装置90(例えば、通信部901)と無線又は有線によって通信し、人物Pの身体状態の変化に関する検出結果を表示端末装置90へ送信する。
The
表示端末装置90は、例えば、通信部901及び表示部902を備えてよい。なお、表示端末装置90は、例えば、図1に例示したPC20に相当してよい。
The
通信部901は、例えば、状態変化検出装置80(例えば、通信部807)と無線又は有線によって通信し、人物Pの身体状態の変化に関する検出結果を受信し、受信した情報を表示部902に出力する。
The
表示部902は、例えば、通信部901から入力された情報を表示する。
The
以上、一実施の形態に係る身体状態検出システム1の構成例について説明した。
The configuration example of the physical
<動作例>
次に、上述した構成を有する身体状態検出システム1の動作例について、図3及び図4のフローチャートを参照して説明する。
<Operation example>
Next, an operation example of the physical
図3は、一実施の形態に係る身体状態検出システム1の全体的な動作の一例を示すフローチャートである。図4は、図3に例示した睡眠時間帯検出処理(S803)の一例を示すフローチャートである。
FIG. 3 is a flowchart showing an example of overall operation of the physical
図3に示すように、ミリ波レーダー10においてレーダーデータが検出され(S101)、検出されたレーダーデータが、例えば、状態変化検出装置80のレーダーデータ記憶部808に格納(記憶)される(S102)。
As shown in FIG. 3, radar data is detected in the millimeter wave radar 10 (S101), and the detected radar data is stored (stored) in the radar
状態変化検出装置80は、例えば、レーダーデータ読出部801によって、定期的にレーダーデータ記憶部808からレーダーデータを読み出す。例えば、レーダーデータ読出部801は、毎日1:00に1日分のレーダーデータをレーダーデータ記憶部808から読み出す(S801、S802)。
The state
レーダーデータ記憶部808から読み出されたレーダーデータは、例えば、睡眠状態推定部802へ出力され、睡眠状態推定部802は、レーダーデータに基づいて、検知対象である人物Pの睡眠状態を推定する(S803)。
The radar data read from the radar
例えば、睡眠状態推定部802は、例えば、1日分のレーダーデータを基に、睡眠時間帯の有無を判定する(S804)。睡眠時間帯の検出処理の一例については図4により後述する。判定の結果、睡眠時間帯が無ければ(S804;NO)、例えば、睡眠状態推定部802による推定は終了して、歩行速度推定部803による推定が実行されてよい(S808)。
For example, the sleep
睡眠時間帯が有れば(S804;YES)、睡眠状態推定部802は、例えば、ノンレム睡眠、無呼吸睡眠、及び、中途覚醒の時間帯を推定する(S805~S807)。
If there is a sleep time zone (S804; YES), the sleep
次いで、例えば、歩行速度推定部803によって、レーダーデータを基に人物Pの歩行速度が推定される(S808)。
Next, for example, the walking
S805~S808の各処理によって得られた推定結果は、例えば、推定結果格納部804によって、推定結果情報記憶部809に格納(記憶)される(S809)。
The estimation result obtained by each process of S805 to S808 is stored (stored) in the estimation result
なお、S805~S808の処理は、上述のようにシリアルに実施されてもよいし、あるいはパラレルに実施されてもよい。シリアルに実施される場合、S805~S807の処理順序は適宜に入れ替えられてもよい。 The processing of S805 to S808 may be performed serially as described above, or may be performed in parallel. When implemented serially, the processing order of S805 to S807 may be changed as appropriate.
推定結果情報記憶部809に記憶された推定結果は、例えば、推定結果読出部805によって読み出されて状態変化検出処理部806へ出力される(S810)。
The estimation result stored in the estimation result
状態変化検出処理部806は、例えば、推定結果読出部805から入力された推定結果に基づいて、人物Pの身体状態の変化を検出する(S811)。例えば、状態変化検出処理部806は、睡眠状態および歩行速度の各推定結果を基に、人物Pの身体状態に変化が有るか否かを判定する(S812)。
The state change
判定の結果、人物Pの身体状態に変化が無ければ(S812;NO)、状態変化検出処理部806は、処理を終了してよい。一方、人物Pの身体状態に変化が有れば(S812;YES)、状態変化検出処理部806は、例えば、人物Pの身体状態の変化に関する情報を、通信部807によって、表示端末装置90へ送信する(S813)。
As a result of the determination, if there is no change in the physical state of the person P (S812; NO), the state change
表示端末装置90は、状態変化検出装置80から人物Pの身体状態の変化に関する情報を受信した場合(S901)、受信した情報を例えば表示部902の画面に表示する(S902)。
When the
<睡眠状態の推定>
次に、睡眠状態推定部802における、人物Pの睡眠状態(例えば、睡眠時間帯、ノンレム睡眠、無呼吸睡眠、および、中途覚醒の各時間帯)の推定(あるいは検出)について、項目別に説明する。
<Estimation of sleep state>
Next, the estimation (or detection) of the sleep state of the person P (for example, sleep time period, non-REM sleep, apnea sleep, and each time period of awake) in the sleep
<睡眠時間帯の検出(図3のS803)>
図4に例示したように、睡眠状態推定部802は、例えば、人物Pの睡眠場所定義エリア501(図5参照)の設定を読み出す(S831)。睡眠場所定義エリア501の設定は、例えば、睡眠状態推定部802によって行われてもよいし、状態変化検出装置80において図示を省略した設定部によって行われてもよい。
<Detection of sleeping hours (S803 in FIG. 3)>
As exemplified in FIG. 4, the sleep
睡眠場所定義エリア501の設定データは、例えば、記憶部808及び809の何れか一方に記憶されてもよいし、状態変化検出装置80において図示を省略した別の記憶部に記憶されてもよい。
The setting data of the sleeping
睡眠場所定義エリア501は、例えば図5の上段に示すように、居室内において人物Pが就寝する場所(例えば、ベッドあるいは敷布団といった寝具)に対して3次元(3D)空間として設定されてよい。
The sleeping
図5の上段の例では、人物Pの就寝場所の上部空間にXYZ座標によって規定される睡眠場所定義エリア501が設定される。睡眠場所定義エリア501のXY平面のサイズ(面積)は、例えば、ベッド、マットレス、敷布団といった寝具のサイズに応じたサイズに設定されてよい。
In the example in the upper part of FIG. 5, a sleeping
例えば、睡眠場所定義エリア501のXY平面のサイズは、寝具のサイズと一致するサイズに設定されてもよいし、寝具のサイズよりも少し小さいサイズあるいは少し大きいサイズに設定されてもよい。あるいは、睡眠場所定義エリア501は、人物Pの就寝場所における仰臥位、伏臥位、および、側臥位の少なくとも1つの体位が占める3次元空間に応じた空間サイズに設定されてもよい。
For example, the size of the XY plane of the sleeping
例えば、睡眠場所定義エリア501のZ軸方向の長さ(別言すると、高さ)は、人物Pの就寝時の姿勢(あるいは体位)における高さ(別言すると、体高)に応じた高さに設定されてよい。例えば、人物Pの仰臥位、伏臥位、および、側臥位のそれぞれにおける人物Pの体高のうち最も高い体高に合わせて設定されてよい。
For example, the length (in other words, height) of the sleeping
このような設定によれば、例えば、人物Pが睡眠場所定義エリア501に留まったまま上体を起こしたような場合、人物Pの上体の少なくとも一部が睡眠場所定義エリア501から外れる。したがって、人物Pの上体起こしを、ミリ波レーダー10によって検知できる。
According to such a setting, for example, when the person P raises his/her upper body while staying in the sleep
なお、睡眠場所定義エリア501の高さは、図5に例示したようにベッド、マットレス、敷布団といった寝具の上面を基準に設定されてもよいし、寝具の置かれた床面を基準に設定されてもよい。別言すると、睡眠場所定義エリア501は、例えば、寝具をカバーする空間として設定されてもよいし、寝具をカバーしない空間として設定されてもよい。
The height of the sleeping
図5の下段には、例えば、図5の上段に例示したように、人物Pが睡眠場所定義エリア501の内側及び外側に位置する場合のそれぞれについて、ミリ波レーダー10によって人物Pの位置(XYZ座標位置)がレーダーデータとして検知される例が示される。 In the lower part of FIG. 5, for example, as illustrated in the upper part of FIG. 5, the positions of the person P (XYZ An example is shown in which the coordinate position) is detected as radar data.
睡眠場所定義エリア501の設定によって、例えば、人物Pが就寝のために睡眠場所定義エリア501に進入したか否か、あるいは、人物Pが起床(中途覚醒を含む。)して睡眠場所定義エリア501の外側に退出したか否かを、レーダーデータ(例えば、人物Pの位置情報)を基に検知できる。
Depending on the setting of the sleep
したがって、例えば、以下のように、人物Pの睡眠場所定義エリア501に対する進入検知及び退出検知に基づいた睡眠開始判定条件および睡眠終了判定条件を設定することで、人物Pの睡眠時間帯を検出(あるいは推定)できる。
Therefore, for example, by setting the sleep start determination condition and the sleep end determination condition based on the detection of entering and exiting the sleeping
(1)睡眠開始判定条件:睡眠場所定義エリア501への進入検知
(2)睡眠終了判定条件:睡眠場所定義エリア501からの退出検知、かつ、以降N分間以内の睡眠場所定義エリア501への進入未検知
(1) Sleep start determination condition: Detection of entry into sleep place definition area 501 (2) Sleep end determination condition: Detection of exit from sleep
Nは、例えば、人物Pが起床して就寝場所には戻らないと判定してよい時間、例えば、30分のような数十分程度の時間に設定されてよい。別言すると、N分以下の時間内に睡眠場所定義エリア501への進入が(再)検知された場合、睡眠終了判定条件は満たされないので、人物Pの睡眠時間は終了しておらず継続していると判定されてよい。なお、N分以下の時間帯は、人物Pに中途覚醒が生じた時間帯であると判定されてよい。
For example, N may be set to a time during which it can be determined that the person P will not return to his/her sleeping place after waking up, for example, several tens of minutes, such as 30 minutes. In other words, if entry into the sleeping
図4に戻り、以下、上述した条件(1)及び条件(2)に基づく睡眠時間帯の検出処理について説明する。 Returning to FIG. 4, the sleep time period detection processing based on the above conditions (1) and (2) will be described below.
睡眠状態推定部802は、既述のとおり睡眠場所定義エリア501の設定を読み出した後、例えば、レーダーデータのうち先頭時刻のデータを取得し(S832)、当該データが睡眠開始判定条件(1)を満たすか否かを判定する(S833)。
After reading the setting of the sleep
判定の結果、先頭時刻のデータが睡眠開始判定条件(1)を満たさないと判定した場合(S833;NO)、睡眠状態推定部802は、例えば、次時刻のデータが存在する限り(S834;YES)、次時刻のデータを取得して(S835)、睡眠開始判定条件(1)を満たすか否かを判定する。
As a result of the determination, when it is determined that the data at the beginning time does not satisfy the sleep start determination condition (1) (S833; NO), the sleep
睡眠開始判定条件(1)を満たすデータが存在した場合(S833;YES)、睡眠状態推定部802は、次時刻のデータが睡眠終了判定条件(2)を満たすか否かを判定する(S836)。
If there is data that satisfies the sleep start determination condition (1) (S833; YES), the sleep
判定の結果、次時刻のデータが睡眠終了判定条件(2)を満たさないと判定した場合(S836;NO)、睡眠状態推定部802は、例えば、次時刻のデータが存在する限り(S837;YES)、次時刻のデータを取得して(S838)、睡眠終了判定条件(2)を満たすか否かを判定する。
As a result of the determination, when it is determined that the data for the next time does not satisfy the sleep end determination condition (2) (S836; NO), the sleep
判定の結果、次時刻のデータが睡眠終了判定条件(2)を満たすと判定した場合(S836;YES)、睡眠状態推定部802は、例えば、睡眠開始判定条件(1)を満たしたデータの時刻と、睡眠終了判定条件(2)を満たしたデータの時刻との間の時間帯を人物Pの睡眠時間帯として記録する(S839)。
As a result of the determination, if it is determined that the data for the next time satisfies the sleep end determination condition (2) (S836; YES), the sleep
その後、睡眠状態推定部802は、次時刻のデータの有無を確認し(S840)、次時刻のデータが存在する場合(S840;YES)、例えば、次時刻のデータを取得して(S841)、次時刻のデータが睡眠開始判定条件(1)を満たすか否かを判定する(S833)。
After that, the sleep
このように、睡眠状態推定部802は、時系列に得られたレーダーデータの時刻の順に、睡眠開始判定条件(1)を満たすデータと、その後に睡眠終了判定条件(2)を満たすデータと、を検索し、両データの時刻の間を睡眠時間帯として検出、記録する。
In this way, the sleep
かかるデータ検索において、例えば、次時刻のデータ存在しなくなった場合(S834、S837及びS840のNO)、睡眠状態推定部802は、睡眠時間帯の検出処理を終了してよい。睡眠時間帯の検出処理の終了に応じて、例えば、図3に例示したS804以降の処理が実行される。
In such a data search, for example, if there is no data for the next time (NO in S834, S837, and S840), the sleep
図6に、睡眠時間帯の検出の一例を示す。図6には、例示的に、1日(0時から24時の24時間)のうち、00:00:00~07:00:00の時間帯(7時間)および22:00:00~24:00:00の時間帯(4時間)に人物Pの睡眠時間帯が検出され、01:10:20~01:20:20の時間帯(20分<N)に中途覚醒が人物Pに生じと推定される例が示される。 Fig. 6 shows an example of detection of sleeping hours. FIG. 6 exemplarily shows a time zone (7 hours) from 00:00:00 to 07:00:00 and 22:00:00 to 24:00 in a day (24 hours from 00:00 to 24:00). Person P's sleeping time period is detected in the time period of :00:00 (4 hours), and the person P wakes up in the middle of the day in the time period of 01:10:20 to 01:20:20 (20 minutes<N). An example presumed to be is shown.
ノンレム睡眠、無呼吸睡眠、及び、中途覚醒の時間帯の推定は、上述のごとく検出された睡眠時間帯について行われてよい。以下、ノンレム睡眠、無呼吸睡眠、及び、中途覚醒の時間帯の推定について説明する。 The estimation of the time zone of non-REM sleep, apnea sleep, and mid-wake may be performed for the sleep time zone detected as described above. In the following, estimation of non-REM sleep, apnea sleep, and nocturnal awakening will be described.
<ノンレム睡眠時間帯の推定(図3のS805)>
人がノンレム睡眠であるか否かを判定(あるいは推定)できる指標の一例として、呼吸数および脈拍数が挙げられる。例えば、ノンレム睡眠中においては、呼吸数および脈拍数が安定し規則的(別言すると、周期的)である傾向にある。これに対し、ノンレム睡眠中においては、心拍数および呼吸数がノンレム睡眠に比して増加し不規則になる傾向にある。
<Estimation of Non-REM Sleep Time Zone (S805 in FIG. 3)>
Respiratory rate and pulse rate are examples of indicators that can determine (or estimate) whether a person is in non-REM sleep. For example, during non-REM sleep, respiration rate and pulse rate tend to be stable and regular (in other words, periodic). In contrast, during non-REM sleep, the heart rate and respiratory rate tend to increase and become irregular compared to non-REM sleep.
したがって、睡眠状態推定部802は、例えば、レーダーデータを基に、人物Pの検出された睡眠時間帯における呼吸状態(例えば、呼吸数および脈拍数)を測定し、周期的な波形が継続して観測された時間帯をノンレム睡眠と推定してよい。例えば図7に示すように、01:10:25~01:50:14の時間帯がノンレム睡眠の時間帯と推定されてよい。なお、図7の縦軸は、胸部の動きによる電波信号の位相変化を表し、単位は例えば[rad]である。図8の縦軸についても、図7と同様である。
Therefore, for example, based on the radar data, the sleep
<無呼吸睡眠時間帯の推定(図3のS806)>
睡眠状態推定部802は、例えば、レーダーデータを基に、人物Pの検出された睡眠時間帯における呼吸状態(例えば、呼吸数および脈拍数)を測定し、呼吸の検知が途切れた時間帯を無呼吸睡眠状態と推定してよい。例えば図8に示すように、03:20:27~03:20:36の時間帯が無呼吸睡眠の時間帯と推定されてよい。
<Estimation of apnea sleep time period (S806 in FIG. 3)>
For example, based on radar data, the sleep
<中途覚醒時間帯の推定(図3のS807)>
例えば、睡眠状態推定部802は、例えば、レーダーデータを基に、睡眠中に人物Pが一時的に就寝場所(睡眠場所定義エリア501)を離れる行為、あるいは人物Pが上体を起こす行為を検出した場合、その継続時間を中途覚醒の生じた時間と推定してよい。
<Estimation of Mid-Awakening Time Zone (S807 in FIG. 3)>
For example, based on radar data, the sleep
例えば図9の上段に示すように、人物Pが睡眠時間帯の或る時刻(例えば、01:10:20)において就寝場所(睡眠場所定義エリア501)から離れた後、10分後の01:20:20に就寝場所に戻った場合を想定する。 For example, as shown in the upper part of FIG. 9, after the person P leaves the sleeping place (sleep place definition area 501) at a certain time (for example, 01:10:20) in the sleeping time zone, 01:10 minutes later. Assume that you return to your bed at 20:20.
この場合、レーダーデータにおいて人物Pの動き(別言すると、位置変化)は図9の下段に示すように表され、例えば、時刻01:10:20に睡眠場所からの人物Pの退出が検出され、時刻01:20:20に睡眠場所への人物Pの進入が検出される。したがって、睡眠状態推定部802は、例えば、01:10:20~01:20:20の10分間の時間帯を中途覚醒の時間帯と推定してよい。
In this case, the movement (in other words, change in position) of the person P is represented in the radar data as shown in the lower part of FIG. , the entry of the person P into the sleeping place is detected at time 01:20:20. Therefore, the sleep
なお、図10の上段に示すように、人物Pが就寝場所に留まった状態で上体を起こした場合、既述のとおり少なくとも上体の一部が睡眠場所定義エリア501から外れるため、図10の下段に示すように、レーダーデータを基に人物Pの上体起こしを検出できる。したがって、睡眠状態推定部802は、例えば、このように人物Pの上体起こしが検出された時間帯を中途覚醒の時間帯に含めてもよい。
As shown in the upper part of FIG. 10, when the person P stands up while staying in the sleeping place, at least part of the upper body is out of the sleeping
<歩行速度の推定(図3のS808)>
次に、歩行速度推定部803(図2参照)による人物Pの移動速度(例えば、歩行速度)の推定について説明する。歩行速度推定部803は、例えば、レーダーデータを基に、居室内において人物Pが移動した距離(D)を算出し、当該距離を移動にかかった時間(T)によって除することで、人物Pの歩行速度(V)を推定する。
<Estimation of Walking Speed (S808 in FIG. 3)>
Next, estimation of the moving speed (for example, walking speed) of the person P by the walking speed estimator 803 (see FIG. 2) will be described. For example, the walking
例えば図11の上段に示すように、時刻t1から時刻t4までの時間に人物Pが移動した場合、図11の下段に示すように、歩行速度推定部803は、例えば、レーダーデータを基に、人物Pの移動距離DをD=d1+d2+d3によって算出する。したがって、人物Pの歩行速度Vは、移動にかかった時間T=t4-t1として、V=(d1+d2+d3)/(t4-t1)によって推定される。 For example, as shown in the upper part of FIG. 11, when the person P moves from time t1 to time t4, as shown in the lower part of FIG. A moving distance D of the person P is calculated by D=d1+d2+d3. Therefore, the walking speed V of the person P is estimated by V=(d1+d2+d3)/(t4-t1) where T=t4-t1 required for movement.
なお、歩行速度Vの推定は、既述の睡眠時間帯の検出処理(図3のS803)において検出された睡眠時間帯を除いた時間帯(別言すると、睡眠時間帯ではないと判定された時間帯)に対して行われてよい。 Note that the estimation of the walking speed V is performed in a time zone excluding the sleep time zone detected in the above-described sleep time zone detection process (S803 in FIG. 3) time zone).
このように、歩行速度Vの推定を行う時間帯を非睡眠時間帯に絞る(あるいは限定する)ことにより、歩行速度の推定に用いるレーダーデータ量を削減できるため、状態変化検出装置80の処理量を削減できる。 In this way, by narrowing down (or limiting) the time zone for estimating the walking speed V to the non-sleep time zone, the amount of radar data used for estimating the walking speed can be reduced. can be reduced.
<レーダー検知位置誤差の移動距離への影響低減>
ミリ波レーダー10によるレーダーデータの取得頻度が例えば数十ミリ秒~数百ミリ秒である場合、あるいは、数センチメートル(cm)~数十cm程度の検知位置の誤差が含まれる場合、実際の人物Pの移動(例えば図12の上段)に一致しない軌跡の揺れあるいはずれがレーダーレーダにおいて生じ得る(例えば図12の中段)。
<Reducing the impact of radar detection position error on movement distance>
If the frequency of radar data acquisition by the
そのため、レーダーデータに基づく検知位置を単純に積算し移動距離Dを算出した場合、実際の人物Pの移動距離に対して許容範囲外の誤差が生じ得る。そこで、歩行速度推定部803は、例えば、図12の下段に示すように、レーダーデータに基づく検知位置に対して補正(例えば、移動平均フィルタリング)を施してよい。これにより、人物Pの検知位置の時間変化(別言すると、軌跡)を実際の人物Pの移動軌跡に一致させる、あるいは最小誤差となるように近づけることができ、歩行速度Vの推定精度を向上できる。
Therefore, if the movement distance D is calculated by simply accumulating the detected positions based on the radar data, an error outside the allowable range may occur with respect to the actual movement distance of the person P. Therefore, the
<状態変化検出(図3のS811)>
次に、状態変化検出処理部806(図2参照)による状態変化検出処理(図3のS811)の一例について説明する。
<State change detection (S811 in FIG. 3)>
Next, an example of state change detection processing (S811 in FIG. 3) by the state change detection processing unit 806 (see FIG. 2) will be described.
状態変化検出処理部806は、例えば、睡眠状態推定部802によって推定された睡眠状態(例えば、ノンレム睡眠、無呼吸睡眠、及び、中途覚醒の各時間帯)、並びに、歩行速度推定部803によって推定された歩行速度の時系列データに基づいて、人物Pの身体状態の傾向変動(別言すると、トレンド)の変化点を検出する。
The state change
例えば、状態変化検出処理部806は、睡眠状態および歩行速度の別に時系列データの傾向変動の変化点の有無を判定する。変化点が検出された場合、状態変化検出処理部806は、例えば、その変化点よりも前の時系列データを基に、変化点以後の時系列データの予測モデルを作成する。予測モデルの作成には、例えば、自己回帰(AR)モデルが用いられてよい。
For example, the state change
例えば図13の(a)に示すように、ノンレム睡眠に関する時系列データにおいて、1月5日に傾向変動の変化が検出された場合、図13の(e)に示すように、1月4日以前の時系列データ(例えば、3日といった数日分の時系列データ)を基に、1月5日以降の予測モデルが作成される。 For example, as shown in (a) of FIG. 13, in the time-series data on non-REM sleep, if a change in trend fluctuation is detected on January 5, as shown in (e) of FIG. Based on the previous time-series data (for example, time-series data for several days such as 3 days), a forecast model for January 5th and later is created.
なお、予測モデルは、例えば、図13の(b)~(d)に例示した、無呼吸睡眠、中途覚醒の各時間帯、および、歩行速度の各時系列データについても、傾向変動の変化点が検出された場合に個別的に作成されてよい。 In addition, the prediction model, for example, for each time period of apnea sleep, each time period of arousal, and each time series data of walking speed illustrated in (b) to (d) of FIG. may be created separately if is detected.
そして、状態変化検出処理部806は、例えば、実測値と予測モデルによる予測値との差分を異常度の指標として、異常度が閾値以上であるか否かを判定し、異常度が閾値以上であると判定したタイミングを傾向変動の変化点として検出する。例えば、図13の(e)には、ノンレム睡眠の時間帯に関して1月5日に傾向変動の変化(別言すると、異常)が検出された例が示される。
Then, for example, the state change
状態変化検出処理部806は、例えば、ノンレム睡眠時間、無呼吸睡眠時間、中途覚醒時間、および、歩行速度の測定項目の別に、傾向変動の変化点が検出された測定項目についての情報を、人物Pの身体状態の変化に関する情報として表示端末装置90へ送信する。
The state change
表示端末装置90は、状態変化検出装置80から受信した情報を例えば表示端末装置90の表示部902の画面に表示する。これにより、例えば、人物P本人、あるいは人物Pの健康管理に携わる他の人物(例えば、人物Pの家族、介護者、管理者、担当医など)に対して、人物Pの身体状態の変化に関する情報が提示される。
The
図14に、表示部902の画面表示(GUI)の一例を示す。図14には、表示部902の表示画面が、状態表示領域921と、通知領域922とに区分される例が示される。図14に例示したように、状態表示領域921には、図13の(a)~(d)にそれぞれ例示した時系列データが表示され、通知領域922には、人物Pの身体状態の変化、例えば、ノンレム睡眠時間の減少が検出されたこと、無呼吸睡眠時間の増加が検出されたことが表示されてよい。
FIG. 14 shows an example of the screen display (GUI) of the
なお、表示部902の画面表示例は、図14に示した例に限られない。例えば、状態表示領域921および通知領域922は、何れか一方が選択的に表示されてもよい。状態表示領域921において、図13の(a)~(d)に例示した時系列データの何れか1つ以上が選択的に表示されてもよい。例えば、状態表示領域921において、身体状態の変化の検出に寄与した時系列データが選択的に表示されてもよい。代替的あるいは追加的に、身体状態の変化の検出に寄与した時系列データが状態表示領域921において強調表示されてもよい。強調表示の態様は問わない。また、通知領域922における表示態様も図14の例に限定されない。通知領域922への表示と併せてアラーム音といった音によって、身体状態の変化が検出されたことに対する注意喚起を促してもよい。
The screen display example of the
以上のように、上述した実施の形態によれば、ノンレム睡眠時間、無呼吸睡眠時間、中途覚醒時間、および、歩行速度といった、人物Pの身体状態の変化をミリ波レーダー10によって非接触で検出して提示できる。
As described above, according to the above-described embodiments, changes in the physical state of the person P, such as non-REM sleep time, apnea sleep time, mid-wake time, and walking speed, are detected by the
したがって、例えば、人物Pの睡眠状態および歩行速度の変化に応じた、人物Pの集中力、意欲、食欲、運動能力といった身体状態を早期に把握できるので、人物Pの健康を維持するための対策を早期に講じることが可能になる。例えば、人物Pの抑うつ又は怪我の予防、さらには認知症の発見に応用が可能である。 Therefore, for example, physical conditions such as concentration, motivation, appetite, and athletic ability of the person P can be quickly grasped in accordance with changes in the sleep state and walking speed of the person P, so measures for maintaining the health of the person P can be made. can be taken early. For example, it can be applied to prevent depression or injury of person P, and to detect dementia.
また、上述した実施の形態によれば、日単位のような時間軸の揃った(別言すると、タイミング同期した)時系列データを基に、ノンレム睡眠時間、無呼吸睡眠時間、中途覚醒時間、および、歩行速度といった、人物Pの身体状態に関する複数の測定項目を検出あるいは推定するので、人物Pの身体状態に変化が生じたタイミングを測定項目別に容易に把握できる。 Further, according to the above-described embodiment, based on time-series data with a uniform time axis such as a day (in other words, timing-synchronized), non-REM sleep time, apnea sleep time, mid-awakening time, In addition, since a plurality of measurement items related to the physical condition of the person P, such as walking speed, are detected or estimated, the timing at which the physical condition of the person P changes can be easily grasped for each measurement item.
したがって、例えば、身体状態に関する測定項目別の傾向変動の変化点(例えば、一致あるいは不一致の度合い)を基に、人物Pの身体状態に変化が生じたと推定される要因の究明が容易になり得る。また、例えば、複数の測定項目間の変化点の相互関連性に基づいて、人物Pの身体状態の変化の要因を複合的に分析、推定できる。 Therefore, for example, based on the point of change (for example, the degree of agreement or disagreement) of the trend fluctuation for each measurement item regarding the physical condition, it is possible to easily investigate the factors that are presumed to have caused the change in the physical condition of the person P. . Further, for example, factors of changes in the physical condition of the person P can be analyzed and estimated in a complex manner based on the interrelationships of points of change among a plurality of measurement items.
<全体の補足>
睡眠場所定義エリア501(図5参照)は、3次元空間として設定されなくてもよく、例えば、2次元(例えば、Z軸方向を除いたX-Y軸)に設定されてもよい。
<Overall Supplement>
Sleeping place definition area 501 (see FIG. 5) may not be set as a three-dimensional space, but may be set, for example, in two dimensions (eg, XY axes excluding the Z-axis direction).
ミリ波レーダー10による測定対象の項目は、ノンレム睡眠時間、無呼吸睡眠時間、中途覚醒時間、および、歩行速度の全てでなくてもよく、例えば、一部の測定項目の組み合わせであってもよい。また、ミリ波レーダー10による測定対象の項目は、ノンレム睡眠時間、無呼吸睡眠時間、中途覚醒時間、および、歩行速度の4項目に限られない。
The items to be measured by the
4項目のうちの一部が、ミリ波レーダー10によって検知可能な人物Pの身体状態に関連した他の項目に置き換えられてもよい。また、ミリ波レーダー10によって検知可能な人物Pの身体状態に関連した5つ以上の項目が、ミリ波レーダー10による測定対象とされてもよい。
Some of the four items may be replaced with other items related to the physical condition of the person P detectable by the
また、ミリ波レーダー10による検知対象の人物は1人に限られず、2人以上であってもよい。ミリ波レーダー10の距離分解能によれば、例えば、人物毎に体動および移動を検知できるため、複数の人物の別に、上述した身体状態の変化を検出できる。
Also, the number of persons to be detected by the
以上、図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、開示の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。 Although the embodiments have been described above with reference to the drawings, the present disclosure is not limited to such examples. It is obvious that a person skilled in the art can conceive of various modifications or modifications within the scope described in the claims, and these also belong to the technical scope of the present disclosure. Understood. Also, the components in the above embodiments may be combined arbitrarily without departing from the gist of the disclosure.
また、本開示の具体例は例示に過ぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。 In addition, the specific examples of the present disclosure are merely illustrations and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above.
また、上述した実施の形態における「・・・部」という表記は、「・・・回路(circuitry)」、「・・・デバイス」、「・・・ユニット」、又は、「・・・モジュール」といった他の表記に相互に置換されてもよい。 In addition, the notation of "... section" in the above-described embodiments may be "... circuitry," "... device," "... unit," or "... module." may be replaced with other notations such as
また、本開示はソフトウェア、ハードウェア、又は、ハードウェアと連携したソフトウェアによって実現可能である。例えば、上述したシステムの機能は、コンピュータプログラムによって実現され得る。 In addition, the present disclosure can be realized by software, hardware, or software in cooperation with hardware. For example, the functionality of the system described above can be implemented by a computer program.
図15は、上述した身体状態検出システム1を構成する各装置の機能をプログラムにより実現するコンピュータ(あるいは情報処理装置)のハードウェア構成を示す図である。図15において、コンピュータ1100は、キーボード又はマウス、タッチパッド等の入力装置1101、ディスプレイ又はスピーカー等の出力装置1102、CPU(Central Processing Unit)1103、GPU(Graphics Processing Unit)1104、ROM(Read Only Memory)1105、RAM(Random Access Memory)1106、ハードディスク装置又はSSD(Solid State Drive)等の記憶装置1107、DVD-ROM(Digital Versatile Disk Read Only Memory)又はUSB(Universal Serial Bus)メモリ等の記録媒体から情報を読み取る読取装置1108、ネットワークを介して通信を行う送受信装置1109を備え、各部はバス1110により接続される。
FIG. 15 is a diagram showing the hardware configuration of a computer (or information processing device) that implements the functions of each device that constitutes the physical
読取装置1108は、例えば、端末PC20の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置1107に記憶させる。あるいは、送受信装置1109が、ネットワークに接続されたサーバ装置(サーバ30でもよいし、サーバ30とは異なるサーバ装置でもよい)と通信を行い、サーバ装置からダウンロードした上記各装置の機能を実現するためのプログラムを記憶装置1107に記憶させる。
For example, the
CPU1103が、記憶装置1107に記憶されたプログラムをRAM1106にコピーし、そのプログラムに含まれる命令をRAM1106から順次読み出して実行することにより、上述した実施の形態に係る端末PC20の機能が実現される。
The
上述した実施の形態の説明に用いた各機能ブロックは、部分的に又は全体的に、集積回路であるLSIとして実現され、上記実施の形態で説明した各プロセスは、部分的に又は全体的に、一つのLSI又はLSIの組み合わせによって制御されてもよい。LSIは個々のチップから構成されてもよいし、機能ブロックの一部又は全てを含むように一つのチップから構成されてもよい。LSIはデータの入力と出力を備えてもよい。LSIは、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 Each functional block used in the description of the above embodiments is partially or wholly implemented as an LSI, which is an integrated circuit, and each process described in the above embodiments is partially or wholly , may be controlled by one LSI or a combination of LSIs. An LSI may be composed of individual chips, or may be composed of one chip so as to include some or all of the functional blocks. The LSI may have data inputs and outputs. LSIs are also called ICs, system LSIs, super LSIs, and ultra LSIs depending on the degree of integration.
集積回路化の手法はLSIに限るものではなく、専用回路、汎用プロセッサ又は専用プロセッサで実現してもよい。また、LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。本開示は、デジタル処理又はアナログ処理として実現されてもよい。 The method of circuit integration is not limited to LSI, and may be realized with a dedicated circuit, a general-purpose processor, or a dedicated processor. Further, an FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connections and settings of the circuit cells inside the LSI may be used. The present disclosure may be implemented as digital or analog processing.
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。 Furthermore, if a technology for integrating circuits that replaces LSIs emerges due to advances in semiconductor technology or another technology derived from it, that technology may naturally be used to integrate the functional blocks. Application of biotechnology, etc. is possible.
本開示は、通信機能を有するあらゆる種類の装置、デバイス、システム(通信装置と総称)において実施可能である。通信装置は無線送受信機(トランシーバー)と処理/制御回路を含んでもよい。無線送受信機は受信部と送信部、またはそれらを機能として、含んでもよい。無線送受信機(送信部、受信部)は、RF(Radio Frequency)モジュールと1または複数のアンテナを含んでもよい。RFモジュールは、増幅器、RF変調器/復調器、またはそれらに類するものを含んでもよい。通信装置の、非限定的な例としては、電話機(携帯電話、スマートフォン等)、タブレット、PC(ラップトップ、デスクトップ、ノートブック等)、カメラ(デジタル・スチル/ビデオ・カメラ等)、デジタル・プレーヤー(デジタル・オーディオ/ビデオ・プレーヤー等)、着用可能なデバイス(ウェアラブル・カメラ、スマートウオッチ、トラッキングデバイス等)、ゲーム・コンソール、デジタル・ブック・リーダー、テレヘルス・テレメディシン(遠隔ヘルスケア・メディシン処方)デバイス、通信機能付きの乗り物又は移動輸送機関(自動車、飛行機、船等)、及び上述の各種装置の組み合わせがあげられる。 The present disclosure can be implemented in all kinds of apparatuses, devices, and systems (collectively referred to as communication apparatuses) having communication functions. A communication device may include a radio transceiver and processing/control circuitry. A wireless transceiver may include a receiver section and a transmitter section, or functions thereof. A wireless transceiver (transmitter, receiver) may include an RF (Radio Frequency) module and one or more antennas. RF modules may include amplifiers, RF modulators/demodulators, or the like. Non-limiting examples of communication devices include telephones (mobile phones, smart phones, etc.), tablets, PCs (laptops, desktops, notebooks, etc.), cameras (digital still/video cameras, etc.), digital players (digital audio/video players, etc.), wearable devices (wearable cameras, smartwatches, tracking devices, etc.), game consoles, digital book readers, telehealth telemedicine Devices, vehicles or mobile vehicles with communication capabilities (automobiles, planes, ships, etc.), and combinations of the various devices described above.
通信装置は、持ち運び可能又は移動可能なものに限定されず、持ち運びできない又は固定されている、あらゆる種類の装置、デバイス、システム、例えば、スマート・ホーム・デバイス(家電機器、照明機器、スマートメーター又は計測機器、コントロール・パネル等)、自動販売機、その他IoT(Internet of Things)ネットワーク上に存在し得るあらゆる「モノ(Things)」をも含む。 Communication equipment is not limited to portable or movable equipment, but any type of equipment, device or system that is non-portable or fixed, e.g. smart home devices (household appliances, lighting equipment, smart meters or measuring instruments, control panels, etc.), vending machines, and any other "Things" that can exist on the IoT (Internet of Things) network.
また、近年、IoT(Internet of Things)技術において、フィジカル空間とサイバー空間の情報連携により新たな付加価値を作りだすという新しいコンセプトであるCPS(Cyber Physical Systems)が注目されている。上記の実施の形態においても、このCPSコンセプトを採用することができる。 Also, in recent years, CPS (Cyber Physical Systems), a new concept that creates new added value by linking information between physical space and cyber space, is attracting attention in IoT (Internet of Things) technology. This CPS concept can also be employed in the above embodiments.
すなわち、CPSの基本構成として、例えば、フィジカル空間に配置されるエッジサーバと、サイバー空間に配置されるクラウドサーバとを、ネットワークを介して接続し、双方のサーバに搭載されたプロセッサにより、処理を分散して処理することが可能である。ここで、エッジサーバまたはクラウドサーバにおいて生成される各処理データは、標準化されたプラットフォーム上で生成されることが好ましく、このような標準化プラットフォームを用いることで、各種多様なセンサ群やIoTアプリケーションソフトウェアを含むシステムを構築する際の効率化を図ることができる。 That is, as a basic configuration of CPS, for example, an edge server located in physical space and a cloud server located in cyber space are connected via a network, and processing is performed by processors installed in both servers. Distributed processing is possible. Here, each processing data generated in the edge server or cloud server is preferably generated on a standardized platform. By using such a standardized platform, various sensor groups and IoT application software can be used. Efficiency can be achieved when constructing a system that includes.
通信には、セルラーシステム、無線LANシステム、通信衛星システム等によるデータ通信に加え、これらの組み合わせによるデータ通信も含まれる。 Communication includes data communication by cellular system, wireless LAN system, communication satellite system, etc., as well as data communication by a combination of these.
また、通信装置には、本開示に記載される通信機能を実行する通信デバイスに接続又は連結される、コントローラやセンサ等のデバイスも含まれる。例えば、通信装置の通信機能を実行する通信デバイスが使用する制御信号やデータ信号を生成するような、コントローラやセンサが含まれる。 Communication apparatus also includes devices such as controllers and sensors that are connected or coupled to communication devices that perform the communication functions described in this disclosure. Examples include controllers and sensors that generate control and data signals used by communication devices to perform the communication functions of the communication apparatus.
また、通信装置には、上記の非限定的な各種装置と通信を行う、あるいはこれら各種装置を制御する、インフラストラクチャ設備、例えば、基地局、アクセスポイント、その他あらゆる装置、デバイス、システムが含まれる。 Communication equipment also includes infrastructure equipment, such as base stations, access points, and any other equipment, device, or system that communicates with or controls the various equipment, not limited to those listed above. .
2021年7月15日出願の特願2021-116993の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。 The disclosure contents of the specification, drawings and abstract contained in the Japanese application of Japanese Patent Application No. 2021-116993 filed on July 15, 2021 are incorporated herein by reference.
本開示の一実施例は、例えば、人の身体状態変化の検出に好適である。 An embodiment of the present disclosure is suitable for detecting changes in a person's physical condition, for example.
1 身体状態検出システム
10 ミリ波レーダー
20 パーソナルコンピュータ(PC)
30A,30B サーバ
40A,40B データベース(DB)
70 レーダー制御装置
80 状態変化検出装置
90 表示端末装置
101 検出部
102 処理部
701 レーダー通信部
702 レーダーデータ格納部
801 レーダーデータ読出部
802 睡眠状態推定部
803 歩行速度推定部
804 推定結果格納部
805 推定結果読出部
806 状態変化検出処理部
807,901 通信部
808 レーダーデータ記憶部
809 推定結果情報記憶部
902 表示部
921 状態表示領域
922 通知領域
1100 コンピュータ
1101 入力装置
1102 出力装置
1103 CPU
1104 GPU(Graphics Processing Unit)
1105 ROM(Read Only Memory)
1106 RAM(Random Access Memory)
1107 記憶装置
1108 読取装置
1109 送受信装置
1110 バス
P 人物
1 body
30A,
70
1104 GPU (Graphics Processing Unit)
1105 ROM (Read Only Memory)
1106 RAM (Random Access Memory)
1107
Claims (11)
前記複数の項目について時系列に得られた推定結果に基づいて、前記人物の身体状態の変化を検出する検出部と、
検出した前記人物の身体状態の変化に関する情報を出力する出力部と、
を備えた、情報処理装置。 an estimating unit for estimating a plurality of items related to the physical condition of the person in chronological order based on information obtained by detecting the person by radar;
a detection unit that detects changes in the physical state of the person based on estimation results obtained in time series for the plurality of items;
an output unit that outputs information about the detected change in the physical state of the person;
An information processing device.
請求項1に記載の情報処理装置。 The plurality of items include the sleeping state and walking speed of the person,
The information processing device according to claim 1 .
請求項2に記載の情報処理装置。 Estimating the sleep state includes estimating at least one of each time period of non-REM sleep, apnea sleep, and midway awakening,
The information processing apparatus according to claim 2.
請求項2に記載の情報処理装置。 The estimation unit sets an area corresponding to the sleeping place of the person, and estimates the time zone of the sleeping state based on the position of the person indicated by the information with respect to the area.
The information processing apparatus according to claim 2.
請求項4に記載の情報処理装置。 The estimation unit estimates the walking speed based on the information in the time zone other than the estimated time zone.
The information processing apparatus according to claim 4.
請求項4に記載の情報処理装置。 The area has a spatial size corresponding to a three-dimensional space occupied by at least one of the person's supine position, prone position, and side-lying position in the sleeping place.
The information processing apparatus according to claim 4.
請求項2に記載の情報処理装置。 The estimation unit estimates the walking speed based on the change in the position of the person and the time required for the change in position, which are indicated in the information.
The information processing apparatus according to claim 2.
請求項1に記載の情報処理装置。 The detection unit detects a timing at which a difference between a prediction model obtained by applying an autoregression model to the estimation results obtained in the time series and the estimation results is equal to or greater than a threshold, and the estimation obtained in the time series. Detect as a change point in the trend of the result,
The information processing device according to claim 1 .
請求項1に記載の情報処理装置。 The radar is a millimeter wave radar,
The information processing device according to claim 1 .
レーダーによって人物を検知した情報に基づいて、前記人物の身体状態に関する複数の項目を時系列に推定し、
前記複数の項目について時系列に得られた推定結果に基づいて、前記人物の身体状態の変化を検出し、
検出した前記人物の身体状態の変化に関する情報を出力する、
情報処理方法。 By one or more information processing devices,
estimating a plurality of items related to the physical condition of the person in chronological order based on information obtained by detecting the person by radar;
Detecting a change in the physical state of the person based on the estimation results obtained in chronological order for the plurality of items,
outputting information about the detected change in the physical state of the person;
Information processing methods.
レーダーによって人物を検知した情報に基づいて、前記人物の身体状態に関する複数の項目を時系列に推定する処理と、
前記複数の項目について時系列に得られた推定結果に基づいて、前記人物の身体状態の変化を検出する処理と、
検出した前記人物の身体状態の変化に関する情報を出力する処理と、
を実行させる、
プログラム。 By one or more information processing devices,
a process of estimating a plurality of items related to the physical condition of the person in time series based on information obtained by detecting the person by radar;
A process of detecting a change in the physical state of the person based on the estimation results obtained in time series for the plurality of items;
a process of outputting information about the detected change in the physical state of the person;
to run
program.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021-116993 | 2021-07-15 | ||
| JP2021116993A JP2023013078A (en) | 2021-07-15 | 2021-07-15 | Information processing device, information processing method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2023286677A1 true WO2023286677A1 (en) | 2023-01-19 |
Family
ID=84920241
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2022/026869 Ceased WO2023286677A1 (en) | 2021-07-15 | 2022-07-06 | Information processing device, information processing method, and program |
Country Status (2)
| Country | Link |
|---|---|
| JP (3) | JP2023013078A (en) |
| WO (1) | WO2023286677A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115968080A (en) * | 2023-03-17 | 2023-04-14 | 森思泰克河北科技有限公司 | Night lamp control method and device based on radar, radar and storage medium |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4265296B2 (en) * | 2003-06-13 | 2009-05-20 | 日本電気株式会社 | Change point detection apparatus, change point detection method, and change point detection program |
| JP2009268790A (en) * | 2008-05-09 | 2009-11-19 | Kansai Electric Power Co Inc:The | Bed-leaving prediction apparatus and method |
| JP2016059458A (en) * | 2014-09-16 | 2016-04-25 | 沖電気工業株式会社 | Status determination device and program |
| JP2017200572A (en) * | 2016-05-02 | 2017-11-09 | パナソニックIpマネジメント株式会社 | Dementia information output system and control program |
| JP2018147442A (en) * | 2017-03-09 | 2018-09-20 | 沖電気工業株式会社 | Change point detection device and change point detection method |
| JP2019020993A (en) * | 2017-07-14 | 2019-02-07 | オムロン株式会社 | Watch support system and control method thereof |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3691527A4 (en) * | 2017-10-06 | 2021-07-28 | Tellus You Care, Inc. | Non-contact activity sensing network for elderly care |
| JP6813064B2 (en) * | 2019-08-23 | 2021-01-13 | 富士通株式会社 | Sensor system and sensor information processing device |
-
2021
- 2021-07-15 JP JP2021116993A patent/JP2023013078A/en active Pending
-
2022
- 2022-07-06 WO PCT/JP2022/026869 patent/WO2023286677A1/en not_active Ceased
-
2025
- 2025-04-24 JP JP2025072437A patent/JP2025105817A/en active Pending
- 2025-04-24 JP JP2025072433A patent/JP2025105816A/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4265296B2 (en) * | 2003-06-13 | 2009-05-20 | 日本電気株式会社 | Change point detection apparatus, change point detection method, and change point detection program |
| JP2009268790A (en) * | 2008-05-09 | 2009-11-19 | Kansai Electric Power Co Inc:The | Bed-leaving prediction apparatus and method |
| JP2016059458A (en) * | 2014-09-16 | 2016-04-25 | 沖電気工業株式会社 | Status determination device and program |
| JP2017200572A (en) * | 2016-05-02 | 2017-11-09 | パナソニックIpマネジメント株式会社 | Dementia information output system and control program |
| JP2018147442A (en) * | 2017-03-09 | 2018-09-20 | 沖電気工業株式会社 | Change point detection device and change point detection method |
| JP2019020993A (en) * | 2017-07-14 | 2019-02-07 | オムロン株式会社 | Watch support system and control method thereof |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115968080A (en) * | 2023-03-17 | 2023-04-14 | 森思泰克河北科技有限公司 | Night lamp control method and device based on radar, radar and storage medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2025105816A (en) | 2025-07-10 |
| JP2025105817A (en) | 2025-07-10 |
| JP2023013078A (en) | 2023-01-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102862315B1 (en) | A technique for tracking objects within a defined area | |
| US10902090B2 (en) | Methods and systems for remotely determining levels of healthcare interventions | |
| US9984211B2 (en) | Clinical information management system | |
| US8810388B2 (en) | Position tracking and mobility assessment system | |
| US10959645B2 (en) | Methods and systems for locating patients in a facility | |
| Surantha et al. | Internet of things for sleep quality monitoring system: A survey | |
| Rajasekaran et al. | Elderly patient monitoring system using a wireless sensor network | |
| JP2019155071A (en) | Event prediction system, sensor signal processing system, event prediction method, and program | |
| JP2025105816A (en) | Information processing device, information processing method, and program | |
| Thammachote et al. | Contactless monitoring of human behaviors in bed using RSSI signals | |
| JP7342863B2 (en) | Computer-executed programs, information processing systems, and computer-executed methods | |
| Pourpanah et al. | Exploring the landscape of ubiquitous in-home health monitoring: A comprehensive survey | |
| JP7371624B2 (en) | Programs that run on computers, information processing devices, and methods that run on computers | |
| Intongkum et al. | Monitoring and Classification of Human Sleep Postures, Seizures, and Falls From Bed Using Three-Axis Acceleration Signals and Machine Learning | |
| Madeira | Designing a pervasive healthcare assistive environment for the elderly | |
| WO2019156665A1 (en) | Methods and systems for locating patients in a facility | |
| Larab et al. | A sustainable software architecture for home care monitoring applications | |
| Yang et al. | Home health care system for the Elderly based on IMU wearable device | |
| CN115770017A (en) | Sleep state determination method, system, device and electronic equipment | |
| CN117321448A (en) | Technology for tracking objects within a defined area | |
| JP2019069004A (en) | Body motion analysis system, body motion analysis method, and program | |
| Skubic et al. | A framework for harmonizing sensor data to support embedded health assessment | |
| Gujjar et al. | Smart Wheelchair with Remote Patient Health Monitoring System | |
| JP7205540B2 (en) | Computer Executed Programs, Information Processing Devices, and Computer Executed Methods | |
| Bansal et al. | Pervasive Health and Remote Care |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22842021 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 22842021 Country of ref document: EP Kind code of ref document: A1 |