[go: up one dir, main page]

JP2005199078A - Condition monitoring device - Google Patents

Condition monitoring device Download PDF

Info

Publication number
JP2005199078A
JP2005199078A JP2005031105A JP2005031105A JP2005199078A JP 2005199078 A JP2005199078 A JP 2005199078A JP 2005031105 A JP2005031105 A JP 2005031105A JP 2005031105 A JP2005031105 A JP 2005031105A JP 2005199078 A JP2005199078 A JP 2005199078A
Authority
JP
Japan
Prior art keywords
state
motion
subject
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005031105A
Other languages
Japanese (ja)
Other versions
JP3836488B2 (en
Inventor
Osamu Yamaguchi
修 山口
Kazuhiro Fukui
和広 福井
Mutsumi Watanabe
睦 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005031105A priority Critical patent/JP3836488B2/en
Publication of JP2005199078A publication Critical patent/JP2005199078A/en
Application granted granted Critical
Publication of JP3836488B2 publication Critical patent/JP3836488B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a state monitoring device capable of detecting a human yawn and recognizing its state. <P>SOLUTION: The condition monitoring device comprises a motion detecting part 1 to observe a human and to detect its motion from observed images, a determining part 2 to convert the motion to a quantitative motion value and to determine if the human yawned or not by the converted motion value, and a controlling part 3 to control an outer device based on a determined yawn state. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、住空間、行動空間における人間や動物の被検体の行動を監視する状態監視装置に関する。   The present invention relates to a state monitoring device that monitors the behavior of a human or animal subject in a living space or behavior space.

従来のユーザインターフェースでは、人間が意識的に起こす行動を認知し、その意図を反映した制御を行うことを目的とした設計されてきた。   Conventional user interfaces have been designed for the purpose of recognizing actions that humans intentionally cause and performing control reflecting their intentions.

例えば、目標とする物体を指さし、その指の方向を画像認識により検知するという、ポインティングに利用するといったもの(例えば、非特許文献1参照)等が挙げられる。   For example, pointing to a target object and detecting the direction of the finger by image recognition is used for pointing (for example, see Non-Patent Document 1).

この場合、常に注意を装置に向けておく必要がある。例えば就寝時のように、意識して行動をしていない時、従来の方法では、人間の意図を伝えられない。このとき照明等をつけたままにして寝てしまった場合、照明を消してほしい、といった意図を伝えることはできない。   In this case, it is necessary to always pay attention to the device. For example, when a person is not consciously acting, such as at bedtime, the conventional method cannot convey a human intention. If you go to sleep with the lights on at this time, you cannot tell your intention to turn off the lights.

人間が意識しなくても、その人間の状態を認識して、機器の制御をする方法について考える必要がある。例えば就寝時の寝返り、あくび、まぶたの開閉などの人間の意識しない行動を検出し、その情報に基づいた機器の制御を行うためには、その人間の状態を的確に把握する必要性がある。   Even if a human is not conscious, it is necessary to think about how to control the device by recognizing the human state. For example, in order to detect actions that humans are not aware of, such as turning over at bedtime, yawning, opening and closing eyelids, and controlling devices based on the information, it is necessary to accurately grasp the state of the person.

人間の状態判断を行うために、人間に特別な測定機器(例えば、脳波測定、血圧測定機器、データグローブ、データスーツ等)をつけて様々な測定を行い、その結果に基づいて、電気機器などを操作するといったものもある。しかし、このような機器を身体に装着することは人間にとっては煩雑、面倒であり、就寝時などの状態を容易に把握できないという問題がある。そのためには、画像情報を利用した状態の認識が適当と考えられる。   In order to judge the human condition, various measurement is performed by attaching a special measurement device (eg, electroencephalogram measurement, blood pressure measurement device, data glove, data suit, etc.) to a human, and based on the result, an electric device, etc. There are also things like manipulating. However, wearing such a device on the body is troublesome and troublesome for humans, and there is a problem that it is difficult to grasp the state at bedtime. To that end, it is considered appropriate to recognize the state using image information.

また、同様の働きをするものとしては各種の監視装置が知られており、画像情報を用いた情報の取得を行い、警報装置等と連動させてセキュリティに用いられている。しかしこれらは、人間の細かな動きを管理するのではなく、ドア付近での人の入退出管理などが行われているのが現状である。
福本雅朗、間瀬健二、末永康仁:「画像処理を用いた指示動作検出の実験システム」1991電子情報通信学会春季全国大会予稿集A−251(1991))
Also, various types of monitoring devices are known to perform the same function, and information is acquired using image information and used for security in conjunction with an alarm device or the like. However, the current situation is that they do not manage the detailed movements of human beings but manage the entry and exit of people near the door.
Masaaki Fukumoto, Kenji Mase, Yasuhito Suenaga: “Experimental System for Detection of Instructional Motion Using Image Processing” 1991 IEICE Spring National Conference Proceedings A-251 (1991))

上記したように、人間が意識しなくても、その人間の状態を認識して、機器の制御をする方法については、従来実現されていなかった。   As described above, a method for controlling a device by recognizing the state of the person without being conscious of the person has not been realized.

そこで、本発明では、人間や動物の無意識な行動を検知し、その状態を認識する状態監視装置を提供する。   Therefore, the present invention provides a state monitoring device that detects unconscious behavior of a human or animal and recognizes the state.

本発明の状態監視装置は、被検体を観測する画像入力手段と、前記画像入力手段によって観測した画像から被検体の動きを検出する動き検出手段と、前記動き検出手段によって検出した被検体の動きを定量的な動作値に変換する動作値変換手段と、前記動作値変換手段によって変換した動作値からその被検体の状態を判断する判断手段とよりなり、前記動作値変換手段は、前記動き検出手段によって検出した被検体の動きの量と重み係数の積からなる評価関数の値を、被検体の動きの定量的な動作値とする。   The state monitoring apparatus of the present invention includes an image input means for observing a subject, a motion detection means for detecting a motion of the subject from an image observed by the image input means, and a motion of the subject detected by the motion detection means. Motion value converting means for converting the motion value into a quantitative motion value, and determination means for determining the state of the subject from the motion value converted by the motion value conversion means, the motion value conversion means comprising the motion detection The value of the evaluation function composed of the product of the amount of movement of the subject detected by the means and the weighting coefficient is set as a quantitative operation value of the movement of the subject.

本発明の状態監視装置について説明する。   The state monitoring apparatus of the present invention will be described.

画像入力手段は、被検体を観測し、その動きを画像にして入力する。   The image input means observes the subject and inputs the movement as an image.

動き検出手段は、前記画像入力手段によって観測した画像から被検体の動きを検出する。すなわち、姿勢、顔、目、口を検出し、あくび、まぶたの開閉などの状態を検出する。   The motion detection means detects the motion of the subject from the image observed by the image input means. That is, posture, face, eyes, mouth are detected, and states such as yawning and eyelid opening / closing are detected.

動作値変換手段は、前記動き検出手段によって検出した被検体の動きを定量的な動作値に変換する。すなわち、前記動作値変換手段は、前記動き検出手段によって検出した被検体の動きの量と重み係数の積からなる評価関数の値を、被検体の動きの定量的な動作値とする。   The motion value conversion means converts the motion of the subject detected by the motion detection means into a quantitative motion value. That is, the motion value conversion means uses the value of the evaluation function formed by the product of the amount of motion of the subject detected by the motion detection means and the weighting coefficient as a quantitative motion value of the motion of the subject.

判断手段は、前記動作値変換手段によって変換した動作値からその被検体の状態を判断する。すなわち、被検体の行動状態を活動状態、睡眠状態において、それぞれについて数種類の状態に分類し、被検体が無意識に起こす行動に着目して判定を行う。   The determination means determines the state of the subject from the motion value converted by the motion value conversion means. That is, the behavioral state of the subject is classified into several types of states in the active state and the sleeping state, respectively, and the determination is made by paying attention to the behavior that the subject unconsciously causes.

本発明の状態監視装置は、人間や動物などの被検体の行動状態を数種類の状態に分類し、被検体が無意識に起こす行動を判定できる。   The state monitoring apparatus of the present invention classifies the behavioral state of a subject such as a human being or an animal into several types of states, and can determine the behavior that the subject causes unconsciously.

本発明の一実施例を図面に基づき説明する。本実施例では、被検体を人間とし、システムで監視する環境に一人の人間が存在するという設定で行っている。なお、「被検体」とは、人間及びライオン、象、犬等の動物をいう。   An embodiment of the present invention will be described with reference to the drawings. In this embodiment, the setting is made such that the subject is a human and there is one human in the environment monitored by the system. “Subject” refers to humans and animals such as lions, elephants, and dogs.

図1にシステム全体の構成を示す。   FIG. 1 shows the configuration of the entire system.

システムの装置は、検出部1、判断部2、制御部3の3つからなる。   The system apparatus is composed of a detection unit 1, a determination unit 2, and a control unit 3.

検出部1は、室内または人間の状態を検出するためのものであり、その情報を判断部2に送る。   The detection unit 1 is for detecting a room or a human condition, and sends the information to the determination unit 2.

判断部2は、検出部1から受け取った情報に基づき人間の状態を判断する。   The determination unit 2 determines the human state based on the information received from the detection unit 1.

制御部3は、機器の制御を行うためのインターフェースを持ち、機器のコントロールを行う。   The control unit 3 has an interface for controlling the device and controls the device.

[検出部1]
まず、検出部1について図2を用いて説明する。
[Detection unit 1]
First, the detection unit 1 will be described with reference to FIG.

検出部1は、複数台のカメラ、マイク、温度、湿度センサを入力機器として持ち、これらの入力を処理する入力制御部11とそれぞれの検出機能部14,1516,17、そして、各種のモデルデータベース12で結果を統合し、判断部2への出力をまとめる結果収集部13からなる。   The detection unit 1 has a plurality of cameras, microphones, temperature, and humidity sensors as input devices. The input control unit 11 processes these inputs, the detection function units 14, 1516, and 17, and various model databases. 12 includes a result collection unit 13 that integrates the results and summarizes the output to the determination unit 2.

検出部1の機能としては、姿勢検出機能、顔検出機能、目部分観測機能、口部分観測機能がある。   The functions of the detection unit 1 include a posture detection function, a face detection function, an eye part observation function, and a mouth part observation function.

[姿勢検出機能部14]
姿勢検出機能部14は、複数台のカメラによって撮影された画像中に存在する人間の姿勢を検出するものである。図3を用いて説明する。
[Attitude detection function unit 14]
The posture detection function unit 14 detects a human posture existing in images taken by a plurality of cameras. This will be described with reference to FIG.

動画像(時系列画像)の差分画像を求めることによって、動いた物体の絞り込みを行う。   The moving object is narrowed down by obtaining a differential image of the moving images (time-series images).

まず、画像メモリ21に蓄えられた画像から差分画像生成部22によって差分画像を生成する。   First, the difference image generation unit 22 generates a difference image from the images stored in the image memory 21.

その動物体の領域に対してラベリング部23で、ラベリングを行う。   The labeling unit 23 labels the area of the moving object.

それぞれのラベリングされた領域に対して、原画像から新たにエッジ抽出部24で、エッジ抽出を行う。   For each labeled region, an edge extraction unit 24 newly extracts an edge from the original image.

得られたエッジ画像から、輪郭情報生成部25により、輪郭情報を求め、モデルデータベース26に蓄えられた図4(a) ,(b) のような、3次元モデルを用いて、モデル照合部27によりマッチングを行い、姿勢を判定する。   The contour information is obtained from the obtained edge image by the contour information generation unit 25, and the model matching unit 27 is used by using a three-dimensional model as shown in FIGS. 4 (a) and 4 (b) stored in the model database 26. Matching is performed to determine the posture.

人間がどのような動作をしたかを定量化することができれば、その評価関数の値を用いて、動作の判定が可能となる。   If it is possible to quantify what kind of motion a human has done, it is possible to determine the motion using the value of the evaluation function.

本実施例では、次のような評価関数を定義し、評価関数計算部28で計算する。そして、この結果が姿勢の動きの定量化した動作値となる。   In this embodiment, the following evaluation function is defined and calculated by the evaluation function calculator 28. This result is an operation value obtained by quantifying the movement of the posture.

手、足、首などの動作、体軸方向の回転、腰の曲げ等のそれぞれの関節等の曲げ角は、3次元空間中での角度を表すのではなく、2次元平面(画像)上に投影された時の角度とし、図4(b) と(c) の差を取り、(d) のようにθx(xは注視する関節数1〜n)とする。また、それぞれの重み係数をwxとするとき、その評価関数fは

Figure 2005199078
The bending angle of each joint, such as the movement of the hand, foot, neck, etc., rotation in the body axis direction, and bending of the waist, does not represent an angle in a three-dimensional space, but on a two-dimensional plane (image). The angle at the time of projection is taken, the difference between FIGS. 4B and 4C is taken, and θx (where x is the number of joints to be watched 1 to n) as shown in (d). Also, when each weighting factor is wx, the evaluation function f is
Figure 2005199078

と定義できる。   Can be defined.

なお、この重み定数は実験等によって、予め求められているとする。上に挙げた評価関数は体全体の動きの評価関数である。   It is assumed that this weight constant is obtained in advance by experiments or the like. The evaluation functions listed above are evaluation functions for the movement of the whole body.

例えば、右腕のみの動作を評価する関数として、

Figure 2005199078
For example, as a function to evaluate the movement of only the right arm,
Figure 2005199078

のように定義でき、個別の関節の動きをそれぞれ監視するのではなく、その評価関数の定量化した動作値を持って肢体の動作判定を行う。 The movement of the limbs is determined using the quantified movement value of the evaluation function instead of monitoring the movements of individual joints.

[顔検出機能部15]
顔検出機能部15について述べる。顔検出機能は人間の顔を検出し、人間が向いている方向を推定する機能で、図5に示す。
[Face detection function unit 15]
The face detection function unit 15 will be described. The face detection function is a function for detecting a human face and estimating the direction in which the person is facing, as shown in FIG.

先に述べた姿勢検出によって、取得した画像のどの辺りに顔が存在するかを仮定することができる。   By the posture detection described above, it is possible to assume where the face is present in the acquired image.

画像メモリ31に蓄えられた画像から、姿勢検出機能部14で検出された姿勢から頭部を推定し顔部分推定切出部32で部分画像を生成する。   From the image stored in the image memory 31, the head is estimated from the posture detected by the posture detection function unit 14, and a partial image is generated by the face portion estimation cutout unit 32.

その部分画像に対して、色相彩度画像生成部33では、色相、彩度画像を作成し、肌色領域を検出する。   For the partial image, the hue / saturation image generation unit 33 creates a hue / saturation image and detects a skin color region.

検出した領域が顔であるかどうかを判定するためにモデルデータベース34に蓄えられた顔モデルに基いて顔部分抽出部35でマッチングを行う。   In order to determine whether or not the detected region is a face, matching is performed by the face portion extraction unit 35 based on the face model stored in the model database 34.

次に、その結果から顔部品抽出部36で顔の部品の検索を行う。   Next, the facial part extraction unit 36 searches for facial parts from the result.

目や口といった特徴のある部品の抽出を行った後、それぞれの部品が存在する顔領域に対する相対的な存在位置から、顔の向き判定部37で、人間の対軸方向に対して何度向いているか、また室内のどの方向を向いているかなど、顔の向いている方向の推定を行う。   After extracting characteristic parts such as eyes and mouth, the face orientation determination unit 37 determines how many times it faces the human opposite axis from the relative position of the face area where each part exists. The direction in which the face is facing is estimated, such as whether the person is facing and in which direction the room is facing.

例えば、顔の縦方向の回転をθx、顔の横方向の回転をθyとし、重み係数をそれぞれwx,wyとすると、評価関数fは、

f=wx・θx+wy・θy

となる。
For example, assuming that the vertical rotation of the face is θx, the horizontal rotation of the face is θy, and the weighting coefficients are wx and wy, respectively, the evaluation function f is

f = wx · θx + wy · θy

It becomes.

そして、この評価関数の定量化した動作値を持って顔の動作判定を行う。   Then, the movement determination of the face is performed with the movement value quantified by the evaluation function.

ここで、暗い室内の場合について述べる。   Here, the case of a dark room will be described.

本実施例では、赤外線カメラを使う方法を取る。すなわち、色情報は利用できない。よって形状情報、輝度情報を利用した検出を行う。これらの処理をすべての観測カメラ、すなわち、それぞれのカメラ板から投影した画像から推定を行い、それらの推定結果をまとめて一つの結果を算出する。   In this embodiment, a method using an infrared camera is used. That is, color information cannot be used. Therefore, detection using shape information and luminance information is performed. These processes are estimated from all the observation cameras, that is, images projected from the respective camera plates, and the results of the estimation are combined to calculate one result.

[目部分観測機能部16]
目部分観測機能部16は、人間が目を開けている、閉じているといった情報や、睡眠状態における眼球運動を観測する機能で、図6に示す。
[Eye observation function 16]
The eye part observing function unit 16 is a function for observing information that a human is opening and closing eyes and eye movements in a sleeping state, and is shown in FIG.

顔検出機能部15によって、目の位置はわかっており、画像メモリ41の画像から、目部分検出部42で、目の部分を含むようにトリミングした矩形の部分画像を作成する。   The face detection function unit 15 knows the position of the eyes, and the eye part detection unit 42 creates a rectangular partial image trimmed so as to include the eye part from the image in the image memory 41.

部分画像中では、必ず目の部分が矩形に対して平行になっているとは限らないので、後処理のために回転画像生成部43によって、画像を回転させる。   In the partial image, the eye portion is not always parallel to the rectangle, so the image is rotated by the rotated image generation unit 43 for post-processing.

その画像に対し、瞳検出部44では、瞳(虹彩と瞳孔)と白眼のモデルによって検出を行う。   The pupil detection unit 44 detects the image based on the pupil (iris and pupil) and white eye models.

これに失敗する場合として、(1)部分画像の生成時に失敗していること、すなわち目の部分が画像内に存在しない場合、(2)目を閉じている場合である。   The cases where this fails are (1) failure when generating a partial image, that is, when the eye portion does not exist in the image, and (2) when the eye is closed.

(1) 何か別のものに隠されており検出できない場合がある。再抽出を試みて、取得が不可能な場合、さらに別の視点から抽出を行い、どこからも取得が不可能な場合は処理を中止する。この時、検出モジュールでは別の物体によって「隠されている」と判定する。 (1) There are cases where it is hidden behind something and cannot be detected. If re-extraction is attempted and acquisition is impossible, extraction is performed from another viewpoint, and if acquisition is impossible from anywhere, processing is stopped. At this time, the detection module determines that it is “hidden” by another object.

(2) 目を閉じている場合については、目をつぶった状態では目を閉じた時にできるまぶたの線を抽出することによって目を閉じているかどうかを判定する。まぶたの線の検出は、まぶた検出部45で検出する。目を閉じている場合まぶたの線は、顔の表面色に比べると輝度が低く観測され、比較的安定して画像上のエッジとして検出される。 (2) In the case where the eyes are closed, it is determined whether or not the eyes are closed by extracting the eyelid line formed when the eyes are closed when the eyes are closed. The eyelid line 45 is detected by the eyelid detection unit 45. When the eyes are closed, the eyelid line is observed to have a lower luminance than the face surface color, and is detected as an edge on the image relatively stably.

図7に基づいて説明する。   This will be described with reference to FIG.

ステップa1において、画像からエッジ検出を行う。   In step a1, edge detection is performed from the image.

ステップa2において、2値化を行う。   In step a2, binarization is performed.

ステップa3において、そのエッジ画像から、ハフ変換(H.K.Yuen, J.Illingworth, J.Kittler,“Ellipse detection using the Hough Transform ”, Alvey Vision Conference, Manchester, (1988))などを用いた円弧の抽出を行う。   In step a3, arc extraction using the Hough transform (HKYuen, J. Illingworth, J. Kittler, “Ellipse detection using the Hough Transform”, Alvey Vision Conference, Manchester, (1988)) and the like is performed. Do.

ステップa4において、円弧の位置、組合せ検出から複数の候補として抽出された円弧の組合せ、相対的な位置関係を考慮し、まぶたを検出する。   In step a4, the eyelid is detected in consideration of the position of the arc, the combination of arcs extracted as a plurality of candidates from the combination detection, and the relative positional relationship.

次に、睡眠状態について次のことを考える。   Next, consider the following about the sleep state.

睡眠中に眼球が急速に動く現象であるREM(Rapid Eye Movement)を起こす睡眠状態をレム睡眠と呼ぶ。この状態は浅い眠りの状態であるということが知られている。これらの睡眠の状態検出を行うために、まぶた痙攣検出を画像情報を用いて取得する方法について図8(a)(b)(c) に基づいて述べる。   A sleep state that causes REM (Rapid Eye Movement), which is a phenomenon in which the eyeball moves rapidly during sleep, is called REM sleep. It is known that this state is a light sleep state. In order to detect these sleep states, a method for acquiring eyelid spasm detection using image information will be described with reference to FIGS. 8 (a), (b), and (c).

眼球運動検出部46では、人間を撮影した時系列画像から図8(a) のような処理を行う。   The eye movement detection unit 46 performs processing as shown in FIG. 8A from a time-series image obtained by photographing a person.

図8(a) のステップb1において、目の回りの部分画像(図8(b) )に対しての差分画像を生成する。   In step b1 of FIG. 8A, a difference image is generated for the partial image around the eye (FIG. 8B).

目の部分の差分画像が細かく変化している場合は眼球運動と判断する。   When the difference image of the eye portion is finely changed, it is determined as eye movement.

図8(a) のステップb2において、その差分画像の各画素値から評価関数mを図8(c) のようにまぶたの部分(肌色領域H)とまぶたの線(低輝度領域L)の部分があるため、

Figure 2005199078
In step b2 of FIG. 8 (a), the evaluation function m is determined from the respective pixel values of the difference image as shown in FIG. 8 (c) by the eyelid part (skin color area H) and the eyelid line (low luminance area L). Because there is
Figure 2005199078

(Iiは部分画像中のある画素値)のように設定する。 (Ii is a certain pixel value in the partial image).

図8(a) のステップb3,4において、閾値以上の変化が数十秒間認められた場合、眼球運動があると判断する。各重み定数(w2,w2)また閾値については、多くのサンプルから実験によって求めるものとする。各検出結果は結果を結果統合部47に送り、その結果をまとめる。   In steps b3 and b4 of FIG. 8 (a), if a change equal to or greater than the threshold is recognized for several tens of seconds, it is determined that there is eye movement. Each weight constant (w2, w2) and threshold value are obtained from many samples by experiments. Each detection result is sent to the result integration unit 47, and the results are collected.

[口部分観測機能部17]
口部分観測機能部17は、人間が会話している状態か、そうでないか、また、
あくびをしたかどうかを観測する機能である。
[Mouth observation unit 17]
The mouth portion observation function unit 17 is in a state where a human is talking or not,
It is a function to observe whether yawning.

ここでは、口を開けているかどうかの判定が必要となるので、図9(a)(b)(c) に基づいて説明する。   Here, since it is necessary to determine whether or not the mouth is open, description will be made based on FIGS. 9 (a), 9 (b), and 9 (c).

図9(a) のステップc1において、まず口を探すために、位置情報、色情報を用いることによって、口の部分を探索し、目部分観測機能部16と同様に、矩形に切り取り部分画像を生成する。本実施例では図9(b) のような、唇の形状モデルとの照合を行う。   In step c1 of FIG. 9 (a), first, in order to search for a mouth, the mouth part is searched by using position information and color information, and the cut partial image is cut into a rectangle like the eye part observation function unit 16. Generate. In the present embodiment, collation with a lip shape model as shown in FIG.

図9(a) のステップc2において、明度情報などから唇部分の抽出、2値化を行う。   In step c2 of FIG. 9A, the lip portion is extracted from the brightness information and binarized.

図9(a) のステップc3において、上唇、下唇のモデルを2値化した画像の大きさに合わせ、モデルをマッチングする。   In step c3 of FIG. 9A, the models of the upper lip and lower lip are matched with the size of the binarized image to match the models.

図9(a) のステップc4において、図9(c) のように、口全体の縦横、開口時の大きさを計測する。   In step c4 of FIG. 9 (a), as shown in FIG. 9 (c), the vertical and horizontal dimensions of the entire mouth and the size at the time of opening are measured.

次に、会話、あくびの検出について図10(a)(b)(c) に基づいて説明する。   Next, detection of conversation and yawn will be described based on FIGS. 10 (a), (b), and (c).

会話の場合、時間的な軸での変化を考えた場合、口の開閉の変化が大きい。   In the case of conversation, the change in opening and closing of the mouth is large when considering changes in the time axis.

また、あくびは、初めに緩やかな長い呼吸を行うために、大きく口を開け、次にしばらく開けた状態が続き、そして閉める。   Also, yawns open their mouths for a long, long breath first, then open for a while and then close.

このような図10(a) で示されるような「会話モデル」「あくびモデル」を用意し、時間的な変化系列をパターンとして認識する方法を図10(b) に示す。   FIG. 10B shows a method of preparing such a “conversation model” and “yawn model” as shown in FIG. 10A and recognizing a temporal change sequence as a pattern.

図10(b) のステップd1において、図10(a) に示すような口形状の変化を表すグラフを生成する。   In step d1 of FIG. 10 (b), a graph representing the mouth shape change as shown in FIG. 10 (a) is generated.

図10(b) のステップd2において、それを図10(c) に示すように、曲線の微分を行い、変曲点で時間を区切り、一次元のパターンに投影する。   In step d2 of FIG. 10 (b), as shown in FIG. 10 (c), the curve is differentiated, the time is divided at the inflection points, and projected onto a one-dimensional pattern.

図10(b) のステップd3において、一定区間内での変化の系列を次のように識別する。区切った時間系列(tsep )中に、いくつ分節が存在するか(上の例16、下の例3)各分節の時間の長さ等のパターンマッチングを行い、判定する。 In step d3 of FIG. 10 (b), a series of changes within a certain section is identified as follows. The number of segments in the divided time series (t sep ) (example 16 above, example 3 below) is determined by performing pattern matching such as the length of time of each segment.

[判断部2]
次に、図1の判断部2について、図11で説明する。
[Judgment unit 2]
Next, the determination unit 2 in FIG. 1 will be described with reference to FIG.

判断部2は、検出部1から受けとった情報に基づいて、機器をどのように制御すればよいか、また、どのような指示を人間に与えるかを決定し、状態統合判断機能、制御指示機能、会話機能を有する。   The determination unit 2 determines how to control the device based on the information received from the detection unit 1 and what kind of instruction is given to the person. , Have conversation function.

[状態統合判断機能部50]
状態統合判断機能部50は、検出位置から得られる各種情報の識別、履歴、統合を行い、各種の指示を出すための中枢機能を司る。
[State integration determination function unit 50]
The state integration determination function unit 50 performs identification, history, and integration of various pieces of information obtained from the detection position, and manages a central function for issuing various instructions.

まず、人間に対する状態について次のような幾つかの状態を設定する。   First, the following several states are set for human states.

・活動状態(起きている状態)
静止状態(テレビ等を見ている、本を読んでいる等)
会話状態(話しをしている)
運動状態(歩行等も含む)
・就眠状態(寝ている状態)
入眠状態(いまにも眠たそうな状態)
睡眠状態(普通に目をつむって寝ている状態)
熟睡状態(少々のことでは起きない状態)
REM睡眠状態(眼球運動が観測される睡眠状態)
目覚状態(起きてから数分までの状態)
観測情報受取部51では、各検出機能から得られた情報を受け、それぞれの情報を数段階の度合に変換する。姿勢については細かい動きを行う場合が多いため、動きがないとするものは設けていない。よって、それぞれの状態において、注視する動作を変える必要がある。
・ Activity (Waking up)
Still state (watching TV, reading books, etc.)
Conversation state (speaking)
Exercise state (including walking)
-Sleeping state (sleeping state)
Sleeping state (the state that seems to have fallen asleep)
Sleeping state (normally sleeping with your eyes closed)
Deep sleep (state that doesn't happen a little)
REM sleep state (sleep state where eye movement is observed)
Awake state (up to several minutes after waking up)
The observation information receiving unit 51 receives the information obtained from each detection function and converts each information into several levels. Since there are many cases where fine movements are made with respect to the posture, there is no provision for no movement. Therefore, it is necessary to change the gaze operation in each state.

判断決定部52では、表1のようなテーブルを状態情報データベース管理部53より参照し、状態を決定する。

Figure 2005199078
The determination / determination unit 52 refers to the table shown in Table 1 from the state information database management unit 53 to determine the state.
Figure 2005199078

ここで、テーブルを用いた方法では、検出装置の失敗などによっていずれの状態にも識別できない場合について述べる。例えば、顔の検出ができない場合、眠
っているかどうかを判定することが困難となる。これを補助するものとして、姿
勢の変化の度合いから、動きが少ない場合には「寝ている」と判断する。
Here, a case where the state using the table cannot be identified in any state due to a failure of the detection device will be described. For example, when the face cannot be detected, it is difficult to determine whether or not the user is sleeping. As an aid to this, it is determined that the person is “sleeping” when there is little movement from the degree of change in posture.

あくびの場合、通常人間は手で口を覆い隠す。この場合は図12に示すように、口形状の認識のみでは失敗する。よって、前述した腕の動きの評価関数等と組み合わせた統合的な判断が必要となる。   When yawning, humans usually cover their mouths with their hands. In this case, as shown in FIG. 12, only the mouth shape recognition fails. Therefore, it is necessary to make an integrated judgment in combination with the arm movement evaluation function described above.

判断決定部52は、制御装置へどのような指示を出すかを決め、制御情報データベース管理部54に登録されているデータに基づき、制御装置への指示を送る。このとき、制御する機器の状態も管理し、無駄な制御(例えば、照明が消えているのに消そうとしない等)をしない等や、エアコンの温度調整の必要性の有無等を行う。   The determination / determination unit 52 determines what instruction is issued to the control device, and sends an instruction to the control device based on the data registered in the control information database management unit 54. At this time, the state of the device to be controlled is also managed, and useless control (for example, the lighting is turned off but it is not tried to turn it off) or the necessity of temperature adjustment of the air conditioner is performed.

制御情報データベース管理部54には次のようなデータを登録されている。   The following information is registered in the control information database management unit 54.

活動状態時に対する処理をまとめる。   Summarize the processing for when active.

状態が判定された場合、次のような環境に設定する。入退室時、すなわち室内での人間の存在の有無を確かめた後、室内照明の入切、その他のテレビ等の器具の電源の入切を行う。移動の方向によっては、移動した場所(ホテルの室内等ではユニットバス等)の照明の入切を行う。また判断装置はあくびの回数をカウントし、履歴を保存する。時間的な頻度を観測し、多くなってきた場合には、就寝を促すメッセージを流す。   If the status is determined, the following environment is set. When entering or leaving the room, that is, after confirming the presence or absence of a person in the room, turn on / off room lighting and turn on / off the power of other appliances such as a television. Depending on the direction of movement, the lighting of the moved place (such as a unit bath in a hotel room) is turned on and off. The determination device counts the number of yawns and saves the history. Observe the frequency over time, and if it increases, send a message prompting you to go to bed.

睡眠状態時に対する処理をまとめる。   Summarize the process for sleeping.

入眠時には、テレビの電源切、オーディオの音量調節や電源の切、照明の入切を行う。就眠時には主にエアコンの温度風向調節を行う。起床時はテレビの電源入、オーディオの音量調節や電源の入、照明の入切を行う。また、起床時間をユーザによって設定するが、本装置では必ずしも、その時間通りには起こさない。設定時間よりも早い時点で、REM睡眠のように睡眠が浅いと判断できる場合、そちらの方が「目覚めがよい」と判断して起床を促す。   When you go to sleep, turn off the TV, adjust the audio volume, turn off the power, and turn on and off the lights. When sleeping, the air temperature of the air conditioner is mainly adjusted. When getting up, turn on the TV, adjust the volume of the audio, turn on the power, and turn on / off the lights. In addition, the user sets the wake-up time, but the device does not necessarily wake up on time. When it can be determined that sleep is shallow like REM sleep at a time earlier than the set time, it is determined that the user is “awake” and prompts to wake up.

[会話機能部55]
会話機能部55は、会話認識モジュール56と音声合成警報モジュール57を有し、ユーザとのインターフェースとして働き、ユーザからの機能選択の受付、
また、ユーザへの指示を行うための機能である。例えば、目覚しの時刻設定、人
間からの機器制御の指示を受ける。システムからは人間に対する指示(あくびが多い時に「寝た方がよい」等)、起床時、挨拶等を行う。
[Conversation Function Unit 55]
The conversation function unit 55 includes a conversation recognition module 56 and a speech synthesis alarm module 57, which functions as an interface with the user, accepts function selection from the user,
It is also a function for giving instructions to the user. For example, it receives an instruction to set a wake-up time and control a device from a human. The system gives instructions to humans (such as “You should sleep when you have a lot of yawns”), greetings, etc.

[制御部3]
図1の制御部3は、機器制御を行う機能を持ち、図13に示す。
[Control unit 3]
The control unit 3 in FIG. 1 has a function of performing device control and is shown in FIG.

指示選択部61では、判断部2からの制御機器情報を選別し、指示変換部62に送る。指示変換部62は、制御指示を具体的な操作(スイッチを入れる電気信号等)へ変換する。各種の電気製品の赤外線リモートコントロールを行うための送信機能63や照明器具のように直接電源のON/OFFを行うための附属装置64を取付けることによるスイッチング機能を持つ。これらは現在の室内設備に対して容易に対応可能であることを特徴とする。   The instruction selection unit 61 selects control device information from the determination unit 2 and sends it to the instruction conversion unit 62. The instruction conversion unit 62 converts the control instruction into a specific operation (such as an electrical signal for switching on). It has a transmission function 63 for performing infrared remote control of various electric products and a switching function by attaching an auxiliary device 64 for directly turning on / off the power supply like a lighting fixture. These are characterized by being easily adaptable to the current indoor facilities.

なお、本発明は上述した実施例に限定されるものではない。   In addition, this invention is not limited to the Example mentioned above.

(1) 姿勢検出機能部14の変形例
姿勢検出機能部14により複雑な動作を扱うために次のことが考えられる。
(1) Modification of Attitude Detection Function Unit 14 In order to handle a complicated operation by the attitude detection function unit 14, the following can be considered.

最近のCGの研究では、人物のモデルを動かすために人間の動作を記述するための言語処理系を構築し、その言語を用いて動作系列の生成を行っている。この記述系を表現形式として、画像から得られた特徴量からこのような言語へと変換する方法を考え、その言語を用いた構文的なマッチング方法をとる。   In recent CG research, a language processing system for describing a human motion is constructed to move a human model, and a motion sequence is generated using the language. Using this description system as an expression format, we consider a method of converting a feature quantity obtained from an image into such a language, and take a syntactic matching method using that language.

(2) 口部分観測機能部17の変形例
口部分観測機能部17において、エネルギー最小化原理に基づいた、動的な輪郭抽出法であるスネーク(M. Kass, A. Witkin, D. Terzopouls,“Snakes: Active Contour Models ”, In Proc. 1st Int. Conf. on Computer Vision, pp.259-268(1987))を利用することが考えられる。スネークによって唇の輪郭形状を抽出し、追跡することによって形状情報を得る。
(2) Modification of Mouth Portion Observation Function Unit 17 In the mouth portion observation function unit 17, a snake (M. Kass, A. Witkin, D. Terzopouls, which is a dynamic contour extraction method based on the energy minimization principle) “Snakes: Active Contour Models”, In Proc. 1st Int. Conf. On Computer Vision, pp. 259-268 (1987)). Shape information is obtained by extracting and tracking the contour shape of the lips by snake.

(3) 顔検出機能部15等の変形例
顔検出機能部15等の色情報を利用するモジュールについては、暗くなった場合、赤外線カメラを利用する方法を述べたが、人間が寝ている場合、数秒間だけ
照明をつけ、撮影することによって、より確実な情報を得るという変形例も挙げ
られる。
(3) Modified example of the face detection function unit 15 etc. As for the module using the color information such as the face detection function unit 15 etc., the method of using the infrared camera is described when it becomes dark. There is also a modification in which more reliable information is obtained by lighting and photographing for a few seconds.

(4) 判断部2の変形例
判断部2の変形例を図14(a) に挙げる。
(4) Modified Example of Judgment Unit 2 A modified example of the judgment unit 2 is shown in FIG.

人間だけでなく物体認識部71を採り入れ、布団、服装等の認識を行い、温度調節等に対する有益な情報を得るように拡張することが挙げられる。   Incorporating not only human beings but also the object recognizing unit 71, recognizing futons, clothes, etc., and expanding to obtain useful information on temperature control and the like.

音声認識部72を付け加えることにより、会話状態や就寝時のいびき等の状態を監視するために用いられ、画像情報によって得られた情報を補助するために使う。例えば、画像情報として会話をしているかどうか、不確かな場合、音声情報を組み合わせることによって判断が可能になる。   By adding the voice recognition unit 72, the voice recognition unit 72 is used to monitor the state of conversation, the state of snoring at bedtime, and the like, and is used to assist information obtained from image information. For example, if it is uncertain whether or not a conversation is being performed as image information, it can be determined by combining audio information.

各認識モジュールが情報の取得に失敗した場合、失敗することによって新たな情報が得られる場合がある。   If each recognition module fails to acquire information, new information may be obtained due to the failure.

例えば、姿勢検出が失敗する例としては、図14(b) のように、睡眠中に布団を掛けている場合では、体全体が見えなくなってしまうため、うまく画像から姿勢が取得できない。しかし、時間が経ち、暑さのために布団を外した場合は、これまで失敗していた姿勢の取得が可能になる。ここで、判断装置は「暑い、寝づらい」等と判断することができ、時間的な観測結果の変化を考慮することで、状態の判定が可能となる。   For example, as an example in which posture detection fails, as shown in FIG. 14B, when a futon is put on during sleep, the entire body cannot be seen, so the posture cannot be acquired from the image well. However, if time passes and the futon is removed due to the heat, it will be possible to acquire postures that have failed so far. Here, the determination device can determine “hot, hard to sleep” or the like, and the state can be determined by taking into account changes in observation results over time.

このような、失敗に基づく推論を採り入れたモジュール73を採り入れる。このモジュール73の構成は、図14(c) に図示する。すなわち、失敗例データベース82,マッチング部83,履歴蓄積部71とよりなる。   A module 73 incorporating such inference based on failure is adopted. The configuration of this module 73 is illustrated in FIG. That is, it includes a failure example database 82, a matching unit 83, and a history storage unit 71.

また、制御情報についても、ある方向をずっと見ているという情報が取得可能であるため、テレビの方向をずっと見るだけで、電源を入れる等の操作拡張を、データベースの拡張によって可能である。   In addition, since it is possible to acquire information indicating that a certain direction is being viewed all the time for control information, it is possible to expand operations such as turning on the power by simply looking at the direction of the television by expanding the database.

(5) 本実施例では、人間の就寝時の場面を想定したものであるが、「あくび」「まばたき」といった無意識な行動の検出とそれに伴う機器の制御については、他の場面においても有効である。 (5) In this example, it is assumed that humans are sleeping, but the detection of unconscious behavior such as `` yawning '' and `` blinks '' and the control of the associated devices are also effective in other situations. is there.

例えば、次のような通常の行動時におこる無意識な行動の検出を行うような変形例も考えられる。   For example, a modification in which unconscious behavior that occurs during normal behavior such as the following is detected is also conceivable.

劇場や会場の観客個々について、あくび、まばたき等の回数、会話の頻度を調べることにより、観客全体の状態判断を行い、照明、空調等を制御するといったもの。   For each audience in a theater or venue, the number of yawns, blinks, etc., and the frequency of conversations are examined to determine the state of the entire audience, and lighting, air conditioning, etc. are controlled.

会議の出席者の状態として、あくび、まばたきの回数等を記録することによって、出席者の集中度を把握するといったもの。   By recording the number of yawns, blinks, etc. as the status of attendees at the meeting, the concentration of attendees is grasped.

VDT作業者のまばたき等の回数を記録し、疲労度を判断し注意を促すといったもの。   Record the number of blinks of the VDT worker, judge the degree of fatigue, and call attention.

この際、姿勢検出機能の変形例として、顔の向き、首の動き、手足の動き等を検出することにより、「腰に手をやる」「肩を叩く」「伸びをする」「首のコリをほぐす」といった無意識的な身体の動きを検出することが考えられる。これらの動作は、同じ動作を繰り返し行うことを特徴としており、それぞれの動作の大きさ、回数等記録しておくことにより、人間の状態を把握できるようになる。   At this time, as a modified example of the posture detection function, by detecting the orientation of the face, the movement of the neck, the movement of the limbs, etc. It is conceivable to detect unconscious body movements such as “unraveling”. These operations are characterized by repeatedly performing the same operations. By recording the size and the number of times of each operation, it becomes possible to grasp the human state.

(6) 上記実施例では、被検体を人間としたが、これに代えてライオンや象などの動物を被検体としてシステムを用いてもよい。この場合には、例えば、動物園の檻の中にいる動物の監視に使用することができ、この動物が就寝中か、起床状態にあるかを判断できて、飼育係の仕事の負担を軽減できる。また、サファリパークにおいても。本システムを使用して動物の監視を行うことができる。 (6) In the above embodiment, the subject is a human, but instead, the system may be used with animals such as lions and elephants as the subject. In this case, for example, it can be used to monitor an animal in a cage of a zoo, and it can be judged whether this animal is sleeping or in the wake-up state, thereby reducing the burden on the keeper. . Also at Safari Park. The system can be used to monitor animals.

以上、本発明はその趣旨を逸脱しない範囲で種々変形して実施することが可能である。
As described above, the present invention can be implemented with various modifications without departing from the spirit of the present invention.

システムのブロック図である。1 is a block diagram of a system. 検出部のブロック図である。It is a block diagram of a detection part. 姿勢検出機能部のブロック図である。It is a block diagram of an attitude | position detection function part. 姿勢モデルの説明図である。It is explanatory drawing of a posture model. 顔検出機能部のブロック図である。It is a block diagram of a face detection function part. 目部分観測機能部のブロック図である。It is a block diagram of an eye part observation function part. まぶた検出のフローチャートである。It is a flowchart of eyelid detection. REM睡眠検出のフローチャートと説明図である。It is a flowchart and explanatory drawing of REM sleep detection. 口検出のフローチャートと説明図である。It is a flowchart and explanatory drawing of a mouth detection. 口形状の時間的推移モデルと検出のフローチャートと説明図である。It is a time transition model of a mouth shape, a flowchart and an explanatory diagram of detection. 判断部のブロック図である。It is a block diagram of a judgment part. あくびの統合判断の例を示す図である。It is a figure which shows the example of the integrated judgment of a yawn. 制御部のブロック図である。It is a block diagram of a control part. 判断部の変形例のブロック図である。It is a block diagram of the modification of a judgment part.

符号の説明Explanation of symbols

1 検出部
2 判断部
3 制御部
DESCRIPTION OF SYMBOLS 1 Detection part 2 Judgment part 3 Control part

Claims (4)

被検体を観測する画像入力手段と、
前記画像入力手段によって観測した画像から被検体の動きを検出する動き検出手段と、
前記動き検出手段によって検出した被検体の動きを定量的な動作値に変換する動作値変換手段と、
前記動作値変換手段によって変換した動作値からその被検体の状態を判断する判断手段とよりなり、
前記動作値変換手段は、
前記動き検出手段によって検出した被検体の動きの量と重み係数の積からなる評価関数の値を、被検体の動きの定量的な動作値とする
ことを特徴とする状態監視装置。
An image input means for observing the subject;
Movement detecting means for detecting the movement of the subject from the image observed by the image input means;
Motion value conversion means for converting the motion of the subject detected by the motion detection means into a quantitative motion value;
A judgment means for judging the state of the subject from the motion value converted by the motion value conversion means;
The operation value conversion means includes:
A state monitoring apparatus characterized in that a value of an evaluation function composed of a product of the amount of motion of the subject detected by the motion detection means and a weight coefficient is used as a quantitative motion value of motion of the subject.
前記判断手段が判断した被検体の状態に基づいて、外部の装置を制御する制御手段とよりなる
ことを特徴とする請求項1記載の状態監視装置。
The state monitoring apparatus according to claim 1, further comprising a control unit that controls an external device based on the state of the subject determined by the determination unit.
前記判断手段は、
動作値に対応した被検体の状態を示す項目を記憶する記憶手段と、
前記動作値変換手段からの動作値に対応した項目を前記記憶手段から呼出し、その呼出した項目を被検体の状態とする判断決定手段を有する
ことを特徴とする請求項1記載の状態監視装置。
The determination means includes
Storage means for storing an item indicating the state of the subject corresponding to the motion value;
The state monitoring apparatus according to claim 1, further comprising a determination / determination unit that calls an item corresponding to an operation value from the operation value conversion unit from the storage unit and sets the called item to a state of a subject.
前記動き検出手段は、前記画像入力手段によって観測した画像から被検体の口の状態を検出する口検出手段を有し、
前記口検出手段は、
前記画像入力手段によって観測した被検体の口の画像から、その口の状態が閉じた状態、あくび状態または会話状態であるかを判断する
ことを特徴とした請求項1記載の状態監視装置。
The movement detection means has mouth detection means for detecting the mouth state of the subject from the image observed by the image input means,
The mouth detecting means is
The state monitoring apparatus according to claim 1, wherein it is determined from the mouth image of the subject observed by the image input means whether the mouth is in a closed state, a yawning state, or a conversational state.
JP2005031105A 2005-02-07 2005-02-07 Condition monitoring device Expired - Fee Related JP3836488B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005031105A JP3836488B2 (en) 2005-02-07 2005-02-07 Condition monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005031105A JP3836488B2 (en) 2005-02-07 2005-02-07 Condition monitoring device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP06599595A Division JP3697286B2 (en) 1995-03-24 1995-03-24 Condition monitoring device

Publications (2)

Publication Number Publication Date
JP2005199078A true JP2005199078A (en) 2005-07-28
JP3836488B2 JP3836488B2 (en) 2006-10-25

Family

ID=34824727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005031105A Expired - Fee Related JP3836488B2 (en) 2005-02-07 2005-02-07 Condition monitoring device

Country Status (1)

Country Link
JP (1) JP3836488B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010273276A (en) * 2009-05-25 2010-12-02 Car Mate Mfg Co Ltd TV controller
WO2012046392A1 (en) * 2010-10-08 2012-04-12 パナソニック株式会社 Posture estimation device and posture estimation method
US8177720B2 (en) 2006-05-31 2012-05-15 Denso Corporation Apparatus for detecting vital functions, control unit and pulse wave sensor
WO2015083411A1 (en) * 2013-12-03 2015-06-11 ソニー株式会社 Information-processing apparatus, information-processing method, and program
JP2018013929A (en) * 2016-07-20 2018-01-25 株式会社ガイア・システム・ソリューション Wake-up monitoring device
CN110020583A (en) * 2017-12-22 2019-07-16 丰田自动车株式会社 Sleepiness apparatus for predicting
JP2020070573A (en) * 2018-10-30 2020-05-07 立川ブラインド工業株式会社 Electric shielding device
JP2021003181A (en) * 2019-06-25 2021-01-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Cough detector, and method and program for detecting cough
WO2021053806A1 (en) * 2019-09-20 2021-03-25 三菱電機株式会社 Information processing device, program, and information processing method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8177720B2 (en) 2006-05-31 2012-05-15 Denso Corporation Apparatus for detecting vital functions, control unit and pulse wave sensor
JP2010273276A (en) * 2009-05-25 2010-12-02 Car Mate Mfg Co Ltd TV controller
WO2012046392A1 (en) * 2010-10-08 2012-04-12 パナソニック株式会社 Posture estimation device and posture estimation method
US9355305B2 (en) 2010-10-08 2016-05-31 Panasonic Corporation Posture estimation device and posture estimation method
WO2015083411A1 (en) * 2013-12-03 2015-06-11 ソニー株式会社 Information-processing apparatus, information-processing method, and program
JPWO2015083411A1 (en) * 2013-12-03 2017-03-16 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2018013929A (en) * 2016-07-20 2018-01-25 株式会社ガイア・システム・ソリューション Wake-up monitoring device
CN110020583A (en) * 2017-12-22 2019-07-16 丰田自动车株式会社 Sleepiness apparatus for predicting
JP2020070573A (en) * 2018-10-30 2020-05-07 立川ブラインド工業株式会社 Electric shielding device
JP2021003181A (en) * 2019-06-25 2021-01-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Cough detector, and method and program for detecting cough
JP7312037B2 (en) 2019-06-25 2023-07-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Cough detection device, operating method and program for cough detection device
WO2021053806A1 (en) * 2019-09-20 2021-03-25 三菱電機株式会社 Information processing device, program, and information processing method
JPWO2021053806A1 (en) * 2019-09-20 2021-11-25 三菱電機株式会社 Information processing equipment, programs and information processing methods
JP6991401B2 (en) 2019-09-20 2022-01-12 三菱電機株式会社 Information processing equipment, programs and information processing methods

Also Published As

Publication number Publication date
JP3836488B2 (en) 2006-10-25

Similar Documents

Publication Publication Date Title
JP3697286B2 (en) Condition monitoring device
US10755537B1 (en) Implementing deterrent protocols in response to detected security events
US12073698B1 (en) Security device with user-configurable motion detection settings
CN105700363B (en) A kind of awakening method and system of smart home device phonetic controller
Kapoor et al. A real-time head nod and shake detector
US10593174B1 (en) Automatic setup mode after disconnect from a network
CN108279573B (en) Control method, device, intelligent appliance and medium based on human body detection of attribute
CN103220583A (en) System and method for detecting user fatigue degree based on smart television
JP2019522300A (en) Mobile and wearable video capture and feedback platform for the treatment of mental disorders
US11546951B1 (en) Touchless setup mode initiation for networked devices
US10803719B1 (en) Batteryless doorbell with energy harvesters
Pauwels et al. Sensor networks for ambient intelligence
TWI767775B (en) Image processing based emotion recognition system and method
JP3836488B2 (en) Condition monitoring device
US11423762B1 (en) Providing device power-level notifications
TW201730808A (en) Face detection method
US11412189B1 (en) Batteryless doorbell with multi-load power delivery
JP2007156577A (en) Method of gaining color information using life support robot
Kang et al. Beyond superficial emotion recognition: Modality-adaptive emotion recognition system
US10834366B1 (en) Audio/video recording and communication doorbell devices with power control circuitry
US11687049B2 (en) Information processing apparatus and non-transitory computer readable medium storing program
KR102752005B1 (en) Care robot for providing care service
JP2005199373A (en) Communication apparatus and communication method
CN219715857U (en) Intelligent glasses and intelligent control system
Zhang et al. SmartPose: An intelligent household appliances controller based on visual recognition of human postures

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060418

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060726

LAPS Cancellation because of no payment of annual fees