JP2005199078A - Condition monitoring device - Google Patents
Condition monitoring device Download PDFInfo
- Publication number
- JP2005199078A JP2005199078A JP2005031105A JP2005031105A JP2005199078A JP 2005199078 A JP2005199078 A JP 2005199078A JP 2005031105 A JP2005031105 A JP 2005031105A JP 2005031105 A JP2005031105 A JP 2005031105A JP 2005199078 A JP2005199078 A JP 2005199078A
- Authority
- JP
- Japan
- Prior art keywords
- state
- motion
- subject
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、住空間、行動空間における人間や動物の被検体の行動を監視する状態監視装置に関する。 The present invention relates to a state monitoring device that monitors the behavior of a human or animal subject in a living space or behavior space.
従来のユーザインターフェースでは、人間が意識的に起こす行動を認知し、その意図を反映した制御を行うことを目的とした設計されてきた。 Conventional user interfaces have been designed for the purpose of recognizing actions that humans intentionally cause and performing control reflecting their intentions.
例えば、目標とする物体を指さし、その指の方向を画像認識により検知するという、ポインティングに利用するといったもの(例えば、非特許文献1参照)等が挙げられる。 For example, pointing to a target object and detecting the direction of the finger by image recognition is used for pointing (for example, see Non-Patent Document 1).
この場合、常に注意を装置に向けておく必要がある。例えば就寝時のように、意識して行動をしていない時、従来の方法では、人間の意図を伝えられない。このとき照明等をつけたままにして寝てしまった場合、照明を消してほしい、といった意図を伝えることはできない。 In this case, it is necessary to always pay attention to the device. For example, when a person is not consciously acting, such as at bedtime, the conventional method cannot convey a human intention. If you go to sleep with the lights on at this time, you cannot tell your intention to turn off the lights.
人間が意識しなくても、その人間の状態を認識して、機器の制御をする方法について考える必要がある。例えば就寝時の寝返り、あくび、まぶたの開閉などの人間の意識しない行動を検出し、その情報に基づいた機器の制御を行うためには、その人間の状態を的確に把握する必要性がある。 Even if a human is not conscious, it is necessary to think about how to control the device by recognizing the human state. For example, in order to detect actions that humans are not aware of, such as turning over at bedtime, yawning, opening and closing eyelids, and controlling devices based on the information, it is necessary to accurately grasp the state of the person.
人間の状態判断を行うために、人間に特別な測定機器(例えば、脳波測定、血圧測定機器、データグローブ、データスーツ等)をつけて様々な測定を行い、その結果に基づいて、電気機器などを操作するといったものもある。しかし、このような機器を身体に装着することは人間にとっては煩雑、面倒であり、就寝時などの状態を容易に把握できないという問題がある。そのためには、画像情報を利用した状態の認識が適当と考えられる。 In order to judge the human condition, various measurement is performed by attaching a special measurement device (eg, electroencephalogram measurement, blood pressure measurement device, data glove, data suit, etc.) to a human, and based on the result, an electric device, etc. There are also things like manipulating. However, wearing such a device on the body is troublesome and troublesome for humans, and there is a problem that it is difficult to grasp the state at bedtime. To that end, it is considered appropriate to recognize the state using image information.
また、同様の働きをするものとしては各種の監視装置が知られており、画像情報を用いた情報の取得を行い、警報装置等と連動させてセキュリティに用いられている。しかしこれらは、人間の細かな動きを管理するのではなく、ドア付近での人の入退出管理などが行われているのが現状である。
上記したように、人間が意識しなくても、その人間の状態を認識して、機器の制御をする方法については、従来実現されていなかった。 As described above, a method for controlling a device by recognizing the state of the person without being conscious of the person has not been realized.
そこで、本発明では、人間や動物の無意識な行動を検知し、その状態を認識する状態監視装置を提供する。 Therefore, the present invention provides a state monitoring device that detects unconscious behavior of a human or animal and recognizes the state.
本発明の状態監視装置は、被検体を観測する画像入力手段と、前記画像入力手段によって観測した画像から被検体の動きを検出する動き検出手段と、前記動き検出手段によって検出した被検体の動きを定量的な動作値に変換する動作値変換手段と、前記動作値変換手段によって変換した動作値からその被検体の状態を判断する判断手段とよりなり、前記動作値変換手段は、前記動き検出手段によって検出した被検体の動きの量と重み係数の積からなる評価関数の値を、被検体の動きの定量的な動作値とする。 The state monitoring apparatus of the present invention includes an image input means for observing a subject, a motion detection means for detecting a motion of the subject from an image observed by the image input means, and a motion of the subject detected by the motion detection means. Motion value converting means for converting the motion value into a quantitative motion value, and determination means for determining the state of the subject from the motion value converted by the motion value conversion means, the motion value conversion means comprising the motion detection The value of the evaluation function composed of the product of the amount of movement of the subject detected by the means and the weighting coefficient is set as a quantitative operation value of the movement of the subject.
本発明の状態監視装置について説明する。 The state monitoring apparatus of the present invention will be described.
画像入力手段は、被検体を観測し、その動きを画像にして入力する。 The image input means observes the subject and inputs the movement as an image.
動き検出手段は、前記画像入力手段によって観測した画像から被検体の動きを検出する。すなわち、姿勢、顔、目、口を検出し、あくび、まぶたの開閉などの状態を検出する。 The motion detection means detects the motion of the subject from the image observed by the image input means. That is, posture, face, eyes, mouth are detected, and states such as yawning and eyelid opening / closing are detected.
動作値変換手段は、前記動き検出手段によって検出した被検体の動きを定量的な動作値に変換する。すなわち、前記動作値変換手段は、前記動き検出手段によって検出した被検体の動きの量と重み係数の積からなる評価関数の値を、被検体の動きの定量的な動作値とする。 The motion value conversion means converts the motion of the subject detected by the motion detection means into a quantitative motion value. That is, the motion value conversion means uses the value of the evaluation function formed by the product of the amount of motion of the subject detected by the motion detection means and the weighting coefficient as a quantitative motion value of the motion of the subject.
判断手段は、前記動作値変換手段によって変換した動作値からその被検体の状態を判断する。すなわち、被検体の行動状態を活動状態、睡眠状態において、それぞれについて数種類の状態に分類し、被検体が無意識に起こす行動に着目して判定を行う。 The determination means determines the state of the subject from the motion value converted by the motion value conversion means. That is, the behavioral state of the subject is classified into several types of states in the active state and the sleeping state, respectively, and the determination is made by paying attention to the behavior that the subject unconsciously causes.
本発明の状態監視装置は、人間や動物などの被検体の行動状態を数種類の状態に分類し、被検体が無意識に起こす行動を判定できる。 The state monitoring apparatus of the present invention classifies the behavioral state of a subject such as a human being or an animal into several types of states, and can determine the behavior that the subject causes unconsciously.
本発明の一実施例を図面に基づき説明する。本実施例では、被検体を人間とし、システムで監視する環境に一人の人間が存在するという設定で行っている。なお、「被検体」とは、人間及びライオン、象、犬等の動物をいう。 An embodiment of the present invention will be described with reference to the drawings. In this embodiment, the setting is made such that the subject is a human and there is one human in the environment monitored by the system. “Subject” refers to humans and animals such as lions, elephants, and dogs.
図1にシステム全体の構成を示す。 FIG. 1 shows the configuration of the entire system.
システムの装置は、検出部1、判断部2、制御部3の3つからなる。
The system apparatus is composed of a
検出部1は、室内または人間の状態を検出するためのものであり、その情報を判断部2に送る。
The
判断部2は、検出部1から受け取った情報に基づき人間の状態を判断する。
The
制御部3は、機器の制御を行うためのインターフェースを持ち、機器のコントロールを行う。
The
[検出部1]
まず、検出部1について図2を用いて説明する。
[Detection unit 1]
First, the
検出部1は、複数台のカメラ、マイク、温度、湿度センサを入力機器として持ち、これらの入力を処理する入力制御部11とそれぞれの検出機能部14,1516,17、そして、各種のモデルデータベース12で結果を統合し、判断部2への出力をまとめる結果収集部13からなる。
The
検出部1の機能としては、姿勢検出機能、顔検出機能、目部分観測機能、口部分観測機能がある。
The functions of the
[姿勢検出機能部14]
姿勢検出機能部14は、複数台のカメラによって撮影された画像中に存在する人間の姿勢を検出するものである。図3を用いて説明する。
[Attitude detection function unit 14]
The posture
動画像(時系列画像)の差分画像を求めることによって、動いた物体の絞り込みを行う。 The moving object is narrowed down by obtaining a differential image of the moving images (time-series images).
まず、画像メモリ21に蓄えられた画像から差分画像生成部22によって差分画像を生成する。
First, the difference
その動物体の領域に対してラベリング部23で、ラベリングを行う。
The
それぞれのラベリングされた領域に対して、原画像から新たにエッジ抽出部24で、エッジ抽出を行う。
For each labeled region, an
得られたエッジ画像から、輪郭情報生成部25により、輪郭情報を求め、モデルデータベース26に蓄えられた図4(a) ,(b) のような、3次元モデルを用いて、モデル照合部27によりマッチングを行い、姿勢を判定する。
The contour information is obtained from the obtained edge image by the contour
人間がどのような動作をしたかを定量化することができれば、その評価関数の値を用いて、動作の判定が可能となる。 If it is possible to quantify what kind of motion a human has done, it is possible to determine the motion using the value of the evaluation function.
本実施例では、次のような評価関数を定義し、評価関数計算部28で計算する。そして、この結果が姿勢の動きの定量化した動作値となる。
In this embodiment, the following evaluation function is defined and calculated by the
手、足、首などの動作、体軸方向の回転、腰の曲げ等のそれぞれの関節等の曲げ角は、3次元空間中での角度を表すのではなく、2次元平面(画像)上に投影された時の角度とし、図4(b) と(c) の差を取り、(d) のようにθx(xは注視する関節数1〜n)とする。また、それぞれの重み係数をwxとするとき、その評価関数fは
と定義できる。 Can be defined.
なお、この重み定数は実験等によって、予め求められているとする。上に挙げた評価関数は体全体の動きの評価関数である。 It is assumed that this weight constant is obtained in advance by experiments or the like. The evaluation functions listed above are evaluation functions for the movement of the whole body.
例えば、右腕のみの動作を評価する関数として、
のように定義でき、個別の関節の動きをそれぞれ監視するのではなく、その評価関数の定量化した動作値を持って肢体の動作判定を行う。 The movement of the limbs is determined using the quantified movement value of the evaluation function instead of monitoring the movements of individual joints.
[顔検出機能部15]
顔検出機能部15について述べる。顔検出機能は人間の顔を検出し、人間が向いている方向を推定する機能で、図5に示す。
[Face detection function unit 15]
The face
先に述べた姿勢検出によって、取得した画像のどの辺りに顔が存在するかを仮定することができる。 By the posture detection described above, it is possible to assume where the face is present in the acquired image.
画像メモリ31に蓄えられた画像から、姿勢検出機能部14で検出された姿勢から頭部を推定し顔部分推定切出部32で部分画像を生成する。
From the image stored in the
その部分画像に対して、色相彩度画像生成部33では、色相、彩度画像を作成し、肌色領域を検出する。
For the partial image, the hue / saturation
検出した領域が顔であるかどうかを判定するためにモデルデータベース34に蓄えられた顔モデルに基いて顔部分抽出部35でマッチングを行う。
In order to determine whether or not the detected region is a face, matching is performed by the face
次に、その結果から顔部品抽出部36で顔の部品の検索を行う。
Next, the facial
目や口といった特徴のある部品の抽出を行った後、それぞれの部品が存在する顔領域に対する相対的な存在位置から、顔の向き判定部37で、人間の対軸方向に対して何度向いているか、また室内のどの方向を向いているかなど、顔の向いている方向の推定を行う。
After extracting characteristic parts such as eyes and mouth, the face
例えば、顔の縦方向の回転をθx、顔の横方向の回転をθyとし、重み係数をそれぞれwx,wyとすると、評価関数fは、
f=wx・θx+wy・θy
となる。
For example, assuming that the vertical rotation of the face is θx, the horizontal rotation of the face is θy, and the weighting coefficients are wx and wy, respectively, the evaluation function f is
f = wx · θx + wy · θy
It becomes.
そして、この評価関数の定量化した動作値を持って顔の動作判定を行う。 Then, the movement determination of the face is performed with the movement value quantified by the evaluation function.
ここで、暗い室内の場合について述べる。 Here, the case of a dark room will be described.
本実施例では、赤外線カメラを使う方法を取る。すなわち、色情報は利用できない。よって形状情報、輝度情報を利用した検出を行う。これらの処理をすべての観測カメラ、すなわち、それぞれのカメラ板から投影した画像から推定を行い、それらの推定結果をまとめて一つの結果を算出する。 In this embodiment, a method using an infrared camera is used. That is, color information cannot be used. Therefore, detection using shape information and luminance information is performed. These processes are estimated from all the observation cameras, that is, images projected from the respective camera plates, and the results of the estimation are combined to calculate one result.
[目部分観測機能部16]
目部分観測機能部16は、人間が目を開けている、閉じているといった情報や、睡眠状態における眼球運動を観測する機能で、図6に示す。
[Eye observation function 16]
The eye part observing
顔検出機能部15によって、目の位置はわかっており、画像メモリ41の画像から、目部分検出部42で、目の部分を含むようにトリミングした矩形の部分画像を作成する。
The face
部分画像中では、必ず目の部分が矩形に対して平行になっているとは限らないので、後処理のために回転画像生成部43によって、画像を回転させる。
In the partial image, the eye portion is not always parallel to the rectangle, so the image is rotated by the rotated
その画像に対し、瞳検出部44では、瞳(虹彩と瞳孔)と白眼のモデルによって検出を行う。
The
これに失敗する場合として、(1)部分画像の生成時に失敗していること、すなわち目の部分が画像内に存在しない場合、(2)目を閉じている場合である。 The cases where this fails are (1) failure when generating a partial image, that is, when the eye portion does not exist in the image, and (2) when the eye is closed.
(1) 何か別のものに隠されており検出できない場合がある。再抽出を試みて、取得が不可能な場合、さらに別の視点から抽出を行い、どこからも取得が不可能な場合は処理を中止する。この時、検出モジュールでは別の物体によって「隠されている」と判定する。 (1) There are cases where it is hidden behind something and cannot be detected. If re-extraction is attempted and acquisition is impossible, extraction is performed from another viewpoint, and if acquisition is impossible from anywhere, processing is stopped. At this time, the detection module determines that it is “hidden” by another object.
(2) 目を閉じている場合については、目をつぶった状態では目を閉じた時にできるまぶたの線を抽出することによって目を閉じているかどうかを判定する。まぶたの線の検出は、まぶた検出部45で検出する。目を閉じている場合まぶたの線は、顔の表面色に比べると輝度が低く観測され、比較的安定して画像上のエッジとして検出される。
(2) In the case where the eyes are closed, it is determined whether or not the eyes are closed by extracting the eyelid line formed when the eyes are closed when the eyes are closed. The
図7に基づいて説明する。 This will be described with reference to FIG.
ステップa1において、画像からエッジ検出を行う。 In step a1, edge detection is performed from the image.
ステップa2において、2値化を行う。 In step a2, binarization is performed.
ステップa3において、そのエッジ画像から、ハフ変換(H.K.Yuen, J.Illingworth, J.Kittler,“Ellipse detection using the Hough Transform ”, Alvey Vision Conference, Manchester, (1988))などを用いた円弧の抽出を行う。 In step a3, arc extraction using the Hough transform (HKYuen, J. Illingworth, J. Kittler, “Ellipse detection using the Hough Transform”, Alvey Vision Conference, Manchester, (1988)) and the like is performed. Do.
ステップa4において、円弧の位置、組合せ検出から複数の候補として抽出された円弧の組合せ、相対的な位置関係を考慮し、まぶたを検出する。 In step a4, the eyelid is detected in consideration of the position of the arc, the combination of arcs extracted as a plurality of candidates from the combination detection, and the relative positional relationship.
次に、睡眠状態について次のことを考える。 Next, consider the following about the sleep state.
睡眠中に眼球が急速に動く現象であるREM(Rapid Eye Movement)を起こす睡眠状態をレム睡眠と呼ぶ。この状態は浅い眠りの状態であるということが知られている。これらの睡眠の状態検出を行うために、まぶた痙攣検出を画像情報を用いて取得する方法について図8(a)(b)(c) に基づいて述べる。 A sleep state that causes REM (Rapid Eye Movement), which is a phenomenon in which the eyeball moves rapidly during sleep, is called REM sleep. It is known that this state is a light sleep state. In order to detect these sleep states, a method for acquiring eyelid spasm detection using image information will be described with reference to FIGS. 8 (a), (b), and (c).
眼球運動検出部46では、人間を撮影した時系列画像から図8(a) のような処理を行う。
The eye
図8(a) のステップb1において、目の回りの部分画像(図8(b) )に対しての差分画像を生成する。 In step b1 of FIG. 8A, a difference image is generated for the partial image around the eye (FIG. 8B).
目の部分の差分画像が細かく変化している場合は眼球運動と判断する。 When the difference image of the eye portion is finely changed, it is determined as eye movement.
図8(a) のステップb2において、その差分画像の各画素値から評価関数mを図8(c) のようにまぶたの部分(肌色領域H)とまぶたの線(低輝度領域L)の部分があるため、
(Iiは部分画像中のある画素値)のように設定する。 (Ii is a certain pixel value in the partial image).
図8(a) のステップb3,4において、閾値以上の変化が数十秒間認められた場合、眼球運動があると判断する。各重み定数(w2,w2)また閾値については、多くのサンプルから実験によって求めるものとする。各検出結果は結果を結果統合部47に送り、その結果をまとめる。
In steps b3 and b4 of FIG. 8 (a), if a change equal to or greater than the threshold is recognized for several tens of seconds, it is determined that there is eye movement. Each weight constant (w2, w2) and threshold value are obtained from many samples by experiments. Each detection result is sent to the
[口部分観測機能部17]
口部分観測機能部17は、人間が会話している状態か、そうでないか、また、
あくびをしたかどうかを観測する機能である。
[Mouth observation unit 17]
The mouth portion
It is a function to observe whether yawning.
ここでは、口を開けているかどうかの判定が必要となるので、図9(a)(b)(c) に基づいて説明する。 Here, since it is necessary to determine whether or not the mouth is open, description will be made based on FIGS. 9 (a), 9 (b), and 9 (c).
図9(a) のステップc1において、まず口を探すために、位置情報、色情報を用いることによって、口の部分を探索し、目部分観測機能部16と同様に、矩形に切り取り部分画像を生成する。本実施例では図9(b) のような、唇の形状モデルとの照合を行う。
In step c1 of FIG. 9 (a), first, in order to search for a mouth, the mouth part is searched by using position information and color information, and the cut partial image is cut into a rectangle like the eye part
図9(a) のステップc2において、明度情報などから唇部分の抽出、2値化を行う。 In step c2 of FIG. 9A, the lip portion is extracted from the brightness information and binarized.
図9(a) のステップc3において、上唇、下唇のモデルを2値化した画像の大きさに合わせ、モデルをマッチングする。 In step c3 of FIG. 9A, the models of the upper lip and lower lip are matched with the size of the binarized image to match the models.
図9(a) のステップc4において、図9(c) のように、口全体の縦横、開口時の大きさを計測する。 In step c4 of FIG. 9 (a), as shown in FIG. 9 (c), the vertical and horizontal dimensions of the entire mouth and the size at the time of opening are measured.
次に、会話、あくびの検出について図10(a)(b)(c) に基づいて説明する。 Next, detection of conversation and yawn will be described based on FIGS. 10 (a), (b), and (c).
会話の場合、時間的な軸での変化を考えた場合、口の開閉の変化が大きい。 In the case of conversation, the change in opening and closing of the mouth is large when considering changes in the time axis.
また、あくびは、初めに緩やかな長い呼吸を行うために、大きく口を開け、次にしばらく開けた状態が続き、そして閉める。 Also, yawns open their mouths for a long, long breath first, then open for a while and then close.
このような図10(a) で示されるような「会話モデル」「あくびモデル」を用意し、時間的な変化系列をパターンとして認識する方法を図10(b) に示す。 FIG. 10B shows a method of preparing such a “conversation model” and “yawn model” as shown in FIG. 10A and recognizing a temporal change sequence as a pattern.
図10(b) のステップd1において、図10(a) に示すような口形状の変化を表すグラフを生成する。 In step d1 of FIG. 10 (b), a graph representing the mouth shape change as shown in FIG. 10 (a) is generated.
図10(b) のステップd2において、それを図10(c) に示すように、曲線の微分を行い、変曲点で時間を区切り、一次元のパターンに投影する。 In step d2 of FIG. 10 (b), as shown in FIG. 10 (c), the curve is differentiated, the time is divided at the inflection points, and projected onto a one-dimensional pattern.
図10(b) のステップd3において、一定区間内での変化の系列を次のように識別する。区切った時間系列(tsep )中に、いくつ分節が存在するか(上の例16、下の例3)各分節の時間の長さ等のパターンマッチングを行い、判定する。 In step d3 of FIG. 10 (b), a series of changes within a certain section is identified as follows. The number of segments in the divided time series (t sep ) (example 16 above, example 3 below) is determined by performing pattern matching such as the length of time of each segment.
[判断部2]
次に、図1の判断部2について、図11で説明する。
[Judgment unit 2]
Next, the
判断部2は、検出部1から受けとった情報に基づいて、機器をどのように制御すればよいか、また、どのような指示を人間に与えるかを決定し、状態統合判断機能、制御指示機能、会話機能を有する。
The
[状態統合判断機能部50]
状態統合判断機能部50は、検出位置から得られる各種情報の識別、履歴、統合を行い、各種の指示を出すための中枢機能を司る。
[State integration determination function unit 50]
The state integration determination function unit 50 performs identification, history, and integration of various pieces of information obtained from the detection position, and manages a central function for issuing various instructions.
まず、人間に対する状態について次のような幾つかの状態を設定する。 First, the following several states are set for human states.
・活動状態(起きている状態)
静止状態(テレビ等を見ている、本を読んでいる等)
会話状態(話しをしている)
運動状態(歩行等も含む)
・就眠状態(寝ている状態)
入眠状態(いまにも眠たそうな状態)
睡眠状態(普通に目をつむって寝ている状態)
熟睡状態(少々のことでは起きない状態)
REM睡眠状態(眼球運動が観測される睡眠状態)
目覚状態(起きてから数分までの状態)
観測情報受取部51では、各検出機能から得られた情報を受け、それぞれの情報を数段階の度合に変換する。姿勢については細かい動きを行う場合が多いため、動きがないとするものは設けていない。よって、それぞれの状態において、注視する動作を変える必要がある。
・ Activity (Waking up)
Still state (watching TV, reading books, etc.)
Conversation state (speaking)
Exercise state (including walking)
-Sleeping state (sleeping state)
Sleeping state (the state that seems to have fallen asleep)
Sleeping state (normally sleeping with your eyes closed)
Deep sleep (state that doesn't happen a little)
REM sleep state (sleep state where eye movement is observed)
Awake state (up to several minutes after waking up)
The observation
判断決定部52では、表1のようなテーブルを状態情報データベース管理部53より参照し、状態を決定する。
ここで、テーブルを用いた方法では、検出装置の失敗などによっていずれの状態にも識別できない場合について述べる。例えば、顔の検出ができない場合、眠
っているかどうかを判定することが困難となる。これを補助するものとして、姿
勢の変化の度合いから、動きが少ない場合には「寝ている」と判断する。
Here, a case where the state using the table cannot be identified in any state due to a failure of the detection device will be described. For example, when the face cannot be detected, it is difficult to determine whether or not the user is sleeping. As an aid to this, it is determined that the person is “sleeping” when there is little movement from the degree of change in posture.
あくびの場合、通常人間は手で口を覆い隠す。この場合は図12に示すように、口形状の認識のみでは失敗する。よって、前述した腕の動きの評価関数等と組み合わせた統合的な判断が必要となる。 When yawning, humans usually cover their mouths with their hands. In this case, as shown in FIG. 12, only the mouth shape recognition fails. Therefore, it is necessary to make an integrated judgment in combination with the arm movement evaluation function described above.
判断決定部52は、制御装置へどのような指示を出すかを決め、制御情報データベース管理部54に登録されているデータに基づき、制御装置への指示を送る。このとき、制御する機器の状態も管理し、無駄な制御(例えば、照明が消えているのに消そうとしない等)をしない等や、エアコンの温度調整の必要性の有無等を行う。
The determination /
制御情報データベース管理部54には次のようなデータを登録されている。
The following information is registered in the control information
活動状態時に対する処理をまとめる。 Summarize the processing for when active.
状態が判定された場合、次のような環境に設定する。入退室時、すなわち室内での人間の存在の有無を確かめた後、室内照明の入切、その他のテレビ等の器具の電源の入切を行う。移動の方向によっては、移動した場所(ホテルの室内等ではユニットバス等)の照明の入切を行う。また判断装置はあくびの回数をカウントし、履歴を保存する。時間的な頻度を観測し、多くなってきた場合には、就寝を促すメッセージを流す。 If the status is determined, the following environment is set. When entering or leaving the room, that is, after confirming the presence or absence of a person in the room, turn on / off room lighting and turn on / off the power of other appliances such as a television. Depending on the direction of movement, the lighting of the moved place (such as a unit bath in a hotel room) is turned on and off. The determination device counts the number of yawns and saves the history. Observe the frequency over time, and if it increases, send a message prompting you to go to bed.
睡眠状態時に対する処理をまとめる。 Summarize the process for sleeping.
入眠時には、テレビの電源切、オーディオの音量調節や電源の切、照明の入切を行う。就眠時には主にエアコンの温度風向調節を行う。起床時はテレビの電源入、オーディオの音量調節や電源の入、照明の入切を行う。また、起床時間をユーザによって設定するが、本装置では必ずしも、その時間通りには起こさない。設定時間よりも早い時点で、REM睡眠のように睡眠が浅いと判断できる場合、そちらの方が「目覚めがよい」と判断して起床を促す。 When you go to sleep, turn off the TV, adjust the audio volume, turn off the power, and turn on and off the lights. When sleeping, the air temperature of the air conditioner is mainly adjusted. When getting up, turn on the TV, adjust the volume of the audio, turn on the power, and turn on / off the lights. In addition, the user sets the wake-up time, but the device does not necessarily wake up on time. When it can be determined that sleep is shallow like REM sleep at a time earlier than the set time, it is determined that the user is “awake” and prompts to wake up.
[会話機能部55]
会話機能部55は、会話認識モジュール56と音声合成警報モジュール57を有し、ユーザとのインターフェースとして働き、ユーザからの機能選択の受付、
また、ユーザへの指示を行うための機能である。例えば、目覚しの時刻設定、人
間からの機器制御の指示を受ける。システムからは人間に対する指示(あくびが多い時に「寝た方がよい」等)、起床時、挨拶等を行う。
[Conversation Function Unit 55]
The
It is also a function for giving instructions to the user. For example, it receives an instruction to set a wake-up time and control a device from a human. The system gives instructions to humans (such as “You should sleep when you have a lot of yawns”), greetings, etc.
[制御部3]
図1の制御部3は、機器制御を行う機能を持ち、図13に示す。
[Control unit 3]
The
指示選択部61では、判断部2からの制御機器情報を選別し、指示変換部62に送る。指示変換部62は、制御指示を具体的な操作(スイッチを入れる電気信号等)へ変換する。各種の電気製品の赤外線リモートコントロールを行うための送信機能63や照明器具のように直接電源のON/OFFを行うための附属装置64を取付けることによるスイッチング機能を持つ。これらは現在の室内設備に対して容易に対応可能であることを特徴とする。
The
なお、本発明は上述した実施例に限定されるものではない。 In addition, this invention is not limited to the Example mentioned above.
(1) 姿勢検出機能部14の変形例
姿勢検出機能部14により複雑な動作を扱うために次のことが考えられる。
(1) Modification of Attitude
最近のCGの研究では、人物のモデルを動かすために人間の動作を記述するための言語処理系を構築し、その言語を用いて動作系列の生成を行っている。この記述系を表現形式として、画像から得られた特徴量からこのような言語へと変換する方法を考え、その言語を用いた構文的なマッチング方法をとる。 In recent CG research, a language processing system for describing a human motion is constructed to move a human model, and a motion sequence is generated using the language. Using this description system as an expression format, we consider a method of converting a feature quantity obtained from an image into such a language, and take a syntactic matching method using that language.
(2) 口部分観測機能部17の変形例
口部分観測機能部17において、エネルギー最小化原理に基づいた、動的な輪郭抽出法であるスネーク(M. Kass, A. Witkin, D. Terzopouls,“Snakes: Active Contour Models ”, In Proc. 1st Int. Conf. on Computer Vision, pp.259-268(1987))を利用することが考えられる。スネークによって唇の輪郭形状を抽出し、追跡することによって形状情報を得る。
(2) Modification of Mouth Portion
(3) 顔検出機能部15等の変形例
顔検出機能部15等の色情報を利用するモジュールについては、暗くなった場合、赤外線カメラを利用する方法を述べたが、人間が寝ている場合、数秒間だけ
照明をつけ、撮影することによって、より確実な情報を得るという変形例も挙げ
られる。
(3) Modified example of the face
(4) 判断部2の変形例
判断部2の変形例を図14(a) に挙げる。
(4) Modified Example of Judgment Unit 2 A modified example of the
人間だけでなく物体認識部71を採り入れ、布団、服装等の認識を行い、温度調節等に対する有益な情報を得るように拡張することが挙げられる。
Incorporating not only human beings but also the
音声認識部72を付け加えることにより、会話状態や就寝時のいびき等の状態を監視するために用いられ、画像情報によって得られた情報を補助するために使う。例えば、画像情報として会話をしているかどうか、不確かな場合、音声情報を組み合わせることによって判断が可能になる。
By adding the
各認識モジュールが情報の取得に失敗した場合、失敗することによって新たな情報が得られる場合がある。 If each recognition module fails to acquire information, new information may be obtained due to the failure.
例えば、姿勢検出が失敗する例としては、図14(b) のように、睡眠中に布団を掛けている場合では、体全体が見えなくなってしまうため、うまく画像から姿勢が取得できない。しかし、時間が経ち、暑さのために布団を外した場合は、これまで失敗していた姿勢の取得が可能になる。ここで、判断装置は「暑い、寝づらい」等と判断することができ、時間的な観測結果の変化を考慮することで、状態の判定が可能となる。 For example, as an example in which posture detection fails, as shown in FIG. 14B, when a futon is put on during sleep, the entire body cannot be seen, so the posture cannot be acquired from the image well. However, if time passes and the futon is removed due to the heat, it will be possible to acquire postures that have failed so far. Here, the determination device can determine “hot, hard to sleep” or the like, and the state can be determined by taking into account changes in observation results over time.
このような、失敗に基づく推論を採り入れたモジュール73を採り入れる。このモジュール73の構成は、図14(c) に図示する。すなわち、失敗例データベース82,マッチング部83,履歴蓄積部71とよりなる。
A
また、制御情報についても、ある方向をずっと見ているという情報が取得可能であるため、テレビの方向をずっと見るだけで、電源を入れる等の操作拡張を、データベースの拡張によって可能である。 In addition, since it is possible to acquire information indicating that a certain direction is being viewed all the time for control information, it is possible to expand operations such as turning on the power by simply looking at the direction of the television by expanding the database.
(5) 本実施例では、人間の就寝時の場面を想定したものであるが、「あくび」「まばたき」といった無意識な行動の検出とそれに伴う機器の制御については、他の場面においても有効である。 (5) In this example, it is assumed that humans are sleeping, but the detection of unconscious behavior such as `` yawning '' and `` blinks '' and the control of the associated devices are also effective in other situations. is there.
例えば、次のような通常の行動時におこる無意識な行動の検出を行うような変形例も考えられる。 For example, a modification in which unconscious behavior that occurs during normal behavior such as the following is detected is also conceivable.
劇場や会場の観客個々について、あくび、まばたき等の回数、会話の頻度を調べることにより、観客全体の状態判断を行い、照明、空調等を制御するといったもの。 For each audience in a theater or venue, the number of yawns, blinks, etc., and the frequency of conversations are examined to determine the state of the entire audience, and lighting, air conditioning, etc. are controlled.
会議の出席者の状態として、あくび、まばたきの回数等を記録することによって、出席者の集中度を把握するといったもの。 By recording the number of yawns, blinks, etc. as the status of attendees at the meeting, the concentration of attendees is grasped.
VDT作業者のまばたき等の回数を記録し、疲労度を判断し注意を促すといったもの。 Record the number of blinks of the VDT worker, judge the degree of fatigue, and call attention.
この際、姿勢検出機能の変形例として、顔の向き、首の動き、手足の動き等を検出することにより、「腰に手をやる」「肩を叩く」「伸びをする」「首のコリをほぐす」といった無意識的な身体の動きを検出することが考えられる。これらの動作は、同じ動作を繰り返し行うことを特徴としており、それぞれの動作の大きさ、回数等記録しておくことにより、人間の状態を把握できるようになる。 At this time, as a modified example of the posture detection function, by detecting the orientation of the face, the movement of the neck, the movement of the limbs, etc. It is conceivable to detect unconscious body movements such as “unraveling”. These operations are characterized by repeatedly performing the same operations. By recording the size and the number of times of each operation, it becomes possible to grasp the human state.
(6) 上記実施例では、被検体を人間としたが、これに代えてライオンや象などの動物を被検体としてシステムを用いてもよい。この場合には、例えば、動物園の檻の中にいる動物の監視に使用することができ、この動物が就寝中か、起床状態にあるかを判断できて、飼育係の仕事の負担を軽減できる。また、サファリパークにおいても。本システムを使用して動物の監視を行うことができる。 (6) In the above embodiment, the subject is a human, but instead, the system may be used with animals such as lions and elephants as the subject. In this case, for example, it can be used to monitor an animal in a cage of a zoo, and it can be judged whether this animal is sleeping or in the wake-up state, thereby reducing the burden on the keeper. . Also at Safari Park. The system can be used to monitor animals.
以上、本発明はその趣旨を逸脱しない範囲で種々変形して実施することが可能である。
As described above, the present invention can be implemented with various modifications without departing from the spirit of the present invention.
1 検出部
2 判断部
3 制御部
DESCRIPTION OF
Claims (4)
前記画像入力手段によって観測した画像から被検体の動きを検出する動き検出手段と、
前記動き検出手段によって検出した被検体の動きを定量的な動作値に変換する動作値変換手段と、
前記動作値変換手段によって変換した動作値からその被検体の状態を判断する判断手段とよりなり、
前記動作値変換手段は、
前記動き検出手段によって検出した被検体の動きの量と重み係数の積からなる評価関数の値を、被検体の動きの定量的な動作値とする
ことを特徴とする状態監視装置。 An image input means for observing the subject;
Movement detecting means for detecting the movement of the subject from the image observed by the image input means;
Motion value conversion means for converting the motion of the subject detected by the motion detection means into a quantitative motion value;
A judgment means for judging the state of the subject from the motion value converted by the motion value conversion means;
The operation value conversion means includes:
A state monitoring apparatus characterized in that a value of an evaluation function composed of a product of the amount of motion of the subject detected by the motion detection means and a weight coefficient is used as a quantitative motion value of motion of the subject.
ことを特徴とする請求項1記載の状態監視装置。 The state monitoring apparatus according to claim 1, further comprising a control unit that controls an external device based on the state of the subject determined by the determination unit.
動作値に対応した被検体の状態を示す項目を記憶する記憶手段と、
前記動作値変換手段からの動作値に対応した項目を前記記憶手段から呼出し、その呼出した項目を被検体の状態とする判断決定手段を有する
ことを特徴とする請求項1記載の状態監視装置。 The determination means includes
Storage means for storing an item indicating the state of the subject corresponding to the motion value;
The state monitoring apparatus according to claim 1, further comprising a determination / determination unit that calls an item corresponding to an operation value from the operation value conversion unit from the storage unit and sets the called item to a state of a subject.
前記口検出手段は、
前記画像入力手段によって観測した被検体の口の画像から、その口の状態が閉じた状態、あくび状態または会話状態であるかを判断する
ことを特徴とした請求項1記載の状態監視装置。
The movement detection means has mouth detection means for detecting the mouth state of the subject from the image observed by the image input means,
The mouth detecting means is
The state monitoring apparatus according to claim 1, wherein it is determined from the mouth image of the subject observed by the image input means whether the mouth is in a closed state, a yawning state, or a conversational state.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005031105A JP3836488B2 (en) | 2005-02-07 | 2005-02-07 | Condition monitoring device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005031105A JP3836488B2 (en) | 2005-02-07 | 2005-02-07 | Condition monitoring device |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP06599595A Division JP3697286B2 (en) | 1995-03-24 | 1995-03-24 | Condition monitoring device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2005199078A true JP2005199078A (en) | 2005-07-28 |
| JP3836488B2 JP3836488B2 (en) | 2006-10-25 |
Family
ID=34824727
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005031105A Expired - Fee Related JP3836488B2 (en) | 2005-02-07 | 2005-02-07 | Condition monitoring device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3836488B2 (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010273276A (en) * | 2009-05-25 | 2010-12-02 | Car Mate Mfg Co Ltd | TV controller |
| WO2012046392A1 (en) * | 2010-10-08 | 2012-04-12 | パナソニック株式会社 | Posture estimation device and posture estimation method |
| US8177720B2 (en) | 2006-05-31 | 2012-05-15 | Denso Corporation | Apparatus for detecting vital functions, control unit and pulse wave sensor |
| WO2015083411A1 (en) * | 2013-12-03 | 2015-06-11 | ソニー株式会社 | Information-processing apparatus, information-processing method, and program |
| JP2018013929A (en) * | 2016-07-20 | 2018-01-25 | 株式会社ガイア・システム・ソリューション | Wake-up monitoring device |
| CN110020583A (en) * | 2017-12-22 | 2019-07-16 | 丰田自动车株式会社 | Sleepiness apparatus for predicting |
| JP2020070573A (en) * | 2018-10-30 | 2020-05-07 | 立川ブラインド工業株式会社 | Electric shielding device |
| JP2021003181A (en) * | 2019-06-25 | 2021-01-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Cough detector, and method and program for detecting cough |
| WO2021053806A1 (en) * | 2019-09-20 | 2021-03-25 | 三菱電機株式会社 | Information processing device, program, and information processing method |
-
2005
- 2005-02-07 JP JP2005031105A patent/JP3836488B2/en not_active Expired - Fee Related
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8177720B2 (en) | 2006-05-31 | 2012-05-15 | Denso Corporation | Apparatus for detecting vital functions, control unit and pulse wave sensor |
| JP2010273276A (en) * | 2009-05-25 | 2010-12-02 | Car Mate Mfg Co Ltd | TV controller |
| WO2012046392A1 (en) * | 2010-10-08 | 2012-04-12 | パナソニック株式会社 | Posture estimation device and posture estimation method |
| US9355305B2 (en) | 2010-10-08 | 2016-05-31 | Panasonic Corporation | Posture estimation device and posture estimation method |
| WO2015083411A1 (en) * | 2013-12-03 | 2015-06-11 | ソニー株式会社 | Information-processing apparatus, information-processing method, and program |
| JPWO2015083411A1 (en) * | 2013-12-03 | 2017-03-16 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| JP2018013929A (en) * | 2016-07-20 | 2018-01-25 | 株式会社ガイア・システム・ソリューション | Wake-up monitoring device |
| CN110020583A (en) * | 2017-12-22 | 2019-07-16 | 丰田自动车株式会社 | Sleepiness apparatus for predicting |
| JP2020070573A (en) * | 2018-10-30 | 2020-05-07 | 立川ブラインド工業株式会社 | Electric shielding device |
| JP2021003181A (en) * | 2019-06-25 | 2021-01-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Cough detector, and method and program for detecting cough |
| JP7312037B2 (en) | 2019-06-25 | 2023-07-20 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Cough detection device, operating method and program for cough detection device |
| WO2021053806A1 (en) * | 2019-09-20 | 2021-03-25 | 三菱電機株式会社 | Information processing device, program, and information processing method |
| JPWO2021053806A1 (en) * | 2019-09-20 | 2021-11-25 | 三菱電機株式会社 | Information processing equipment, programs and information processing methods |
| JP6991401B2 (en) | 2019-09-20 | 2022-01-12 | 三菱電機株式会社 | Information processing equipment, programs and information processing methods |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3836488B2 (en) | 2006-10-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3697286B2 (en) | Condition monitoring device | |
| US10755537B1 (en) | Implementing deterrent protocols in response to detected security events | |
| US12073698B1 (en) | Security device with user-configurable motion detection settings | |
| CN105700363B (en) | A kind of awakening method and system of smart home device phonetic controller | |
| Kapoor et al. | A real-time head nod and shake detector | |
| US10593174B1 (en) | Automatic setup mode after disconnect from a network | |
| CN108279573B (en) | Control method, device, intelligent appliance and medium based on human body detection of attribute | |
| CN103220583A (en) | System and method for detecting user fatigue degree based on smart television | |
| JP2019522300A (en) | Mobile and wearable video capture and feedback platform for the treatment of mental disorders | |
| US11546951B1 (en) | Touchless setup mode initiation for networked devices | |
| US10803719B1 (en) | Batteryless doorbell with energy harvesters | |
| Pauwels et al. | Sensor networks for ambient intelligence | |
| TWI767775B (en) | Image processing based emotion recognition system and method | |
| JP3836488B2 (en) | Condition monitoring device | |
| US11423762B1 (en) | Providing device power-level notifications | |
| TW201730808A (en) | Face detection method | |
| US11412189B1 (en) | Batteryless doorbell with multi-load power delivery | |
| JP2007156577A (en) | Method of gaining color information using life support robot | |
| Kang et al. | Beyond superficial emotion recognition: Modality-adaptive emotion recognition system | |
| US10834366B1 (en) | Audio/video recording and communication doorbell devices with power control circuitry | |
| US11687049B2 (en) | Information processing apparatus and non-transitory computer readable medium storing program | |
| KR102752005B1 (en) | Care robot for providing care service | |
| JP2005199373A (en) | Communication apparatus and communication method | |
| CN219715857U (en) | Intelligent glasses and intelligent control system | |
| Zhang et al. | SmartPose: An intelligent household appliances controller based on visual recognition of human postures |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060418 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060608 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060718 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060726 |
|
| LAPS | Cancellation because of no payment of annual fees |