JP2001043345A - Facial expression recognition device, medication control system using it, arousal level evaluation system, recovery evaluation system - Google Patents
Facial expression recognition device, medication control system using it, arousal level evaluation system, recovery evaluation systemInfo
- Publication number
- JP2001043345A JP2001043345A JP11214316A JP21431699A JP2001043345A JP 2001043345 A JP2001043345 A JP 2001043345A JP 11214316 A JP11214316 A JP 11214316A JP 21431699 A JP21431699 A JP 21431699A JP 2001043345 A JP2001043345 A JP 2001043345A
- Authority
- JP
- Japan
- Prior art keywords
- facial expression
- facial
- transition map
- face image
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Image Processing (AREA)
Abstract
(57)【要約】
【課題】 苦痛や生気などの人間の所定の表情につい
て、その強さ、激しさ等の表情の度合いを認識できる表
情認識装置を得る。
【解決手段】 所定の感情あるいは人間の状態に伴って
変化する表情を対象として、この表情が段階的に変化す
る複数の顔画像からなる表情遷移マップ11を生成する
表情遷移マップ生成手段12と、表情の度合いの判定対
象となる実写顔画像15を入力する顔画像入力手段14
と、顔画像入力手段より入力された実写顔画像とあらか
じめ生成された表情遷移マップの各段階の顔画像とを照
合する照合手段16と、照合手段の照合結果から最も類
似している顔画像を選び、所定の表情の度合いを判定す
る表情判定手段17とを備えたもの。
(57) [Summary] [PROBLEMS] To obtain a facial expression recognition device capable of recognizing a degree of facial expression such as strength and intensity of a predetermined human expression such as pain and vitality. SOLUTION: An expression transition map generating means 12 for generating an expression transition map 11 composed of a plurality of face images in which the expression changes stepwise for an expression which changes according to a predetermined emotion or a human state, Face image input means 14 for inputting a real face image 15 to be evaluated for the degree of facial expression
A matching unit 16 for matching a real image input from the face image input unit with a face image at each stage of a previously generated expression transition map; and a face image that is the most similar from the matching result of the matching unit. And a facial expression determining means 17 for determining a degree of a predetermined facial expression.
Description
【0001】[0001]
【発明の属する技術分野】この発明は、対象となる人物
の実写顔画像と、ある表情における度合い別に記述した
表情遷移マップとの照合および判定処理により、実写顔
画像からその人物の所定の表情における度合いの認識を
行うための表情認識装置、およびその表情認識装置を用
いた投薬制御システム、覚醒レベル評価システム、回復
評価システムに関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for comparing a real facial image of a target person with a facial expression transition map described for each degree of a certain facial expression and performing a judgment process on the predetermined facial expression of the person from the real facial image. The present invention relates to a facial expression recognition device for recognizing a degree, and a medication control system, an awakening level evaluation system, and a recovery evaluation system using the facial expression recognition device.
【0002】[0002]
【従来の技術】図11は例えば、特開平4−34207
8号公報に示された従来の表情認識装置を示すブロック
図である。図において、1は顔などの表皮の動きを測定
する測定モジュールであり、2はこの測定モジュール1
の測定結果をモーメントに変換する変換器である。3は
変換器2の出力を処理して特徴ベクトルの計算を行う処
理部であり、4はその特徴ベクトルが蓄積される蓄積部
である。5は認識時に処理部3が計算した特徴ベクトル
と蓄積部4に蓄積されている特徴ベクトルの距離より、
何の表情かを認識する距離計算部である。2. Description of the Related Art FIG.
FIG. 9 is a block diagram showing a conventional expression recognition device disclosed in Japanese Patent Publication No. 8-No. In the figure, 1 is a measurement module for measuring the movement of the epidermis such as a face, and 2 is this measurement module 1
Is a converter for converting the measurement result of the above into a moment. Reference numeral 3 denotes a processing unit that processes the output of the converter 2 to calculate a feature vector, and 4 denotes a storage unit that stores the feature vector. 5 is the distance between the feature vector calculated by the processing unit 3 at the time of recognition and the feature vector stored in the storage unit 4,
It is a distance calculation unit that recognizes what facial expression.
【0003】次に動作について説明する。所定の表情を
呈している顔の時系列顔画像を測定モジュール1に入力
し、表情の生成に関する表皮の動きをオプティカルフロ
ーデータとして取り出す。学習時においては、この測定
モジュール1によって取り出されたデータを変換器2に
入力して、表皮の動きの時間的な変化のパターンを1次
および2次モーメントに変換する。次に、この変換器2
で変換された1次および2次モーメントを処理部3に入
力して、それらより表情を識別するための特徴ベクトル
を決定し、それを蓄積部4に蓄積しておく。Next, the operation will be described. A time-series face image of a face presenting a predetermined expression is input to the measurement module 1, and the movement of the epidermis related to the generation of the expression is extracted as optical flow data. At the time of learning, the data extracted by the measurement module 1 is input to the converter 2 to convert the temporal change pattern of the movement of the epidermis into first and second moments. Next, this converter 2
The first and second moments converted in step (1) are input to the processing unit 3, and a feature vector for identifying a facial expression is determined based on the first and second moments, and is stored in the storage unit 4.
【0004】一方、認識時においては、与えられた認識
対象の表情時系列顔画像から、同様の手順で特徴ベクト
ルを計算し、それを距離計算部5に入力する。距離計算
部5では、この処理部3からの認識対象の特徴ベクトル
と、蓄積部4に蓄積されている特徴ベクトルとを比較
し、それらのベクトル間距離に基づいて認識対象に近い
標準表情を選択する。距離計算部5は選択された標準表
情をもとに、認識対象の表情時系列顔画像が何の表情で
あるかの認識結果を出力する。On the other hand, at the time of recognition, a feature vector is calculated from a given facial expression time-series face image to be recognized in a similar procedure, and the calculated feature vector is input to the distance calculation unit 5. The distance calculation unit 5 compares the feature vector of the recognition target from the processing unit 3 with the feature vector stored in the storage unit 4 and selects a standard expression close to the recognition target based on the distance between the vectors. I do. The distance calculation unit 5 outputs a recognition result of the facial expression time-series face image to be recognized based on the selected standard facial expression.
【0005】このように、特開平4−342078号公
報に示された従来の表情認識装置では、顔面全体にわた
って筋肉の微少な動きを計測し、その時間的変化をパタ
ーン化し、そのパターンに基づいて、感情を表す表情の
認識を行う手法が開示されている。As described above, in the conventional expression recognition apparatus disclosed in Japanese Patent Application Laid-Open No. 4-32078, a minute movement of a muscle is measured over the entire face, its temporal change is patterned, and based on the pattern. A technique for recognizing facial expressions representing emotions is disclosed.
【0006】なお、従来の表情認識装置としては、この
他にも、筋肉の動きをパターン化して、標準表情パター
ンとの照合により表情認識する、特開平3−25277
5号公報に示されたもの、あるいは、職種を同じとする
複数の人間の平均顔から印象を指し示すパラメータを抽
出する、「平均顔を用いた顔印象分析」(永田、金子、
原島:電子情報通信学会論文誌 A,Vol.80−
A,No.8,pp.1266−1272)に示された
ものなどもある。In addition, as a conventional expression recognition device, Japanese Patent Laid-Open No. 3-25277 discloses a method of recognizing an expression by patterning the movement of a muscle and comparing it with a standard expression pattern.
"Face impression analysis using average face" which extracts a parameter indicating an impression from an average face of a plurality of persons having the same occupation type or a plurality of persons having the same occupation type (Nagata, Kaneko,
Harashima: IEICE Transactions A, Vol. 80-
A, No. 8, pp. 1266-1272).
【0007】[0007]
【発明が解決しようとする課題】従来の表情認識装置は
以上のように構成されているので、人物の表情を認識す
る場合、その多くは、笑い、怒り、喜び、悲しみといっ
た表情的にも、感情的にも大きく異なるものを扱う(そ
のような表情認識をカテゴリー別表情認識ということに
する)ものであり、例えば、リハビリ中の患者の状態を
把握したい場合には、このようなカテゴリー別表情認識
ではなく、つらさなどといった人物の所定の表情に対す
る強さ、激しさといった度合い(これを表情の度合いの
認識ということにする)を認識する必要があるが、上記
カテゴリー別表情認識に対する従来の表情認識装置は存
在するが、この表情の度合いの認識に対する従来の表情
認識装置は見当たらず、また、各状態における度合いを
ある瞬時における情報のみで判断することは困難な場合
がある。Since the conventional facial expression recognition device is configured as described above, when recognizing the facial expression of a person, most of the facial expression recognition devices also include facial expressions such as laughter, anger, joy, and sadness. It deals with emotions that are significantly different (such expression recognition is referred to as expression recognition by category). For example, if it is desired to grasp the state of a patient during rehabilitation, such expression by category is used. It is necessary to recognize not the recognition but the strength and intensity of a person's predetermined facial expression such as painfulness (this is called recognition of the degree of facial expression). Although there is a recognition device, there is no conventional expression recognition device for recognizing the degree of the expression, and the degree in each state is determined at a certain moment. It may be difficult to determine only with boric.
【0008】さらに、表情認識装置を用いて表情の各度
合いの状態を判定し、記述する有効な従来の技術、およ
び表情の度合いを段階的に変化させた複数の状態の記述
の労力を軽減させる従来の技術は見当たらず、また、表
情の各度合いの状態を記述するもととなる顔画像や、認
識対象の実写顔画像の方向が一致していない場合、それ
に対応させるために処理が複雑になるなどの課題があっ
た。[0008] Furthermore, an effective conventional technique for judging and describing the state of each degree of facial expression using a facial expression recognition device and reducing the labor of describing a plurality of states in which the degree of facial expression is stepwise changed. No conventional technology is found, and if the direction of the facial image that describes the state of each degree of facial expression or the direction of the real face image to be recognized does not match, the processing is complicated to deal with it. There were issues such as becoming.
【0009】この発明は上記のような課題を解決するた
めになされたもので、苦痛や生気などの人物の所定の表
情について、その強さ、激しさといった表情の度合いの
認識が可能な表情認識装置を得ることを目的とする。SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and is a facial expression recognition apparatus capable of recognizing the degree of facial expression such as the strength and intensity of a predetermined facial expression such as pain and vitality. The aim is to obtain a device.
【0010】また、この発明は、表情認識装置を用いて
表情の各度合いの状態を判定し、その判定結果で患者へ
の投薬効果を評価する投薬制御システムを得ることを目
的とする。It is another object of the present invention to provide a medication control system that determines the state of each degree of facial expression using a facial expression recognition device and evaluates the medication effect on a patient based on the result of the determination.
【0011】さらに、この発明は、表情認識装置を用い
て表情の各度合いの状態を判定し、その判定結果で作業
者の覚醒レベルを評価する覚醒レベル評価システムを得
ることを目的とする。It is a further object of the present invention to obtain an awakening level evaluation system for determining the state of each degree of facial expression using a facial expression recognition device and evaluating the arousal level of the worker based on the result of the determination.
【0012】さらに、この発明は、表情認識装置を用い
て表情の各度合いの状態を判定し、その判定結果で患者
の回復状態などを評価する回復評価システムを得ること
を目的とする。It is a further object of the present invention to provide a recovery evaluation system that determines the state of each degree of facial expression using a facial expression recognition device and evaluates a patient's recovery state or the like based on the determination result.
【0013】[0013]
【課題を解決するための手段】この発明に係る表情認識
装置は、顔画像入力手段によって入力された判定の対象
となる顔画像と、表情遷移マップ生成手段にてあらかじ
め生成された表情遷移マップの各段階の顔画像とを照合
手段で照合し、最も類似している顔画像を選択して、判
定手段よりその段階を出力することにより、所定の表情
の度合いを判定するようにしたものである。According to the present invention, a facial expression recognition apparatus according to the present invention includes a facial image to be determined input by a facial image input unit and a facial expression transition map generated in advance by a facial expression transition map generating unit. The face image at each stage is compared with the matching unit, the most similar face image is selected, and the stage is output from the determining unit to determine the degree of the predetermined facial expression. .
【0014】この発明に係る表情認識装置は、表情遷移
マップの各段階の顔画像として、表情の時系列顔画像デ
ータを用い、顔画像入力手段より入力された時系列顔画
像データとそれとを照合するようにしたものである。The facial expression recognition apparatus according to the present invention uses time-series facial image data of facial expressions as face images at each stage of the facial expression transition map, and compares the time-series facial image data input from the facial image input means with the facial image data. It is something to do.
【0015】この発明に係る表情認識装置は、表情遷移
マップの各段階の顔画像として、複数の人物の顔画像を
各段階の表情ごとに平均化して生成した平均顔を用いる
ようにしたものである。The facial expression recognition apparatus according to the present invention uses an average face generated by averaging the facial images of a plurality of persons for each facial expression in each stage of the facial expression transition map. is there.
【0016】この発明に係る表情認識装置は、表情遷移
マップの各段階の顔画像として、特定の個人の顔画像を
各段階の表情ごとに平均化して生成した平均顔を用いる
ようにしたものである。The facial expression recognition apparatus according to the present invention uses an average face generated by averaging a specific individual's facial image for each facial expression at each stage of the facial expression transition map. is there.
【0017】この発明に係る表情認識装置は、複数の異
なる表情の度合いをもった顔画像から、補間あるいは外
挿処理によって各度合いの中間状態の顔画像を生成する
ことにより、より多くの段階に対応する顔画像を有した
表情遷移マップの生成を行うようにしたものである。The facial expression recognition device according to the present invention generates face images in intermediate states of each degree by interpolation or extrapolation processing from a plurality of facial images having different degrees of facial expression, thereby increasing the number of stages. An expression transition map having a corresponding face image is generated.
【0018】この発明に係る表情認識装置は、被写体本
人の感情の程度についての主観評定値、第3者による評
定値、感情や状態に伴って変化する生理指標値のいずれ
か1つ、または複数を用いて、表情遷移マップの生成に
用いる顔画像の表情の度合いの判定を行うようにしたも
のである。The facial expression recognition apparatus according to the present invention is characterized in that one or more of a subjective rating value of the degree of the emotion of the subject himself / herself, a rating value of a third party, and a physiological index value changing according to the emotion or state. Is used to determine the degree of facial expression of the face image used to generate the facial expression transition map.
【0019】この発明に係る表情認識装置は、上記主観
評定値、第3者による評定値、生理指標値などの複数の
評定値を用いて、評定値の表情遷移マップの生成に用い
る顔画像の表情の度合いを判定し、その一致度が高い顔
画像を選択して表情遷移マップの生成を行うようにした
ものである。The facial expression recognition apparatus according to the present invention uses a plurality of evaluation values such as the subjective evaluation value, the evaluation value by a third party, and the physiological index value to generate a facial image transition map of the evaluation value. The degree of facial expression is determined, and a facial image with a high degree of matching is selected to generate a facial expression transition map.
【0020】この発明に係る表情認識装置は、複数の方
向から撮影した顔画像より特定方向の顔画像を生成し、
それを用いて表情遷移マップの生成を行うようにしたも
のである。An expression recognition apparatus according to the present invention generates a face image in a specific direction from face images taken from a plurality of directions,
The expression transition map is generated by using this.
【0021】この発明に係る表情認識装置は、複数方向
から撮影した顔画像を入力して表情遷移マップと同じ方
向の顔画像を生成し、それを判定対象画像として表情遷
移マップの各顔画像と照合するようにしたものである。The facial expression recognition apparatus according to the present invention receives a facial image photographed from a plurality of directions, generates a facial image in the same direction as the facial expression transition map, and uses the facial image in the facial expression transition map as a judgment target image. It is intended to be collated.
【0022】この発明に係る投薬制御システムは、患者
の表情の度合いを上記各表情認識装置のいずれかを用い
て判定し、その判定結果に基づいて患者への投薬の効果
の評価を行うようにしたものである。A medication control system according to the present invention determines the degree of facial expression of a patient by using any of the facial expression recognition devices, and evaluates the effect of medication to the patient based on the determination result. It was done.
【0023】この発明に係る覚醒レベル評価システム
は、作業中の人物の眠気表情の度合いを上記各表情認識
装置のいずれかを用いて判定し、その判定結果に基づい
て覚醒レベルの評価を行うようにしたものである。A wakefulness level evaluation system according to the present invention determines the degree of sleepiness of a working person using any one of the above facial expression recognition devices, and evaluates the wakefulness level based on the determination result. It was made.
【0024】この発明に係る回復評価システムは、患者
の表情の度合いを上記各表情認識装置のいずれかを用い
て判定し、その判定結果に基づいて患者の健康回復状態
やリハビリテーション効果の評価を行うようにしたもの
である。The recovery evaluation system according to the present invention determines the degree of facial expression of a patient by using any of the facial expression recognition devices described above, and evaluates the health recovery state and rehabilitation effect of the patient based on the determination result. It is like that.
【0025】[0025]
【発明の実施の形態】以下、この発明の実施の一形態を
説明する。 実施の形態1.図1はこの発明の実施の形態1による表
情認識装置の構成を示すブロック図であり、図2は当該
表情認識装置における所定の表情についての度合いの認
識を説明するための概念図である。これら両図におい
て、11は所定の感情あるいは人間の状態に伴って変化
する表情を対象として、この表情の度合いを複数段階に
分類した表情遷移マップであり、その内容は図2に示す
ように、表情の度合いが段階的に変化する複数の顔画像
からなる。12はこの表情遷移マップ11をあらかじめ
生成しておくための表情遷移マップ生成手段である。1
3は表情の度合いが判定される対象人物である。14は
この対象人物13の顔画像を入力するための顔画像入力
手段であり、図2の例ではこの顔画像入力手段14とし
てカメラが用いられている。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below. Embodiment 1 FIG. FIG. 1 is a block diagram showing a configuration of an expression recognition device according to Embodiment 1 of the present invention, and FIG. 2 is a conceptual diagram for explaining recognition of a degree of a predetermined expression in the expression recognition device. In both of these figures, reference numeral 11 denotes a facial expression transition map in which the degree of the facial expression is classified into a plurality of stages with respect to a facial expression that changes in accordance with a predetermined emotion or a human state. As shown in FIG. It is composed of a plurality of face images whose degree of expression changes stepwise. Reference numeral 12 denotes an expression transition map generating means for generating the expression transition map 11 in advance. 1
Reference numeral 3 denotes a target person whose expression degree is to be determined. Reference numeral 14 denotes a face image input unit for inputting a face image of the target person 13. In the example of FIG. 2, a camera is used as the face image input unit 14.
【0026】15は顔画像入力手段14によって当該表
情認識装置内に取り込まれた対象人物13の実写顔画像
である。16はこの実写顔画像15と、あらかじめ生成
された前記表情遷移マップ11の各段階の顔画像との照
合を行う照合手段である。17はこの照合手段16によ
る照合結果から、最も類似している顔画像を選択してそ
の段階(状態識別番号i)を出力することにより、所定
の表情の度合いの判定を行う表情判定手段である。18
はこれら表情遷移マップ生成手段12、照合手段16お
よび表情判定手段17の機能を実現するとともに、上記
表情遷移マップ生成手段12であらかじめ生成された表
情遷移マップ11をそのメモリ内に保持している計算機
である。Reference numeral 15 denotes a photographed face image of the target person 13 captured by the face image input means 14 into the facial expression recognition device. Reference numeral 16 denotes matching means for checking the actual photographed face image 15 with the face image of each stage of the expression transition map 11 generated in advance. Reference numeral 17 denotes a facial expression judging unit that selects the most similar face image from the collation result by the collating unit 16 and outputs the stage (state identification number i) to determine the degree of the predetermined facial expression. . 18
Implements the functions of the facial expression transition map generating means 12, the matching means 16 and the facial expression determining means 17, and stores the facial expression transition map 11 previously generated by the facial expression transition map generating means 12 in its memory. It is.
【0027】次に動作について説明する。まず対象人物
13の表情をカメラによる顔画像入力手段14にて撮影
する。撮影された対象人物13の表情の実写顔画像15
は計算機18に入力される。計算機18では照合手段1
6において、この入力された実写顔画像15と、表情の
度合いを数段階に分類した表情遷移マップ11との類似
度を計算して両者の照合を行う。次に、表情判定手段1
7において、この照合手段16の照合結果をもとに、表
情遷移マップ11中の最も類似した顔画像を選択し、そ
の度合いの表情を実写顔画像の表情の度合いと判定する
ことにより、対象人物13の表情の度合いを把握する。Next, the operation will be described. First, the facial expression of the target person 13 is photographed by the face image input means 14 using a camera. The photographed face image 15 of the facial expression of the target person 13
Is input to the computer 18. In the computer 18, the matching means 1
In step 6, the similarity between the input real photographed face image 15 and the facial expression transition map 11 in which the degree of facial expression is classified into several stages is calculated, and the two are compared. Next, facial expression determining means 1
7, the most similar face image in the facial expression transition map 11 is selected based on the result of the comparison by the comparing means 16, and the facial expression of that degree is determined as the facial expression level of the photographed face image. The degree of 13 facial expressions is grasped.
【0028】なお、上記照合手段16において計算され
る、実写顔画像15と表情遷移マップ11との類似度と
しては、実写顔画像15の各画素の画素値あるいは複数
画素における平均画素値を1要素とするベクトルと、表
情遷移マップ11の各度合いを示す平均顔画像の各画素
の画素値あるいは複数画素における平均画素値を1要素
とするベクトルのノルムを用いて、最小のノルムを呈す
る表情遷移マップ11の状態を実写顔画像15の呈する
度合いと判定する。これを数式で表すと次式となる。The similarity calculated by the matching means 16 between the real face image 15 and the expression transition map 11 is calculated by calculating the pixel value of each pixel of the real face image 15 or the average pixel value of a plurality of pixels by one element. Expression transition map exhibiting a minimum norm using a vector having the following expression and a norm of a vector having the pixel value of each pixel of the average face image indicating each degree of the expression transition map 11 or the average pixel value of a plurality of pixels as one element. It is determined that the state of 11 is the degree to which the photographed face image 15 presents. This is represented by the following equation.
【0029】[0029]
【数1】 (Equation 1)
【0030】ここで、表情遷移マップ生成手段12によ
る表情遷移マップ11の作成方法としては、例えば次の
ようなものがある。図3はその表情遷移マップ11の生
成の一例を示す概念図である。図3に示すように、複数
の人物について、同じ度合いの表情を有するそれぞれの
顔画像21を入力してその平均化処理22を行う。この
平均化処理22によって生成された平均顔23を表情遷
移マップ11の1つの状態として記述する。このような
平均化処理22を行うことにより、同じ度合いを有する
表情の特徴のみを強調し、その他の差異を相殺すること
が可能となる。各段階の表情ごとにこの平均化処理22
を行って、得られた各段階の平均顔23による表情遷移
マップ11を生成する。Here, as a method of creating the expression transition map 11 by the expression transition map generating means 12, there is, for example, the following method. FIG. 3 is a conceptual diagram showing an example of generation of the expression transition map 11. As shown in FIG. 3, face images 21 having the same degree of facial expression are input for a plurality of persons, and an averaging process 22 is performed. The average face 23 generated by the averaging process 22 is described as one state of the expression transition map 11. By performing such an averaging process 22, it is possible to emphasize only features of facial expressions having the same degree and cancel other differences. This averaging process 22 is performed for each expression of each stage.
To generate the expression transition map 11 based on the obtained average face 23 at each stage.
【0031】なお、上記説明では、複数の人物の顔画像
を各段階の表情ごとに平均化した平均顔により、表情遷
移マップ11を生成するものを示したが、特定の個人の
顔画像を各段階の表情ごとに複数入力し、その平均化処
理によって平均顔を求め、得られた各段階の平均顔によ
る表情遷移マップ11を生成してもよい。In the above description, the facial expression transition map 11 is generated using an average face obtained by averaging the facial images of a plurality of persons for each facial expression. A plurality of facial expressions may be input for each facial expression at each stage, an average face may be obtained by the averaging process, and the obtained facial expression transition map 11 at each stage may be generated.
【0032】また、表情遷移マップ生成手段12が表情
遷移マップ11を生成する際の、上記平均顔を生成する
ときの表情の判定は、対象人物13本人の感情の程度に
ついて主観的に評定した値、第3者が顔画像を観察して
評定した値、対象としている感情や人物の状態に伴って
変化する生理指標値のいずれか1つ、または複数を用い
て行われている。これにより、表情の度合いを、人間の
感覚に合致させて分類したり、客観的に分類することが
可能となる。なお、上記主観的な評定値、第3者の評定
値、生理指標値などの複数の評定値を用い、それら複数
の評定値の一致度が高い顔画像のみを選択して、それを
用いた表情遷移マップを生成するようにしてもよく、こ
れによって、所定の表情の度合いの特徴をより正確に捉
えることが可能となる。When the facial expression transition map generating means 12 generates the facial expression transition map 11, the determination of the facial expression at the time of generating the average face is based on a value subjectively evaluated as to the degree of emotion of the target person 13 himself. This is performed using one or more of a value evaluated by observing a face image by a third party, a physiological index value that changes according to a target emotion or a state of a person. As a result, it is possible to classify the degree of facial expression in accordance with human senses or to classify objectively. Note that a plurality of rating values such as the subjective rating value, the rating value of a third party, and a physiological index value were used, and only a face image having a high degree of matching between the plurality of rating values was selected and used. A facial expression transition map may be generated, which makes it possible to more accurately capture characteristics of a predetermined facial expression degree.
【0033】また、顔画像入力手段14に複数方向から
顔画像を撮影する手段をもたせておき、実写顔画像15
と表情遷移マップ11を照合する際に、この顔画像入力
手段14より入力された複数方向の顔画像から、表情遷
移マップ11と同じ方向の顔画像を生成してそれを判定
対象画像とし、この判定対象画像と表情遷移マップ11
の各顔画像とを照合手段16で照合するようにしてもよ
い。これにより、実写顔画像15と表情遷移マップ11
との照合を単純化することができる。Further, the face image input means 14 is provided with means for photographing a face image from a plurality of directions.
When comparing the facial expression transition map 11 with the facial expression transition map 11, a facial image in the same direction as the facial expression transition map 11 is generated from the facial images in a plurality of directions input from the facial image input means 14, and this is used as a determination target image. Determination target image and facial expression transition map 11
May be collated by the collation unit 16 with each of the face images. Thereby, the photographed face image 15 and the expression transition map 11
Can be simplified.
【0034】実施の形態2.次に、この発明の実施の形
態2について説明する。図4はこの発明の実施の形態2
による表情認識装置における、表情遷移マップの生成の
一例を示す概念図である。図において、31は所定の表
情の異なる度合いをもつ複数の顔画像の1つとしての最
大度合いを表す顔画像であり、32は所定の表情の異な
る度合いをもつ複数の顔画像の他の1つとしての最小度
合いを表す顔画像である。33はこの最大度合いを表す
顔画像31と最小度合いを表す顔画像32より、中間状
態を得るための補間処理であり、34はこの補間処理に
よって生成されたより多くの段階に対応する顔画像とし
ての中間度合いを表す顔画像である。Embodiment 2 Next, a second embodiment of the present invention will be described. FIG. 4 shows Embodiment 2 of the present invention.
FIG. 6 is a conceptual diagram showing an example of generation of a facial expression transition map in a facial expression recognition device according to the present invention. In the figure, 31 is a face image representing the maximum degree as one of a plurality of face images having different degrees of predetermined facial expressions, and 32 is another one of a plurality of face images having different degrees of predetermined facial expressions. Is a face image that represents the minimum degree as. Reference numeral 33 denotes an interpolation process for obtaining an intermediate state from the face image 31 representing the maximum degree and the face image 32 representing the minimum degree. Reference numeral 34 denotes a face image corresponding to more stages generated by the interpolation process. It is a face image representing an intermediate degree.
【0035】次に動作について説明する。カメラなどの
顔画像入力手段14によって、所定の表情の最大度合い
を表す顔画像31と最小度合いを表す顔画像32を撮影
して表情遷移マップ生成手段12に入力する。表情遷移
マップ生成手段12では表情遷移マップ11の各状態を
生成する際に、入力された最大度合いを表す顔画像31
と最小度合いを表す顔画像32について補間処理33を
実行することによって、当該表情の中間度合いを表す顔
画像34を生成する。これにより、中間状態の生成を効
率よく行うことが可能となる。Next, the operation will be described. The face image input means 14 such as a camera captures a face image 31 representing the maximum degree of the predetermined facial expression and a face image 32 representing the minimum degree, and inputs them to the facial expression transition map generating means 12. When generating each state of the facial expression transition map 11, the facial expression transition map generating means 12 outputs a face image 31 representing the maximum degree input.
By performing the interpolation process 33 on the face image 32 representing the minimum degree, the face image 34 representing the intermediate degree of the expression is generated. This makes it possible to efficiently generate the intermediate state.
【0036】なお、上記説明においては、所定の表情の
異なる度合いをもつ複数の顔画像として、最大度合いを
表す顔画像31と最小度合いを表す顔画像32を入力す
るものとしたが、表情の度合いが最大、あるいは最小を
表す顔画像以外の顔画像を複数、異なる度合いをもつ複
数の顔画像として入力し、それらの間で補間処理、ある
いは外挿処理を実行すれば、それら各顔画像の中間度合
いを表す顔画像や、最大度合いを表す顔画像、最小度合
いを表す顔画像を生成することができ、表情遷移マップ
11を正確に生成することが可能となる。In the above description, the face image 31 representing the maximum degree and the face image 32 representing the minimum degree are input as a plurality of face images having different degrees of predetermined facial expressions. If a plurality of face images other than the face image representing the maximum or minimum are input as a plurality of face images having different degrees, and an interpolation process or an extrapolation process is performed between them, an intermediate A face image representing the degree, a face image representing the maximum degree, and a face image representing the minimum degree can be generated, and the expression transition map 11 can be accurately generated.
【0037】このように、この実施の形態2によれば、
表情遷移マップ11の各度合いの状態について、複数の
異なる表情の度合いの状態から補間、あるいは外挿処理
によって中間状態を得ているので、表情遷移マップ11
における中間の度合いの状態を、同じ度合いを呈する複
数の人物、あるいは特定の個人の顔画像から直接求める
必要がなくなる。As described above, according to the second embodiment,
Since the intermediate state is obtained by interpolation or extrapolation processing from the states of different degrees of the facial expressions for the states of each degree of the facial expression transition map 11, the facial expression transition map 11
It is no longer necessary to directly obtain the state of the intermediate degree from the face images of a plurality of persons exhibiting the same degree or a specific individual.
【0038】実施の形態3.次に、この発明の実施の形
態3について説明する。図5はこの発明の実施の形態3
による表情認識装置における、顔画像の方向正規化を説
明するための概念図である。図において、41は複数の
方向から撮影された顔画像としての方向の異なる顔画像
であり、42は方向正規化によってこれら方向の異なる
顔画像41より得られた特定方向の顔画像である。Embodiment 3 Next, a third embodiment of the present invention will be described. FIG. 5 shows Embodiment 3 of the present invention.
FIG. 3 is a conceptual diagram for explaining direction normalization of a face image in the facial expression recognition device according to the first embodiment. In the figure, reference numeral 41 denotes a face image in a different direction as a face image photographed from a plurality of directions, and reference numeral 42 denotes a face image in a specific direction obtained from the face image 41 in a different direction by direction normalization.
【0039】次に動作について説明する。表情遷移マッ
プ生成手段12によって表情遷移マップ11の各状態を
生成する際に、顔画像入力手段14より複数の方向から
撮影された方向の異なる顔画像41を入力し、それらに
対して補間処理、あるいは外挿処理を実施して方向正規
化を行い、特定方向の顔画像42を得る。この特定方向
の顔画像42を用いて表情遷移マップ11を生成する。
これにより、表情遷移マップ11を記述する際の入力顔
画像の方向を一致させることが可能となる。Next, the operation will be described. When each state of the facial expression transition map 11 is generated by the facial expression transition map generating means 12, face images 41 having different directions photographed from a plurality of directions are input from the facial image input means 14, and interpolation processing is performed on them. Alternatively, direction normalization is performed by performing extrapolation processing to obtain a face image 42 in a specific direction. The expression transition map 11 is generated using the face image 42 in the specific direction.
This makes it possible to match the direction of the input face image when describing the expression transition map 11.
【0040】実施の形態4.次に、この発明の実施の形
態4について説明する。図6はこの発明の実施の形態4
による表情認識装置における、実写顔画像と表情遷移マ
ップとの照合を説明するための概念図である。図におい
て、51は時系列で撮影された時系列実写顔画像であ
り、52は表情遷移マップ11を記述する時系列顔画像
データである。なお、この実施の形態4の表情認識装置
は、表情遷移マップ11が時系列顔画像データ52で記
述され、表情遷移マップ11と顔画像入力手段14から
の顔画像との照合・判定を、時系列のデータで行ってい
る点で、上記各実施の形態とは異なっている。Embodiment 4 FIG. Next, a fourth embodiment of the present invention will be described. FIG. 6 shows Embodiment 4 of the present invention.
FIG. 4 is a conceptual diagram for explaining a comparison between a real face image and a facial expression transition map in a facial expression recognition device according to the present invention. In the figure, reference numeral 51 denotes a time-series actual photographed face image photographed in a time-series, and 52 denotes time-series face image data describing the expression transition map 11. In the facial expression recognition apparatus of the fourth embodiment, the facial expression transition map 11 is described in the time-series face image data 52, and the facial expression transition map 11 is compared and determined with the facial image from the facial image input means 14 at the time. It differs from the above embodiments in that it is performed with series data.
【0041】次に動作について説明する。顔画像入力手
段14にて時系列で撮影されて入力された時系列実写顔
画像51と、時系列顔画像データ52を用いて記述され
た表情遷移マップ11とを、照合手段16において照合
する。この照合手段16の照合結果に基づいて、表情遷
移マップ11中の最も類似した時系列顔画像データ52
を、表情判定手段17にて選択し、対象人物13の当該
表情の度合いを把握する。このように、時系列顔画像デ
ータ52を組み入れて表情遷移マップ11を生成するこ
とにより、表情の度合いのような微妙な差異を時間的変
化によって表現することができ、表情の度合いの曖昧性
を軽減し、正確な表情の度合いの状態を記述することが
可能となる。また、時系列のデータを用いて実写顔画像
と表情遷移マップを照合し、最も類似した度合いの表情
を実写顔画像の表情の度合いと判定しているので、対象
人物13の表情の度合いをより正確に認識することが可
能となる。Next, the operation will be described. The matching unit 16 compares the time-series actual photographed face image 51 captured and input in time series by the face image input unit 14 and the expression transition map 11 described using the time-series face image data 52. The most similar time-series face image data 52 in the facial expression transition map 11 is
Is selected by the facial expression judging means 17 and the degree of the facial expression of the target person 13 is grasped. As described above, by generating the expression transition map 11 by incorporating the time-series face image data 52, a subtle difference such as the degree of the expression can be expressed by a temporal change, and the ambiguity of the degree of the expression can be reduced. It is possible to reduce and express the state of the degree of the accurate expression. In addition, since the real face image and the facial expression transition map are compared using the time-series data, and the facial expression having the most similar degree is determined as the facial expression degree of the real facial face image, the facial expression degree of the target person 13 can be more improved. It becomes possible to recognize accurately.
【0042】なお、表情遷移マップ生成手段12による
表情遷移マップ11の作成方法としては、例えば上記実
施の形態1で説明した作成方法を時間方向に沿って用い
ることによって実現可能である。すなわち、所定の表情
の度合い別の時系列顔画像から各瞬間に対応する顔画像
を平均化処理することにより、時系列平均顔のデータを
生成する。その際、必要に応じた時間軸方向の規格化を
行う。この表情の度合い別に時系列で求めた平均顔の集
合を生成し、それを表情遷移マップ11の1状態の時系
列顔画像データ52として記述する。このような平均化
処理を行うことで、同じ度合いを有する表情の特徴のみ
を強調し、その他の差異を相殺することができ、時系列
変化を含めた表情遷移マップ11を生成することが可能
となる。The method for generating the expression transition map 11 by the expression transition map generating means 12 can be realized by using, for example, the method described in the first embodiment along the time direction. That is, data of a time-series average face is generated by averaging face images corresponding to each moment from a time-series face image for each predetermined expression level. At this time, normalization in the time axis direction is performed as necessary. A set of average faces obtained in time series for each degree of facial expression is generated and described as time-series face image data 52 of one state of the facial expression transition map 11. By performing such an averaging process, it is possible to emphasize only the features of facial expressions having the same degree, cancel out other differences, and generate the facial expression transition map 11 including time-series changes. Become.
【0043】また、上記平均顔を生成する際の表情の判
定方法としては、実施の形態1にて説明した場合と同様
に、各顔画像を本人が主観評定した結果、第3者が評定
した結果、あるいは表情変化を示す生理指標値を利用し
て判定すればよい。As for the method of determining the facial expression when generating the average face, as in the case described in the first embodiment, each face image is subjectively evaluated by the person, and as a result, the facial image is evaluated by a third party. The determination may be made using a result or a physiological index value indicating a change in facial expression.
【0044】さらに、時系列実写顔画像51と表情遷移
マップ11を照合する際にも、上記実施の形態1におい
て説明した手法により、時系列実写顔画像51の方向を
表情遷移マップ11の各状態における時系列顔画像デー
タ52の方向とを一致させる。これにより、時系列実写
顔画像51と表情遷移マップ11との照合を単純化する
ことが可能となる。Further, when comparing the time-series real-shot face image 51 with the expression transition map 11, the direction of the time-series real-shot face image 51 is changed to each state of the expression transition map 11 by the method described in the first embodiment. And the direction of the time-series face image data 52 at the same time. Thereby, it is possible to simplify the comparison between the time-series actual photographed face image 51 and the expression transition map 11.
【0045】なお、その照合には、例えば音声における
時系列パターンの認識手法の一つである、隠れマルコフ
モデルの学習・識別機能を用いることができる。表情遷
移マップ11の各状態(所定の表情の度合い)を、それ
ら各状態を表す教師データとなる複数人あるいは自身の
時系列顔画像をあらかじめ作成し、その教師データをも
とに時系列特徴を学習する。時系列実写顔画像51と表
情遷移マップ11との照合は、学習した各状態を記述す
る時系列特徴との尤度を求め、それが最大値となる状態
をその時系列実写顔画像52が示す表情の度合いとす
る。このような尤度を用いた判定処理により、時系列実
写顔画像51の状態を適切に取得することが可能にな
る。For the matching, for example, a learning / identification function of a hidden Markov model, which is one of the techniques for recognizing a time-series pattern in speech, can be used. Each state of the expression transition map 11 (predetermined degree of expression) is prepared in advance by a plurality of persons or their own time-series face images serving as teacher data representing the respective states, and time-series features are determined based on the teacher data. learn. The comparison between the time-series real-shot face image 51 and the facial expression transition map 11 finds the likelihood between the time-series feature describing each of the learned states and the facial expression indicated by the time-series real-shot face image 52 indicating the state in which the maximum value is obtained. And the degree of By the determination processing using such a likelihood, it is possible to appropriately acquire the state of the time-series actual photographed face image 51.
【0046】実施の形態5.次に、この発明の実施の形
態5について説明する。この実施の形態5は、上記実施
の形態1から実施の形態4に示した表情認識装置を用い
で構成した投薬制御システムに関するものであり、その
概略構成を図7に示す。図において、61は投薬を受け
ている患者であり、62はこの患者61の表情を撮影す
るカメラ等による顔画像入力手段である。63はこの顔
画像入力手段62より入力された患者61の表情につい
て、その度合いを評価し、評価結果に基づいて投薬の内
容や投薬量の制御を行う、計算機等による表情認識装置
本体である。Embodiment 5 FIG. Next, a fifth embodiment of the present invention will be described. The fifth embodiment relates to a medication control system configured using the facial expression recognition device shown in the first to fourth embodiments, and the schematic configuration is shown in FIG. In the figure, reference numeral 61 denotes a patient receiving medication, and 62 denotes a face image input means such as a camera for photographing the expression of the patient 61. Reference numeral 63 denotes a computer-based expression recognition apparatus main body that evaluates the degree of the facial expression of the patient 61 input from the face image input unit 62 and controls the content and dosage of medication based on the evaluation result.
【0047】次に動作について説明する。投薬を受けて
いる患者61の表情を顔画像入力手段62で撮影し、そ
の実写顔画像を逐次表情認識装置本体63に入力する。
表情認識装置本体63はこの顔画像入力手段62より入
力された患者61の表情について、苦痛や眠たさ等のそ
の表情の度合いを逐次評価し、その評価結果にあわせて
投薬の内容や投薬量を制御する。これにより、投薬にお
ける患者への影響を把握することが可能となり、また、
投薬の内容や投薬量に対してフィードバックをかけるこ
とにより、適切な投薬を行うことが可能となる。Next, the operation will be described. The facial expression of the patient 61 who is taking the medicine is photographed by the face image input means 62, and the actual photographed facial image is sequentially input to the facial expression recognition device main body 63.
The facial expression recognition device main body 63 sequentially evaluates the degree of the facial expression such as pain and sleepiness with respect to the facial expression of the patient 61 input from the facial image input means 62, and determines the content and dosage of the medication according to the evaluation result. Control. This makes it possible to understand the effect of the medication on the patient,
Appropriate medication can be performed by giving feedback on the content and dosage of medication.
【0048】実施の形態6.次に、この発明の実施の形
態6について説明する。この実施の形態6は、上記実施
の形態1から実施の形態4に示した表情認識装置を用い
て構成した覚醒レベル評価システムに関するものであ
り、その概略構成を図8に示す。図において、71は所
定の作業を行っている作業者であり、ここでは車両の運
転者を対象としている。72はこの作業者71の表情を
撮影するカメラ等による顔画像入力手段である。73は
この顔画像入力手段72より入力された作業者71の表
情について、その度合いを評価し、評価結果に基づい
て、作業者71の覚醒レベルの評価を行う、計算機等に
よる表情認識装置本体である。Embodiment 6 FIG. Next, a sixth embodiment of the present invention will be described. The sixth embodiment relates to an arousal level evaluation system configured using the facial expression recognition device described in the first to fourth embodiments, and a schematic configuration thereof is shown in FIG. In the figure, reference numeral 71 denotes a worker who is performing a predetermined operation, and is intended for a driver of a vehicle. Reference numeral 72 denotes face image input means such as a camera for photographing the expression of the worker 71. Reference numeral 73 denotes a computer-based facial expression recognition device that evaluates the degree of the facial expression of the worker 71 input from the face image input means 72 and evaluates the awakening level of the worker 71 based on the evaluation result. is there.
【0049】次に動作について説明する。車両を運転中
の作業者71の表情を顔画像入力手段72で撮影し、そ
の実写顔画像を逐次表情認識装置本体73に入力する。
表情認識装置本体73はこの顔画像入力手段72より入
力された作業者71の表情について、その眠たさの表情
の度合いを逐次判定し、その判定結果に基づいて作業者
71の覚醒レベルを評価する。逐次表情認識装置本体7
3はその評価結果にあわせて、音楽を鳴らすなどの作業
者71に刺激を与えるようなフィードバックをかけるこ
とにより、作業者71の覚醒度を高める。これにより、
事故を未然に防止することが可能となる。なお、上記説
明では、作業者71として車両の運転者を対象とした場
合について述べたが、この発明はこれにのみ限定される
ものではなく、他の作業の作業者の覚醒レベルの評価に
も適用可能であることはいうまでもない。Next, the operation will be described. The facial expression of the worker 71 driving the vehicle is photographed by the face image input means 72, and the photographed facial image is sequentially input to the facial expression recognition device main body 73.
The facial expression recognition device main body 73 sequentially determines the degree of sleepiness of the facial expression of the worker 71 input from the face image input means 72, and evaluates the awakening level of the worker 71 based on the determination result. . Sequential facial expression recognition device body 7
3 increases the awakening degree of the worker 71 by giving feedback such as playing music to stimulate the worker 71 in accordance with the evaluation result. This allows
Accidents can be prevented beforehand. In the above description, a case has been described in which the driver of the vehicle is targeted as the worker 71. However, the present invention is not limited to this case. It goes without saying that it is applicable.
【0050】実施の形態7.次に、この発明の実施の形
態7について説明する。この実施の形態7は、上記実施
の形態1から実施の形態4に示した表情認識装置を用い
で構成した回復評価システムに関するものであり、その
概略構成を図9に示す。図において、81はその回復度
が評価される患者であり、82はこの患者81の表情を
撮影するカメラ等による顔画像入力手段である。83は
この顔画像入力手段82より入力された患者81の表情
について、その活き活き度の度合いを評価し、評価結果
に基づいて患者の回復状態やリハビリテーションの効果
を評価する、計算機等による表情認識装置本体である。Embodiment 7 FIG. Next, a seventh embodiment of the present invention will be described. The seventh embodiment relates to a recovery evaluation system constituted by using the facial expression recognition device shown in the first to fourth embodiments, and its schematic configuration is shown in FIG. In the figure, reference numeral 81 denotes a patient whose degree of recovery is evaluated, and reference numeral 82 denotes face image input means such as a camera for photographing the facial expression of the patient 81. Reference numeral 83 denotes a facial expression recognition device using a computer or the like, which evaluates the degree of liveliness of the facial expression of the patient 81 input from the face image input means 82 and evaluates the recovery state of the patient and the effect of rehabilitation based on the evaluation result. The main body.
【0051】次に動作について説明する。健康回復状態
やリハビリテーションなどの治療の経過の効果の評価が
行われる患者81の表情を顔画像入力手段82で撮影
し、その実写顔画像を逐次、表情認識装置本体83に入
力する。表情認識装置本体83は、この顔画像入力手段
82より入力された患者81の表情について、その表情
の活き活き度の度合いを逐次評価し、その評価結果に基
づいて患者の治療の経過を把握する。これにより、診察
時の口頭での経過報告の補助手段、および多数の患者の
治療時における治療状況を把握する手段として役立つ。Next, the operation will be described. The facial expression of the patient 81 for which the effect of the course of treatment such as health recovery or rehabilitation is evaluated is photographed by the facial image input means 82, and the real facial images are sequentially input to the facial expression recognition device main unit 83. The facial expression recognition device main body 83 sequentially evaluates the degree of vitality of the facial expression of the patient 81 input from the face image input means 82, and grasps the progress of the treatment of the patient based on the evaluation result. This is useful as a means for assisting a verbal progress report at the time of medical examination and as a means for grasping the treatment status when treating a large number of patients.
【0052】なお、上記活き活き度の評価に用いる表情
遷移マップは、例えば次のようにして生成される。ここ
で、図10はその作成手法の一例を示す概念図であり、
図において、91,92,93,94は治療の各時期に
おける患者の顔画像である。複数の患者についてそれぞ
れ、治療開始時(A)における患者の顔画像91、治療
効果の診断時において重要な時期(B)における患者の
顔画像92、治療効果の診断時において重要な時期
(C)における患者の顔画像93、治癒時(D)におけ
る患者の顔画像94を、顔画像入力手段82によって時
系列で順次撮影し、それらを各時期ごとに平均化するこ
とによって表情遷移マップを生成する。顔画像入力手段
82より入力された患者81の表情の活き活き度の度合
いは、この表情遷移マップとの照合によって判定され
る。The expression transition map used for the evaluation of the liveliness is generated, for example, as follows. Here, FIG. 10 is a conceptual diagram showing an example of the creation method.
In the figure, reference numerals 91, 92, 93, and 94 denote face images of the patient at each stage of the treatment. For each of a plurality of patients, the patient's face image 91 at the start of treatment (A), the patient's face image 92 at an important time when diagnosing the therapeutic effect (B), and the important time at the time of diagnosing the therapeutic effect (C) , And the facial image 94 of the patient at the time of healing (D) are sequentially photographed in chronological order by the facial image input means 82, and are averaged for each period to generate an expression transition map. . The degree of vitality of the facial expression of the patient 81 input from the face image input means 82 is determined by comparison with the facial expression transition map.
【0053】[0053]
【発明の効果】以上のように、この発明によれば、特定
の感情あるいは人間の状態に伴って変化する表情を対象
とし、この表情が段階的に変化する複数の顔画像からな
る表情遷移マップを生成する表情遷移マップ生成手段
と、表情の度合い判定の対象となる顔画像を入力する顔
画像入力手段と、入力された実写顔画像とあらかじめ生
成された表情遷移マップの各段階の顔画像とを照合する
照合手段と、その照合結果から最も類似している顔画像
を選び、所定の表情の度合いを判定する表情判定手段と
を備えるように構成したので、対象人物の所定の表情の
度合いを計測し、認識することが可能な表情認識装置が
得られる効果がある。As described above, according to the present invention, a facial expression transition map composed of a plurality of face images whose facial expressions change stepwise with a specific emotion or a human state which changes according to the state of a human being. Facial expression transition map generating means for generating, a facial image inputting means for inputting a facial image for which the degree of facial expression determination is to be performed, and a face image of each stage of the input photographed facial image and a facial expression transition map generated in advance. And a facial expression judging means for selecting the most similar face image from the collation result and judging the degree of the predetermined facial expression, so that the degree of the predetermined facial expression of the target person is determined. There is an effect that a facial expression recognition device capable of measuring and recognizing is obtained.
【0054】この発明によれば、表情遷移マップの各段
階における顔画像として、表情の時系列顔画像データを
用い、時系列実写顔画像との照合を行うように構成した
ので、対象人物の所定の表情の度合いを、時系列変化を
考慮して正確に計測し、認識することが可能になるとい
う効果がある。According to the present invention, as the face image at each stage of the expression transition map, the time-series face image data of the expression is used, and the comparison with the time-series real face image is performed. There is an effect that the degree of facial expression can be accurately measured and recognized in consideration of the time-series change.
【0055】この発明によれば、複数の人物の顔画像を
各段階の表情ごとに平均化した平均顔により、表情遷移
マップを生成するように構成したので、所定の表情の度
合いと異なる表情の影響を相殺し、多くの人間に存在す
るその度合いの特徴のみを強調することが可能になると
いう効果がある。According to the present invention, since the facial expression transition map is generated by the average face obtained by averaging the facial images of a plurality of persons for each facial expression at each stage, the facial expression having a different degree of facial expression from the predetermined facial expression level is obtained. This has the effect of canceling out the effects and emphasizing only those features that exist in many human beings.
【0056】この発明によれば、特定の個人の顔画像を
各段階の表情ごとに平均化した平均顔により、表情遷移
マップを生成するように構成したので、特定の個人の所
定の表情の度合いと異なる表情の影響を相殺し、その度
合いの特徴のみを強調することが可能になるという効果
がある。According to the present invention, since the facial expression transition map is generated by the average face obtained by averaging the facial image of the specific individual for each facial expression, the degree of the specific facial expression of the specific individual This has the effect of canceling out the effects of different facial expressions and emphasizing only the features of that degree.
【0057】この発明によれば、撮影した顔画像を用い
て生成した異なる複数の表情の度合いをもつ顔画像か
ら、画像の補間処理 あるいは外挿処理により、さらに
多くの段階に対応する顔画像を生成することにより、表
情遷移マップを生成するように構成したので、表情遷移
マップにおける中間の度合いの状態を、同じ度合いを呈
する複数の人物の顔画像から直接求める必要をなくすこ
とが可能になるという効果がある。According to the present invention, a face image corresponding to a greater number of stages is obtained from a face image having a plurality of different facial expressions generated by using a photographed face image by image interpolation processing or extrapolation processing. By generating the facial expression transition map, it is possible to eliminate the need to directly obtain the state of the intermediate degree in the facial expression transition map from the face images of a plurality of persons presenting the same degree. effective.
【0058】この発明によれば、表情遷移マップの生成
に用いる顔画像の表情の度合いの判定方法として、被写
体本人の感情の程度についての主観評定値、第3者が顔
画像を観察して評定した値、対象としている感情や人間
の状態に伴って変化する生理指標値のいずれか、または
複数を用いるように構成したので、表情の度合いの判定
を、人間の感覚に合致した方法、あるいは生理指標値に
より客観的な方法で行うことが可能になるという効果が
ある。According to the present invention, as a method of determining the degree of facial expression of a face image used for generating a facial expression transition map, a subjective rating value of the degree of emotion of the subject himself / herself, and a third party observes and evaluates the facial image. Or a plurality of physiological index values that change according to the target emotion or human condition, so that the degree of facial expression can be determined in a method that matches the There is an effect that the index value can be used in an objective manner.
【0059】この発明によれば、表情遷移マップの生成
に用いる顔画像の表情の度合いの判定方法として、被写
体本人の感情の程度についての主観評定値、第3者が顔
画像を観察して評定した値、対象としている感情や人間
の状態に伴って変化する生理指標値などの複数の評定値
を用い、それら複数の評定値の一致度が高い顔画像を選
択し、それを用いて表情遷移マップを生成するように構
成したので、表情の度合いの分類を、人間の感覚に合致
した方法や、生理指標値により客観的な方法で行えるば
かりか、所定の表情の度合いによる特徴をより正確に捉
えることも可能になるなどの効果がある。According to the present invention, as a method of determining the degree of facial expression of a face image used to generate a facial expression transition map, a subjective rating value of the degree of emotion of the subject himself / herself, and a third party observes and evaluates the facial image. Using multiple rating values, such as the estimated values, physiological index values that change according to the target emotion and the human state, and select a face image with a high degree of matching between the multiple rating values, and use that to perform facial expression transition Since the map is configured to be generated, not only can the degree of facial expression be classified in a manner that matches human senses or in an objective way by using physiological index values, but also the characteristics of a given facial expression can be more accurately determined. There are effects such as being able to catch.
【0060】この発明によれば、複数方向から撮影した
顔画像から、特定方向の顔画像を生成したものを用い
て、表情遷移マップを生成するように構成したので、表
情遷移マップ生成用の顔画像の方向を一致させ、表情遷
移マップ生成を容易にするとともに、特徴抽出を正確に
行うことができるなどの効果がある。According to the present invention, a facial expression transition map is generated by using a facial image in a specific direction from a facial image photographed from a plurality of directions. There are effects such as matching the directions of the images, facilitating the generation of the expression transition map, and accurately extracting the features.
【0061】この発明によれば、顔画像入力手段に複数
方向から顔画像を撮影する機能をもたせ、照合手段が、
入力された複数方向の顔画像から表情遷移マップと同じ
方向の顔画像を生成した画像を判定対象画像とし、これ
と表情遷移マップの各顔画像とを照合するように構成し
たので、入力顔画像の方向性には依存せずに、照合を正
確に行うことが可能になるという効果がある。According to the present invention, the face image input means is provided with a function of photographing a face image from a plurality of directions.
Since an image in which a face image in the same direction as the facial expression transition map is generated from the input facial images in a plurality of directions is used as a determination target image, and this is compared with each facial image in the facial expression transition map, the input facial image There is an effect that the collation can be performed accurately without depending on the direction of.
【0062】この発明によれば、上記表情認識装置を用
いて、患者の表情の度合いを判定して、それにより患者
への投薬の効果を評価するように構成したので、投薬に
よる患者への影響を把握することが可能となり、薬の種
類、投薬量に対してフィードバックをかけることによ
り、適切に投薬を行うことができる投薬制御システムが
得られる効果がある。According to the present invention, the degree of facial expression of the patient is determined using the facial expression recognition device, and the effect of the medication on the patient is thereby evaluated. And it is possible to obtain a medication control system that can appropriately administer medication by giving feedback to the type and dosage of the medication.
【0063】この発明によれば、上記表情認識装置を用
いて、車両運転者などの作業者の眠気表情の度合いを判
定して、それにより作業者の覚醒レベルを評価するよう
に構成したので、作業者の覚醒の度合いを逐次把握する
ことが可能となり、それに基づいて作業者に刺激を与え
るようなフィードバックをかけることにより、作業者の
覚醒度を高めることができる覚醒レベル評価システムが
得られる効果がある。According to the present invention, the degree of drowsiness of a worker such as a vehicle driver is determined by using the above-mentioned facial expression recognition device, and thereby the awakening level of the worker is evaluated. It is possible to sequentially grasp the degree of awakening of the worker, and obtain an arousal level evaluation system that can increase the degree of awakening of the worker by giving feedback that gives a stimulus to the worker based on the degree. There is.
【0064】この発明によれば、上記表情認識装置を用
いて、患者の表情の度合いを判定して、それにより患者
の健康回復状態やリハビリテーションの効果を評価する
ように構成したので、診察時の口頭での経過報告の補助
手段、あるいは多数の患者の治療時における治療状況を
把握する手段として役立つ回復評価システムが得られる
効果がある。According to the present invention, the facial expression recognition device is used to determine the degree of facial expression of the patient, thereby evaluating the health recovery state of the patient and the effect of rehabilitation. This has the effect of providing a recovery evaluation system that is useful as a means for assisting a verbal progress report or a means for grasping the treatment status when treating a large number of patients.
【図1】 この発明の実施の形態1〜実施の形態4によ
る表情認識装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a facial expression recognition device according to Embodiments 1 to 4 of the present invention.
【図2】 実施の形態1における、所定の表情について
の度合いの認識を説明するための概念図である。FIG. 2 is a conceptual diagram illustrating recognition of a degree of a predetermined facial expression in the first embodiment.
【図3】 実施の形態1における、表情遷移マップの生
成例を示す概念図である。FIG. 3 is a conceptual diagram showing an example of generating an expression transition map according to the first embodiment.
【図4】 実施の形態2における、表情遷移マップの生
成例を示す概念図である。FIG. 4 is a conceptual diagram showing an example of generating an expression transition map according to the second embodiment.
【図5】 実施の形態3における、顔画像の方向正規化
を説明するための概念図である。FIG. 5 is a conceptual diagram for describing direction normalization of a face image according to the third embodiment.
【図6】 実施の形態4における、時系列実写顔画像と
表情遷移マップとの照合を説明するための概念図であ
る。FIG. 6 is a conceptual diagram for explaining matching between a time-series real-shot face image and an expression transition map according to the fourth embodiment.
【図7】 この発明の実施の形態5による投薬制御シス
テムを示す概略構成図である。FIG. 7 is a schematic configuration diagram showing a medication control system according to Embodiment 5 of the present invention.
【図8】 この発明の実施の形態6による運転者覚醒状
態認識システムを示す概略構成図である。FIG. 8 is a schematic configuration diagram showing a driver awakening state recognition system according to Embodiment 6 of the present invention.
【図9】 この発明の実施の形態7による回復評価シス
テムを示す概略構成図である。FIG. 9 is a schematic configuration diagram showing a recovery evaluation system according to Embodiment 7 of the present invention.
【図10】 実施の形態7における、表情遷移マップの
生成手法を示す概念図である。FIG. 10 is a conceptual diagram showing a method of generating an expression transition map according to the seventh embodiment.
【図11】 従来の表情認識装置の構成を示すブロック
図である。FIG. 11 is a block diagram showing a configuration of a conventional expression recognition device.
11 表情遷移マップ、12 表情遷移マップ生成手
段、13 対象人物、14 顔画像入力手段、15 実
写顔画像、16 照合手段、17 表情判定手段、23
平均顔、31 最大度合いの顔画像(所定の表情の異
なる度合いをもつ顔画像)、32 最小度合いの顔画像
(所定の表情の異なる度合いをもつ顔画像)、34 中
間度合いの顔画像(より多くの段階に対応する顔画
像)、41 方向の異なる顔画像(複数の方向から撮影
した顔画像)、42 特定方向の顔画像、51 時系列
実写顔画像、52 時系列顔画像データ。11 facial expression transition map, 12 facial expression transition map generating means, 13 target person, 14 face image input means, 15 real face image, 16 collating means, 17 facial expression determining means, 23
Average face, 31 maximum degree face images (face images with different degrees of predetermined expression), 32 minimum degree face images (face images with different degrees of predetermined expression), 34 intermediate degree face images (more Face images in different directions (face images taken from a plurality of directions), 42 face images in a specific direction, 51 time-series real face images, and 52 time-series face image data.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 三輪 祥太郎 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 寺下 裕美 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 (72)発明者 羽島 一夫 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 Fターム(参考) 5B057 AA07 AA19 CD11 DA12 DB02 DC33 ──────────────────────────────────────────────────続 き Continuing from the front page (72) Inventor Shotaro Miwa 2-3-2 Marunouchi, Chiyoda-ku, Tokyo Sanishi Electric Co., Ltd. (72) Inventor Hiromi Terashita 2-3-2 Marunouchi, Chiyoda-ku, Tokyo 3 Rishi Electric Co., Ltd. (72) Inventor Kazuo Hajima 2-3-2 Marunouchi, Chiyoda-ku, Tokyo F-term (reference) 5B057 AA07 AA19 CD11 DA12 DB02 DC33
Claims (12)
変化する表情を対象とし、この表情が段階的に変化する
複数の顔画像からなる表情遷移マップを生成する表情遷
移マップ生成手段と、 前記表情の度合い判定の対象となる対象人物の顔画像を
入力する顔画像入力手段と、 前記顔画像入力手段より入力された実写顔画像と、前記
表情遷移マップ生成手段にてあらかじめ生成された前記
表情遷移マップの各段階の顔画像とを照合する照合手段
と、 前記照合手段による照合の結果から最も類似している顔
画像を選び、その段階を出力することにより、所定の表
情の度合いを判定する表情判定手段とを備えた表情認識
装置。1. A facial expression transition map generating means for generating a facial expression transition map composed of a plurality of face images whose facial expressions change stepwise, the facial expression changing with a predetermined emotion or a human state, A face image input unit for inputting a face image of a target person whose degree of facial expression is to be determined, a real face image input from the face image input unit, and the facial expression previously generated by the facial expression transition map generating unit A matching unit that matches the face image at each stage of the transition map; and a face image that is the most similar is selected from the result of the matching by the matching unit, and the stage is output to determine the degree of the predetermined facial expression. A facial expression recognition device comprising: a facial expression determination unit.
情遷移マップの各段階における顔画像を、表情の時系列
顔画像データにより構成するものであり、 照合手段が、顔画像入力手段より入力された時系列実写
顔画像と、前記表情遷移マップ生成手段にてあらかじめ
生成された前記表情遷移マップの各段階の時系列顔画像
データとを照合するものであることを特徴とする請求項
1記載の表情認識装置。2. The method according to claim 1, wherein the facial image at each stage of the facial expression transition map generated by the facial expression transition map generation unit comprises facial expression time-series facial image data, and the matching unit is input from the facial image input unit. 2. The method according to claim 1, wherein the time-series real-shot face image is compared with the time-series face image data of each stage of the expression transition map generated in advance by the expression transition map generating means. Facial expression recognition device.
の顔画像を、各段階の表情ごとに平均化した平均顔を用
いて表情遷移マップを生成するものであることを特徴と
する請求項1または請求項2記載の表情認識装置。3. A facial expression transition map generating means for generating a facial expression transition map using an average face obtained by averaging facial images of a plurality of persons for each facial expression at each stage. An expression recognition device according to claim 1 or 2.
の顔画像を、各段階の表情ごとに平均化した平均顔を用
いて表情遷移マップを生成するものであることを特徴と
する請求項1または請求項2記載の表情認識装置。4. A facial expression transition map generating means for generating a facial expression transition map using an average face obtained by averaging a specific individual's facial image for each facial expression at each stage. An expression recognition device according to claim 1 or 2.
画像を用いて生成した所定の表情の異なる度合いをもつ
複数の顔画像から、画像の補間処理あるいは外挿処理に
よって、より多くの段階に対応する顔画像を生成するこ
とにより、表情遷移マップを生成するものであることを
特徴とする請求項1または請求項2記載の表情認識装
置。5. A facial expression transition map generating means comprising: a plurality of face images having different degrees of a predetermined facial expression generated by using a photographed facial image by interpolation or extrapolation of the image in more stages; 3. The facial expression recognition device according to claim 1, wherein a facial expression transition map is generated by generating a corresponding facial image.
ップの生成に用いる顔画像の表情の度合いの判定に、被
写体本人の感情の程度についての主観評定値、第3者が
顔画像を観察して行った評定値、対象としている感情や
人物の状態に伴って変化する生理指標値のいずれか1
つ、または複数を用いるものであることを特徴とする請
求項1または請求項2記載の表情認識装置。6. The facial expression transition map generating means determines the degree of facial expression of a facial image used for generating the facial expression transition map, and evaluates the subjective evaluation value of the degree of emotion of the subject, and observes the facial image by a third party. Either one of the following evaluation values, or the physiological index value that changes depending on the state of the target emotion or person
The facial expression recognition device according to claim 1 or 2, wherein one or a plurality of the facial expression recognition devices are used.
ップの生成に用いる顔画像の表情の度合いの判定に、被
写体本人の感情の程度についての主観評定値、第3者が
顔画像を観察して行った評定値、対象としている感情や
人物の状態に伴って変化する生理指標値などの複数の評
定値を用い、 複数の評定値の一致度が高い顔画像を選択し、それを用
いて表情遷移マップを生成するものであることを特徴と
する請求項6記載の表情認識装置。7. The facial expression transition map generating means determines a degree of facial expression of a facial image used for generating a facial expression transition map by a subjective rating value of a degree of emotion of a subject, and a third person observes the facial image. Using multiple rating values, such as a rating value performed by the user and a physiological index value that changes according to the state of the target emotion or person, select a face image with a high degree of matching between the rating values, and use that The facial expression recognition device according to claim 6, wherein the facial expression transition map is generated.
から撮影した顔画像より特定方向の顔画像を生成し、そ
れを用いて表情遷移マップを生成するものであることを
特徴とする請求項1または請求項2記載の表情認識装
置。8. A facial expression transition map generating means for generating a facial image in a specific direction from facial images photographed from a plurality of directions, and using the facial image to generate a facial expression transition map. An expression recognition device according to claim 1 or 2.
を撮影する機能を有し、 照合手段が、前記顔画像入力手段より入力された複数方
向の顔画像から表情遷移マップと同じ方向の顔画像を生
成した画像を判定対象画像とし、これと表情遷移マップ
の各顔画像とを照合するものであることを特徴とする請
求項1または請求項2記載の表情認識装置。9. The face image input means has a function of photographing a face image from a plurality of directions, and the collating means converts a face image in a plurality of directions input from the face image input means in the same direction as the facial expression transition map. 3. The facial expression recognition device according to claim 1, wherein an image in which the facial image is generated is used as a determination target image, and the image is compared with each facial image in the facial expression transition map.
か1項記載の表情認識装置を用いて患者の表情の度合い
の判定を行い、その判定結果に基づいて患者への投薬の
効果を評価して、薬の種類、投薬量を決定することを特
徴とする投薬制御システム。10. The degree of facial expression of a patient is determined using the facial expression recognition device according to any one of claims 1 to 9, and the effect of medication to the patient is determined based on the determination result. A dosing control system characterized by evaluating and determining the kind and dosage of a drug.
か1項記載の表情認識装置を用いて作業者の眠気表情の
度合いの判定を行い、その判定結果に基づいて作業者の
覚醒レベルを評価することを特徴とする覚醒レベル評価
システム。11. The degree of sleepiness of a worker is determined using the facial expression recognition device according to any one of claims 1 to 9, and the awakening level of the worker is determined based on the determination result. A wakefulness level evaluation system characterized by evaluating
か1項記載の表情認識装置を用いて患者の表情の度合い
の判定を行い、その判定結果に基づいて患者の健康回復
状態やリハビリテーションの効果を評価することを特徴
とする回復評価システム。12. The degree of facial expression of a patient is determined using the facial expression recognition device according to any one of claims 1 to 9, and based on the determination result, the patient's state of health recovery or rehabilitation. A recovery evaluation system characterized by evaluating the effect of a recovery.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11214316A JP2001043345A (en) | 1999-07-28 | 1999-07-28 | Facial expression recognition device, medication control system using it, arousal level evaluation system, recovery evaluation system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11214316A JP2001043345A (en) | 1999-07-28 | 1999-07-28 | Facial expression recognition device, medication control system using it, arousal level evaluation system, recovery evaluation system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2001043345A true JP2001043345A (en) | 2001-02-16 |
Family
ID=16653744
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP11214316A Withdrawn JP2001043345A (en) | 1999-07-28 | 1999-07-28 | Facial expression recognition device, medication control system using it, arousal level evaluation system, recovery evaluation system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2001043345A (en) |
Cited By (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002318649A (en) * | 2001-04-19 | 2002-10-31 | Masanobu Kujirada | System, method and program for emoticon input |
| JP2003219218A (en) * | 2002-01-23 | 2003-07-31 | Fuji Photo Film Co Ltd | Digital camera |
| JP2005013626A (en) * | 2003-06-27 | 2005-01-20 | Nissan Motor Co Ltd | Arousal detection device |
| CN1320806C (en) * | 2001-12-11 | 2007-06-06 | 皇家飞利浦电子股份有限公司 | Mood based virtual photo album |
| US7821409B2 (en) | 2007-03-26 | 2010-10-26 | Denso Corporation | Drowsiness alarm apparatus and program |
| US8045766B2 (en) | 2007-02-16 | 2011-10-25 | Denso Corporation | Device, program, and method for determining sleepiness |
| JP2012008949A (en) * | 2010-06-28 | 2012-01-12 | Nippon Telegr & Teleph Corp <Ntt> | Face expression amplification device, expression recognition device, face expression amplification method, expression recognition method and program |
| KR101170339B1 (en) | 2010-03-11 | 2012-08-01 | 에스케이플래닛 주식회사 | System and method for management of emergency situation using recognizing expression of face, and terminal and remote monitoring apparatus |
| JP2012223511A (en) * | 2011-04-22 | 2012-11-15 | Panasonic Corp | Psychosomatic state recovery promotion device and psychosomatic state recovery system using the same |
| CN101877766B (en) * | 2006-08-02 | 2013-03-13 | 索尼株式会社 | Image-capturing apparatus and method, expression evaluation apparatus |
| JP2013157030A (en) * | 2013-05-07 | 2013-08-15 | Olympus Corp | Imaging method and imaging apparatus |
| JP2013169003A (en) * | 2013-05-07 | 2013-08-29 | Olympus Corp | Facial expression database registration method, and facial expression database registration device |
| EP2779099A2 (en) | 2013-03-13 | 2014-09-17 | FUJIFILM Corporation | Layout editing device, layout editing method and program thereof |
| US8903200B2 (en) | 2011-06-28 | 2014-12-02 | Fujifilm Corporation | Image processing device, image processing method, and image processing program |
| US9110501B2 (en) | 2012-04-17 | 2015-08-18 | Samsung Electronics Co., Ltd. | Method and apparatus for detecting talking segments in a video sequence using visual cues |
| US9633044B2 (en) | 2014-04-08 | 2017-04-25 | Korea Institute Of Science And Technology | Apparatus and method for recognizing image, and method for generating morphable face images from original image |
| JP2017525536A (en) * | 2014-08-18 | 2017-09-07 | エレクトロニック、ペイン、アセスメント、テクノロジーズ、(イーピーエイティー)、プロプライエタリー、リミテッドElectronic Pain Assessment Technologies (Epat) Pty Ltd | Pain evaluation method and system |
| CN110249337A (en) * | 2017-05-01 | 2019-09-17 | 谷歌有限责任公司 | Using eye tracks camera to facial expression classification |
| CN110517339A (en) * | 2019-08-30 | 2019-11-29 | 腾讯科技(深圳)有限公司 | A kind of animating image driving method and device based on artificial intelligence |
| WO2025070303A1 (en) * | 2023-09-27 | 2025-04-03 | 日東電工株式会社 | System, storage device, and storage program |
-
1999
- 1999-07-28 JP JP11214316A patent/JP2001043345A/en not_active Withdrawn
Cited By (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002318649A (en) * | 2001-04-19 | 2002-10-31 | Masanobu Kujirada | System, method and program for emoticon input |
| CN1320806C (en) * | 2001-12-11 | 2007-06-06 | 皇家飞利浦电子股份有限公司 | Mood based virtual photo album |
| JP2003219218A (en) * | 2002-01-23 | 2003-07-31 | Fuji Photo Film Co Ltd | Digital camera |
| JP2005013626A (en) * | 2003-06-27 | 2005-01-20 | Nissan Motor Co Ltd | Arousal detection device |
| CN101877766B (en) * | 2006-08-02 | 2013-03-13 | 索尼株式会社 | Image-capturing apparatus and method, expression evaluation apparatus |
| CN101867712B (en) * | 2006-08-02 | 2013-03-13 | 索尼株式会社 | Image-capturing apparatus and method and expression evaluation apparatus |
| US8045766B2 (en) | 2007-02-16 | 2011-10-25 | Denso Corporation | Device, program, and method for determining sleepiness |
| US7821409B2 (en) | 2007-03-26 | 2010-10-26 | Denso Corporation | Drowsiness alarm apparatus and program |
| KR101170339B1 (en) | 2010-03-11 | 2012-08-01 | 에스케이플래닛 주식회사 | System and method for management of emergency situation using recognizing expression of face, and terminal and remote monitoring apparatus |
| JP2012008949A (en) * | 2010-06-28 | 2012-01-12 | Nippon Telegr & Teleph Corp <Ntt> | Face expression amplification device, expression recognition device, face expression amplification method, expression recognition method and program |
| JP2012223511A (en) * | 2011-04-22 | 2012-11-15 | Panasonic Corp | Psychosomatic state recovery promotion device and psychosomatic state recovery system using the same |
| US8903200B2 (en) | 2011-06-28 | 2014-12-02 | Fujifilm Corporation | Image processing device, image processing method, and image processing program |
| US9110501B2 (en) | 2012-04-17 | 2015-08-18 | Samsung Electronics Co., Ltd. | Method and apparatus for detecting talking segments in a video sequence using visual cues |
| EP2779099A2 (en) | 2013-03-13 | 2014-09-17 | FUJIFILM Corporation | Layout editing device, layout editing method and program thereof |
| JP2013169003A (en) * | 2013-05-07 | 2013-08-29 | Olympus Corp | Facial expression database registration method, and facial expression database registration device |
| JP2013157030A (en) * | 2013-05-07 | 2013-08-15 | Olympus Corp | Imaging method and imaging apparatus |
| US9633044B2 (en) | 2014-04-08 | 2017-04-25 | Korea Institute Of Science And Technology | Apparatus and method for recognizing image, and method for generating morphable face images from original image |
| JP2017525536A (en) * | 2014-08-18 | 2017-09-07 | エレクトロニック、ペイン、アセスメント、テクノロジーズ、(イーピーエイティー)、プロプライエタリー、リミテッドElectronic Pain Assessment Technologies (Epat) Pty Ltd | Pain evaluation method and system |
| US10398372B2 (en) | 2014-08-18 | 2019-09-03 | Epat Pty Ltd | Pain assessment method and system |
| CN110249337A (en) * | 2017-05-01 | 2019-09-17 | 谷歌有限责任公司 | Using eye tracks camera to facial expression classification |
| CN110517339A (en) * | 2019-08-30 | 2019-11-29 | 腾讯科技(深圳)有限公司 | A kind of animating image driving method and device based on artificial intelligence |
| CN110517339B (en) * | 2019-08-30 | 2021-05-25 | 腾讯科技(深圳)有限公司 | Animation image driving method and device based on artificial intelligence |
| US11941737B2 (en) | 2019-08-30 | 2024-03-26 | Tencent Technology (Shenzhen) Company Limited | Artificial intelligence-based animation character control and drive method and apparatus |
| WO2025070303A1 (en) * | 2023-09-27 | 2025-04-03 | 日東電工株式会社 | System, storage device, and storage program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2001043345A (en) | Facial expression recognition device, medication control system using it, arousal level evaluation system, recovery evaluation system | |
| EP1383430B1 (en) | Analysis of the behaviour of a subject | |
| Lopez-Martinez et al. | Multi-task neural networks for personalized pain recognition from physiological signals | |
| Biel et al. | ECG analysis: a new approach in human identification | |
| Agrafioti et al. | ECG pattern analysis for emotion detection | |
| KR101270954B1 (en) | Biometric system using ecg signal and fingerprint identification | |
| Nikolova et al. | ECG-based emotion recognition: Overview of methods and applications | |
| KR100718125B1 (en) | Biometric device and method using bio-signal and artificial neural network | |
| CN111222464B (en) | Emotion analysis method and system | |
| Schez-Sobrino et al. | A distributed gamified system based on automatic assessment of physical exercises to promote remote physical rehabilitation | |
| CN118490165B (en) | Anesthetic state assessment method and system based on EEG data analysis | |
| CN108721048A (en) | Rehabilitation training control method, computer readable storage medium and terminal | |
| JP2022072024A (en) | Cognitive function judgment device, cognitive function judgment system, learning model generator, cognitive function judgment method, learning model manufacturing method, trained model, and program | |
| Jiang et al. | A serious game system for upper limb motor function assessment of hemiparetic stroke patients | |
| Pereira et al. | Physiotherapy Exercises Evaluation using a Combined Approach based on sEMG and Wearable Inertial Sensors. | |
| CN108814569B (en) | Rehabilitation training control device | |
| Lew et al. | Biofeedback Upper Limb Assessment Using Electroencephalogram, Electromyographic and Electrocardiographic with Machine Learning in Signal Classification. | |
| CN119007273A (en) | Cognitive disorder recognition method based on facial information fusion | |
| US20100150405A1 (en) | System and method for diagnosis of human behavior based on external body markers | |
| Razzouki et al. | Early-stage parkinson's disease detection based on action unit derivatives | |
| CN115147372A (en) | Traditional Chinese medicine tongue image intelligent identification and treatment method and system based on medical image segmentation | |
| JP2006130121A (en) | Emotion recognition method based on biological information | |
| CN117064387A (en) | Autism spectrum disorder artificial intelligent auxiliary diagnosis system based on scene video | |
| JP4371699B2 (en) | Vital sign measurement system, vital sign measurement method, vital sign measurement program, and recording medium | |
| Palfy et al. | Diagnosis of carpal tunnel syndrome from thermal images using artificial neural networks |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051021 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20071114 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071114 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071114 |
|
| A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20080326 |