JP2014119879A - 顔表情評価結果平滑化装置および顔表情評価結果平滑化プログラム - Google Patents
顔表情評価結果平滑化装置および顔表情評価結果平滑化プログラム Download PDFInfo
- Publication number
- JP2014119879A JP2014119879A JP2012273587A JP2012273587A JP2014119879A JP 2014119879 A JP2014119879 A JP 2014119879A JP 2012273587 A JP2012273587 A JP 2012273587A JP 2012273587 A JP2012273587 A JP 2012273587A JP 2014119879 A JP2014119879 A JP 2014119879A
- Authority
- JP
- Japan
- Prior art keywords
- facial expression
- value
- facial
- expression intensity
- analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】一連の顔画像を含む映像データから顔表情評価結果を安定して得る。
【解決手段】顔表情評価結果平滑化装置である平滑化処理部80は、顔画像に基づき顔表情種別ごとに得られた複数の顔表情強度値を、フレームごとに取り込む顔表情強度値取得部81と、顔表情強度値取得部81が取り込んだ複数フレーム分の顔表情強度値を参照し、顔表情種別ごとの複数フレームの顔表情強度値に基づく合計値に基づいて、複数フレームに対応する代表顔表情強度値を計算する顔表情強度値平滑化処理部82と、を備える。
【選択図】図2
【解決手段】顔表情評価結果平滑化装置である平滑化処理部80は、顔画像に基づき顔表情種別ごとに得られた複数の顔表情強度値を、フレームごとに取り込む顔表情強度値取得部81と、顔表情強度値取得部81が取り込んだ複数フレーム分の顔表情強度値を参照し、顔表情種別ごとの複数フレームの顔表情強度値に基づく合計値に基づいて、複数フレームに対応する代表顔表情強度値を計算する顔表情強度値平滑化処理部82と、を備える。
【選択図】図2
Description
本発明は、顔表情評価結果平滑化装置および顔表情評価結果平滑化プログラムに関する。
人物の顔画像が含まれる画像データを解析して、顔画像における顔表情を6種類(Anger;怒り、Disgust;嫌悪、Fear;恐れ、Happiness;幸せ、Sadness;悲しみ、Surprise;驚き)に分類し、その顔表情の強度を計算する技術が知られている(例えば、非特許文献1参照)。非特許文献1に記載された技術を適用した情報処理装置は、顔表情が異なる複数の顔画像について、顔表情の強度の順序関係が整合するよう強度を求めるとともに、各顔画像における顔表情を上記6種類の顔表情に分類ことができる。
Peng Yang, Qingshan Liu, Dimitris N. Metaxas, "RankBoost with l1 regularization for Facial Expression Recognition and Intensity Estimation", IEEE International Conference on Computer Vision (ICCV), pp. 1018-1025, 2009
しかしながら、上記の情報処理装置に映像データを供給し、この映像データにおける各顔画像の評価処理を実行させた場合に、一連の顔画像それぞれにおける顔表情の中に、周囲と異なる種類の顔表情が突発的に現出することがある。フレーム単位で顔表情が変化することは通常起こり難い現象であり、この突発的に現出した顔表情はエラーである可能性が高い。
本発明は、上記の問題を解決するためになされたものであり、一連の顔画像を含む映像データから顔表情評価結果を安定して得る、顔表情評価結果平滑化装置および顔表情評価結果平滑化プログラムを提供することを目的とする。
[1]上記の課題を解決するため、本発明の一態様である顔表情評価結果平滑化装置は、顔画像に基づき顔表情種別ごとに得られた複数の顔表情強度値を、フレームごとに取り込む顔表情強度値取得部と、前記顔表情強度値取得部が取り込んだ複数フレーム分の顔表情強度値を参照し、前記顔表情種別ごとの前記複数フレームの顔表情強度値に基づく合計値に基づいて、前記複数フレームに対応する代表顔表情強度値を計算する顔表情強度値平滑化処理部と、を備えることを特徴とする。
[2]上記[1]記載の顔表情評価結果平滑化装置において、前記合計値は、前記顔表情種別ごとの、前記複数フレーム分の顔表情強度値の合計値である、ことを特徴とする。
[3]上記[1]記載の顔表情評価結果平滑化装置において、前記合計値は、前記複数フレームのそれぞれにおける最大の顔表情強度値の個数を顔表情種別ごとに計数して得た合計値である、ことを特徴とする。
[4]上記[2]または[3]いずれか記載の顔表情評価結果平滑化装置において、前記顔表情強度値平滑化処理部は、前記複数フレーム内における各フレームの位置に応じた重み付けをして前記合計値を計算する、ことを特徴とする。
[5]上記[1]〜[4]いずれか一項記載の顔表情評価結果平滑化装置において、前記顔表情強度値平滑化処理部が求めた、前記顔表情種別ごとの合計値のうち最大の合計値に対応する顔表情種別を、前記複数フレームに対応する顔表情の分類結果として選出する顔表情種別平滑化処理部、をさらに備えることを特徴とする。
[6]上記[1]〜[5]いずれか一項記載の顔表情評価結果平滑化装置において、前記顔表情強度値平滑化処理部は、前記複数フレームよりも少ないフレーム数をシフト量とし、前記複数フレームを前記シフト量だけ時間方向にずらす、ことを特徴とする。
[3]上記[1]記載の顔表情評価結果平滑化装置において、前記合計値は、前記複数フレームのそれぞれにおける最大の顔表情強度値の個数を顔表情種別ごとに計数して得た合計値である、ことを特徴とする。
[4]上記[2]または[3]いずれか記載の顔表情評価結果平滑化装置において、前記顔表情強度値平滑化処理部は、前記複数フレーム内における各フレームの位置に応じた重み付けをして前記合計値を計算する、ことを特徴とする。
[5]上記[1]〜[4]いずれか一項記載の顔表情評価結果平滑化装置において、前記顔表情強度値平滑化処理部が求めた、前記顔表情種別ごとの合計値のうち最大の合計値に対応する顔表情種別を、前記複数フレームに対応する顔表情の分類結果として選出する顔表情種別平滑化処理部、をさらに備えることを特徴とする。
[6]上記[1]〜[5]いずれか一項記載の顔表情評価結果平滑化装置において、前記顔表情強度値平滑化処理部は、前記複数フレームよりも少ないフレーム数をシフト量とし、前記複数フレームを前記シフト量だけ時間方向にずらす、ことを特徴とする。
[7]上記の課題を解決するため、本発明の一態様である顔表情評価結果平滑化プログラムは、コンピュータを、顔画像に基づき顔表情種別ごとに得られた複数の顔表情強度値を、フレームごとに取り込む顔表情強度値取得部と、前記顔表情強度値取得部が取り込んだ複数フレーム分の顔表情強度値を参照し、前記顔表情種別ごとの前記複数フレームの顔表情強度値に基づく合計値に基づいて、前記複数フレームに対応する代表顔表情強度値を計算する顔表情強度値平滑化処理部と、として機能させる。
本発明によれば、一連の顔画像を含む映像データから顔表情評価結果を安定して得ることができる。
以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
[第1の実施の形態]
本発明の第1実施形態である顔表情評価結果平滑化装置を適用した顔表情解析装置は、学習処理および顔表情解析処理を、切替制御により切り替えて実行する。学習処理には、事前処理が含まれる。また、顔表情解析処理は、顔表情評価処理および顔表情評価結果平滑化処理を含む。学習処理では、顔表情解析装置は、顔表情種別ごとに、顔表情の度合(強度)がそれぞれ異なる顔画像データ列における各顔画像データの顔領域の画像特徴量と、評価者の主観評価による顔表情の度合を示す顔表情強度教師値との対応関係を回帰分析することにより、顔表情種別ごとの回帰モデルにおけるパラメータ値を求める。また、1フレームあたりの顔表情評価処理では、顔表情解析装置は、顔表情種別ごとに学習した回帰モデルに、評価用の顔画像データ(評価顔画像データ)における顔領域の画像特徴量を適用することによって、顔表情種別ごとに顔表情強度値を計算して顔表情強度値セットを生成する。ここで、顔表情強度値セットとは、1フレーム分の、複数の顔表情種別それぞれに対応する顔表情強度値のまとまりである。また、複数フレーム分の顔表情強度値セットを含む一区間あたりの顔表情評価結果平滑化処理では、顔表情解析装置は、それら複数フレーム分の顔表情強度値セットに基づいて、顔表情強度値および顔表情種別を平滑化する。
[第1の実施の形態]
本発明の第1実施形態である顔表情評価結果平滑化装置を適用した顔表情解析装置は、学習処理および顔表情解析処理を、切替制御により切り替えて実行する。学習処理には、事前処理が含まれる。また、顔表情解析処理は、顔表情評価処理および顔表情評価結果平滑化処理を含む。学習処理では、顔表情解析装置は、顔表情種別ごとに、顔表情の度合(強度)がそれぞれ異なる顔画像データ列における各顔画像データの顔領域の画像特徴量と、評価者の主観評価による顔表情の度合を示す顔表情強度教師値との対応関係を回帰分析することにより、顔表情種別ごとの回帰モデルにおけるパラメータ値を求める。また、1フレームあたりの顔表情評価処理では、顔表情解析装置は、顔表情種別ごとに学習した回帰モデルに、評価用の顔画像データ(評価顔画像データ)における顔領域の画像特徴量を適用することによって、顔表情種別ごとに顔表情強度値を計算して顔表情強度値セットを生成する。ここで、顔表情強度値セットとは、1フレーム分の、複数の顔表情種別それぞれに対応する顔表情強度値のまとまりである。また、複数フレーム分の顔表情強度値セットを含む一区間あたりの顔表情評価結果平滑化処理では、顔表情解析装置は、それら複数フレーム分の顔表情強度値セットに基づいて、顔表情強度値および顔表情種別を平滑化する。
図1は、本発明の第1実施形態である顔表情評価結果平滑化装置を適用した顔表情解析装置の機能構成を示すブロック図である。同図に示すように、顔表情解析装置1は、画像データ取得部10と、顔表情強度教師値取得部20と、顔領域抽出部30と、画像特徴量計算部40と、回帰分析部50と、回帰モデル記憶部60と、顔表情評価部70と、平滑化処理部(顔表情評価結果平滑化装置)80と、モード切替部90とを備える。
モード切替部90は、例えば、顔表情解析装置1が制御プログラムを実行することにより実現される切替制御によって、顔表情解析装置1を学習モードと顔表情解析モードとの間で切り替える。学習モードは、顔表情解析装置1が事前処理および学習処理を実行する動作モードである。また、顔表情解析モードは、顔表情解析装置1が顔表情解析処理を実行する動作モードである。なお、モード切替部90は、例えば、操作者による顔表情解析装置1の切替操作にしたがって、学習モードと顔表情解析モードとを切替えてもよい。
モード切替部90によって顔表情解析装置1を学習モードに設定している場合、顔表情解析装置1は、画像データ取得部10と、顔表情強度教師値取得部20と、顔領域抽出部30と、画像特徴量計算部40と、回帰分析部50と、回帰モデル記憶部60とを機能させる。また、モード切替部90によって顔表情解析装置1を顔表情解析モードに設定している場合、顔表情解析装置1は、画像データ取得部10と、顔領域抽出部30と、画像特徴量計算部40と、回帰モデル記憶部60と、顔表情評価部70と、平滑化処理部80とを機能させる。
画像データ取得部10は、図示しない外部装置が供給する画像データを取り込む。具体的に、顔表情解析装置1が学習モードに設定されている場合、画像データ取得部10は、例えば、顔画像データベースから複数の顔画像データを取り込む。顔画像データベースは、例えば、顔表情の種類別に、複数人の顔表情の度合がそれぞれ異なる顔画像データ列の集合を格納したデータベースである。また、顔表情解析装置1が顔表情解析モードに設定されている場合、画像データ取得部10は、例えば、映像撮影装置または映像記録装置が供給する、顔表情解析のための評価映像データを取り込む。この評価映像データは、時系列のフレームに対応する複数の評価顔画像データを含んでいる。
顔表情解析装置1が学習モードに設定されている場合、画像データ取得部10は、取り込んだ顔画像データを顔領域抽出部30に供給する。また、顔表情解析装置1が顔表情解析モードに設定されている場合、画像データ取得部10は、取り込んだ評価映像データから、順次またはあらかじめ決定された所定フレーム数おきに、顔画像データを顔領域抽出部30に供給する。
顔表情解析装置1が学習モードに設定されている場合、顔表情強度教師値取得部20は、図示しない外部装置が供給する顔表情強度教師値を取り込み、この顔表情強度教師値を回帰分析部50に供給する。外部装置は、例えば、前記の顔画像データベースまたはコンピュータ装置等の情報処理装置である。顔表情強度教師値は、顔画像データベースに格納された、顔表情種別ごとの顔画像データ列について、各顔画像データにおける顔表情の度合を、評価者の主観評価にしたがって表した値である。一例として、顔表情強度教師値を、下限値(例えば“0(ゼロ)”)から上限値(例えば“100”)までの整数で表す。これにおいて、顔表情強度教師値が小さいほど顔表情の度合が小さく、顔表情強度教師値が大きいほど顔表情の度合が大きい。なお、顔表情の度合を評価する評価者は、一人でもよいし、複数でもよい。評価者が複数である場合、各評価者によって付された値の平均値を顔表情強度教師値としてもよい。
顔表情解析装置1が学習モードに設定されている場合、画像データ取得部10が取り込む顔画像データと、この顔画像データに対応して顔表情強度教師値取得部20が取り込む顔表情強度教師値との対データは、顔表情解析装置1における教師データである。
顔領域抽出部30は、画像データ取得部10が供給する画像データ(顔画像データまたは評価顔画像データ)を取り込み、この画像データから顔の解析領域を抽出する。具体的に、顔領域抽出部30は、顔領域検出部31と、解析領域決定部32とを備える。
顔領域検出部31は、画像データ取得部10が供給する画像データを取り込み、この画像データについて顔検出処理を実行することによってその画像データから顔領域を検出する。この顔領域のデータ(顔領域データ)は、例えば矩形の画像データである。
顔領域検出部31が実行する顔検出処理のアルゴリズムとして、公知の顔検出アルゴリズム(例えば、AdaBoost)を適用できる。なお、公知の顔検出アルゴリズムについては、例えば、PAUL VIOLA, MICHAEL J. JONES, "Robust Real-Time Face Detection", International Journal of Computer Vision, 2004, Vol. 57, No. 2, pp. 137-154に、詳細が開示されている。
解析領域決定部32は、顔領域検出部31が検出した顔領域データを所定サイズに正規化する。そして、解析領域決定部32は、正規化した顔領域データ(正規化顔領域データ)から解析領域を抽出する。具体的に、解析領域決定部32は、顔領域データを、例えば水平方向128画素×垂直方向128画素の正規化顔領域データに正規化する。すなわち、解析領域決定部32は、顔領域データを所定サイズの矩形画像に拡大または縮小する画像処理を実行することによって正規化顔領域データを生成する。つまり、画像データに含まれる顔の大きさは画像データによって様々であるため、解析領域決定部32は、顔領域を拡大または縮小させて、全ての画像データにおける顔領域の解像度を同程度にする。これにより、解像度が異なる顔領域データにおける情報量を、略均等にすることができる。
解析領域決定部32は、正規化顔領域データから、画像特徴量を計算する領域である解析領域を決定し、この解析領域のデータ(解析領域データ)を抽出する。解析領域は、例えば、正規化顔領域内の中心部の円(楕円または真円)領域である。そして、解析領域決定部32は、例えば、解析領域の中心を通る水平方向の直線で当該解析領域を二分し、その上部の領域を上部解析領域(第1の解析部分領域)、下部の領域を下部解析領域(第2の解析部分領域)として決定する。言い換えると、解析領域決定部32は、正規化顔領域に内接する円形または楕円形よりも小さな円形または楕円形の解析領域を上下(縦)方向に二分して上部解析領域および下部解析領域を決定する。
画像特徴量計算部40は、顔領域抽出部30が抽出した解析領域データの画像特徴量を計算する。
具体的に、顔表情解析装置1が学習モードに設定されて実行する事前処理において、画像特徴量計算部40は、解析領域決定部32が決定した解析領域における上部解析領域について、例えば、Scale Invariant Feature Transformation(SIFT)特徴量またはSpeeded Up Robust Features(SURF)特徴量等の局所特徴量を計算する。画像特徴量計算部40は、全ての顔画像データについての局所特徴量についてクラスタリング処理を実行することによってクラスタを生成し、このクラスタを内蔵する記憶部に記憶させる。クラスタリング処理として、例えば、K平均法を適用する。画像特徴量計算部40は、下部解析領域についても上部解析領域と同様にクラスタを生成し、このクラスタを上記の記憶部に記憶させる。なお、画像特徴量計算部40は、学習処理において用いる全ての顔画像データについての上部解析領域および下部解析領域それぞれに対するクラスタを、外部装置から取り込んで上記の記憶部に記憶させてもよい。
顔表情解析装置1が学習モードに設定されて実行する学習処理、または顔表情解析モードに設定されて実行する顔表情評価処理において、画像特徴量計算部40は、解析領域決定部32が決定した解析領域における上部解析領域からSIFT特徴量、またはSURF特徴量等の局所特徴量を計算する。そして、画像特徴量計算部40は、これら局所特徴量を、事前処理において記憶した上部解析領域に対するクラスタに分類し、各クラスタをビン、各クラスタの要素数を頻度とするヒストグラムであるBag−of−Keypointsを生成する。画像特徴量計算部40は、下部解析領域についても上部解析領域と同様に、Bag−of−Keypointsを生成する。
画像特徴量計算部40は、上部解析領域および下部解析領域それぞれについてのBag−of−Keypointsを連結して解析領域全体のBag−of−Keypointsを生成する。具体的に、画像特徴量計算部40は、例えば、上部解析領域に対する175次元のBag−of−Keypointsに、下部解析領域に対する125次元のBag−of−Keypointsを連結し、解析領域全体として300次元のBag−of−Keypointsを生成する。
なお、Bag−of−Keypointsについては、例えば、Gabriella Csurka, Christopher R. Dance, Lixin Fan, Jutta Willamowski, Gedric Bray, "Visual Categorization with Bag of Keypoints", Proc. of ECCV Workshop on Statistical Learning in Computer Vision, pp. 59-74, 2004に、詳細が開示されている。
顔表情解析装置1が学習モードに設定されている場合、画像特徴量計算部40は、解析領域全体のBag−of−Keypointsを、画像特徴量として回帰分析部50に供給する。また、顔表情解析装置1が顔表情解析モードに設定されている場合、画像特徴量計算部40は、解析領域全体のBag−of−Keypointsを、画像特徴量として顔表情評価部70に供給する。
顔表情解析装置1が学習モードに設定されている場合、回帰分析部50は、画像特徴量計算部40が供給する、顔画像データに対する画像特徴量を取り込み、また、顔表情強度教師値取得部20が供給する、当該顔画像データに対する顔表情強度教師値を取り込む。
回帰分析部50は、顔画像データに対する画像特徴量とその顔画像データに対応付けられた顔表情種別ごとの顔表情強度教師値とを用いて回帰分析処理を実行することにより、回帰モデルが有するパラメータ値を顔表情種別ごとに更新する。回帰モデルは、顔領域の画像特徴量から顔表情の度合を示す顔表情強度値を計算するための計算手段である。この回帰モデルは、可変のパラメータを有し、パラメータ値を更新可能とする数式モデルである。回帰分析部50は、例えば、顔表情種別が“怒り”である場合の回帰分析において、顔表情種別が“怒り”である顔画像データについては顔表情強度教師値そのものを用いる一方、顔表情種別が“怒り”以外である顔画像データについては顔表情強度教師値を“0(ゼロ)”として用いて、回帰処理を実行する。そして、回帰分析部50は、回帰処理によって得られるパラメータ値を、回帰モデル記憶部60に記憶させる。なお、回帰分析部50は、顔表情種別ごとに回帰分析処理を実行するのではなく、顔画像データに対する画像特徴量とその顔画像データに対応付けられた全顔表情における顔表情強度教師値とを用いて回帰分析処理を実行してもよい。
回帰モデル記憶部60は、回帰分析部50が供給するパラメータ値を、顔表情種別ごとに記憶する。回帰モデル記憶部60は、例えば、磁気ハードディスク装置または半導体記憶装置により実現される。
顔表情解析装置1が顔表情解析モードに設定されている場合、顔表情評価部70は、画像特徴量計算部40が供給する、評価顔画像データに対する画像特徴量を取り込む。また、顔表情評価部70は、回帰モデル記憶部60から、顔表情種別ごとに回帰モデルのパラメータ値を読み込む。そして、顔表情評価部70は、各回帰モデルに画像特徴量を適用して顔表情種別ごとに顔表情強度値を計算することによって顔表情強度値セットを生成し、この顔表情強度値セットを平滑化処理部80に供給する。この顔表情強度値セットは、1フレーム分の評価顔画像データに対するデータセットである。具体的に、顔表情強度値セットは、各顔表情種別と顔表情強度値とを対応付けたものである。
顔表情解析装置1が顔表情解析モードに設定されている場合、平滑化処理部80は、顔表情評価部70が供給する顔表情強度値セットを時系列に取り込んで記憶する。そして、平滑化処理部80は、複数フレーム分の顔表情強度値セットを含む区間ごとに、顔表情強度値を平滑化することによって、当該区間内における各フレームに対する平滑化後の顔表情強度値と顔表情の分類結果である顔表情種別情報を得る。
次に、平滑化処理部80の詳細を説明する。
図2は、平滑化処理部80の機能構成を示すブロック図である。同図に示すように、平滑化処理部80は、顔表情強度値取得部81と、顔表情強度値平滑化処理部82と、顔表情種別平滑化処理部83とを備える。
図2は、平滑化処理部80の機能構成を示すブロック図である。同図に示すように、平滑化処理部80は、顔表情強度値取得部81と、顔表情強度値平滑化処理部82と、顔表情種別平滑化処理部83とを備える。
顔表情強度値取得部81は、顔表情評価部70が供給する顔表情強度値セットを時系列に取り込んで内蔵するバッファに記憶させる。このバッファは、複数フレームを含む区間における複数組の顔表情強度値セットを記憶可能な容量を有する、FIFO(First In/First Out)形式の記憶部である。
顔表情強度値平滑化処理部82は、顔表情強度値取得部81がバッファに記憶させた複数フレーム分の顔表情強度値セットを含む区間ごとに、前記顔表情強度値取得部が取り込んだ複数フレーム分の顔表情強度値セットを参照し、顔表情種別ごとの複数フレームの顔表情強度値に基づく合計値に基づいて、複数フレームに対応する代表顔表情強度値を計算する。具体的に、顔表情強度値平滑化処理部82は、顔表情強度値取得部81がバッファに記憶させた複数フレーム分の顔表情強度値セットを含む区間ごとに、当該区間内の複数フレーム分の顔表情強度値セットについて、顔表情種別ごとに顔表情強度値の合計値を計算する。そして、顔表情強度値平滑化処理部82は、顔表情種別ごとの顔表情強度値の合計値に基づいて、顔表情種別ごとの平均値を計算する。ここでの平均値は、単純平均値である。そして、顔表情強度値平滑化処理部82は、顔表情種別ごとの顔表情強度値の平均値のうち最大の平均値、言い換えると、顔表情種別ごとの顔表情強度値の合計値のうち最大の合計値から求まる平均値を、当該区間に対応する平滑化後の代表顔表情強度値として出力する。
顔表情種別平滑化処理部83は、顔表情強度値取得部81がバッファに記憶させた複数フレーム分の顔表情強度値セットを含む区間ごとに、顔表情強度値平滑化処理部82が求めた最大の平均値に対応する顔表情種別を、当該区間に対応する平滑化後の顔表情の分類結果として選出する。そして、顔表情種別平滑化処理部83は、その顔表情の分類結果を示す顔表情種別情報を生成し、この顔表情種別情報を出力する。
図3は、顔表情解析装置1が学習モードに設定されて学習処理を実行する際に用いる、顔画像データベースのデータ構造の一部分を概念的に示す図である。同図に示すように、顔画像データベースは、顔表情種別ごとに、各人物(被写体)のニュートラル顔表情からピーク顔表情まで顔表情の度合がそれぞれ異なる顔画像データ列の集合に、当該顔表情種別を示すラベルを対応付けて構成した顔画像データ群を格納している。顔表情種別は、例えば、「怒り」、「嫌悪」、「恐れ」、「幸せ」、「悲しみ」、および「驚き」の6種類である。ニュートラル顔表情は、人物の中立的な顔表情であり、例えば、人物の無表情な顔つきから表情の種類を判別困難な程度の顔つきまでを示す表情である。つまり、ニュートラル顔表情には、顔表情の幅がある。ピーク顔表情は、人物の感情を豊かに表現した顔表情であり、例えば、怒り、嫌悪、恐れ、幸せ、悲しみ、驚き等の感情が強く表現された顔つきを示す。
顔画像データベースとして、例えば、Patrick Lucey, Jeffrey F. Cohn, Takeo Kanade, Jason Saragih, Zara Ambadar, "The Extended Cohn-Kanade Dataset (CK+): A complete dataset for action unit and emotion-specified expression", the Third IEEE Workshop on CVPR for Human Communicative Behavior Analysis, pp. 94-101, 2010に記載された、Cohn-Kanade Facial Expression Databaseを適用できる。
図4は、顔表情解析装置1が学習モードに設定されて学習処理を実行する際に用いる顔表情強度教師値を、顔画像データに対応付けて示す図である。同図に示すように、顔表情強度教師値は、顔画像データ群における顔表情種別ごとの各被写体の顔画像データ列それぞれについて、各顔画像データの顔表情の度合を、評価者による主観評価にしたがって下限値“0(ゼロ)”から上限値“100”までの整数で表される。
図4では、顔表情種別が“幸せ”である第1の被写体の顔画像データ列について、ニュートラル顔表情に対応する顔表情強度教師値が“0(ゼロ)”、顔表情の度合が大きくなるにしたがって、顔表情強度教師値が例えば“8”、“46”、“83”等と大きくなり、ピーク顔表情に対応する顔表情強度教師値が“100”となっている。また、顔表情種別が“幸せ”である第2の被写体の顔画像データ列について、ニュートラル顔表情に対応する顔表情強度教師値が“0(ゼロ)”、顔表情の度合が大きくなるにしたがって、顔表情強度教師値が例えば“6”、“52”、“79”等と大きくなり、ピーク顔表情に対応する顔表情強度教師値が“100”となっている。また、顔表情種別が“驚き”である顔画像データ列について、ニュートラル顔表情に対応する顔表情強度教師値が“0(ゼロ)”、顔表情の度合が大きくなるにしたがって、顔表情強度教師値が例えば“7”、“43”、“88”等と大きくなり、ピーク顔表情に対応する顔表情強度教師値が“100”となっている。なお、この例のように、ニュートラル顔表情からピーク顔表情に顔表情が変化する顔画像列に対し、顔表情強度教師値の下限値および上限値を設けることを必須の条件としてもよいし、必須の条件としなくてもよい。
図5は、画像データと、この画像データから抽出された顔領域データと、この顔領域データを正規化して得られた正規化顔領域データとを模式的に示す図である。つまり、同図は、画像データ取得部10が取得する画像データ2と、顔領域検出部31が検出する顔領域データ2aと、解析領域決定部32が正規化(ここでは、縮小)する正規化顔領域データ2bとを時系列に示している。同図に示すように、画像データ2は、人物の首より上側を含む画像である。顔領域データ2aは、画像データ2から抽出された顔を含む画像である。顔を含む画像とは、例えば、人物の顔表情を決定付ける顔の主要なパーツ(両眉毛、両目、鼻、口)を含む画像である。正規化顔領域データ2bは、顔領域データ2aを水平画素数LX×垂直画素数LYサイズに正規化した画像である。水平画素数LXと垂直画素数LYとの関係は、例えば、正規化顔領域が正方形となる関係である。
図6は、解析領域決定部32が正規化顔領域データ2bから決定した解析領域を、視覚的に分かり易く線描画した図である。同図に示すように、解析領域決定部32は、水平画素数LX×垂直画素数LYの正規化顔領域データ2bの中心位置を中心として、正規化顔領域データ2bに含まれる円形の解析領域3を決定する。解析領域3の水平方向の径は、例えば水平画素数LXの0.8倍の大きさを有し、垂直方向の径は、例えば垂直画素数LYの0.8倍の大きさを有する。このように、解析領域3の径を正規化顔領域データ2bの内接円の径よりも小さくすることにより、顔の認識や顔表情認識にとって重要度が低い髪の毛、耳、イヤリング等の情報を除外することができる。解析領域決定部32は、解析領域3の中心を通る水平線で、解析領域3を上部解析領域3Uと下部解析領域3Dとに区分する。このように区分することにより、上部解析領域3Uは両眉毛および両目を含み、下部解析領域3Dは鼻頭および口を含むこととなる。
図7は、画像特徴量計算部40によって生成された、上部解析領域における特徴量のヒストグラムと、下部解析領域における特徴量のヒストグラムと、これら二つのヒストグラムが連結された、解析領域全体における特徴量のヒストグラムとを模式的に示した図である。同図は、上部解析領域における特徴量のヒストグラムの後に、下部解析領域における特徴量のヒストグラムを連結した例である。このように、画像特徴量計算部40が、分割された各領域でヒストグラムを生成して連結することにより、Bag−of−Keypointsに位置情報を加えることができる。なお、画像特徴量計算部40は、下部解析領域における特徴量のヒストグラムの後に、上部解析領域における特徴量のヒストグラムを連結することによって、解析領域全体における特徴量のヒストグラムを生成してもよい。
図8は、回帰分析部50が実行する回帰分析処理における一つの回帰モデルを模式的に示した図である。同図において、横軸は回帰式における独立変数を表し、本実施形態では、顔画像データの顔領域の画像特徴量を表す。縦軸は回帰式における従属変数を表し、本実施形態では、顔表情強度教師値を表わす。同図における複数の四角形印の分布は、画像特徴量とこの画像特徴量に対する顔表情強度教師値との対応関係を示している。また、同図において曲線で表されている実線は、回帰分析部50が実行する回帰分析処理によって得られる回帰式を示すグラフである。
回帰分析部50は、回帰モデルとして、例えば、線形回帰モデル、ロジスティック回帰モデル、またはサポートベクトル回帰モデルを適用して回帰分析処理を実行する。次に、各回帰モデルを適用した回帰分析処理について説明する。
[1]線形回帰モデル
回帰モデルとして線形回帰モデルを適用した場合、回帰分析部50は、線形回帰分析処理として、画像特徴量および顔表情強度教師値の関係を、下記の式(1)に示す積和関数にモデル化する。ただし、Yは顔表情強度教師値、Xiは画像特徴量(i=1,・・・,I)である。また、α、βiはパラメータである。
回帰モデルとして線形回帰モデルを適用した場合、回帰分析部50は、線形回帰分析処理として、画像特徴量および顔表情強度教師値の関係を、下記の式(1)に示す積和関数にモデル化する。ただし、Yは顔表情強度教師値、Xiは画像特徴量(i=1,・・・,I)である。また、α、βiはパラメータである。
回帰分析部50は、画像特徴量とこの画像特徴量に対する顔表情強度教師値との対応関係を例えば最小二乗法によって回帰させることにより、式(1)に示す積和関数を推計する。具体的に、式(1)が画像特徴量とこの画像特徴量に対する顔表情強度教師値との対データに対して最適な近似式となるように、回帰分析部50は、近似誤差の二乗和が最小となるパラメータα、βiを、例えば最急降下法によって求める。回帰分析部50は、回帰分析処理において、相関が強い(例えば、相関係数が“0.5”以上である)独立変数の一方を削除することによって多重共線を排除または抑制してもよい。また、全ての顔表情種別に共通して“0(ゼロ)”である独立変数(画像特徴量)について、回帰分析部50は、その独立変数を削除する処理を行ってもよい。
[2]ロジスティック回帰モデル
回帰モデルとしてロジスティック回帰モデルを適用した場合、回帰分析部50は、ロジスティック回帰分析処理として、画像特徴量および顔表情強度教師値の関係を、下記の式(2)に示す関数にモデル化する。ただし、Yは顔表情強度教師値、Xiは画像特徴量(i=1,・・・,I)である。また、α、βiはパラメータである。
回帰モデルとしてロジスティック回帰モデルを適用した場合、回帰分析部50は、ロジスティック回帰分析処理として、画像特徴量および顔表情強度教師値の関係を、下記の式(2)に示す関数にモデル化する。ただし、Yは顔表情強度教師値、Xiは画像特徴量(i=1,・・・,I)である。また、α、βiはパラメータである。
回帰分析部50は、画像特徴量とこの画像特徴量に対する顔表情強度教師値との対応関係を回帰させることによってパラメータα、βiを求める。このロジスティック回帰モデルを適用することにより、回帰分析部50は、画像特徴量Xiに対する顔表情強度教師値Yが0から100までの間(0≦Y≦100)に収まる回帰式を得ることができる。
[3]サポートベクトル回帰モデル
回帰モデルとしてサポートベクトル回帰モデルを適用した場合、回帰分析部50は、サポートベクトル回帰分析処理として、下記の式(3)の形で、画像特徴量Xi(i=1,・・・,I)と顔表情強度教師値Yとを関係付ける。
回帰モデルとしてサポートベクトル回帰モデルを適用した場合、回帰分析部50は、サポートベクトル回帰分析処理として、下記の式(3)の形で、画像特徴量Xi(i=1,・・・,I)と顔表情強度教師値Yとを関係付ける。
式(3)において、関数φは、I次元の特徴量ベクトルをJ次元のベクトル(行ベクトル)に写像する写像関数である。このサポートベクトル回帰モデルは、関数φによるカーネルトリックを用いる。βj(j=1,・・・,J)は、関数φによる写像後のベクトルの要素それぞれに対応する重み係数である。また、αはバイアス項である。回帰分析部50は、入力される多数の顔表情強度教師値を用いて式(3)の形の回帰を行い、パラメータα,β1,・・・,βJを求める。なお、パラメータの計算自体は、例えば、ニュートン法に基づいて既存のサポートベクトル回帰の学習法を適用することができる。
次に、顔表情解析装置1の動作について説明する。
まず、学習モードに設定された顔表情解析装置1は、学習処理において用いる全ての顔画像データを顔画像データベースから取り込んで、以下に示す事前処理を実行する。すなわち、画像データ取得部10が、顔画像データベースから顔画像データを取り込む。次に、顔領域抽出部30がその取り込んだ顔画像データのサイズを正規化して解析領域(上部解析領域および下部解析領域)を抽出する。次に、画像特徴量計算部40が、上部解析領域について、SIFT特徴量またはSURF特徴量等の局所特徴量を計算する。次に、画像特徴量計算部40が、全ての顔画像データの上部解析領域に対する局所特徴量についてクラスタリング処理を実行することによってクラスタを生成し、このクラスタを記憶部に記憶させる。また、画像特徴量計算部40は、下部解析領域についても上部解析領域と同様にクラスタを生成し、このクラスタを記憶部に記憶させる。
まず、学習モードに設定された顔表情解析装置1は、学習処理において用いる全ての顔画像データを顔画像データベースから取り込んで、以下に示す事前処理を実行する。すなわち、画像データ取得部10が、顔画像データベースから顔画像データを取り込む。次に、顔領域抽出部30がその取り込んだ顔画像データのサイズを正規化して解析領域(上部解析領域および下部解析領域)を抽出する。次に、画像特徴量計算部40が、上部解析領域について、SIFT特徴量またはSURF特徴量等の局所特徴量を計算する。次に、画像特徴量計算部40が、全ての顔画像データの上部解析領域に対する局所特徴量についてクラスタリング処理を実行することによってクラスタを生成し、このクラスタを記憶部に記憶させる。また、画像特徴量計算部40は、下部解析領域についても上部解析領域と同様にクラスタを生成し、このクラスタを記憶部に記憶させる。
次に、顔表情解析装置1の学習処理について説明する。
図9は、顔表情解析装置1が実行する学習処理の手順を示すフローチャートである。
ステップS1において、画像データ取得部10は、例えば、顔画像データベースに格納された複数の顔画像データから一つの顔画像データを取り込み、この顔画像データを顔領域抽出部30に供給する。
次に、ステップS2において、顔表情強度教師値取得部20は、ステップS1の処理において画像データ取得部10に取り込まれた顔画像データに対応する顔表情強度教師値を、外部装置(例えば、顔画像データベース)から取り込み、この顔表情強度教師値を回帰分析部50に供給する。
図9は、顔表情解析装置1が実行する学習処理の手順を示すフローチャートである。
ステップS1において、画像データ取得部10は、例えば、顔画像データベースに格納された複数の顔画像データから一つの顔画像データを取り込み、この顔画像データを顔領域抽出部30に供給する。
次に、ステップS2において、顔表情強度教師値取得部20は、ステップS1の処理において画像データ取得部10に取り込まれた顔画像データに対応する顔表情強度教師値を、外部装置(例えば、顔画像データベース)から取り込み、この顔表情強度教師値を回帰分析部50に供給する。
次に、ステップS3において、顔領域抽出部30は、画像データ取得部10が供給する顔画像データを取り込み、この顔画像データに対して顔検出処理を実行することによってその顔画像データから人物の顔領域を検出する。次に、解析領域決定部32は、顔領域検出部31が検出した顔領域データを所定サイズ(例えば、水平方向128画素×垂直方向128画素)に正規化する。次に、解析領域決定部32は、正規化顔領域データから解析領域を抽出し、この解析領域から二つの解析部分領域(上部解析領域および下部解析領域)を決定する。
次に、ステップS4において、画像特徴量計算部40は、顔領域抽出部30が抽出した解析領域データの画像特徴量を計算する。具体的に、画像特徴量計算部40は、上部解析領域からSIFT特徴量またはSURF特徴量等の局所特徴量を計算する。次に、画像特徴量計算部40は、これら局所特徴量を、事前処理において記憶した上部解析領域に対するクラスタに分類し、各クラスタをビン、各クラスタの要素数を頻度とするヒストグラムを生成する。また、画像特徴量計算部40は、下部解析領域からSIFT特徴量またはSURF等の局所特徴量を計算する。次に、画像特徴量計算部40は、これら局所特徴量を、事前処理において記憶した下部解析領域に対するクラスタに分類し、各クラスタをビン、各クラスタの要素数を頻度とするヒストグラムを生成する。次に、画像特徴量計算部40は、上部解析領域および下部解析領域それぞれについてのヒストグラムを連結して解析領域全体のヒストグラム、言い換えると、解析領域全体のBag−of−Keypointsを生成する。次に、画像特徴量計算部40は、解析領域全体のBag−of−Keypointsを、画像特徴量として回帰分析部50に供給する。
次に、ステップS5において、顔画像データベースから取り込むべき全ての顔画像データの取り込みが完了した場合(ステップS5:YES)、顔表情解析装置1はステップS6の処理に移す。一方、顔画像データベースから取り込むべき全ての顔画像データの取り込みが完了していない場合(ステップS5:NO)は、顔表情解析装置1はステップS1の処理に戻す。
ステップS6において、回帰分析部50は、顔画像データに対する画像特徴量とその顔画像データに対応付けられた顔表情種別ごとの顔表情強度教師値とを用いて回帰分析処理を実行することにより、回帰モデルが有するパラメータ値を顔表情種別ごとに更新する。次に、回帰分析部50は、回帰処理を行って得られるパラメータ値を、回帰モデル記憶部60に供給する。
次に、ステップS7において、回帰モデル記憶部60は、回帰分析部50が供給するパラメータ値を、顔表情種別ごとに記憶する。
次に、ステップS7において、回帰モデル記憶部60は、回帰分析部50が供給するパラメータ値を、顔表情種別ごとに記憶する。
図10は、顔表情解析装置1が実行する1フレーム分の顔表情評価処理の手順を示すフローチャートである。
ステップS21において、画像データ取得部10は、例えば、映像撮影装置または映像記録装置が供給する、顔表情解析のための評価顔画像データを取り込み、この評価顔画像データを顔領域抽出部30に供給する。
ステップS21において、画像データ取得部10は、例えば、映像撮影装置または映像記録装置が供給する、顔表情解析のための評価顔画像データを取り込み、この評価顔画像データを顔領域抽出部30に供給する。
次に、ステップS22において、顔領域抽出部30は、画像データ取得部10が供給する評価顔画像データを取り込み、この評価顔画像データに対して顔検出処理を実行することによってその評価顔画像データから人物の顔領域を検出する。次に、解析領域決定部32は、顔領域検出部31が検出した評価顔領域データを所定サイズ(例えば、水平方向128画素×垂直方向128画素)に正規化する。次に、解析領域決定部32は、正規化顔領域データから解析領域を抽出し、この解析領域から二つの解析部分領域(上部解析領域および下部解析領域)を決定する。
次に、ステップS23において、画像特徴量計算部40は、顔領域抽出部30が抽出した解析領域データの画像特徴量を計算する。例えば、画像特徴量計算部40は、解析領域決定部32が決定した解析領域における上部解析領域および下部解析領域それぞれのデータについて、学習処理におけるステップS4(図9参照)の処理と同様に、ヒストグラムを計算する。次に、画像特徴量計算部40は、上部解析領域および下部解析領域それぞれについてのヒストグラムを連結して解析領域全体のヒストグラム、つまり、解析領域全体のBag−of−Keypointsを生成する。次に、画像特徴量計算部40は、解析領域全体のBag−of−Keypointsを、画像特徴量として顔表情評価部70に供給する。
次に、ステップS24において、顔表情評価部70は、画像特徴量計算部40が供給する、評価顔画像データに対する画像特徴量を取り込む。次に、顔表情評価部70は、回帰モデル記憶部60から、顔表情種別ごとに回帰モデルのパラメータ値を読み込む。次に、顔表情評価部70は、各回帰モデルに画像特徴量を適用して顔表情種別ごとに顔表情強度値を計算することによって顔表情強度値セットを生成する。
図11は、顔表情解析モードに設定されている顔表情解析装置1が評価映像データを取り込んで顔表情評価処理を繰り返し実行することによって顔表情評価部70で得られる、一連の顔表情強度値セットの一例を示す図である。同図において、網掛けされた顔表情強度値は、各顔表情強度値セット、つまり各フレームにおける顔表情強度値の最大値(顔表情強度最大値)である。同図によれば、時刻(t−3)から時刻(t+4)までの8フレームにおいて、時刻(t−3),(t−2),(t−1),(t+1),(t+2),(t+3),(t+4)それぞれの顔表情強度値セットにおける顔表情強度最大値に対応する顔表情種別(代表顔表情種別)は、「悲しみ」である。これに対し、時刻tの顔表情強度値セットにおける顔表情強度最大値に対応する代表顔表情種別は、「幸せ」である。同図を参照して、時刻(t−2)から時刻(t+3)までの6フレームを一区間とした場合の、平滑化処理部80が実行する顔表情評価結果平滑化処理について説明する。
平滑化処理部80において、顔表情強度値取得部81は、顔表情評価部70が供給する顔表情強度値セットを時系列に取り込んで内蔵するバッファに記憶させる。つまり、顔表情強度値取得部81は、時刻(t−2)から時刻(t+3)までの6フレーム分の顔表情強度値セットをバッファに記憶させる。
顔表情強度値取得部81のバッファに6フレーム分の顔表情強度値セットが記憶されると、顔表情強度値平滑化処理部82は、そのバッファに記憶された6フレーム分の顔表情強度値セットについて、顔表情種別ごとに当該区間内における顔表情強度値の平均値を計算する。
具体的に、顔表情強度値平滑化処理部82は、当該区間内において、顔表情種別が「怒り」である6個の顔表情強度値の平均値{(6.1+2.4+3.2+3.5+4.1+5.2)/6}を計算し、顔表情種別「怒り」に対する顔表情強度の平均値“4.1”を得る。また、顔表情強度値平滑化処理部82は、当該区間内において、顔表情種別が「嫌悪」である6個の顔表情強度値の平均値{(2.7+3.3+2.4+2.1+0.8+0.1)/6}を計算し、顔表情種別「嫌悪」に対する顔表情強度の平均値“1.9”を得る。また、顔表情強度値平滑化処理部82は、当該区間内において、顔表情種別が「恐れ」である6個の顔表情強度値の平均値{(8.9+11.1+5.2+7.8+2.3+1.7)/6}を計算し、顔表情種別「恐れ」に対する顔表情強度の平均値“6.2”を得る。また、顔表情強度値平滑化処理部82は、当該区間内において、顔表情種別が「幸せ」である6個の顔表情強度値の平均値{(18.8+48.3+78.2+25.5+60.2+40.1)/6}を計算し、顔表情種別「幸せ」に対する顔表情強度の平均値“45.2”を得る。また、顔表情強度値平滑化処理部82は、当該区間内において、顔表情種別が「悲しみ」である6個の顔表情強度値の平均値{(68.3+70.1+72.3+74.5+72.2+74.5)/6}を計算し、顔表情種別「悲しみ」に対する顔表情強度の平均値“72.0”を得る。また、顔表情強度値平滑化処理部82は、当該区間内において、顔表情種別が「驚き」である6個の顔表情強度値の平均値{(1.8+9.2+12.8+6.5+2.1+4.4)/6}を計算し、顔表情種別「驚き」に対する顔表情強度の平均値“6.1”を得る。
そして、顔表情強度値平滑化処理部82は、6種類の顔表情種別それぞれに対する顔表情強度値の平均値のうち最大の平均値である“72.0”を、当該区間内の時刻tに対応する平滑化後の代表顔表情強度値として出力する。
つまり、平滑化処理部80は、下記の式(4)により、当該区間内の時刻tにおける代表顔表情強度値Itを計算する。ただし、eは、顔表情種別(例えば、「怒り(Anger)」、「嫌悪(Disgust)」、「恐れ(Fear)」、「幸せ(Happiness)」、「悲しみ(Sadness)」、および「驚き(Surprise)」の6種類)を示す。IeTは、時刻T((t−m)≦T≦(t+n))における顔表情種別eに対応する顔表情強度値である。よって、時刻(t−m)から時刻(t+n)まで顔表情強度値IeTをたし合わせたものが合計値である。また、図11を適用した場合、mは“2”、nは“3”である。
また、顔表情種別平滑化処理部83は、顔表情強度値平滑化処理部82が求めた、顔表情種別ごとの顔表情強度値の平均値のうち最大の平均値“72.0”に対応する顔表情種別「悲しみ」を、当該区間内の時刻tに対応する平滑化後の顔表情の分類結果として選出する。そして、顔表情種別平滑化処理部83は、その顔表情の分類結果である「悲しみ」を示す顔表情種別情報を生成し、この顔表情種別情報を出力する。
つまり、平滑化処理部80は、下記の式(5)により、当該区間内の時刻tにおける顔表情種別情報Etを計算する。
このように、平滑化処理部80は、一区間における複数の顔表情強度値セット、つまり、この区間における顔表情種別ごとの各顔表情強度値を信頼度として用いることによって、その区間における顔表情評価結果を平滑化する。よって、平滑化処理部80は、当該区間内において、信頼性が高い顔表情強度値および顔表情種別情報を得ることができる。
図12は、平滑化処理部80が実行する一区間分の顔表情評価結果平滑化処理の手順を示すフローチャートである。
ステップS41において、顔表情強度値取得部81は、顔表情評価部70が供給する1フレーム分の顔表情強度値セットを取り込み、この顔表情強度値セットを内蔵するバッファに記憶させる。
ステップS41において、顔表情強度値取得部81は、顔表情評価部70が供給する1フレーム分の顔表情強度値セットを取り込み、この顔表情強度値セットを内蔵するバッファに記憶させる。
次に、ステップS42において、顔表情強度値取得部81は、バッファに一区間分の顔表情強度値セットを記憶した場合に(ステップS42:YES)、ステップS43の処理に移し、バッファに一区間分の顔表情強度値セットを記憶していない場合に(ステップS42:NO)、ステップS41の処理に戻す。
ステップS43において、顔表情強度値平滑化処理部82は、顔表情強度値取得部81のバッファに記憶された6フレーム分の顔表情強度値セットについて、顔表情種別ごとに当該区間内における顔表情強度値の平均値を計算する。次に、顔表情強度値平滑化処理部82は、顔表情種別ごとの顔表情強度値の平均値のうち最大の平均値を、当該区間に対応する平滑化後の代表顔表情強度値として出力する。
次に、ステップS44において、顔表情種別平滑化処理部83は、顔表情強度値平滑化処理部82が求めた、顔表情種別ごとの顔表情強度値の平均値における最大値に対応する顔表情種別を、当該区間内における各フレームに対応する平滑化後の顔表情の分類結果として選出する。次に、顔表情種別平滑化処理部83は、その顔表情の分類結果を示す顔表情種別情報を生成し、この顔表情種別情報を出力する。
図13は、平滑化処理部80が顔表情評価結果平滑化処理を行う前後それぞれの顔表情評価結果を模式的に示す図である。同図における上段のグラフは、平滑化処理部80が顔表情評価結果平滑化処理を実行する前の顔表情評価結果を時系列に示したグラフである。この上段のグラフは、横軸を時間軸とし、縦軸を顔表情強度値セットにおける顔表情強度最大値としている。上段のグラフが示すように、平滑化処理部80が顔表情評価結果平滑化処理を実行する前の顔表情強度最大値は、時間経過に対してばらつきを有している。
また、上段のグラフの直下に示す△、○、および□記号(顔表情記号と呼ぶ)は、顔表情強度最大値に対応する代表顔表情種別が示す表情を表す記号であり、グラフの時間軸に対応付けて図示されている。ここでは、△は「幸せ」、○は「驚き」、□は「怒り」を示す記号である。上段のグラフ直下の一連の顔表情記号によれば、「幸せ」を示す顔表情の中に、突発的に「驚き」および「怒り」の顔表情が現出している。
これに対して、図13における下段のグラフは、平滑化処理部80が顔表情評価結果平滑化処理を実行した後の顔表情評価結果を時系列に示したグラフである。この下段のグラフは、横軸を時間軸とし、縦軸を平滑化後の顔表情強度値としている。下段のグラフが示すように、平滑化処理部80が顔表情評価結果平滑化処理を実行した後の顔表情強度値は、複数フレーム(同図では10フレーム)ごと、つまり、時間T1,T2,T3,T4,・・・において、ばらつきがない顔表情強度値となっている。また、下段のグラフ直下の一連の顔表情記号によれば、突発的な顔表情が現出することなく、安定した顔表情分類の結果が示されている。
以上説明したとおり、平滑化処理部80は、複数フレームを含む区間ごとに、これら複数フレーム分の顔表情強度値セットを用いて顔表情評価結果を平滑化することにより、顔表情評価結果におけるエラーを除去し、安定した顔表情強度値と顔表情の分類結果とを得ることができる。
[第2の実施の形態]
第1実施形態では、平滑化処理部80における顔表情強度値平滑化処理部82が、一区間内の複数フレーム分の顔表情強度値セットについて、顔表情種別ごとに顔表情強度値の平均値(単純平均値)を計算した。これに対し、本発明の第2実施形態では、顔表情強度値平滑化処理部が、一区間内の複数フレーム分の顔表情強度値セットについて、顔表情種別ごとに顔表情強度値の加重平均値を計算する。第2実施形態における顔表情解析装置の構成は、第1実施形態における顔表情解析装置1の構成と同じであるため、図1および図2を参照することとし、第1実施形態と異なる機能についてのみ説明する。
第1実施形態では、平滑化処理部80における顔表情強度値平滑化処理部82が、一区間内の複数フレーム分の顔表情強度値セットについて、顔表情種別ごとに顔表情強度値の平均値(単純平均値)を計算した。これに対し、本発明の第2実施形態では、顔表情強度値平滑化処理部が、一区間内の複数フレーム分の顔表情強度値セットについて、顔表情種別ごとに顔表情強度値の加重平均値を計算する。第2実施形態における顔表情解析装置の構成は、第1実施形態における顔表情解析装置1の構成と同じであるため、図1および図2を参照することとし、第1実施形態と異なる機能についてのみ説明する。
第2実施形態において、顔表情強度値平滑化処理部82は、顔表情強度値取得部81がバッファに記憶させた複数フレーム分の顔表情強度値セットを含む区間ごとに、当該区間内の複数フレーム分の顔表情強度値セットについて、顔表情種別ごとにフレームの位置に応じて重み付けした顔表情強度値の合計値を計算する。そして、顔表情強度値平滑化処理部82は、顔表情種別ごとの重み付けされた顔表情強度値の合計値に基づいて、顔表情種別ごとの平均値を計算する。つまり、この平均値は加重平均値である。各フレームに対する重み付けの係数(重み係数)は、一区間に含まれる一連のフレームにおいて単調に増加もしくは単調に減少、または単調に増加した後に単調に減少する値とする。例えば、図11に示した一区間を例にすると、時刻(t−2)から時刻tに近づくにしたがって大きくなる重み係数、また、時刻tから時刻(t+3)に近づくにしたがって小さくなる重み係数を、6フレームそれぞれに対する重み係数とする。具体的に、例えば、時刻(t−2)に対して“0.05”、時刻(t−1)に対して“0.2”、時刻tに対して“0.4”、時刻(t+1)に対して“0.2”、時刻(t+2)に対して“0.1”、および時刻(t+3)に対して“0.05”の重み係数とする。
そして、顔表情強度値平滑化処理部82は、顔表情種別ごとの顔表情強度値の加重平均値のうち最大の加重平均値、言い換えると、顔表情種別ごとの顔表情強度値の重み付けされた合計値のうち最大の合計値から求まる平均値を、当該区間内の時刻tに対応する平滑化後の代表顔表情強度値として出力する。
このように構成することにより、顔表情強度値平滑化処理部82は、一区間における所定のフレームおよびこのフレームに近いフレームに大きな信頼度をもたせて顔表情強度値を平滑化することができる。
また、第2実施形態において、顔表情種別平滑化処理部83は、顔表情強度値取得部81がバッファに記憶させた複数フレーム分の顔表情強度値セットを含む区間ごとに、顔表情強度値平滑化処理部82が求めた加重平均値における最大値に対応する顔表情種別を、当該区間内における各フレームに対応する平滑化後の顔表情の分類結果として選出する。そして、顔表情種別平滑化処理部83は、その顔表情の分類結果を示す顔表情種別情報を生成し、この顔表情種別情報を出力する。
[第3の実施の形態]
第1実施形態および第2実施形態では、平滑化処理部80における顔表情強度値平滑化処理部82が、一区間内の複数フレーム分の顔表情強度値セットについて、顔表情種別ごとに顔表情強度値の平均値(単純平均値、加重平均値)を計算し、最大の平均値を代表顔表情強度値とした。これに対し、本発明の第3実施形態では、顔表情強度値平滑化処理部が、区間ごとに、当該区間内の複数フレーム分の顔表情強度値セットにおける顔表情強度最大値の個数を代表顔表情種別ごとに計数することに基づいて、代表顔表情強度値を得る。第3実施形態における顔表情解析装置の構成は、第1実施形態における顔表情解析装置1の構成と同じであるため、図1および図2を参照することとし、第1実施形態と異なる機能についてのみ説明する。
第1実施形態および第2実施形態では、平滑化処理部80における顔表情強度値平滑化処理部82が、一区間内の複数フレーム分の顔表情強度値セットについて、顔表情種別ごとに顔表情強度値の平均値(単純平均値、加重平均値)を計算し、最大の平均値を代表顔表情強度値とした。これに対し、本発明の第3実施形態では、顔表情強度値平滑化処理部が、区間ごとに、当該区間内の複数フレーム分の顔表情強度値セットにおける顔表情強度最大値の個数を代表顔表情種別ごとに計数することに基づいて、代表顔表情強度値を得る。第3実施形態における顔表情解析装置の構成は、第1実施形態における顔表情解析装置1の構成と同じであるため、図1および図2を参照することとし、第1実施形態と異なる機能についてのみ説明する。
第3実施形態において、顔表情強度値平滑化処理部82は、バッファに記憶された一区間分の顔表情強度値を参照し、代表顔表情種別ごとに、当該代表顔表情種別の顔表情強度値がフレーム内において最大値(顔表情強度最大値)となる場合のフレームの個数を、当該区間にわたって計数する。そして、顔表情強度値平滑化処理部82は、その計数結果をその代表顔表情種別における合計値とする。そして、顔表情強度値平滑化処理部82は、代表顔表情種別ごとの合計値のうち、最大の合計値に対応する代表顔表情種別についての区間内の顔表情強度最大値の単純平均値を求め、この単純平均値を当該区間における代表顔表情強度値とする。
また、顔表情種別平滑化処理部83は、顔表情強度値平滑化処理部82が求めた最大の合計値に対応する顔表情種別を、当該区間に対応する平滑化後の顔表情の分類結果として選出する。
具体的に、図11に示した一区間分の顔表情強度値を例とすると、顔表情強度値平滑化処理部82は、当該区間内の6フレーム分の顔表情強度値における顔表情強度最大値(網掛けされた数値)に対応する顔表情種別(代表顔表情種別)として、「幸せ」および「悲しみ」を抽出する。そして、顔表情強度値平滑化処理部82は、抽出した代表顔表情種別それぞれについて顔表情強度最大値の個数を計数し、代表顔表情種別「幸せ」に対して合計値“1”、代表顔表情種別「悲しみ」に対して合計値“5”を得る。そして、顔表情強度値平滑化処理部82は、合計値のうち最大の合計値“5”に対応する代表顔表情種別「悲しみ」についての当該区間内の顔表情強度最大値の平均値“(68.3+70.1+72.3+74.5+72.2+74.5)/6=72.0”を求め、この平均値“72.0”を当該区間における代表顔表情強度値とする。また、顔表情種別平滑化処理部83は、顔表情強度値平滑化処理部82が求めた最大の合計値“5”に対応する顔表情種別「悲しみ」を、当該区間に対応する平滑化後の顔表情の分類結果として選出する。
[第4の実施の形態]
第3実施形態では、平滑化処理部80における顔表情強度値平滑化処理部82が、一区間内の顔表情強度値セットにおける顔表情強度最大値の個数を、代表顔表情種別ごとに計数することによって代表顔表情強度値を得た。これに対し、本発明の第4実施形態では、顔表情強度値平滑化処理部が、一区間内の顔表情強度値セットにおける顔表情強度最大値の個数を、フレームの位置に応じた重み付けをして代表顔表情種別ごとに計数することによって代表顔表情強度値を得る。第4実施形態における顔表情解析装置の構成は、第1実施形態における顔表情解析装置1の構成と同じであるため、図1および図2を参照することとし、第1実施形態と異なる機能についてのみ説明する。
第3実施形態では、平滑化処理部80における顔表情強度値平滑化処理部82が、一区間内の顔表情強度値セットにおける顔表情強度最大値の個数を、代表顔表情種別ごとに計数することによって代表顔表情強度値を得た。これに対し、本発明の第4実施形態では、顔表情強度値平滑化処理部が、一区間内の顔表情強度値セットにおける顔表情強度最大値の個数を、フレームの位置に応じた重み付けをして代表顔表情種別ごとに計数することによって代表顔表情強度値を得る。第4実施形態における顔表情解析装置の構成は、第1実施形態における顔表情解析装置1の構成と同じであるため、図1および図2を参照することとし、第1実施形態と異なる機能についてのみ説明する。
第4実施形態において、顔表情強度値平滑化処理部82は、顔表情強度値取得部81がバッファに記憶させた複数フレーム分の顔表情強度値セットを含む区間ごとに、当該区間内の複数フレーム分の顔表情強度値セットにおける顔表情強度最大値の個数にフレームの位置に応じた重み付けをし、重み付けされた個数を顔表情種別ごとに計数する。各フレームの位置に応じた重み付けの値(重み)は、一区間に含まれる一連のフレームにおいて単調に増加もしくは単調に減少、または単調に増加した後に単調に減少する値とする。例えば、図11に示した一区間を例にすると、時刻(t−2)から時刻tに近づくにしたがって大きくなる重み、また、時刻tから時刻(t+3)に近づくにしたがって小さくなる重みを、6フレームそれぞれに対する重みとする。具体的に、例えば、時刻(t−2)に対して“1”、時刻(t−1)に対して“2”、時刻tに対して“4”、時刻(t+1)に対して“3”、時刻(t+2)に対して“2”、および時刻(t+3)に対して“1”の重みとする。そして、顔表情強度値平滑化処理部82は、個数の合計値のうち最大の合計値を代表顔表情強度値とする。
また、顔表情種別平滑化処理部83は、顔表情強度値平滑化処理部82が求めた最大の合計値に対応する顔表情種別を、当該区間に対応する平滑化後の顔表情の分類結果として選出する。
具体的に、上記の重みを例とし、また、図11に示した一区間分の顔表情強度値を例として説明する。顔表情強度値平滑化処理部82は、当該区間内の6フレーム分の顔表情強度値における顔表情強度最大値に対応する代表顔表情種別として、「幸せ」および「悲しみ」を抽出する。そして、顔表情強度値平滑化処理部82は、抽出した代表顔表情種別それぞれについて、フレームの位置に応じた重み付けをして、顔表情強度最大値の個数を計数する。つまり、顔表情強度値平滑化処理部82は、代表顔表情種別「幸せ」に対して合計値“1×4=4”を得る。また、顔表情強度値平滑化処理部82は、代表顔表情種別「悲しみ」に対して合計値“1×1+1×2+1×3+1×2+1×1=9”を得る。そして、顔表情強度値平滑化処理部82は、合計値のうち最大の合計値“9”に対応する代表顔表情種別「悲しみ」についての当該区間内の顔表情強度値の加重平均値“(1×68.3+2×70.1+4×72.3+3×74.5+2×72.2+1×74.5)/13=72.3”を求め、この加重平均値“72.3”を当該区間における代表顔表情強度値とする。また、顔表情種別平滑化処理部83は、顔表情強度値平滑化処理部82が求めた最大の合計値“9”に対応する顔表情種別「悲しみ」を、当該区間に対応する平滑化後の顔表情の分類結果として選出する。
[第5の実施の形態]
第1実施形態では、平滑化処理部80が、区間ごとに平滑化した顔表情強度値および顔表情種別情報を取得した。これに対し、本発明の第5実施形態では、上記の区間を時間方向にずらしながら顔表情強度値および顔表情種別情報を得る。第5実施形態における顔表情解析装置の構成は、第1実施形態における顔表情解析装置1の構成と同じであるため、図1および図2を参照することとし、第1実施形態と異なる機能についてのみ説明する。
第1実施形態では、平滑化処理部80が、区間ごとに平滑化した顔表情強度値および顔表情種別情報を取得した。これに対し、本発明の第5実施形態では、上記の区間を時間方向にずらしながら顔表情強度値および顔表情種別情報を得る。第5実施形態における顔表情解析装置の構成は、第1実施形態における顔表情解析装置1の構成と同じであるため、図1および図2を参照することとし、第1実施形態と異なる機能についてのみ説明する。
第5実施形態において、顔表情強度値平滑化処理部82は、一区間に含まれる複数フレームよりも少ないフレーム数をシフト量(ずらし量)とし、当該区間をそのシフト量ずつ時間方向にずらす。例えば、顔表情強度値平滑化処理部82は、シフト量を1フレームとし、区間を1フレームずつ時間方向にずらす。顔表情強度値平滑化処理部82は、ずらした区間ごとに、当該区間内の顔表情強度値セットについて、顔表情種別ごとに顔表情強度値の平均値を計算する。そして、顔表情強度値平滑化処理部82は、顔表情種別ごとの顔表情強度値の平均値のうち最大の平均値を、当該区間に対応する平滑化後の代表顔表情強度値として出力する。
また、第5実施形態において、顔表情種別平滑化処理部83は、シフト量だけずらされた区間において、顔表情強度値平滑化処理部82が求めた平滑化後の顔表情強度値に対応する顔表情種別を、当該区間内における各フレームに対応する平滑化後の顔表情の分類結果として選出する。そして、顔表情種別平滑化処理部83は、その顔表情の分類結果を示す顔表情種別情報を生成し、この顔表情種別情報を出力する。
なお、顔表情強度値平滑化処理部82が区間をシフト量だけ時間方向にずらす処理は、第2実施形態から第4実施形態いずれにおいても適用できる。
図14は、平滑化処理部80における区間の移動を説明するための図である。同図における各グラフは、横軸を時間軸とし、縦軸を顔表情強度値としている。時刻t1、時刻t2、および時刻t3は、連続するフレームに対する時刻である。つまり、時刻t2は、時刻t1におけるフレームの次フレームに対応する時刻、時刻t3は、時刻t2におけるフレームの次フレームに対応する時刻である。また、時間(tp+tf)は、一区間である。よって、同図における上段、中段、および下段のグラフは、1フレームをシフト量とし、時刻(t1−tp)から時刻(t1+tf)までの区間を順次時間方向にずらした様子を示している。
第5実施形態によれば、平滑化処理部80は、一区間においてばらつきを抑えて信頼度を向上させた顔表情強度値を、時間方向のシフト量ごとに出力することができる。
[その他の実施の形態]
上述した本発明の第1実施形態から第4実施形態における画像特徴量計算部40は、画像特徴量としてBag−of−Keypointsを求める他に、例えば、ローカルバイナリパターン(Local Binary Patterns;LBP)、または拡張ローカルバイナリパターン(拡張LBP)を求めてもよい。
上述した本発明の第1実施形態から第4実施形態における画像特徴量計算部40は、画像特徴量としてBag−of−Keypointsを求める他に、例えば、ローカルバイナリパターン(Local Binary Patterns;LBP)、または拡張ローカルバイナリパターン(拡張LBP)を求めてもよい。
ローカルバイナリパターンは、画像特徴量計算部40が、解析領域において走査し選択する注目画素と、この注目画素の周辺画素(例えば、8個の隣接画素)とをそれぞれ比較し大小関係を二値化することによって得られるバイナリパターンを画像特徴量とするものである。画像特徴量計算部40は、解析領域に含まれる各画素を注目画素として順次走査してもよいし、所定数の画素間隔で離散的に走査してもよい。
ローカルバイナリパターンについては、例えば、Timo Ojala, Matti Pietikainen, Senior Member, IEEE and Topi Maenpaa, "Multiresolution Gray-Scale and Rotation Invariant Texture Classification with Local Binary Patterns", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 24, no. 7, July 2002に、詳細が開示されている。
具体的に、顔領域抽出部30の解析領域決定部32は、正規化顔領域データを格子状に分割(例えば、水平方向および垂直方向それぞれに8分割)する。つまり、解析領域決定部32は、正規化顔領域データの各分割ブロックデータを解析領域データとする。画像特徴量計算部40は、各分割ブロックデータについて、例えば画素ごとにLBPを計算する。そして、画像特徴量計算部40は、全てのLBPのパターンをビン、各パターンの出力回数を頻度とするヒストグラムを生成する。そして、画像特徴量計算部40は、各分割ブロックのヒストグラムを連結した連結ヒストグラムを顔画像特徴量とする。
また、拡張ローカルバイナリパターンは、上記のローカルバイナリパターンを時系列方向に拡張して得られるバイナリパターンを特徴量とするものである。つまり、拡張ローカルバイナリパターンは、顔表情解析装置1が評価映像データを取り込む場合に有用な特徴量である。画像特徴量計算部40は、評価映像データに含まれる現在評価顔画像データの特徴量をローカルバイナリパターンとして求める際に、現在評価顔画像データとこの現在評価顔画像データよりも過去および未来の評価顔画像データとの画素の比較結果もバイナリパターンに含める。
拡張LBPについては、例えば、Guoying Zhao, Matti Pietikainen, "Dynamic Texture Recognition Using Local Binary Patterns with an Application to Facial Expressions", IEEE Transactions on Patterns Analysis and Machine Intelligence, vol. 29, no. 6, June 2007に、詳細が開示されている。
また、回帰分析部50に線形回帰モデルまたはサポートベクトル回帰モデルのいずれかを適用してパラメータ値を求めた場合、顔表情評価部70から出力される顔表情強度値が、下限値(例えば“0(ゼロ)”)から上限値(例えば“100”)までの範囲内に収まらない場合がある。そこで、回帰分析部50に線形回帰モデルまたはサポートベクトル回帰モデルのいずれかを適用する場合、顔表情評価部70は、求めた顔表情強度値が“0(ゼロ)”未満であるときは“0(ゼロ)”、“100”を超えるときは“100”として、顔表情強度値を出力してもよい。
または、回帰分析部50に線形回帰モデルまたはサポートベクトル回帰モデルのいずれかを適用した顔表情解析装置1に、各評価顔画像データについて顔認識処理を実行して人物を識別する顔認識処理部をさらに備えてもよい。この場合、顔表示解析装置1が顔表情解析モードに設定された場合、所定期間において顔認識処理部が認識した人物ごとに、顔表情評価部70に、顔表情強度値の最大値intmaxと最小値intminとを用いて、下記の式(6)によって顔表情強度値intを0から100までの範囲内の値int’に正規化してもよい。
また、第1実施形態から第4実施形態では、回帰分析部50が実行する回帰分析処理として、線形回帰分析処理、ロジスティック回帰分析処理、およびサポートベクトル回帰分析処理を示した。回帰分析部50が実行する回帰分析処理は、これらの例に限定されることなく、他の回帰分析処理も適用できる。例えば、回帰分析部50は、ニューラルネットワークによる学習処理を回帰分析処理に適用してもよい。
また、第1実施形態から第5実施形態において、顔表情解析装置1を、顔表情解析モードのみで動作する装置としてもよい。具体的に、顔表情解析装置1から、顔表情強度教師値取得部20と、回帰分析部50と、モード切替部90とを削除し、顔表情解析処処理のみを実行する装置としてもよい。この場合、回帰モデル記憶部60には、顔表情種別ごとに最適化されたパラメータ値があらかじめ記憶される。
また、上述した各実施形態における顔表情解析装置1の一部の機能、例えば、平滑化処理部80の機能をコンピュータで実現するようにしてもよい。この場合、その機能を実現するための顔表情評価結果平滑化プログラムをコンピュータ読み取り可能な記録媒体に記録し、この記録媒体に記録された顔表情評価結果平滑化プログラムをコンピュータシステムに読み込ませて、このコンピュータシステムが実行することによって実現してもよい。なお、このコンピュータシステムとは、オペレーティング・システム(Operating System;OS)や周辺装置のハードウェアを含むものである。また、コンピュータ読み取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに備えられる磁気ハードディスクやソリッドステートドライブ等の記憶装置のことをいう。さらに、コンピュータ読み取り可能な記録媒体とは、インターネット等のコンピュータネットワーク、および電話回線や携帯電話網を介してプログラムを送信する場合の通信回線のように、短時間の間、動的にプログラムを保持するもの、さらには、その場合のサーバ装置やクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記の顔表情評価結果平滑化プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。
以上、本発明の実施の形態について図面を参照して詳述したが、具体的な構成はその実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。
1 顔表情解析装置
10 画像データ取得部
20 顔表情強度教師値取得部
30 顔領域抽出部
31 顔領域検出部
32 解析領域決定部
40 画像特徴量計算部
50 回帰分析部
60 回帰モデル記憶部
70 顔表情評価部
80 平滑化処理部(顔表情評価結果平滑化装置)
81 顔表情強度値取得部
82 顔表情強度値平滑化処理部
83 顔表情種別平滑化処理部
90 モード切替部
10 画像データ取得部
20 顔表情強度教師値取得部
30 顔領域抽出部
31 顔領域検出部
32 解析領域決定部
40 画像特徴量計算部
50 回帰分析部
60 回帰モデル記憶部
70 顔表情評価部
80 平滑化処理部(顔表情評価結果平滑化装置)
81 顔表情強度値取得部
82 顔表情強度値平滑化処理部
83 顔表情種別平滑化処理部
90 モード切替部
Claims (7)
- 顔画像に基づき顔表情種別ごとに得られた複数の顔表情強度値を、フレームごとに取り込む顔表情強度値取得部と、
前記顔表情強度値取得部が取り込んだ複数フレーム分の顔表情強度値を参照し、前記顔表情種別ごとの前記複数フレームの顔表情強度値に基づく合計値に基づいて、前記複数フレームに対応する代表顔表情強度値を計算する顔表情強度値平滑化処理部と、
を備えることを特徴とする顔表情評価結果平滑化装置。 - 前記合計値は、前記顔表情種別ごとの、前記複数フレーム分の顔表情強度値の合計値である、
ことを特徴とする請求項1記載の顔表情評価結果平滑化装置。 - 前記合計値は、前記複数フレームのそれぞれにおける最大の顔表情強度値の個数を顔表情種別ごとに計数して得た合計値である、
ことを特徴とする請求項1記載の顔表情評価結果平滑化装置。 - 前記顔表情強度値平滑化処理部は、前記複数フレーム内における各フレームの位置に応じた重み付けをして前記合計値を計算する、
ことを特徴とする請求項2または3いずれか記載の顔表情評価結果平滑化装置。 - 前記顔表情強度値平滑化処理部が求めた、前記顔表情種別ごとの合計値のうち最大の合計値に対応する顔表情種別を、前記複数フレームに対応する顔表情の分類結果として選出する顔表情種別平滑化処理部、
をさらに備えることを特徴とする請求項1〜4いずれか一項記載の顔表情評価結果平滑化装置。 - 前記顔表情強度値平滑化処理部は、前記複数フレームよりも少ないフレーム数をシフト量とし、前記複数フレームを前記シフト量だけ時間方向にずらす、
ことを特徴とする請求項1〜5いずれか一項記載の顔表情評価結果平滑化装置。 - コンピュータを、
顔画像に基づき顔表情種別ごとに得られた複数の顔表情強度値を、フレームごとに取り込む顔表情強度値取得部と、
前記顔表情強度値取得部が取り込んだ複数フレーム分の顔表情強度値を参照し、前記顔表情種別ごとの前記複数フレームの顔表情強度値に基づく合計値に基づいて、前記複数フレームに対応する代表顔表情強度値を計算する顔表情強度値平滑化処理部と、
として機能させるための顔表情評価結果平滑化プログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012273587A JP2014119879A (ja) | 2012-12-14 | 2012-12-14 | 顔表情評価結果平滑化装置および顔表情評価結果平滑化プログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012273587A JP2014119879A (ja) | 2012-12-14 | 2012-12-14 | 顔表情評価結果平滑化装置および顔表情評価結果平滑化プログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014119879A true JP2014119879A (ja) | 2014-06-30 |
Family
ID=51174680
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012273587A Pending JP2014119879A (ja) | 2012-12-14 | 2012-12-14 | 顔表情評価結果平滑化装置および顔表情評価結果平滑化プログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2014119879A (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20160116311A (ko) * | 2016-09-23 | 2016-10-07 | 경북대학교 산학협력단 | 로봇의 표정 기반 연속적 정서 인식 방법, 이를 수행하기 위한 기록 매체 및 장치 |
| KR101784418B1 (ko) * | 2016-04-04 | 2017-10-11 | 연세대학교 산학협력단 | 적응형 랜덤 포레스트와 피드백 모듈을 이용하여 얼굴 표정을 인식하기 위한 장치 및 그 방법 |
| WO2022025113A1 (ja) * | 2020-07-29 | 2022-02-03 | 浩行 喜屋武 | オンラインショー演出システム、笑い解析装置および笑い解析方法 |
| JPWO2022064660A1 (ja) * | 2020-09-25 | 2022-03-31 | ||
| WO2025203464A1 (ja) * | 2024-03-28 | 2025-10-02 | Ntt株式会社 | 画像処理装置、およびプログラム |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10191100A (ja) * | 1996-12-26 | 1998-07-21 | Fujitsu Ltd | 映像信号処理方法 |
| JP2005064839A (ja) * | 2003-08-12 | 2005-03-10 | Sony Corp | 記録装置、記録再生装置、再生装置、記録方法、記録再生方法および再生方法 |
| JP2006106711A (ja) * | 2004-09-10 | 2006-04-20 | Matsushita Electric Ind Co Ltd | 情報処理端末 |
| JP2008084213A (ja) * | 2006-09-28 | 2008-04-10 | Sony Corp | 画像処理装置、撮像装置、画像処理方法およびプログラム |
| JP2008170820A (ja) * | 2007-01-12 | 2008-07-24 | Takeshi Moriyama | コンテンツ提供システム及び方法 |
| JP2009087303A (ja) * | 2007-10-03 | 2009-04-23 | Nissan Motor Co Ltd | 表情推定装置、表情推定方法、及び車両制御装置 |
| JP2011511977A (ja) * | 2008-01-29 | 2011-04-14 | テセラ テクノロジーズ アイルランド リミテッド | デジタル画像における顔の表情の検出 |
-
2012
- 2012-12-14 JP JP2012273587A patent/JP2014119879A/ja active Pending
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10191100A (ja) * | 1996-12-26 | 1998-07-21 | Fujitsu Ltd | 映像信号処理方法 |
| JP2005064839A (ja) * | 2003-08-12 | 2005-03-10 | Sony Corp | 記録装置、記録再生装置、再生装置、記録方法、記録再生方法および再生方法 |
| JP2006106711A (ja) * | 2004-09-10 | 2006-04-20 | Matsushita Electric Ind Co Ltd | 情報処理端末 |
| JP2008084213A (ja) * | 2006-09-28 | 2008-04-10 | Sony Corp | 画像処理装置、撮像装置、画像処理方法およびプログラム |
| JP2008170820A (ja) * | 2007-01-12 | 2008-07-24 | Takeshi Moriyama | コンテンツ提供システム及び方法 |
| JP2009087303A (ja) * | 2007-10-03 | 2009-04-23 | Nissan Motor Co Ltd | 表情推定装置、表情推定方法、及び車両制御装置 |
| JP2011511977A (ja) * | 2008-01-29 | 2011-04-14 | テセラ テクノロジーズ アイルランド リミテッド | デジタル画像における顔の表情の検出 |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101784418B1 (ko) * | 2016-04-04 | 2017-10-11 | 연세대학교 산학협력단 | 적응형 랜덤 포레스트와 피드백 모듈을 이용하여 얼굴 표정을 인식하기 위한 장치 및 그 방법 |
| KR20160116311A (ko) * | 2016-09-23 | 2016-10-07 | 경북대학교 산학협력단 | 로봇의 표정 기반 연속적 정서 인식 방법, 이를 수행하기 위한 기록 매체 및 장치 |
| KR101697476B1 (ko) | 2016-09-23 | 2017-01-19 | 경북대학교 산학협력단 | 로봇의 표정 기반 연속적 정서 인식 방법, 이를 수행하기 위한 기록 매체 및 장치 |
| WO2022025113A1 (ja) * | 2020-07-29 | 2022-02-03 | 浩行 喜屋武 | オンラインショー演出システム、笑い解析装置および笑い解析方法 |
| US12489946B2 (en) | 2020-07-29 | 2025-12-02 | Lollol Co., Ltd. | Online show rendition system, laughter analysis device, and laughter analysis method |
| JPWO2022064660A1 (ja) * | 2020-09-25 | 2022-03-31 | ||
| WO2022064660A1 (ja) * | 2020-09-25 | 2022-03-31 | 富士通株式会社 | 機械学習プログラム、機械学習方法および推定装置 |
| JP7396509B2 (ja) | 2020-09-25 | 2023-12-12 | 富士通株式会社 | 機械学習プログラム、機械学習方法および推定装置 |
| WO2025203464A1 (ja) * | 2024-03-28 | 2025-10-02 | Ntt株式会社 | 画像処理装置、およびプログラム |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111738160B (zh) | 视频微表情识别方法、装置、计算机设备及存储介质 | |
| Yang et al. | Understanding discrete facial expressions in video using an emotion avatar image | |
| Wang et al. | Learning and matching of dynamic shape manifolds for human action recognition | |
| JP6166981B2 (ja) | 表情解析装置及び表情解析プログラム | |
| US20130070973A1 (en) | Face recognizing apparatus and face recognizing method | |
| CN110555481A (zh) | 一种人像风格识别方法、装置和计算机可读存储介质 | |
| Gulhane et al. | Advancing Facial Recognition: Enhanced Model with Improved Deepface Algorithm for Robust Adaptability in Diverse Scenarios | |
| JP5879188B2 (ja) | 顔表情解析装置および顔表情解析プログラム | |
| US20120057748A1 (en) | Apparatus which detects moving object from image and method thereof | |
| JP6101470B2 (ja) | 顔表情解析装置および顔表情解析プログラム | |
| Bejaoui et al. | Fully automated facial expression recognition using 3D morphable model and mesh-local binary pattern | |
| Wu et al. | Privacy leakage of SIFT features via deep generative model based image reconstruction | |
| JP2014119879A (ja) | 顔表情評価結果平滑化装置および顔表情評価結果平滑化プログラム | |
| HN et al. | Human Facial Expression Recognition from static images using shape and appearance feature | |
| Sharma et al. | Solving image processing critical problems using machine learning | |
| Szankin et al. | Influence of thermal imagery resolution on accuracy of deep learning based face recognition | |
| Dixit et al. | Multi-feature based automatic facial expression recognition using deep convolutional neural network | |
| Allaert et al. | Advanced local motion patterns for macro and micro facial expression recognition | |
| Zhao et al. | Applying contrast-limited adaptive histogram equalization and integral projection for facial feature enhancement and detection | |
| Zhang et al. | Three dimensional binary edge feature representation for pain expression analysis | |
| Dudekula et al. | Linear fusion approach to convolutional neural networks for facial emotion recognition | |
| Adapa et al. | Multimodal face shape detection based on human temperament with hybrid feature fusion and Inception V3 extraction model | |
| Patil et al. | A review of human facial expression recognition systems applied for wild dataset in last decade | |
| Hsu et al. | Facial expression recognition using Hough forest | |
| Rezaei et al. | A deep learning-based method for facial wrinkle detection |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151102 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160818 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160823 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170228 |