JP2009098901A - 表情検出方法及び装置及びプログラム - Google Patents
表情検出方法及び装置及びプログラム Download PDFInfo
- Publication number
- JP2009098901A JP2009098901A JP2007269458A JP2007269458A JP2009098901A JP 2009098901 A JP2009098901 A JP 2009098901A JP 2007269458 A JP2007269458 A JP 2007269458A JP 2007269458 A JP2007269458 A JP 2007269458A JP 2009098901 A JP2009098901 A JP 2009098901A
- Authority
- JP
- Japan
- Prior art keywords
- state
- detecting
- laughing
- facial expression
- nose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】ホームビデオカメラで撮影された一般のノイズ成分なども存在する動画像においても、精度良く表情を検出する。
【解決手段】本発明は、動画像を入力し、動画像から人物の顔画像を検出し、顔画像領域から鼻の先端、口角の位置を特徴点として抽出し、鼻の先端を基準とした時の、口角の左右の位置との角度を計測して特徴量とし、角度の時間変化を求め、前記時間変化から平衡状態からの立ち上がり状態、最大角度情報、平衡状態への立ち下がり状態の3状態に分割することで、笑い状態の開始から終了までの連続的な変化を捕らえられることで笑い状態を検出する。
【選択図】図1
【解決手段】本発明は、動画像を入力し、動画像から人物の顔画像を検出し、顔画像領域から鼻の先端、口角の位置を特徴点として抽出し、鼻の先端を基準とした時の、口角の左右の位置との角度を計測して特徴量とし、角度の時間変化を求め、前記時間変化から平衡状態からの立ち上がり状態、最大角度情報、平衡状態への立ち下がり状態の3状態に分割することで、笑い状態の開始から終了までの連続的な変化を捕らえられることで笑い状態を検出する。
【選択図】図1
Description
本発明は、表情検出方法及び装置及びプログラムに係り、特に、動画像の中から、人物の笑い状態を検出するための表情検出方法及び装置及びプログラムに関する。
顔の表情を検出するための技術として、Facial Action Coding System(FACS)が知られている。FACSでは、Action Unit、すなわち、顔の特徴点を動的に観察することにより、その変化を抽出し、顔の表情を記述するものである(例えば、非特許文献1,2,3参照)。
また、顔面全体にわたって筋肉の微少な動きを計測し、その時間的変化をパターン化し、そのパターンに基づいて、感情を表す表情の認識を行う技術がある(例えば、特許文献1参照)。
また、顔画像の眉毛、両目、唇の形状を特徴領域として認識し、これらを追跡することで表情認識する手法が提案されている(例えば、非特許文献4参照)。
特許第3098276号公報
Paul Ekman:Facial Expression and Emotion., American Psychologist, Volume 48, Issue 4, April 1993, pp.384-392.
Ekman P., Keltner D.: Universal facial expressions of emotion. In: U. Segerstrale & P. Molnar (Eds.). Nonverbal Communication (pp. 27-46), Mahwah NJ: LEA (1997).
the FACS (http://face-and-emotion.com/dataface/facs/description. jsp).
Michael J. Black, Yaser Yacoob: Tracking and Recognizing Rigid and Non-Rigid Facial Motions using Local Parametric Models of Image Motion, Fifth International Conference on Computer Vision, June 1995, pp. 374-381.
しかしながら、上記従来の非特許文献1〜3に提案されている技術は、鮮明な画像群から表情認識することができても、例えば、ホームビデオなどで撮影されるような、ノイズ成分が存在する一般の動画像から表情を認識する方法が示されているわけではない。
また、FACSでは、Action Unit検出において、学習アルゴリズムに基づく分類器(SVM、ニューラルネットなど)を用いていることから、大量の学習データが必要になり、学習に時間が必要となり、低コストで表情を認識することができない。
また、非特許文献4の技術では、ノイズ成分が存在する一般の動画像から特徴領域を精度よく認識することが困難であり、さらに複数特徴領域を持つことも鑑みると、本発明で対象とする動画像から表情認識することには適応できない。
本発明は、上記の点に鑑みなされたもので、ホームビデオカメラで撮影された一般のノイズ成分なども存在する低品質な動画像からでも、精度良く表情を検出することが可能な表情検出方法及び装置及びプログラムを提供することを目的とする。
本発明(請求項1)は、表情検出装置において入力された動画像から顔の表情を検出するための表情検出方法であって、
状態検出手段が、入力手段から入力された動画像から、人物の顔を抽出し、その中の鼻の先端の位置及び左右口角の位置がなす角度の変化から笑い状態を検出する検出ステップを行う。
状態検出手段が、入力手段から入力された動画像から、人物の顔を抽出し、その中の鼻の先端の位置及び左右口角の位置がなす角度の変化から笑い状態を検出する検出ステップを行う。
また、本発明(請求項2)は、検出ステップにおいて、
角度の変化から、最大角度状態、平衡状態から最大角度状態への立ち上がり状態、最大角度状態から平衡状態への立ち下がりの3状態である部分を検出するステップと、
平衡状態から最大角度状態への立ち上がり状態が開始してから最大角度状態を経て最大角度状態から平衡状態への立ち下がり状態が終了するまでを笑い状態として検出するステップと、を行う。
角度の変化から、最大角度状態、平衡状態から最大角度状態への立ち上がり状態、最大角度状態から平衡状態への立ち下がりの3状態である部分を検出するステップと、
平衡状態から最大角度状態への立ち上がり状態が開始してから最大角度状態を経て最大角度状態から平衡状態への立ち下がり状態が終了するまでを笑い状態として検出するステップと、を行う。
また、本発明(請求項3)は、検出ステップにおいて、
左右口角の位置の中心と鼻の先端の位置とを結んだ線に対して、該左右口角の位置が対称である場合には笑い状態とし、非対称の場合には笑い状態ではないとするステップを更に行う。
左右口角の位置の中心と鼻の先端の位置とを結んだ線に対して、該左右口角の位置が対称である場合には笑い状態とし、非対称の場合には笑い状態ではないとするステップを更に行う。
図1は、本発明の原理を説明するための図である。
本発明(請求項4)は、入力された動画像から顔の表情を検出するための表情検出装置であって、
動画像を入力する入力手段10と、
動画像から人物の顔画像を検出する顔画像領域抽出手段20と、
顔画像領域から鼻の先端、口角の位置を特徴点として抽出し、特徴点記憶手段35に格納する特徴点抽出手段30と、
特徴点記憶手段35から鼻の先端、口角の位置を取得して、該記鼻の先端を基準とした時の、該口角の左右の位置との角度を計測して特徴量として特徴量記憶手段45に格納する特徴量抽出手段40と、
特徴量記憶手段45に格納された特徴量を追跡して笑い状態を検出する笑い状態検出手段50と、を有する。
動画像を入力する入力手段10と、
動画像から人物の顔画像を検出する顔画像領域抽出手段20と、
顔画像領域から鼻の先端、口角の位置を特徴点として抽出し、特徴点記憶手段35に格納する特徴点抽出手段30と、
特徴点記憶手段35から鼻の先端、口角の位置を取得して、該記鼻の先端を基準とした時の、該口角の左右の位置との角度を計測して特徴量として特徴量記憶手段45に格納する特徴量抽出手段40と、
特徴量記憶手段45に格納された特徴量を追跡して笑い状態を検出する笑い状態検出手段50と、を有する。
また、本発明(請求項5)は、請求項4の笑い状態検出手段50において、
特徴量抽出手段40で得られた角度の時間変化を求め、時間変化から平衡状態からの立ち上がり状態、最大角度情報、平衡状態への立ち下がり状態の3状態に分割することで、笑い状態の開始から終了までの連続的な変化を捕らえられることで笑い状態を検出する手段を含む。
特徴量抽出手段40で得られた角度の時間変化を求め、時間変化から平衡状態からの立ち上がり状態、最大角度情報、平衡状態への立ち下がり状態の3状態に分割することで、笑い状態の開始から終了までの連続的な変化を捕らえられることで笑い状態を検出する手段を含む。
また、本発明(請求項6)は、請求項4の特徴量抽出手段40において、
口角の左右の位置の中心点を求め、該中心点と鼻の先端とを結んだ基準線に対して、該口角の左右の位置状態が対称であるかを判断することにより、笑い状態であるかを検出する手段を更に有する。
口角の左右の位置の中心点を求め、該中心点と鼻の先端とを結んだ基準線に対して、該口角の左右の位置状態が対称であるかを判断することにより、笑い状態であるかを検出する手段を更に有する。
本発明(請求項7)は、入力された動画像から顔の表情を検出するための表情検出装置であって、
動画像を入力する入力手段と、
動画像から人物の顔領域を検出する顔画像領域抽出手段と、
顔画像領域から鼻の先端、口角の位置を特徴点として抽出し、特徴点記憶手段に格納する特徴点抽出手段と、
特徴点記憶手段から鼻の先端と口角の左右の位置を取得して、該鼻の選択を基準とした時の、該口角の左右の位置との角度を計測して特徴量とする特徴量抽出手段と、
特徴量を追跡して笑い状態を検出する笑い状態検出手段と、を有する。
動画像を入力する入力手段と、
動画像から人物の顔領域を検出する顔画像領域抽出手段と、
顔画像領域から鼻の先端、口角の位置を特徴点として抽出し、特徴点記憶手段に格納する特徴点抽出手段と、
特徴点記憶手段から鼻の先端と口角の左右の位置を取得して、該鼻の選択を基準とした時の、該口角の左右の位置との角度を計測して特徴量とする特徴量抽出手段と、
特徴量を追跡して笑い状態を検出する笑い状態検出手段と、を有する。
また、本発明(請求項8)は、請求項7の笑い状態検出手段において、
特徴量抽出手段で得られた角度の時間変化を求め、該時間変化に基づいて、平衡状態からの立ち上がり状態、最大角度状態、平衡状態への立ち下がり状態の3状態を分割し、笑い状態の開始から終了までの連続的な変化をとらえることで笑い状態を検出する手段を含む。
特徴量抽出手段で得られた角度の時間変化を求め、該時間変化に基づいて、平衡状態からの立ち上がり状態、最大角度状態、平衡状態への立ち下がり状態の3状態を分割し、笑い状態の開始から終了までの連続的な変化をとらえることで笑い状態を検出する手段を含む。
また、本発明(請求項9)は、請求項7の特徴量抽出手段において、
口角の左右の位置の中心点を求め、該中心点と鼻の先端とを結んだ基準線に対して、口角の左右の位置状態が対称であるかを判断することにより、笑い状態であるかを検出する手段を更に有する。
口角の左右の位置の中心点を求め、該中心点と鼻の先端とを結んだ基準線に対して、口角の左右の位置状態が対称であるかを判断することにより、笑い状態であるかを検出する手段を更に有する。
本発明(請求項10)は、請求項4乃至9のいずれか1項に記載の表情検出装置を構成する各手段としてコンピュータを機能させる表情検出プログラムである。
上記のように本発明によれば、動画像に対して、人物の顔領域から、鼻の先端、口角の左右の位置といった、特徴領域より安定して得られる特徴点であっても、鼻の先端を基準とした時の、口角の左右の位置との角度を計測して特徴量とし、特徴量を追跡することで、ノイズ成分が存在する低品質な動画像からでも、低コストで精度よく、人物の笑い状態を検出することが可能となる。
さらに、特徴量を追跡することで、平衡状態からの立ち上がり状態、最大角度状態、平衡状態への立ち下がり状態の3つの状態に分割し、笑い状態の開始から終了までの連続的な変化を捕らえることが可能となる。
さらに、口角の左右の位置の中心点を求め、これと鼻の先端とを結んだ基準線に対して、口角の左右の位置状態が対象であるかを判断することにより、笑い状態であるかを検出することができる。
以下、図面と共に本発明の実施の形態を説明する。
[第1の実施の形態]
図2は、本発明の第1の実施の形態における表示検出装置の構成を示し、図3は、本発明の第1の実施の形態における基本的な表情検出処理のフローチャートである。
図2は、本発明の第1の実施の形態における表示検出装置の構成を示し、図3は、本発明の第1の実施の形態における基本的な表情検出処理のフローチャートである。
同図に示す表示検出装置は、動画入力部10、顔画像領域抽出部20、特徴点抽出部30、特徴量抽出部40、笑い状態検出部50、特徴点記憶部35、特徴量記憶部45から構成される。
ステップ1) 動画入力部10は、動画を入力する。
ステップ2) 顔画像領域抽出部20は、Adaboost学習によるHaar-like特徴を用いた識別器を用いるものとし、入力された動画像から人物の顔画像領域を抽出する。ここで、多数の弱識別器をカスケード型とし、該カスケード型識別器を識別対象の大きさ、位置を変化させて適用し、顔画像領域を特定する。これについては、例えば、文献「Paul Viola, Michael J. Jones. Robust Real-Time Face Detection. International Journal of Computer Vision. Vol. 57, No2 pp.137-154 (2004)」などに記載されている。
ステップ3) 特徴点抽出部30は、顔画像領域抽出部20で抽出された顔画像領域から鼻の先端、口角の左右の位置を特徴点として抽出し、特徴点記憶部35に格納する。特徴点抽出処理を行う際に、事前処理として、図4に示す黒抜き丸で示す25点の特徴点を抽出している。特徴点は、輪郭、目玉、眉毛、鼻、口に関連して割り振っている。この特徴点の抽出方法としては、例えば、文献「Lades M., Vorbruggen J., Buhmann J., Lange J., Konen W., von der Malsburg C., Wurtz R. Distortion Invariant Object Recognition in the Dynamic Link Architecture. IEEE Trans. Computers, Vol. 42, No. 3 pp.300-311(1993)」、「Wiskott L., Fellous J.-M., Kruger N., von der Malsburg C. Face Recognition by Elastic Bunch Graph Matching. IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 19. Issue 7, pp. 775-779 (1997)」等の公知の方法を用いるものとする。これらの公知技術を参照することにより、例えば、人物が顔を動かすなどの行為を行ったとしても安定して、図4に示す25点の特徴を抽出可能である。この25点の特徴のうち、図5に示す二重丸の3点(h,i,j)のみを抽出し、残りの点は必要としない。これらは、鼻の先端、口角の左右の位置に相当する点である。また、25点の特徴を抽出することなく、必要な3点のみを直接抽出してもよい。このような方法により、不要な点の抽出処理を省くことができる。
ステップ4) 特徴量抽出部40は、鼻の先端を基準としたときの口角の左右位置との角度を計測して特徴とする。図6の例では、鼻の先端hを基準としたときの左右の口角の位置i,jの角度αを計測し、特徴量とし、特徴量記憶部45に格納する。
ステップ5) 笑い状態検出部50は、特徴量記憶部45から特徴量(角度α)を読み出して、各度αの時間変化を求め、時間変化から平衡状態からの立ち上がり状態、最大角度状態、平衡状態への立ち下がり状態の3状態に分割し、笑い状態からの開始から終了までの連続的な変化を捉える。具体的には、角度の特徴量をαとしたときのその時間履歴を図7のように計測する。更に、αの時間履歴から、同図に示すように、平衡状態からの立ち上がり、最大角度、平衡状態への立下りの3状態に分割する。実際には、人間が平衡状態にあるときに必ずしも口の形状が閉まっている状態ではないことが想定される。また、通常会話しているときも口の形状は開閉状態となる。このような場合においても、笑っているか否かを判断するためには、例えば、特徴量αの時間変化を観測すればよい。具体的には、図8に示すように、特徴量の時間微分dα/dtと、2つの閾値を用いる。2つの閾値については、高閾値「thupper」と低閾値「thlower」と呼ぶこととする。この閾値は静的に設定されるものでもよく、後述する方法により動的に設定されるものであってもよい。
以下に、笑い状態検出部50における、3状態に分割する方法について説明する。
平衡状態からの立ち上がり状態については、その開始時刻を時間微分dα/dtが高閾値thupperを超えた時刻の時間微分dα/dtから時間的に前方向を観測し、最短時間でdα/dt=0となる時刻t0とする。一方、終了時刻は、時間微分dα/dtが高閾値thupper越えた時刻の時間微分dα/dtから時間的に後ろ方向を観測し、最短時間でdα/dt=0となる時刻t1とする。この時刻t1は最大角度状態の開始時刻にも相当する。
平衡状態への立下り状態については、最大角度状態以降で、低閾値thlowerを下回った時刻の時間微分dα/dtから時間的に前方向を観測し、最短時間でdα/dt=0となる時刻t2を開始時刻とする。この時刻t2は、最大角度状態の終了時刻にも相当する。一方、開始時刻は、時間微分dα/dtが低閾値thlowerを下回った時刻の時間微分dα/dtから時間的に後ろ方向を観測し、最短時間でdα/dt=0となる時刻t3とする。
前述のように、立上がり状態の開始時刻から平衡状態への立下り終了時刻までが一連の笑い状態として判別される。
次に、前述の高閾値thupperと低閾値thlowerを動的に設定する方法について述べる。
例えば、高閾値と低閾値の標準偏差と平均値をそれぞれσupperとμupper、σlowerとμlowerとした場合、
thupper=a・σupper+b・μupper 式(1)
thlower=c・σlower+d・μlower 式(2)
としてもよい。ここで、a,b,c,dは、係数で任意の値とし、例えば、予め、試験用動画像を用意し、統計的な学習工程を経て設定するものであってもよい。具体的には、人手により本手法による笑い状態の上記の3状態の開始時刻と終了時刻の正解集合を設定し、これと本発明によって抽出された上記の3状態の開始時刻と終了時刻との時間差を最小限とするようにa,b,c,dを設定してもよい。
thupper=a・σupper+b・μupper 式(1)
thlower=c・σlower+d・μlower 式(2)
としてもよい。ここで、a,b,c,dは、係数で任意の値とし、例えば、予め、試験用動画像を用意し、統計的な学習工程を経て設定するものであってもよい。具体的には、人手により本手法による笑い状態の上記の3状態の開始時刻と終了時刻の正解集合を設定し、これと本発明によって抽出された上記の3状態の開始時刻と終了時刻との時間差を最小限とするようにa,b,c,dを設定してもよい。
人間は、発話を一切していない状態においても口の形状が微小に変化していることが想定される。例えば、唇を噛みしめたり、つばを飲み込む動作を考えるだけでもこれらは容易に想像できる。これらの微小な変化が、角度αに影響する。また、笑いを含む発声行為についても、人間は規則的に口を開閉するもではなく、ある程度の不規則さを伴って開閉することが想定される。いわゆるこのようなノイズの影響を軽減させるために、例えば、検出した角度にメディアンフィルタを適用する対策を施してもよい。
また、本発明による時間微分dα/dtでは、笑い状態と、一般の発声と区別が付かない場合も想定される。例えば、illegalと発声した場合、"ille"の部分でdα/dtが増加し、"gal"の部分でdα/dtが減少するため、笑い状態と似ている挙動となる可能性がある。そのような場合には、例えば、最大角度状態の時間に着目し、t2−t1>ttimeなどの時間的な閾値ttimeを設定することで問題を回避可能となる。
当該笑い状態検出部50は、上記の処理により、時間、角度α、時間微分dα/dtからなる情報、または、3状態に分割された時刻の情報を出力する。
これまで、本発明の基本的な例を述べてきたが、例えば、角度αのみに着目している場合、例えば、引きつった笑いや、いやみを発言するときなどに頻出する。鼻の稜線を基準線としたときの左右非対称の状態においても笑い状態と判別する可能性がある。このような問題に対しては、図9に示すように、口角の左右の位置i,jを結ぶ線分の中心と、鼻の先端hとを結ぶ線分を基準線とし、基準線に対する左右の口角位置との角度をそれぞれ、α1、α2としてこれらの値の差を考慮することで対象であるか否かを判定すればよい。
例えば、それぞれの時間微分dα1/dt、dα2/dtの時間履歴を測定し、これらの相関係数を求め、例えば、0.5以上であるときに対象としてもよい。また、それぞれの時間微分がdα1/dt>0、dα2/dt>0となる時刻をts1、ts2としたときの│ts1−ts2│に閾値を設定するなどしてもよい。
なお、上記の表情検出装置の構成要素の各動作をプログラムとして構築し、表情検出装置として利用されるコンピュータにインストールして実行させる、または、ネットワークを介して流通させることが可能である。
また、構築されたプログラムを、ハードディスクや、フレキシブルディスク・CD−ROM等の可搬記憶媒体に格納し、表情検出装置として利用されるコンピュータにインストールする、または、配布することが可能である。
なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。
本発明は、動画像から人物の表情を検出するための技術に適用可能である。
例えば、人間Aと人間Bの視聴状況を動画像として取得し、人間Aが、あるお笑い番組を視聴しているときに、楽しいシーンで当該人間Aが笑ったことを検知し、さらに、別の人間Bが同様のシーンで笑ったことを検知した場合、人間AとBは同じシーンで笑ったため感性的に近い人間であると判断し、インターネット上のコミュニティサイトで友達になれるように誘導するようなサービスに適用することが可能である。
また、視聴率調査会社等で視聴率として、単にテレビ画面が表示されているか否かにより取得しているが、本発明を視聴率調査に適用することで、人間Aと人間Bがどのシーンで笑ったかを把握することが可能となる。
10 入力手段、入力部
20 顔画像領域抽出手段、顔画像領域抽出部
30 特徴点抽出手段、特徴店抽出部
35 特徴点記憶手段、特徴点記憶部
40 特徴量抽出手段、特徴量抽出部
45 特徴量記憶手段、特徴量記憶部
50 笑い状態検出手段、笑い状態検出部
20 顔画像領域抽出手段、顔画像領域抽出部
30 特徴点抽出手段、特徴店抽出部
35 特徴点記憶手段、特徴点記憶部
40 特徴量抽出手段、特徴量抽出部
45 特徴量記憶手段、特徴量記憶部
50 笑い状態検出手段、笑い状態検出部
Claims (10)
- 表情検出装置において入力された動画像から顔の表情を検出するための表情検出方法であって、
状態検出手段が、入力手段から入力された動画像から、人物の顔を抽出し、その中の鼻の先端の位置及び左右口角の位置がなす角度の変化から笑い状態を検出する検出ステップを行うことを特徴とする表情検出方法。 - 前記検出ステップにおいて、
前記角度の変化から、最大角度状態、平衡状態から最大角度状態への立ち上がり状態、最大角度状態から平衡状態への立ち下がりの3状態である部分を検出するステップと、
前記平衡状態から最大角度状態への立ち上がり状態が開始してから最大角度状態を経て前記最大角度状態から平衡状態への立ち下がり状態が終了するまでを笑い状態として検出するステップと、
を行う請求項1記載の表情検出方法。 - 前記検出ステップにおいて、
左右口角の位置の中心と鼻の先端の位置とを結んだ線に対して、該左右口角の位置が対称である場合には笑い状態とし、非対称の場合には笑い状態ではないとするステップを更に行う請求項1または2記載の表情検出方法。 - 入力された動画像から顔の表情を検出するための表情検出装置であって、
動画像を入力する入力手段と、
前記動画像から人物の顔画像を検出する顔画像領域抽出手段と、
前記顔画像領域から鼻の先端、口角の位置を特徴点として抽出し、特徴点記憶手段に格納する特徴点抽出手段と、
前記特徴点記憶手段から前記鼻の先端、前記口角の位置を取得して、該記鼻の先端を基準とした時の、該口角の左右の位置との角度を計測して特徴量として特徴量記憶手段に格納する特徴量抽出手段と、
前記特徴量記憶手段に格納された前記特徴量を追跡して笑い状態を検出する笑い状態検出手段と、
を有することを特徴とする表情検出装置。 - 前記笑い状態検出手段は、
前記特徴量抽出手段で得られた前記角度の時間変化を求め、前記時間変化から平衡状態からの立ち上がり状態、最大角度情報、平衡状態への立ち下がり状態の3状態に分割することで、笑い状態の開始から終了までの連続的な変化を捕らえられることで笑い状態を検出する手段を含む
請求項4記載の表情検出装置。 - 前記特徴量抽出手段は、
前記口角の左右の位置の中心点を求め、該中心点と前記鼻の先端とを結んだ基準線に対して、該口角の左右の位置状態が対称であるかを判断することにより、笑い状態であるかを検出する手段を更に有する
請求項4また5記載の表情検出装置。 - 入力された動画像から顔の表情を検出するための表情検出装置であって、
動画像を入力する入力手段と、
前記動画像から人物の顔領域を検出する顔画像領域抽出手段と、
前記顔画像領域から鼻の先端、口角の位置を特徴点として抽出し、特徴点記憶手段に格納する特徴点抽出手段と、
前記特徴点記憶手段から前記鼻の先端と前記口角の左右の位置を取得して、該鼻の選択を基準とした時の、該口角の左右の位置との角度を計測して特徴量とする特徴量抽出手段と、
前記特徴量を追跡して笑い状態を検出する笑い状態検出手段と、
を有することを特徴とする表情検出装置。 - 前記笑い状態検出手段は、
前記特徴量抽出手段で得られた前記角度の時間変化を求め、該時間変化に基づいて、平衡状態からの立ち上がり状態、最大角度状態、平衡状態への立ち下がり状態の3状態を分割し、笑い状態の開始から終了までの連続的な変化をとらえることで笑い状態を検出する手段を含む
請求項7記載の表情検出装置。 - 前記特徴量抽出手段は、
前記口角の左右の位置の中心点を求め、該中心点と前記鼻の先端とを結んだ基準線に対して、前記口角の左右の位置状態が対称であるかを判断することにより、前記笑い状態であるかを検出する手段を更に有する
請求項7または8記載の表情検出装置。 - 請求項4乃至9のいずれか1項に記載の表情検出装置を構成する各手段としてコンピュータを機能させる表情検出プログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007269458A JP2009098901A (ja) | 2007-10-16 | 2007-10-16 | 表情検出方法及び装置及びプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007269458A JP2009098901A (ja) | 2007-10-16 | 2007-10-16 | 表情検出方法及び装置及びプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2009098901A true JP2009098901A (ja) | 2009-05-07 |
Family
ID=40701849
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007269458A Pending JP2009098901A (ja) | 2007-10-16 | 2007-10-16 | 表情検出方法及び装置及びプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2009098901A (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012128382A1 (en) * | 2011-03-18 | 2012-09-27 | Sharp Kabushiki Kaisha | Device and method for lip motion detection |
| CN106250815A (zh) * | 2016-07-05 | 2016-12-21 | 上海引波信息技术有限公司 | 一种基于嘴部特征的快速表情识别方法 |
| CN108509941A (zh) * | 2018-04-20 | 2018-09-07 | 北京京东金融科技控股有限公司 | 情绪信息生成方法和装置 |
| JP2019098168A (ja) * | 2017-12-01 | 2019-06-24 | ポーラ化成工業株式会社 | 肌解析方法及び肌解析システム |
| JP2021114317A (ja) * | 2015-01-31 | 2021-08-05 | モファット,ブライアン,リー | 顔の幾何学的形状の歪みによるコンピュータの制御 |
-
2007
- 2007-10-16 JP JP2007269458A patent/JP2009098901A/ja active Pending
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012128382A1 (en) * | 2011-03-18 | 2012-09-27 | Sharp Kabushiki Kaisha | Device and method for lip motion detection |
| JP2021114317A (ja) * | 2015-01-31 | 2021-08-05 | モファット,ブライアン,リー | 顔の幾何学的形状の歪みによるコンピュータの制御 |
| CN106250815A (zh) * | 2016-07-05 | 2016-12-21 | 上海引波信息技术有限公司 | 一种基于嘴部特征的快速表情识别方法 |
| CN106250815B (zh) * | 2016-07-05 | 2019-09-20 | 上海引波信息技术有限公司 | 一种基于嘴部特征的快速表情识别方法 |
| JP2019098168A (ja) * | 2017-12-01 | 2019-06-24 | ポーラ化成工業株式会社 | 肌解析方法及び肌解析システム |
| JP7183005B2 (ja) | 2017-12-01 | 2022-12-05 | ポーラ化成工業株式会社 | 肌解析方法及び肌解析システム |
| CN108509941A (zh) * | 2018-04-20 | 2018-09-07 | 北京京东金融科技控股有限公司 | 情绪信息生成方法和装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Agarwal et al. | Protecting world leaders against deep fakes. | |
| Shreve et al. | Macro-and micro-expression spotting in long videos using spatio-temporal strain | |
| US10810409B2 (en) | Identifying facial expressions in acquired digital images | |
| JP4939968B2 (ja) | 監視画像処理方法、監視システム及び監視画像処理プログラム | |
| Tsalakanidou et al. | Use of depth and colour eigenfaces for face recognition | |
| Bettadapura | Face expression recognition and analysis: the state of the art | |
| US20090285456A1 (en) | Method and system for measuring human response to visual stimulus based on changes in facial expression | |
| TW201911130A (zh) | 一種翻拍影像識別方法及裝置 | |
| JP6647474B2 (ja) | 表情認識装置 | |
| Saeed | Facial micro-expressions as a soft biometric for person recognition | |
| Best-Rowden et al. | Video-to-video face matching: Establishing a baseline for unconstrained face recognition | |
| CN104063709B (zh) | 视线检测装置及方法、图像捕获装置及其控制方法 | |
| Chan et al. | Local ordinal contrast pattern histograms for spatiotemporal, lip-based speaker authentication | |
| Zhang et al. | 3d visual passcode: Speech-driven 3d facial dynamics for behaviometrics | |
| JP2009098901A (ja) | 表情検出方法及び装置及びプログラム | |
| Madake et al. | Vision-based monitoring of student attentiveness in an e-learning environment | |
| Kumar et al. | Depth videos for the classification of micro-expressions | |
| Hizem et al. | Face recognition from synchronised visible and near-infrared images | |
| JP2008009728A (ja) | 表情認識方法及び表情認識装置 | |
| US20240205239A1 (en) | Methods and systems for fraud detection using relative movement of facial features | |
| Heni et al. | Facial emotion detection of smartphone games users | |
| Lavi et al. | Biometric system based on kinect skeletal, facial and vocal features | |
| Zhang et al. | Dual-modality talking-metrics: 3D visual-audio integrated behaviometric cues from speakers | |
| Anitta et al. | CNN—Forest based person identification and head pose estimation for AI based applications | |
| Tapu et al. | Face recognition in video streams for mobile assistive devices dedicated to visually impaired |