JP2002298155A - 感情による3dコンピュータグラフィックス表情モデル形成システム - Google Patents
感情による3dコンピュータグラフィックス表情モデル形成システムInfo
- Publication number
- JP2002298155A JP2002298155A JP2001094872A JP2001094872A JP2002298155A JP 2002298155 A JP2002298155 A JP 2002298155A JP 2001094872 A JP2001094872 A JP 2001094872A JP 2001094872 A JP2001094872 A JP 2001094872A JP 2002298155 A JP2002298155 A JP 2002298155A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- expression
- parameter
- dimensional
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
(57)【要約】
【課題】 感情に基づく3Dコンピュータグラフィック
ス表情モデル形成システムの提供。 【解決手段】 入力手段、記憶手段、制御手段、出力手
段、表示手段を備えるコンピュータ装置に備えられ、感
情の推移に基づき表情を合成する3Dコンピュータグラ
フィックス表情モデル形成システムであって、3次元の
感情パラメータをn次元の表情合成パラメータに展開す
るための5層ニューラルネットワークの後3層、基本感
情に対応する感情空間上3次元感情パラメータ、及び表
情を合成する3Dコンピュータグラフィックス表情モデ
ル形成のソースとなるシェイプデータを記憶する記憶手
段と、特定の感情に対する感情空間上の感情パラメータ
導出手段と、中間層を3ユニットとした5層ニューラル
ネットワークの後3層のデータを利用して、中間層に感
情パラメータ導出手段から導出された感情パラメータを
入力し、出力層に表情合成パラメータを出力する演算手
段とを備える。
ス表情モデル形成システムの提供。 【解決手段】 入力手段、記憶手段、制御手段、出力手
段、表示手段を備えるコンピュータ装置に備えられ、感
情の推移に基づき表情を合成する3Dコンピュータグラ
フィックス表情モデル形成システムであって、3次元の
感情パラメータをn次元の表情合成パラメータに展開す
るための5層ニューラルネットワークの後3層、基本感
情に対応する感情空間上3次元感情パラメータ、及び表
情を合成する3Dコンピュータグラフィックス表情モデ
ル形成のソースとなるシェイプデータを記憶する記憶手
段と、特定の感情に対する感情空間上の感情パラメータ
導出手段と、中間層を3ユニットとした5層ニューラル
ネットワークの後3層のデータを利用して、中間層に感
情パラメータ導出手段から導出された感情パラメータを
入力し、出力層に表情合成パラメータを出力する演算手
段とを備える。
Description
【0001】
【発明の属する技術分野】本発明は、コンピュータ装置
を用いて感情による3Dグラフィックス表情モデルを形
成するシステム、及びこれに用いる3次元の感情空間上
の感情パラメータ構築システムであって、n次元の表情
合成パラメータを3次元の感情空間上の座標データであ
る感情パラメータに圧縮するシステムを構築し、これを
用いて、感情のブレンド率を設定することにより対象と
なるシェイプデータの表情を形成し、さらに時間軸に沿
った表情の変化を実現するためのシステムに関する。
を用いて感情による3Dグラフィックス表情モデルを形
成するシステム、及びこれに用いる3次元の感情空間上
の感情パラメータ構築システムであって、n次元の表情
合成パラメータを3次元の感情空間上の座標データであ
る感情パラメータに圧縮するシステムを構築し、これを
用いて、感情のブレンド率を設定することにより対象と
なるシェイプデータの表情を形成し、さらに時間軸に沿
った表情の変化を実現するためのシステムに関する。
【0002】
【従来の技術】従来、顔表情の合成には、顔の動きを顔
の各部位ごとに定義し、それらの組み合わせで顔表情を
作る手法がよく用いられる。しかし、各顔部位の動きを
定義するのは困難な作業であり、不自然な動きが定義さ
れてしまう可能性がある。
の各部位ごとに定義し、それらの組み合わせで顔表情を
作る手法がよく用いられる。しかし、各顔部位の動きを
定義するのは困難な作業であり、不自然な動きが定義さ
れてしまう可能性がある。
【0003】
【発明が解決しようとする課題】例えば、特開2001
−34776「アニメーション編集システムおよびアニ
メーション編集プログラムを記録した記憶媒体」におい
ては、単位パーツを連結してアニメーションを作成する
アニメーション作成装置を用いて、自然化動作を含んだ
アニメーションを自動的に作成する技術が開示されてい
る。パーツ編成手段がパーツデータベースに蓄積された
単位パーツを連結して編成する作業を支援するアニメー
ション編集システムにおいて、情報授受を媒介する共通
インタフェース手段と、パーツ編成手段によるアニメー
ションシーケンスに対する自然化要求を共通インタフェ
ース手段に送出する第1自然化要求手段と、共通インタ
フェース手段を介して自然化要求を受け取り、指定され
たアニメーションシーケンスに適合する自然化アニメー
ションシーケンスを作成する自然化編集装置と、共通イ
ンタフェース手段を介して受け取った自然化アニメーシ
ョンシーケンスと元のアニメーションシーケンスとを合
成する合成手段とを備える。
−34776「アニメーション編集システムおよびアニ
メーション編集プログラムを記録した記憶媒体」におい
ては、単位パーツを連結してアニメーションを作成する
アニメーション作成装置を用いて、自然化動作を含んだ
アニメーションを自動的に作成する技術が開示されてい
る。パーツ編成手段がパーツデータベースに蓄積された
単位パーツを連結して編成する作業を支援するアニメー
ション編集システムにおいて、情報授受を媒介する共通
インタフェース手段と、パーツ編成手段によるアニメー
ションシーケンスに対する自然化要求を共通インタフェ
ース手段に送出する第1自然化要求手段と、共通インタ
フェース手段を介して自然化要求を受け取り、指定され
たアニメーションシーケンスに適合する自然化アニメー
ションシーケンスを作成する自然化編集装置と、共通イ
ンタフェース手段を介して受け取った自然化アニメーシ
ョンシーケンスと元のアニメーションシーケンスとを合
成する合成手段とを備える。
【0004】また、特開2000−99757「アニメ
ーション作成装置及び方法並びにアニメーション作成プ
ログラムを記録したコンピュータ読取り可能な記録媒
体」においては、キャラクタのアニメーションパーツを
使用して表情や動作がスムースに変化するアニメーショ
ン作品を簡単に編集するための技術が開示されている。
記憶手段は、人物の動作と表情を複数フレームに分割し
たアニメーションパーツパーツテーブルに記憶し、また
パーツテーブルにアニメーションパーツの属性値を記憶
する。入力手段は、ストーリの進行ステップに応じてア
ニメーションパーツの属性値を入力する。演算手段は、
入力手段から入力した属性値を用いて記憶手段からアニ
メーションパーツを選択し、ストーリに従ったアニメー
ションを作成する。
ーション作成装置及び方法並びにアニメーション作成プ
ログラムを記録したコンピュータ読取り可能な記録媒
体」においては、キャラクタのアニメーションパーツを
使用して表情や動作がスムースに変化するアニメーショ
ン作品を簡単に編集するための技術が開示されている。
記憶手段は、人物の動作と表情を複数フレームに分割し
たアニメーションパーツパーツテーブルに記憶し、また
パーツテーブルにアニメーションパーツの属性値を記憶
する。入力手段は、ストーリの進行ステップに応じてア
ニメーションパーツの属性値を入力する。演算手段は、
入力手段から入力した属性値を用いて記憶手段からアニ
メーションパーツを選択し、ストーリに従ったアニメー
ションを作成する。
【0005】これらはいずれも、あらかじめ形成されて
いるパーツを合成するものでしかなく、無限といえる感
情の変化に伴う各顔の部位の動きを定義し、表情の変化
を自然に表現することは困難な作業であり、不自然な動
きが定義されてしまう。あらかじめ用意されたパーツの
制約の中でしか定義を行えないという問題があった。
いるパーツを合成するものでしかなく、無限といえる感
情の変化に伴う各顔の部位の動きを定義し、表情の変化
を自然に表現することは困難な作業であり、不自然な動
きが定義されてしまう。あらかじめ用意されたパーツの
制約の中でしか定義を行えないという問題があった。
【0006】こうした問題を解決するため、顔モデルの
構築を行うための研究がされている。(例えば、森島繁
生、 八木康史、「投轤 認識・合成のための標準ツー
ル」(システム/制御/情報、Vol.44、No.3、pp.119-1
26、2000-3)、P. Ekman、W.V. Friesen.「Facial Ac
tion CoDing System.」(ConsultingPsychologist P
ress、 1977)。上記文献において、森島らがFACS(Fac
ial Action CoDing System)と呼ばれるプロトコル
を用いて表情の基本動作(アクションユニット、Actio
n Unit:以下AU)を定義し、このAUの組み合わせ
で顔表情の合成を行う。AU は予め用意された既存の
標準モデル上で定義されているため、任意の顔モデルに
表情を合成する際、この標準モデルを個々の合成対象に
フィットさせる必要があり、表現力が低下する可能性が
出てくる。例として皺の表現に対し、この手法では表現
することは難しいために、さらなる技術開発が要望さ
れ、さらに表情やアニメーションを形成するツールが必
要とされている。
構築を行うための研究がされている。(例えば、森島繁
生、 八木康史、「投轤 認識・合成のための標準ツー
ル」(システム/制御/情報、Vol.44、No.3、pp.119-1
26、2000-3)、P. Ekman、W.V. Friesen.「Facial Ac
tion CoDing System.」(ConsultingPsychologist P
ress、 1977)。上記文献において、森島らがFACS(Fac
ial Action CoDing System)と呼ばれるプロトコル
を用いて表情の基本動作(アクションユニット、Actio
n Unit:以下AU)を定義し、このAUの組み合わせ
で顔表情の合成を行う。AU は予め用意された既存の
標準モデル上で定義されているため、任意の顔モデルに
表情を合成する際、この標準モデルを個々の合成対象に
フィットさせる必要があり、表現力が低下する可能性が
出てくる。例として皺の表現に対し、この手法では表現
することは難しいために、さらなる技術開発が要望さ
れ、さらに表情やアニメーションを形成するツールが必
要とされている。
【0007】一方、5層ニューラルネットの恒等写像層
ニューラルネットの恒等写像学習を用いて、17次元の
表情合成パラメータをその中間層に3次元に圧縮して感
情空間と仮定し、同時に表情からこの空間への写像とそ
の逆写像(感情空間→表情)を実現して表情の分析・合成
を行うシステムが研究されている。(川上、坂口、森
島、山田、原島:”表情に基づく3次元感情空間への工
学的心理学的アプローチ”信学技報、HC93-94(1994-0
3))。
ニューラルネットの恒等写像学習を用いて、17次元の
表情合成パラメータをその中間層に3次元に圧縮して感
情空間と仮定し、同時に表情からこの空間への写像とそ
の逆写像(感情空間→表情)を実現して表情の分析・合成
を行うシステムが研究されている。(川上、坂口、森
島、山田、原島:”表情に基づく3次元感情空間への工
学的心理学的アプローチ”信学技報、HC93-94(1994-0
3))。
【0008】また、多層ニューラルネットを利用して表
情の変化と感情空間上の軌跡の相互変換を行い、表情と
感情との相互変換を行う研究がされている。(上島信
夫、森島繁生、山田寛、原島博「多層ニューラルネット
によって構成された感情空間に基づく表情の分析・合成
システムの構築」電子情報通信学会論文誌 D-II No
3 pp.537-582、1994.)(坂口辰巳、山田宏、森島
繁生「顔画像をもとにした3次元感情モデルの構築とそ
の評価」電子情報通信学会論文誌AVol.J80-A No.8 pp.
1279-1284、997.)。
情の変化と感情空間上の軌跡の相互変換を行い、表情と
感情との相互変換を行う研究がされている。(上島信
夫、森島繁生、山田寛、原島博「多層ニューラルネット
によって構成された感情空間に基づく表情の分析・合成
システムの構築」電子情報通信学会論文誌 D-II No
3 pp.537-582、1994.)(坂口辰巳、山田宏、森島
繁生「顔画像をもとにした3次元感情モデルの構築とそ
の評価」電子情報通信学会論文誌AVol.J80-A No.8 pp.
1279-1284、997.)。
【0009】そこで、前記のように、感情状態を3次元
空間上に表現する研究がなされているが、本発明におい
ては、入力手段、記憶手段、制御手段、出力手段、表示
手段を備えるコンピュータ装置において、前記のAUや
AUの合成による基本感情に対応するn次元の表情合成
パラメータを元データとして、各基本感情の表情合成パ
ラメータをニューラルネットワークの学習データとして
用い、顔の動きを表現した基本感情に対応する三次元上
の感情パラメータを用意して3次元感情空間の構築を行
う。表情を形成する際には、3Dコンピュータグラフィ
ックスを形成するためのプログラムを用いて、感情のブ
レンドにより表情形成の対象となるシェイプデータの表
情を形成し、さらに時間軸に沿った表情の変化を実現す
るために、基本感情や中間感情の所望のブレンド率を設
定し、表情合成パラメータを復元してシェイプデータと
合成することにより、顔表情を構築する手法を構築し、
上記問題を解決した。これにより、合成を行うシェイプ
データ(顔モデル)ごとに基本動作を定義することがで
き、皺等の表現力の高い表情表出が可能となる。以上に
より、直観的な感情の操作によって表情を合成すること
が可能になり、より自然な表情の移り変わりを表現でき
ると共に、アニメーションのデータ量を大幅に削減し
た。また本発明のシステムにおいては、前記の記憶手段
に、基本感情に対応する感情空間上の座標データである
3次元感情パラメータ、及び3Dコンピュータグラフィ
ックスモデル形成の対象となるシェイプデータを記憶さ
せ、各基本感情のブレンド率を設定し、前記のデータを
用いて演算を行うための機能を、既存の表情合成エンジ
ン及びプラグインソフトウェアなどにより実現できるの
で、表情合成のための技術に依存することなく実現が可
能となる。
空間上に表現する研究がなされているが、本発明におい
ては、入力手段、記憶手段、制御手段、出力手段、表示
手段を備えるコンピュータ装置において、前記のAUや
AUの合成による基本感情に対応するn次元の表情合成
パラメータを元データとして、各基本感情の表情合成パ
ラメータをニューラルネットワークの学習データとして
用い、顔の動きを表現した基本感情に対応する三次元上
の感情パラメータを用意して3次元感情空間の構築を行
う。表情を形成する際には、3Dコンピュータグラフィ
ックスを形成するためのプログラムを用いて、感情のブ
レンドにより表情形成の対象となるシェイプデータの表
情を形成し、さらに時間軸に沿った表情の変化を実現す
るために、基本感情や中間感情の所望のブレンド率を設
定し、表情合成パラメータを復元してシェイプデータと
合成することにより、顔表情を構築する手法を構築し、
上記問題を解決した。これにより、合成を行うシェイプ
データ(顔モデル)ごとに基本動作を定義することがで
き、皺等の表現力の高い表情表出が可能となる。以上に
より、直観的な感情の操作によって表情を合成すること
が可能になり、より自然な表情の移り変わりを表現でき
ると共に、アニメーションのデータ量を大幅に削減し
た。また本発明のシステムにおいては、前記の記憶手段
に、基本感情に対応する感情空間上の座標データである
3次元感情パラメータ、及び3Dコンピュータグラフィ
ックスモデル形成の対象となるシェイプデータを記憶さ
せ、各基本感情のブレンド率を設定し、前記のデータを
用いて演算を行うための機能を、既存の表情合成エンジ
ン及びプラグインソフトウェアなどにより実現できるの
で、表情合成のための技術に依存することなく実現が可
能となる。
【0010】上記課題を解決するため、請求項1に記載
の発明においては、入力手段、記憶手段、制御手段、出
力手段、表示手段を備えるコンピュータ装置に備えら
れ、感情による3Dコンピュータグラフィックス表情モ
デル形成に用いるn次元の表情合成パラメータを3次元
の感情空間上の感情パラメータに圧縮するシステムであ
って、前記システムは、5層ニューラルネットワークの
恒等写像学習により、n次元の表情合成パラメータから
3次元の感情パラメータを形成する演算手段を備え、前
記の演算手段による演算は、中間層を3ユニットとした
5層ニューラルネットワークを利用して、入力層と出力
層に同じ表情合成パラメータを与えて学習を行う演算処
理と学習したニューラルネットワークの入力層に表情合
成パラメータを入力し、中間層から圧縮された3次元の
感情パラメータを出力する演算処理であることを特徴と
する、3次元の感情空間上の感情パラメータに圧縮する
システムであることを特徴としている。
の発明においては、入力手段、記憶手段、制御手段、出
力手段、表示手段を備えるコンピュータ装置に備えら
れ、感情による3Dコンピュータグラフィックス表情モ
デル形成に用いるn次元の表情合成パラメータを3次元
の感情空間上の感情パラメータに圧縮するシステムであ
って、前記システムは、5層ニューラルネットワークの
恒等写像学習により、n次元の表情合成パラメータから
3次元の感情パラメータを形成する演算手段を備え、前
記の演算手段による演算は、中間層を3ユニットとした
5層ニューラルネットワークを利用して、入力層と出力
層に同じ表情合成パラメータを与えて学習を行う演算処
理と学習したニューラルネットワークの入力層に表情合
成パラメータを入力し、中間層から圧縮された3次元の
感情パラメータを出力する演算処理であることを特徴と
する、3次元の感情空間上の感情パラメータに圧縮する
システムであることを特徴としている。
【0011】また、上記課題を解決するため、請求項2
に記載の発明においては、請求項1に記載の発明におい
て、ニューラルネットワークの学習に使用するデータ
は、基本的な感情に対応する表情の表情合成パラメータ
であることを特徴とする、3次元の感情空間上の感情パ
ラメータに圧縮するシステムであることを特徴としてい
る。
に記載の発明においては、請求項1に記載の発明におい
て、ニューラルネットワークの学習に使用するデータ
は、基本的な感情に対応する表情の表情合成パラメータ
であることを特徴とする、3次元の感情空間上の感情パ
ラメータに圧縮するシステムであることを特徴としてい
る。
【0012】また、上記課題を解決するため、請求項3
に記載の発明においては、請求項1に記載の発明におい
て、ニューラルネットワークの学習に使用するデータ
は、基本的な感情に対応する表情の表情合成パラメータ
並びにこれらの表情の中間的な感情の表情合成パラメー
タであることを特徴とする、3次元の感情空間上の感情
パラメータに圧縮するシステムであることを特徴として
いる。
に記載の発明においては、請求項1に記載の発明におい
て、ニューラルネットワークの学習に使用するデータ
は、基本的な感情に対応する表情の表情合成パラメータ
並びにこれらの表情の中間的な感情の表情合成パラメー
タであることを特徴とする、3次元の感情空間上の感情
パラメータに圧縮するシステムであることを特徴として
いる。
【0013】また、上記課題を解決するため、請求項4
に記載の発明においては、入力手段、記憶手段、制御手
段、出力手段、表示手段を備えるコンピュータ装置に備
えられ、感情の推移に基づき表情を合成する3Dコンピ
ュータグラフィックス表情モデル形成システムであっ
て、3次元の感情パラメータをn次元の表情合成パラメ
ータに展開するための5層ニューラルネットワークの後
3層、基本感情に対応する感情空間上3次元感情パラメ
ータ、及び表情を合成する3Dコンピュータグラフィッ
クス表情モデル形成のソースとなるシェイプデータを記
憶する記憶手段と、特定の感情に対する感情空間上の感
情パラメータ導出手段と、中間層を3ユニットとした5
層ニューラルネットワークの後3層のデータを利用し
て、中間層に感情パラメータ導出手段から導出された感
情パラメータを入力し、出力層に表情合成パラメータを
出力する演算手段とを備えたことを特徴とする、3Dコ
ンピュータグラフィックス表情モデル形成システムであ
ることを特徴としている。
に記載の発明においては、入力手段、記憶手段、制御手
段、出力手段、表示手段を備えるコンピュータ装置に備
えられ、感情の推移に基づき表情を合成する3Dコンピ
ュータグラフィックス表情モデル形成システムであっ
て、3次元の感情パラメータをn次元の表情合成パラメ
ータに展開するための5層ニューラルネットワークの後
3層、基本感情に対応する感情空間上3次元感情パラメ
ータ、及び表情を合成する3Dコンピュータグラフィッ
クス表情モデル形成のソースとなるシェイプデータを記
憶する記憶手段と、特定の感情に対する感情空間上の感
情パラメータ導出手段と、中間層を3ユニットとした5
層ニューラルネットワークの後3層のデータを利用し
て、中間層に感情パラメータ導出手段から導出された感
情パラメータを入力し、出力層に表情合成パラメータを
出力する演算手段とを備えたことを特徴とする、3Dコ
ンピュータグラフィックス表情モデル形成システムであ
ることを特徴としている。
【0014】また、上記課題を解決するため、請求項5
に記載の発明においては、請求項4に記載の発明におい
て、前記の感情パラメータ導出手段は、前記の入力手段
により各基本感情のブレンド率の入力を行い、前期の記
憶手段から基本感情に対応する感情空間上の3次元感情
パラメータを参照し、ブレンド率に対応する感情パラメ
ータを導出することを特徴とする、請求項4に記載の3
Dコンピュータグラフィックス表情モデル形成システム
であることを特徴としている。
に記載の発明においては、請求項4に記載の発明におい
て、前記の感情パラメータ導出手段は、前記の入力手段
により各基本感情のブレンド率の入力を行い、前期の記
憶手段から基本感情に対応する感情空間上の3次元感情
パラメータを参照し、ブレンド率に対応する感情パラメ
ータを導出することを特徴とする、請求項4に記載の3
Dコンピュータグラフィックス表情モデル形成システム
であることを特徴としている。
【0015】また、上記課題を解決するため、請求項6
に記載の発明においては、請求項4に記載の発明におい
て、前記の感情パラメータ導出手段は、前記の入力手段
により入力された音声又は画像を解析して求められた感
情に基づき感情パラメータを導出する手段であることを
特徴とする、請求項4に記載の3Dコンピュータグラフ
ィックス表情モデル形成システムであることを特徴とし
ている。
に記載の発明においては、請求項4に記載の発明におい
て、前記の感情パラメータ導出手段は、前記の入力手段
により入力された音声又は画像を解析して求められた感
情に基づき感情パラメータを導出する手段であることを
特徴とする、請求項4に記載の3Dコンピュータグラフ
ィックス表情モデル形成システムであることを特徴とし
ている。
【0016】また、上記課題を解決するため、請求項7
に記載の発明においては、請求項4に記載の発明におい
て、前記の感情パラメータ導出手段は、前記のコンピュ
ータ装置が備えるプログラムによる演算処理により感情
パラメータを生成する手段であることを特徴とする、請
求項4に記載の3Dコンピュータグラフィックス表情モ
デル形成システムであることを特徴としている。
に記載の発明においては、請求項4に記載の発明におい
て、前記の感情パラメータ導出手段は、前記のコンピュ
ータ装置が備えるプログラムによる演算処理により感情
パラメータを生成する手段であることを特徴とする、請
求項4に記載の3Dコンピュータグラフィックス表情モ
デル形成システムであることを特徴としている。
【0017】また、上記課題を解決するため、請求項8
に記載の発明においては、請求項4〜7に記載の発明に
おいて、3次元の感情パラメータをn次元の表情合成パ
ラメータに展開するための5層ニューラルネットワーク
は基本的な感情に対応する表情の表情合成パラメータを
与えることにより学習したことを特徴とする、請求項4
〜7のいずれかに記載の3Dコンピュータグラフィック
ス表情モデル形成システムであることを特徴としてい
る。
に記載の発明においては、請求項4〜7に記載の発明に
おいて、3次元の感情パラメータをn次元の表情合成パ
ラメータに展開するための5層ニューラルネットワーク
は基本的な感情に対応する表情の表情合成パラメータを
与えることにより学習したことを特徴とする、請求項4
〜7のいずれかに記載の3Dコンピュータグラフィック
ス表情モデル形成システムであることを特徴としてい
る。
【0018】また、上記課題を解決するため、請求項9
に記載の発明においては、請求項4〜7に記載の発明に
おいて、3次元の感情パラメータをn次元の表情合成パ
ラメータに展開するための5層ニューラルネットワーク
は基本的な感情に対応する表情の表情合成パラメータ並
びにこれらの表情の中間的な表情の表情合成パラメータ
を与えることにより学習したことを特徴とする、請求項
4〜7のいずれかに記載の3Dコンピュータグラフィッ
クス表情モデル形成システムであることを特徴としてい
る。
に記載の発明においては、請求項4〜7に記載の発明に
おいて、3次元の感情パラメータをn次元の表情合成パ
ラメータに展開するための5層ニューラルネットワーク
は基本的な感情に対応する表情の表情合成パラメータ並
びにこれらの表情の中間的な表情の表情合成パラメータ
を与えることにより学習したことを特徴とする、請求項
4〜7のいずれかに記載の3Dコンピュータグラフィッ
クス表情モデル形成システムであることを特徴としてい
る。
【0019】また、上記課題を解決するため、請求項1
0に記載の発明においては、請求項4〜9に記載の発明
において、3次元の感情パラメータから展開されたn次
元の表情合成パラメータを3Dコンピュータグラフィッ
クス表情モデル形成の対象となるシェイプデータのブレ
ンド率とし、シェイプデータを幾何的にブレンドするこ
とにより表情を形成することを特徴とする、請求項4〜
9のいずれかに記載の3Dコンピュータグラフィックス
表情モデル形成システムであることを特徴としている。
0に記載の発明においては、請求項4〜9に記載の発明
において、3次元の感情パラメータから展開されたn次
元の表情合成パラメータを3Dコンピュータグラフィッ
クス表情モデル形成の対象となるシェイプデータのブレ
ンド率とし、シェイプデータを幾何的にブレンドするこ
とにより表情を形成することを特徴とする、請求項4〜
9のいずれかに記載の3Dコンピュータグラフィックス
表情モデル形成システムであることを特徴としている。
【0020】また、上記課題を解決するため、請求項1
1に記載の発明においては、請求項10に記載の発明に
おいて、幾何的なブレンドのソースとなるシェイプデー
タは、感情とは独立した、顔の局所的変形(FACSに
基づくAU等)として前記の記憶手段にあらかじめ記憶
されたデータであることを特徴とする、請求項10に記
載の3Dコンピュータグラフィックス表情モデル形成シ
ステムであることを特徴としている。
1に記載の発明においては、請求項10に記載の発明に
おいて、幾何的なブレンドのソースとなるシェイプデー
タは、感情とは独立した、顔の局所的変形(FACSに
基づくAU等)として前記の記憶手段にあらかじめ記憶
されたデータであることを特徴とする、請求項10に記
載の3Dコンピュータグラフィックス表情モデル形成シ
ステムであることを特徴としている。
【0021】また、上記課題を解決するため、請求項1
2に記載の発明においては、請求項11に記載の発明に
おいて、テンプレートとなる顔モデルとそれを局所的に
変形した顔モデルをあらかじめ用意し、テンプレートと
なる顔モデルと、表情を形成する対象となる顔モデルと
のマッピングを行うことにより、表情を形成する対象と
なる顔モデルを自動的に変形し、幾何的なブレンドのソ
ースとなるシェイプデータを作成することを特徴とす
る、請求項11に記載の3Dコンピュータグラフィック
ス表情モデル形成システムであることを特徴としてい
る。
2に記載の発明においては、請求項11に記載の発明に
おいて、テンプレートとなる顔モデルとそれを局所的に
変形した顔モデルをあらかじめ用意し、テンプレートと
なる顔モデルと、表情を形成する対象となる顔モデルと
のマッピングを行うことにより、表情を形成する対象と
なる顔モデルを自動的に変形し、幾何的なブレンドのソ
ースとなるシェイプデータを作成することを特徴とす
る、請求項11に記載の3Dコンピュータグラフィック
ス表情モデル形成システムであることを特徴としてい
る。
【0022】また、上記課題を解決するため、請求項1
3に記載の発明においては、請求項10〜12に記載の
発明において、前記の感情パラメータ導出手段により設
定した感情パラメータ、及び所定時間後の感情パラメー
タを用いて、表情の時間的推移を、感情空間上のパラメ
トリック曲線として記述し、各時刻における曲線上の点
(=感情パラメータ)から、表情合成パラメータへ展開
し、展開されたパラメータを使用して、シェイプデータ
を幾何的にブレンドすることにより表情を変化させるこ
とが可能なことを特徴とする、請求項10〜12のいず
れかに記載の3Dコンピュータグラフィックス表情モデ
ル形成システムであることを特徴としている。
3に記載の発明においては、請求項10〜12に記載の
発明において、前記の感情パラメータ導出手段により設
定した感情パラメータ、及び所定時間後の感情パラメー
タを用いて、表情の時間的推移を、感情空間上のパラメ
トリック曲線として記述し、各時刻における曲線上の点
(=感情パラメータ)から、表情合成パラメータへ展開
し、展開されたパラメータを使用して、シェイプデータ
を幾何的にブレンドすることにより表情を変化させるこ
とが可能なことを特徴とする、請求項10〜12のいず
れかに記載の3Dコンピュータグラフィックス表情モデ
ル形成システムであることを特徴としている。
【0023】
【発明の実施の形態】以下、本発明のシステムを、図面
を用いて説明する。本発明のシステムに用いられるコン
ピュータ装置の基本的なハードウェア構成は、図1に示
したものである。CPU、RAM、ROM、システム制
御手段等を有し、データを入力しあるいは操作等のため
の指示入力をするための入力手段、プログラムやデータ
を記憶しておく記憶手段、メニュー画面やデータなどの
出力表示をするための表示手段、データを出力する出力
手段より構成される。図2は、本発明のシステムの機能
を実現するプログラムの処理の機能を示すブロック図で
あり、これらの機能を実現するためのプログラムが記憶
手段に記憶されており、記憶手段に記憶されたデータを
制御することにより各機能を実現する。図2において示
される、(1)感情空間構築フェーズは、基本感情に対
する表情合成パラメータをニューラルネットワーク学習
により、感情空間を構築する処理を示す。(2)表情合
成フェーズは、基本感情のブレンド率の指定などの感情
パラメータ導出により感情空間上の3次元座標データを
取得して、ニューラルネットワークを用いて表情合成パ
ラメータを復元し、それをブレンド率とみなしシェイプ
データを幾何的にブレンドすることにより表情モデルを
形成する処理を示す。
を用いて説明する。本発明のシステムに用いられるコン
ピュータ装置の基本的なハードウェア構成は、図1に示
したものである。CPU、RAM、ROM、システム制
御手段等を有し、データを入力しあるいは操作等のため
の指示入力をするための入力手段、プログラムやデータ
を記憶しておく記憶手段、メニュー画面やデータなどの
出力表示をするための表示手段、データを出力する出力
手段より構成される。図2は、本発明のシステムの機能
を実現するプログラムの処理の機能を示すブロック図で
あり、これらの機能を実現するためのプログラムが記憶
手段に記憶されており、記憶手段に記憶されたデータを
制御することにより各機能を実現する。図2において示
される、(1)感情空間構築フェーズは、基本感情に対
する表情合成パラメータをニューラルネットワーク学習
により、感情空間を構築する処理を示す。(2)表情合
成フェーズは、基本感情のブレンド率の指定などの感情
パラメータ導出により感情空間上の3次元座標データを
取得して、ニューラルネットワークを用いて表情合成パ
ラメータを復元し、それをブレンド率とみなしシェイプ
データを幾何的にブレンドすることにより表情モデルを
形成する処理を示す。
【0024】前記の記憶手段には、後述するように、基
本感情に対応する表情を形成する為の、人物の一連の動
作や表情等の基本的な動きを再現した複数のAUに対す
るブレンド率である表情合成パラメータを3次元の感情
空間上の座標データとして圧縮した感情パラメータが記
憶されている。また3次元の感情パラメータをn次元の
表情合成パラメータに展開するための5層ニューラルネ
ットワークの後3層のデータが記憶されている。また、
3Dコンピュータグラフィックスモデル形成の対象とな
るシェイプデータが記憶されている。また、3Dグラフ
ィックスを形成するアプリケーションプログラム、本発
明のシステムにおける演算等を実現するためのプラグイ
ンソフトウェアなどのアプリケーションプログラム、オ
ペレーティングシステム(OS)等が記憶されている。
本感情に対応する表情を形成する為の、人物の一連の動
作や表情等の基本的な動きを再現した複数のAUに対す
るブレンド率である表情合成パラメータを3次元の感情
空間上の座標データとして圧縮した感情パラメータが記
憶されている。また3次元の感情パラメータをn次元の
表情合成パラメータに展開するための5層ニューラルネ
ットワークの後3層のデータが記憶されている。また、
3Dコンピュータグラフィックスモデル形成の対象とな
るシェイプデータが記憶されている。また、3Dグラフ
ィックスを形成するアプリケーションプログラム、本発
明のシステムにおける演算等を実現するためのプラグイ
ンソフトウェアなどのアプリケーションプログラム、オ
ペレーティングシステム(OS)等が記憶されている。
【0025】また、感情空間上の各基本感情の所望のブ
レンド率を設定する感情パラメータ導出手段が、コンピ
ュータ端末に備えられる。感情パラメータ導出手段は、
例えば、前記の入力手段により各基本感情のブレンド率
の入力を行うものである。入力手段は、キーボード、マ
ウス、タブレット、タッチパネル、その他の様々な入力
手段を含む。また入力のためのグラフィカルユーザーイ
ンターフェースとして、例えば液晶画面、CRT画面な
どの表示手段上に表示される、アイコン、基本感情の選
択、後述するブレンド率等の入力フォーム、などが表示
されるなどして、ユーザーの操作を簡易にすることが望
ましい。また、感情パラメータ導出手段の別の形態とし
ては、前記の入力手段により入力された音声又は画像を
解析して求められた感情に基づくものである。さらに、
感情パラメータ導出手段の別の形態は、前記のコンピュ
ータ装置が備えるプログラムによる演算処理により感情
パラメータを生成するものである。また、コンピュータ
装置は、前記入力手段から入力した基本感情に対応する
感情パラメータの所望のブレンド率を用いて、前記記憶
手段から感情空間上の座標データを読み出して、前記の
ブレンド率に従った前記の感情空間上に求められた感情
パラメータから表情合成パラメータを復元して、表情合
成を行うための演算手段を備えている。
レンド率を設定する感情パラメータ導出手段が、コンピ
ュータ端末に備えられる。感情パラメータ導出手段は、
例えば、前記の入力手段により各基本感情のブレンド率
の入力を行うものである。入力手段は、キーボード、マ
ウス、タブレット、タッチパネル、その他の様々な入力
手段を含む。また入力のためのグラフィカルユーザーイ
ンターフェースとして、例えば液晶画面、CRT画面な
どの表示手段上に表示される、アイコン、基本感情の選
択、後述するブレンド率等の入力フォーム、などが表示
されるなどして、ユーザーの操作を簡易にすることが望
ましい。また、感情パラメータ導出手段の別の形態とし
ては、前記の入力手段により入力された音声又は画像を
解析して求められた感情に基づくものである。さらに、
感情パラメータ導出手段の別の形態は、前記のコンピュ
ータ装置が備えるプログラムによる演算処理により感情
パラメータを生成するものである。また、コンピュータ
装置は、前記入力手段から入力した基本感情に対応する
感情パラメータの所望のブレンド率を用いて、前記記憶
手段から感情空間上の座標データを読み出して、前記の
ブレンド率に従った前記の感情空間上に求められた感情
パラメータから表情合成パラメータを復元して、表情合
成を行うための演算手段を備えている。
【0026】本発明のシステム構成図を図6に示す。ま
た図7は処理の機能を示す機能ブロック図である。図6
において、符号AUは、顔モデルおよび各AUモデルの
頂点ベクトル配列のデータストアを示し、符号APは、
各基本感情を表現する各AUの合成率を格納するデータ
ストアを示し、符号NNは、ニューラルネットのデータ
ストアを示し、符号ELは、感情空間上で各基本感情と
各層との交点を格納するデータストアを示し、データは
前記の記憶手段に記憶され、演算手段による演算処理の
対象とされる。
た図7は処理の機能を示す機能ブロック図である。図6
において、符号AUは、顔モデルおよび各AUモデルの
頂点ベクトル配列のデータストアを示し、符号APは、
各基本感情を表現する各AUの合成率を格納するデータ
ストアを示し、符号NNは、ニューラルネットのデータ
ストアを示し、符号ELは、感情空間上で各基本感情と
各層との交点を格納するデータストアを示し、データは
前記の記憶手段に記憶され、演算手段による演算処理の
対象とされる。
【0027】次に、図7において、本発明のデータフロ
ーを示す。図7において、符号Tは顔モデルの頂点数を
表す定数、符号Uは使用するAUのユニット数を表す定
数、符号Lは感情空間を層状に区分する層の数を示して
いる。また符号eは感情データフロー、符号sは感情空
間ベクトルデータフロー、符号aはAUブレンド率デー
タフロー、符号vはモデルの頂点ベクトルデータフロー
を示している。また符号ELは、感情空間上で各基本感
情と各層との交点を格納するデータストアを、符号NN
は、ニューラルネットのデータストアを、符号AUは、
顔モデルおよび各AUモデルの頂点ベクトル配列のデー
タストアを示している。符号E2Sは、基本6感情の成
分を感情空間上のベクトルに変換する関数を、符号A2
Sは、AUブレンド率を感情空間上のベクトルに変換す
る関数を、符号S2Aは、感情空間上のベクトルをAU
ブレンド率に変換する関数を、符号A2Vは、AUブレ
ンド率を顔モデルの頂点ベクトル配列に変換する関数を
示している。関数は演算手段による演算に用いられる。
ーを示す。図7において、符号Tは顔モデルの頂点数を
表す定数、符号Uは使用するAUのユニット数を表す定
数、符号Lは感情空間を層状に区分する層の数を示して
いる。また符号eは感情データフロー、符号sは感情空
間ベクトルデータフロー、符号aはAUブレンド率デー
タフロー、符号vはモデルの頂点ベクトルデータフロー
を示している。また符号ELは、感情空間上で各基本感
情と各層との交点を格納するデータストアを、符号NN
は、ニューラルネットのデータストアを、符号AUは、
顔モデルおよび各AUモデルの頂点ベクトル配列のデー
タストアを示している。符号E2Sは、基本6感情の成
分を感情空間上のベクトルに変換する関数を、符号A2
Sは、AUブレンド率を感情空間上のベクトルに変換す
る関数を、符号S2Aは、感情空間上のベクトルをAU
ブレンド率に変換する関数を、符号A2Vは、AUブレ
ンド率を顔モデルの頂点ベクトル配列に変換する関数を
示している。関数は演算手段による演算に用いられる。
【0028】
【実施例】(実施例1)初めに、図2における感情空間
構築フェーズ、すなわち、感情による3Dコンピュータ
グラフィックス表情モデル形成に用いるn次元の表情合
成パラメータを3次元の感情空間上の感情パラメータに
圧縮し、基本感情に対応する3次元の感情空間の構築に
ついて説明する。請求項1に記載の発明は、入力手段、
記憶手段、制御手段、出力手段、表示手段を備えるコン
ピュータ装置に備えられ、感情による3Dコンピュータ
グラフィックス表情モデル形成に用いるn次元の表情合
成パラメータを3次元の感情空間上の感情パラメータに
圧縮するシステムである。本実施形態におけるシステム
は、5層ニューラルネットワークの恒等写像学習によ
り、n次元の表情合成パラメータから3次元の感情パラ
メータを形成する演算手段を備えている。前記の演算手
段による演算は、中間層を3ユニットとした5層ニュー
ラルネットワークを利用して、入力層と出力層に同じ表
情合成パラメータを与えて学習を行う演算処理と学習し
たニューラルネットワークの入力層に表情合成パラメー
タを入力し、中間層から圧縮された3次元の感情パラメ
ータを出力する演算処理である。
構築フェーズ、すなわち、感情による3Dコンピュータ
グラフィックス表情モデル形成に用いるn次元の表情合
成パラメータを3次元の感情空間上の感情パラメータに
圧縮し、基本感情に対応する3次元の感情空間の構築に
ついて説明する。請求項1に記載の発明は、入力手段、
記憶手段、制御手段、出力手段、表示手段を備えるコン
ピュータ装置に備えられ、感情による3Dコンピュータ
グラフィックス表情モデル形成に用いるn次元の表情合
成パラメータを3次元の感情空間上の感情パラメータに
圧縮するシステムである。本実施形態におけるシステム
は、5層ニューラルネットワークの恒等写像学習によ
り、n次元の表情合成パラメータから3次元の感情パラ
メータを形成する演算手段を備えている。前記の演算手
段による演算は、中間層を3ユニットとした5層ニュー
ラルネットワークを利用して、入力層と出力層に同じ表
情合成パラメータを与えて学習を行う演算処理と学習し
たニューラルネットワークの入力層に表情合成パラメー
タを入力し、中間層から圧縮された3次元の感情パラメ
ータを出力する演算処理である。
【0029】コンピュータグラフィックス(以下、C
G)による基本顔モデルの合成にあたり、個々に定義さ
れた顔表情の基本動作(例:眉をあげる、口角をさげ
る)のアクション・ユニット(AU)をあらかじめ定義
し、それらのブレンド率により基本感情に対応する表情
モデルの構築を行う。各AUに対応する表情モデルのブ
レンド率を表情合成パラメータとして、これをニューラ
ルネットの恒等写像能力を用いて顔に表出される感情状
態を3次元空間に表現した感情空間上の座標データに圧
縮し、感情空間の構築を図る。なお、本明細書において
は「人間の顔に表出される感情状態を空間的に表現した
表情空間」を以後すべて「感情空間」と呼ぶこととす
る。
G)による基本顔モデルの合成にあたり、個々に定義さ
れた顔表情の基本動作(例:眉をあげる、口角をさげ
る)のアクション・ユニット(AU)をあらかじめ定義
し、それらのブレンド率により基本感情に対応する表情
モデルの構築を行う。各AUに対応する表情モデルのブ
レンド率を表情合成パラメータとして、これをニューラ
ルネットの恒等写像能力を用いて顔に表出される感情状
態を3次元空間に表現した感情空間上の座標データに圧
縮し、感情空間の構築を図る。なお、本明細書において
は「人間の顔に表出される感情状態を空間的に表現した
表情空間」を以後すべて「感情空間」と呼ぶこととす
る。
【0030】人間の表情を記述するための方法として前
記のFACS(FacialAction CoDing System)を使うこと
ができる。FACSは人間の顔の変化を解剖学的に独立した
44個のアクションユニット(Action Unit 以下AU
とする)の定量的組み合わせによって記述するものであ
る。このAUを十数個うまく選んで組み合わせることで
Ekmanらのいう基本6感情(怒り、軽蔑、恐怖、喜び、
悲しみ、驚き)に対する表情を記述することができる。
図4は17個のAUの概要を示し、図3は17個のAU
に基づき表情を変化させたモデルの一例を示し、また図
5はAUの組み合わせによる基本6感情のブレンド率を
示す図である。
記のFACS(FacialAction CoDing System)を使うこと
ができる。FACSは人間の顔の変化を解剖学的に独立した
44個のアクションユニット(Action Unit 以下AU
とする)の定量的組み合わせによって記述するものであ
る。このAUを十数個うまく選んで組み合わせることで
Ekmanらのいう基本6感情(怒り、軽蔑、恐怖、喜び、
悲しみ、驚き)に対する表情を記述することができる。
図4は17個のAUの概要を示し、図3は17個のAU
に基づき表情を変化させたモデルの一例を示し、また図
5はAUの組み合わせによる基本6感情のブレンド率を
示す図である。
【0031】FACS(Facial Action CoDing Syst
em)と呼ばれるプロトコルを用いて表情の基本動作(Ac
tion Unit:以下AU)を定義し、このAUの組み合
わせで顔表情の合成を行う。AUはあらかじめ用意され
た既存の標準モデル上で定義されているため、任意の顔
モデルに表情を合成する際、この標準モデルを個々の合
成対象にフィットさせる必要があり、表現力が低下する
可能性が出てくる。例として皺の表現に対し、この手法
では表現することは難しい、本手法を用いることで、合
成を行う顔モデルごとに基本動作を定義することがで
き、皺等の表現力の高い表情表出が可能となる。具体的
なブレンド率の記述法としては、例えば怒りの表情なら
AU2=0.7、AU4=0.9、AU8=0.5、A
U9=1.0、AU15=0.6等とAUの重み値を組
み合わせる。それらをブレンド率によって合成すること
で、顔表情を作り出す(図14)。
em)と呼ばれるプロトコルを用いて表情の基本動作(Ac
tion Unit:以下AU)を定義し、このAUの組み合
わせで顔表情の合成を行う。AUはあらかじめ用意され
た既存の標準モデル上で定義されているため、任意の顔
モデルに表情を合成する際、この標準モデルを個々の合
成対象にフィットさせる必要があり、表現力が低下する
可能性が出てくる。例として皺の表現に対し、この手法
では表現することは難しい、本手法を用いることで、合
成を行う顔モデルごとに基本動作を定義することがで
き、皺等の表現力の高い表情表出が可能となる。具体的
なブレンド率の記述法としては、例えば怒りの表情なら
AU2=0.7、AU4=0.9、AU8=0.5、A
U9=1.0、AU15=0.6等とAUの重み値を組
み合わせる。それらをブレンド率によって合成すること
で、顔表情を作り出す(図14)。
【0032】「上瞼を上げる」「唇両端を引き上げる」
などの複数の基本顔を個別に作成し、それらをブレンド
率により合成する。ブレンド率を変化させることで、6
基本感情の表情など様々な表情を作ることができる。各
運動単位の動作を表現したモデルをそれぞれ作成し、そ
れに皺などの複雑な表現も作リ出すことができる(図1
2)。
などの複数の基本顔を個別に作成し、それらをブレンド
率により合成する。ブレンド率を変化させることで、6
基本感情の表情など様々な表情を作ることができる。各
運動単位の動作を表現したモデルをそれぞれ作成し、そ
れに皺などの複雑な表現も作リ出すことができる(図1
2)。
【0033】請求項2に記載の発明においては、ニュー
ラルネットワークの学習に使用するデータは、基本的な
感情に対応する表情の表情合成パラメータであって、基
本感情に基づく表情は図10における怒り・嫌悪・恐れ
・喜び・悲しみ・驚きの6基本感情などであり、学習手
法としては基本6感情(怒り・嫌悪・恐れ・喜び・悲し
み・驚き)のAUパラメータを入力および出力の学習パ
ラメータとする。図14は、基本表情A、B、Cのブレ
ンドにより恐れの基本感情に対応する表情を作り出した
例を示している。また請求項3に記載の発明において
は、ニューラルネットワークの学習に使用するデータ
は、基本的な感情に対応する表情の表情合成パラメータ
並びにこれらの表情の中間的な感情の表情合成パラメー
タであって、基本感情の中間感情の表情は図13に一例
を示すようなものであり、基本表情モデルのブレンド率
によって再現したものである。学習手法としては基本6
感情(怒り・嫌悪・恐れ・喜び・悲しみ・驚き)のAU
パラメータを入力および出力の学習パラメータとしてい
たが、本実施形態ではこれらの表情の中間表情を学習デ
ータとして加え理想的な汎化性能を実現した。「上瞼を
上げる」「唇両端を引き上げる」などの複数の基本顔を
個別に作成し、それらをブレンド率により合成する。ブ
レンド率を変化させることで、6基本感情の表情など様
々な表情を作ることができる。
ラルネットワークの学習に使用するデータは、基本的な
感情に対応する表情の表情合成パラメータであって、基
本感情に基づく表情は図10における怒り・嫌悪・恐れ
・喜び・悲しみ・驚きの6基本感情などであり、学習手
法としては基本6感情(怒り・嫌悪・恐れ・喜び・悲し
み・驚き)のAUパラメータを入力および出力の学習パ
ラメータとする。図14は、基本表情A、B、Cのブレ
ンドにより恐れの基本感情に対応する表情を作り出した
例を示している。また請求項3に記載の発明において
は、ニューラルネットワークの学習に使用するデータ
は、基本的な感情に対応する表情の表情合成パラメータ
並びにこれらの表情の中間的な感情の表情合成パラメー
タであって、基本感情の中間感情の表情は図13に一例
を示すようなものであり、基本表情モデルのブレンド率
によって再現したものである。学習手法としては基本6
感情(怒り・嫌悪・恐れ・喜び・悲しみ・驚き)のAU
パラメータを入力および出力の学習パラメータとしてい
たが、本実施形態ではこれらの表情の中間表情を学習デ
ータとして加え理想的な汎化性能を実現した。「上瞼を
上げる」「唇両端を引き上げる」などの複数の基本顔を
個別に作成し、それらをブレンド率により合成する。ブ
レンド率を変化させることで、6基本感情の表情など様
々な表情を作ることができる。
【0034】次に、表情の変化と感情空間上の軌跡の相
互変換について説明する。多層ニューラルネットを利用
して表情と感情との相互変換を行うことができる。ニュ
ーラルネットの構成を図8及び図9に示す。このニュー
ラルネットの入力信号並びに教師信号として6個の基本
感情に対応するAUの重み値を与え、誤差逆伝播学習法
によって収束させる(恒等写像学習)。 入力:合成した基本的な表情モデル(基本顔モデル) 出力:感情空間(3次元) <表情パラメータ>=F(x、y、z) (x、y、z):感情パラメータ 誤差逆伝播学習法の特徴は、入力信号と正しい出力教師
信号のセットを次々と与えるだけで、個々の問題の特徴
を抽出する内部構造が、中間層の隠れニューロン群のシ
ナプス結合として自己組織される点である。また、誤差
計算が前方向へ情報の流れとよく類似している点があ
る。すなわち、ある素子の学習に使われている情報は、
後の素子から得られる情報のみであり、学習の局所性が
保たれていることになる。
互変換について説明する。多層ニューラルネットを利用
して表情と感情との相互変換を行うことができる。ニュ
ーラルネットの構成を図8及び図9に示す。このニュー
ラルネットの入力信号並びに教師信号として6個の基本
感情に対応するAUの重み値を与え、誤差逆伝播学習法
によって収束させる(恒等写像学習)。 入力:合成した基本的な表情モデル(基本顔モデル) 出力:感情空間(3次元) <表情パラメータ>=F(x、y、z) (x、y、z):感情パラメータ 誤差逆伝播学習法の特徴は、入力信号と正しい出力教師
信号のセットを次々と与えるだけで、個々の問題の特徴
を抽出する内部構造が、中間層の隠れニューロン群のシ
ナプス結合として自己組織される点である。また、誤差
計算が前方向へ情報の流れとよく類似している点があ
る。すなわち、ある素子の学習に使われている情報は、
後の素子から得られる情報のみであり、学習の局所性が
保たれていることになる。
【0035】図9に示す、中間層を3ユニットとした、
5層砂時計型ニューラルネットにおいて、入出力層に基
本顔のブレンド率を与えて恒等写像学習をさせ、中間層
の3次元の出力を感情空間と仮定する。入力から中間層
までの3層をブレンド率から感情空間への写像、中間層
から出力までの3層をその逆写像として、表情の分析表
情の分析・合成を行うシステムを構築する。
5層砂時計型ニューラルネットにおいて、入出力層に基
本顔のブレンド率を与えて恒等写像学習をさせ、中間層
の3次元の出力を感情空間と仮定する。入力から中間層
までの3層をブレンド率から感情空間への写像、中間層
から出力までの3層をその逆写像として、表情の分析表
情の分析・合成を行うシステムを構築する。
【0036】先にも述べた3次元感情空間の構築手法は
恒等写像を用いる。恒等写像能力とは以下に示す通りで
ある。図9のような5層ニューラルネットワークにおい
て、入力層と出力層に同じパターンを与えて学習を行う
と、入力されたパターンをそのまま出力するモデルが構
築される。その際、入出力層よりユニット数の少ない中
間層には、入力パターンが圧縮されて入力の特徴が保存
され、出力層にはその特徴が再現されて出力される。入
出力層に基本表情モデルのブレンド率を与えて学習を行
うと、基本表情モデルのブレンド率は中間層で特徴が抽
出され3次元に圧縮される。これが感情空間であると仮
定することで、基本表情のブレンド率から感情状態の情
報を獲得することができる。
恒等写像を用いる。恒等写像能力とは以下に示す通りで
ある。図9のような5層ニューラルネットワークにおい
て、入力層と出力層に同じパターンを与えて学習を行う
と、入力されたパターンをそのまま出力するモデルが構
築される。その際、入出力層よりユニット数の少ない中
間層には、入力パターンが圧縮されて入力の特徴が保存
され、出力層にはその特徴が再現されて出力される。入
出力層に基本表情モデルのブレンド率を与えて学習を行
うと、基本表情モデルのブレンド率は中間層で特徴が抽
出され3次元に圧縮される。これが感情空間であると仮
定することで、基本表情のブレンド率から感情状態の情
報を獲得することができる。
【0037】このとき、学習させるデータは怒り・嫌悪
・恐れ・喜び・悲しみ・驚きの6基本感情(図10)、お
よびそれらの中間感情の表情(図13)を基本表情モデル
のブレンド率によって再現したものである。ブレンド率
は0.0〜1.0で表されるが、ニューラルネットワー
クには1.0と−1.0において収束してしまうシグモ
イド関数を用いているため、1.0付近の入力では出力
の値が小さくなってしまう恐れがある。そこで、ブレン
ド率を学習データとして用いる際に0.0〜0.8の間
の値になるように正規化している。
・恐れ・喜び・悲しみ・驚きの6基本感情(図10)、お
よびそれらの中間感情の表情(図13)を基本表情モデル
のブレンド率によって再現したものである。ブレンド率
は0.0〜1.0で表されるが、ニューラルネットワー
クには1.0と−1.0において収束してしまうシグモ
イド関数を用いているため、1.0付近の入力では出力
の値が小さくなってしまう恐れがある。そこで、ブレン
ド率を学習データとして用いる際に0.0〜0.8の間
の値になるように正規化している。
【0038】学習を行う手順を以下に示す。 1)学習データは6基本表情・中間表情全てに関して感
情の度合いを0%、25%としたものを学習させる。 2)学習誤差が3.0×10e-3以下となったとき、
新たに感情の50%を加え、学習データを0%、25
%、50%として学習を続ける。 3)同様に75%、100%と学習データを増やす。 また学習データの増加は、10%、20%、30%、4
0%、50%というように10%刻みで増加させてもよ
く、その他任意のパーセンテージを用いて学習させるこ
とでもよい。これは各感情における強力な恒等学習能力
を得るためである。このようにして恒等写像学習を行っ
た結果、前記の学習が終了し、感情空間が構築された
後、入力層にAUのブレンド率データを与えると中間層
からブレンド率データに対応する3次元データ、すなわ
ち感情空間上の座標を得ることができ、中間層に生成さ
れた感情空間が図11である。図の基本感情の軌跡は、
各感情の1%から100%までのブレンド率をニューラ
ルネットの入力層に与えたときに中間層に得られた3ユ
ニットの出力を(x、y、z)として3次元空間にプロ
ットしたものである。
情の度合いを0%、25%としたものを学習させる。 2)学習誤差が3.0×10e-3以下となったとき、
新たに感情の50%を加え、学習データを0%、25
%、50%として学習を続ける。 3)同様に75%、100%と学習データを増やす。 また学習データの増加は、10%、20%、30%、4
0%、50%というように10%刻みで増加させてもよ
く、その他任意のパーセンテージを用いて学習させるこ
とでもよい。これは各感情における強力な恒等学習能力
を得るためである。このようにして恒等写像学習を行っ
た結果、前記の学習が終了し、感情空間が構築された
後、入力層にAUのブレンド率データを与えると中間層
からブレンド率データに対応する3次元データ、すなわ
ち感情空間上の座標を得ることができ、中間層に生成さ
れた感情空間が図11である。図の基本感情の軌跡は、
各感情の1%から100%までのブレンド率をニューラ
ルネットの入力層に与えたときに中間層に得られた3ユ
ニットの出力を(x、y、z)として3次元空間にプロ
ットしたものである。
【0039】(実施例2)次に、図2における表情合成
フェーズ、すなわち、基本感情のブレンド率の指定など
の感情パラメータ導出により感情空間上の3次元座標デ
ータを取得して、ニューラルネットワークを用いて表情
合成パラメータを復元し、それをブレンド率とみなしシ
ェイプデータを幾何的にブレンドすることにより表情モ
デルを形成する処理について説明する。図9において、
中間層に感情空間上の座標を与えて出力層からAUの重
み値を復元することができる。請求項4に記載の発明
は、入力手段、記憶手段、制御手段、出力手段、表示手
段を備えるコンピュータ装置に備えられ、感情の推移に
基づき表情を合成する3Dコンピュータグラフィックス
表情モデル形成システムである。3次元の感情パラメー
タをn次元の表情合成パラメータに展開するための5層
ニューラルネットワークの後3層、基本感情に対応する
感情空間上3次元感情パラメータ、及び表情を合成する
3Dコンピュータグラフィックス表情モデル形成のソー
スとなるシェイプデータを記憶する記憶手段と、特定の
感情に対する感情空間上の感情パラメータ導出手段と、
中間層を3ユニットとした5層ニューラルネットワーク
の後3層のデータを利用して、中間層に感情パラメータ
導出手段から導出された感情パラメータを入力し、出力
層に表情合成パラメータを出力する演算手段とを備えて
いる。
フェーズ、すなわち、基本感情のブレンド率の指定など
の感情パラメータ導出により感情空間上の3次元座標デ
ータを取得して、ニューラルネットワークを用いて表情
合成パラメータを復元し、それをブレンド率とみなしシ
ェイプデータを幾何的にブレンドすることにより表情モ
デルを形成する処理について説明する。図9において、
中間層に感情空間上の座標を与えて出力層からAUの重
み値を復元することができる。請求項4に記載の発明
は、入力手段、記憶手段、制御手段、出力手段、表示手
段を備えるコンピュータ装置に備えられ、感情の推移に
基づき表情を合成する3Dコンピュータグラフィックス
表情モデル形成システムである。3次元の感情パラメー
タをn次元の表情合成パラメータに展開するための5層
ニューラルネットワークの後3層、基本感情に対応する
感情空間上3次元感情パラメータ、及び表情を合成する
3Dコンピュータグラフィックス表情モデル形成のソー
スとなるシェイプデータを記憶する記憶手段と、特定の
感情に対する感情空間上の感情パラメータ導出手段と、
中間層を3ユニットとした5層ニューラルネットワーク
の後3層のデータを利用して、中間層に感情パラメータ
導出手段から導出された感情パラメータを入力し、出力
層に表情合成パラメータを出力する演算手段とを備えて
いる。
【0040】初めに、入力手段、記憶手段、制御手段、
出力手段、表示手段を備えるコンピュータ装置を用い
て、感情パラメータ導出手段を用いて基本感情のブレン
ド率を設定する。ブレンド率の設定処理は、望ましい形
態の一例としては、請求項5に記載のように、前記の入
力手段により各基本感情のブレンド率の入力を行い、前
記の記憶手段から基本感情に対応する感情空間上の3次
元感情パラメータを参照し、ブレンド率に対応する感情
パラメータを導出する処理である。例えば、「恐れ20
%、驚き40%」のようにブレンド率を指定する。
出力手段、表示手段を備えるコンピュータ装置を用い
て、感情パラメータ導出手段を用いて基本感情のブレン
ド率を設定する。ブレンド率の設定処理は、望ましい形
態の一例としては、請求項5に記載のように、前記の入
力手段により各基本感情のブレンド率の入力を行い、前
記の記憶手段から基本感情に対応する感情空間上の3次
元感情パラメータを参照し、ブレンド率に対応する感情
パラメータを導出する処理である。例えば、「恐れ20
%、驚き40%」のようにブレンド率を指定する。
【0041】また請求項9に記載のように、基本的な感
情に対応する表情の表情合成パラメータ並びにこれらの
表情の中間的な表情の表情合成パラメータを与えること
により学習したデータを用いる場合には、基本感情及び
中間感情のブレンド率を指定することができる。
情に対応する表情の表情合成パラメータ並びにこれらの
表情の中間的な表情の表情合成パラメータを与えること
により学習したデータを用いる場合には、基本感情及び
中間感情のブレンド率を指定することができる。
【0042】次に、感情パラメータ導出手段を用いて設
定されたブレンド率に基づき、感情空間上の3次元座標
データである感情パラメータが得られる。図7の表情合
成のDFDにおいて、感情データを、基本6感情の成分
を感情空間上のベクトルに変換する関数(E2S)を用
いて、感情空間ベクトルデータを演算により出力する処
理である。次に中間層を3ユニットとした5層ニューラ
ルネットワークの後3層のデータを利用して、中間層に
感情パラメータ導出手段から導出された感情パラメータ
を入力し、出力層に表情合成パラメータを出力する。図
2における表情合成パラメータ復元の処理であり、圧縮
された3次元データをn次元の表情合成パラメータ、す
なわちAUのブレンド率を示すデータに展開される。ま
た図7の表情合成のDFDにおいて、感情空間ベクトル
データをAUブレンド率に変換する関数を用いて、演算
によりAUブレンド率データを出力する処理である。図
5は基本6感情を構成する17のAUのブレンド率を示
すが、前記の例でいえば「恐れ20%、驚き40%」の
感情をAUのブレンド率を示すデータに展開する、演算
手段による処理である。
定されたブレンド率に基づき、感情空間上の3次元座標
データである感情パラメータが得られる。図7の表情合
成のDFDにおいて、感情データを、基本6感情の成分
を感情空間上のベクトルに変換する関数(E2S)を用
いて、感情空間ベクトルデータを演算により出力する処
理である。次に中間層を3ユニットとした5層ニューラ
ルネットワークの後3層のデータを利用して、中間層に
感情パラメータ導出手段から導出された感情パラメータ
を入力し、出力層に表情合成パラメータを出力する。図
2における表情合成パラメータ復元の処理であり、圧縮
された3次元データをn次元の表情合成パラメータ、す
なわちAUのブレンド率を示すデータに展開される。ま
た図7の表情合成のDFDにおいて、感情空間ベクトル
データをAUブレンド率に変換する関数を用いて、演算
によりAUブレンド率データを出力する処理である。図
5は基本6感情を構成する17のAUのブレンド率を示
すが、前記の例でいえば「恐れ20%、驚き40%」の
感情をAUのブレンド率を示すデータに展開する、演算
手段による処理である。
【0043】次に、図7の表情合成のDFDにおいて、
復元された表情合成パラメータ、具体的にはAUのブレ
ンド率を示すデータを、シェイプデータ(顔モデル)の
頂点ベクトル配列に変換する関数を用いて、シェイプデ
ータの頂点ベクトルデータとして出力することにより、
モデルの表情を形成する。請求項10に記載の発明は、
3次元の感情パラメータから展開されたn次元の表情合
成パラメータを3Dコンピュータグラフィックス表情モ
デル形成の対象となるシェイプデータのブレンド率と
し、シェイプデータを幾何的にブレンドすることにより
表情を形成するシステムである。以上により、感情のブ
レンド率を指定することにより対象となるシェイプデー
タの表情を形成することができる。
復元された表情合成パラメータ、具体的にはAUのブレ
ンド率を示すデータを、シェイプデータ(顔モデル)の
頂点ベクトル配列に変換する関数を用いて、シェイプデ
ータの頂点ベクトルデータとして出力することにより、
モデルの表情を形成する。請求項10に記載の発明は、
3次元の感情パラメータから展開されたn次元の表情合
成パラメータを3Dコンピュータグラフィックス表情モ
デル形成の対象となるシェイプデータのブレンド率と
し、シェイプデータを幾何的にブレンドすることにより
表情を形成するシステムである。以上により、感情のブ
レンド率を指定することにより対象となるシェイプデー
タの表情を形成することができる。
【0044】また本発明の他の実施形態としては、請求
項11に記載の発明のように、幾何的なブレンドのソー
スとなるシェイプデータは、感情とは独立した、顔の局
所的変形(FACSに基づくAU等)として前記の記憶
手段にあらかじめ記憶されたデータとして処理を行うこ
とができる。顔の局所的変形は、例えば図4のAUに示
すような、「眉を寄せる」「えくぼをつくる」といった
顔の部位単位において感情に基づき表情を形成する処理
である。
項11に記載の発明のように、幾何的なブレンドのソー
スとなるシェイプデータは、感情とは独立した、顔の局
所的変形(FACSに基づくAU等)として前記の記憶
手段にあらかじめ記憶されたデータとして処理を行うこ
とができる。顔の局所的変形は、例えば図4のAUに示
すような、「眉を寄せる」「えくぼをつくる」といった
顔の部位単位において感情に基づき表情を形成する処理
である。
【0045】(実施例3)次に、請求項13に記載の、
ターゲットモデルを感情の変化に伴い表情を変化させ、
アニメーションを形成する処理について説明する。本実
施形態においては、前記の感情パラメータ導出手段によ
り設定した感情パラメータ、及び所定時間後の感情パラ
メータを用いて、表情の時間的推移を、感情空間上のパ
ラメトリック曲線として記述し、各時刻における曲線上
の点(=感情パラメータ)から、表情合成パラメータへ
展開し、展開されたパラメータを使用して、シェイプデ
ータを幾何的にブレンドすることにより表情を変化させ
ることが可能なことを特徴とする。構築した感情空間に
ついて、基本感情から基本感情へ移動しながらその点に
対応する表情を出力することでアニメーションを作成す
るものであり、その結果の例が図15と図16である。
ターゲットモデルを感情の変化に伴い表情を変化させ、
アニメーションを形成する処理について説明する。本実
施形態においては、前記の感情パラメータ導出手段によ
り設定した感情パラメータ、及び所定時間後の感情パラ
メータを用いて、表情の時間的推移を、感情空間上のパ
ラメトリック曲線として記述し、各時刻における曲線上
の点(=感情パラメータ)から、表情合成パラメータへ
展開し、展開されたパラメータを使用して、シェイプデ
ータを幾何的にブレンドすることにより表情を変化させ
ることが可能なことを特徴とする。構築した感情空間に
ついて、基本感情から基本感情へ移動しながらその点に
対応する表情を出力することでアニメーションを作成す
るものであり、その結果の例が図15と図16である。
【0046】3Dコンピュータグラフィックスではどの
ような記述法を取るにせよ(ポリゴン、メッシュ、NUR
BS等)モデルの形状を決めるのは頂点ベクトルである。
3Dコンピュータグラフィックスモデルに変形動作を行
わせるためには、時間に応じてモデルの頂点ベクトルを
移動させれば良い。図17に示すように、アニメーショ
ンは、感情空間内のパラメトリック曲線として記述でき
る。長時間のアニメーションに対してデータ量を大幅に
削減できる。
ような記述法を取るにせよ(ポリゴン、メッシュ、NUR
BS等)モデルの形状を決めるのは頂点ベクトルである。
3Dコンピュータグラフィックスモデルに変形動作を行
わせるためには、時間に応じてモデルの頂点ベクトルを
移動させれば良い。図17に示すように、アニメーショ
ンは、感情空間内のパラメトリック曲線として記述でき
る。長時間のアニメーションに対してデータ量を大幅に
削減できる。
【0047】あるモデルの表情を変化させるにはまず次
のような準備をする。初めに、各AUについて、頂点座
標の相対移動ベクトルを決定する。次に、各基本感情に
ついて、AUのブレンド率データを決定する。次に、ニ
ューラルネットに学習をさせる。次に、無表情に対応す
る感情空間上の座標を求める。次に、各基本感情につい
て、感情空間上の座標を求める。
のような準備をする。初めに、各AUについて、頂点座
標の相対移動ベクトルを決定する。次に、各基本感情に
ついて、AUのブレンド率データを決定する。次に、ニ
ューラルネットに学習をさせる。次に、無表情に対応す
る感情空間上の座標を求める。次に、各基本感情につい
て、感情空間上の座標を求める。
【0048】準備が完了すれば、あとは次のようにして
表情を変化させることができる。初めに、感情空間上の
座標からAUのブレンド率データを求める。次に、各A
Uについてブレンド率データと相対移動ベクトルの積を
もとめる次に、上の積を足しあわせ、モデルの頂点ベク
トルに加えると、感情空間上の座標に対応するモデルの
表情が作られる。次に、時間にそって(感情空間上の座
標→モデルの頂点ベクトル)の位置を移動させる。
表情を変化させることができる。初めに、感情空間上の
座標からAUのブレンド率データを求める。次に、各A
Uについてブレンド率データと相対移動ベクトルの積を
もとめる次に、上の積を足しあわせ、モデルの頂点ベク
トルに加えると、感情空間上の座標に対応するモデルの
表情が作られる。次に、時間にそって(感情空間上の座
標→モデルの頂点ベクトル)の位置を移動させる。
【0049】ここで、頂点座標の具体的な計算方法は以
下のようになる。例えばモデルに時間
下のようになる。例えばモデルに時間
【数1】 において怒り80%、
【数2】 において喜び50%となる表情動作をさせるには時間
【数3】 におけるモデルの頂点座標
【数4】 を求めればよい。その方法は次のようになる。感情空間
の座標を時間による線形補間で求める:
の座標を時間による線形補間で求める:
【数5】 感情空間の座標をAUのブレンド率データに変換する:
【数6】 AUのブレンド率データからモデルの頂点座標の各々を
求める:
求める:
【数7】
【0050】図18は、本実施形態の処理フローを示
す。感情パラメータを時刻とともに記録することによっ
てアニメーションデータを作成する。アニメーションを
再生するときには、記録されたアニメーションデータか
ら特定の時刻における感情パラメータを導出し、それを
表情合成パラメータ復元への入力に与える。
す。感情パラメータを時刻とともに記録することによっ
てアニメーションデータを作成する。アニメーションを
再生するときには、記録されたアニメーションデータか
ら特定の時刻における感情パラメータを導出し、それを
表情合成パラメータ復元への入力に与える。
【0051】以上詳細に説明したように、本発明の3D
コンピュータグラフィックスモデル形成システムにおい
ては、基本6感情のブレンドによりターゲットモデルを
変形し、また時間軸に沿った変形によるアニメーション
を作成することができるが、その処理手順としては、下
記のような形態を加えることができる。例えば、手動操
作によるモデルの形成方法としては、表情アニメーショ
ンの対象となるモデルに対して次の手順でモデルを構築
する。各AU(図4参照)の指示に従って、それぞれの
変形モデルを手作業で作成し、次いで6基本感情を表現
するAUのブレンド率を手動で調整する。次に、ニュー
ラルネットの学習、収束、感情空間生成を行う。次に、
感情空間上の座標の動きによって、3DモデルのAUに
基づく定量的な表情動作を再生する。
コンピュータグラフィックスモデル形成システムにおい
ては、基本6感情のブレンドによりターゲットモデルを
変形し、また時間軸に沿った変形によるアニメーション
を作成することができるが、その処理手順としては、下
記のような形態を加えることができる。例えば、手動操
作によるモデルの形成方法としては、表情アニメーショ
ンの対象となるモデルに対して次の手順でモデルを構築
する。各AU(図4参照)の指示に従って、それぞれの
変形モデルを手作業で作成し、次いで6基本感情を表現
するAUのブレンド率を手動で調整する。次に、ニュー
ラルネットの学習、収束、感情空間生成を行う。次に、
感情空間上の座標の動きによって、3DモデルのAUに
基づく定量的な表情動作を再生する。
【0052】また、自動作成によるモデルの形成方法と
しては、表情アニメーションの対象となるモデルに対し
て次の手順でモデルを構築する。あらかじめ用意された
テンプレートモデル(各AUごとに頂点移動率を設定済
み)と対象モデルとのマッピングを行うことにより、対
象モデルから各AU変形モデルを自動作成する。次に、
あらかじめ設定されているAUのブレンド率に従って6
基本感情を表現する表情を出力し、必要ならば手動で調
整する。以下手動作成バージョンと同様の手順による表
情アニメーションの形成を行う。
しては、表情アニメーションの対象となるモデルに対し
て次の手順でモデルを構築する。あらかじめ用意された
テンプレートモデル(各AUごとに頂点移動率を設定済
み)と対象モデルとのマッピングを行うことにより、対
象モデルから各AU変形モデルを自動作成する。次に、
あらかじめ設定されているAUのブレンド率に従って6
基本感情を表現する表情を出力し、必要ならば手動で調
整する。以下手動作成バージョンと同様の手順による表
情アニメーションの形成を行う。
【0053】(実施例4)本発明のさらなる実施形態と
しては、感情推定ツールとの組合わせによる展開を加え
ることができる。人間の感情を測定するツールの出力か
ら感情空間上の軌跡を生成することは容易である。人間
の感情を測定するための入力として以下のものを挙げ
る。表情(画像入力端末、リアルタイム測定と記録され
た映像からの測定)。音声(音声入力端末、リアルタイ
ムまたは記録されたもの、歌声も対象になる)。身振り
(頭部、肩、腕など、キーボードタイピングの調子の変
化なども考えられる)。
しては、感情推定ツールとの組合わせによる展開を加え
ることができる。人間の感情を測定するツールの出力か
ら感情空間上の軌跡を生成することは容易である。人間
の感情を測定するための入力として以下のものを挙げ
る。表情(画像入力端末、リアルタイム測定と記録され
た映像からの測定)。音声(音声入力端末、リアルタイ
ムまたは記録されたもの、歌声も対象になる)。身振り
(頭部、肩、腕など、キーボードタイピングの調子の変
化なども考えられる)。
【0054】これらを単独で、あるいは組み合わせて感
情を測定し、それを入力データとして利用することがで
きる(感情データを感情空間へ変換する関数=図7の
「E2S」)。図19は、本実施形態における感情パラ
メータ導出の処理を示し、認識技術を使ったリアルタイ
ムなバーチャルキャラクター表情アニメーション感情パ
ラメータ導出モジュールが、マイクを使った音声認識、
カメラを使った画像解析による感情推定モジュールにな
る。表情合成モジュールは、リアルタイム描画が可能な
3D描画ライブラリを使ったプログラムになる。
情を測定し、それを入力データとして利用することがで
きる(感情データを感情空間へ変換する関数=図7の
「E2S」)。図19は、本実施形態における感情パラ
メータ導出の処理を示し、認識技術を使ったリアルタイ
ムなバーチャルキャラクター表情アニメーション感情パ
ラメータ導出モジュールが、マイクを使った音声認識、
カメラを使った画像解析による感情推定モジュールにな
る。表情合成モジュールは、リアルタイム描画が可能な
3D描画ライブラリを使ったプログラムになる。
【0055】例えば、請求項6に記載の発明において
は、前記の感情パラメータ導出手段として、前記の入力
手段により入力された音声又は画像を解析して求められ
た感情に基づき感情パラメータを導出する手段を用い
る。これは、音声の抑揚、声の大きさ、アクセント、早
口の度合、声の周波数などの要素の組み合わせにより基
本感情を示す数値を設定して記憶させておくことによ
り、望ましくは特定の個人についてのこれらの数値を予
め登録しておくことにより、マイクロフォンなどの入力
手段から入力された音声を解析して、基本感情のブレン
ド率などを導き出し、3次元の感情空間上の座標を求め
るものである。さらに、各利用者のコンピュータ端末に
これらのデータ及びデータを処理するプログラム、自分
の顔やキャラクターの顔等のシェイプデータを記憶させ
ておくことにより、後述する様々な通信において、感情
に対応する表情を送受信できるシステムを構築すること
ができる。
は、前記の感情パラメータ導出手段として、前記の入力
手段により入力された音声又は画像を解析して求められ
た感情に基づき感情パラメータを導出する手段を用い
る。これは、音声の抑揚、声の大きさ、アクセント、早
口の度合、声の周波数などの要素の組み合わせにより基
本感情を示す数値を設定して記憶させておくことによ
り、望ましくは特定の個人についてのこれらの数値を予
め登録しておくことにより、マイクロフォンなどの入力
手段から入力された音声を解析して、基本感情のブレン
ド率などを導き出し、3次元の感情空間上の座標を求め
るものである。さらに、各利用者のコンピュータ端末に
これらのデータ及びデータを処理するプログラム、自分
の顔やキャラクターの顔等のシェイプデータを記憶させ
ておくことにより、後述する様々な通信において、感情
に対応する表情を送受信できるシステムを構築すること
ができる。
【0056】(実施例5)また、請求項7に記載の発明
においては、前記の感情パラメータ導出手段として、前
記のコンピュータ装置が備えるプログラムによる演算処
理により求められた感情に基づき感情パラメータを導出
する手段を用いる。これは、例えばゲーム・プログラム
において、ゲーム競技者の得点などの数値や、ゲーム中
のイベント、アクション、操作などの要素に応じた感情
を示す数値を設定して記憶させておくことにより、ゲー
ム競技者の得点などの数値や、ゲーム中のイベント、ア
クション、操作などに応じて基本感情のブレンド率など
を導き出し、3次元の感情空間上の座標を求めるもので
ある。感情パラメータ制御によるキャラクター表情アニ
メーション再生プログラムが、感情パラメータを内部デ
ータから直接生成する。ゲームなどにおいて、現在の内
部状態から感情パラメータを算出することで、状況に応
じて変化するキャラクターの表情の表現が可能となる。
においては、前記の感情パラメータ導出手段として、前
記のコンピュータ装置が備えるプログラムによる演算処
理により求められた感情に基づき感情パラメータを導出
する手段を用いる。これは、例えばゲーム・プログラム
において、ゲーム競技者の得点などの数値や、ゲーム中
のイベント、アクション、操作などの要素に応じた感情
を示す数値を設定して記憶させておくことにより、ゲー
ム競技者の得点などの数値や、ゲーム中のイベント、ア
クション、操作などに応じて基本感情のブレンド率など
を導き出し、3次元の感情空間上の座標を求めるもので
ある。感情パラメータ制御によるキャラクター表情アニ
メーション再生プログラムが、感情パラメータを内部デ
ータから直接生成する。ゲームなどにおいて、現在の内
部状態から感情パラメータを算出することで、状況に応
じて変化するキャラクターの表情の表現が可能となる。
【0057】本実施形態においても、各利用者のコンピ
ュータ端末にこれらのデータ及びデータを処理するプロ
グラム、自分の顔やキャラクターの顔等のシェイプデー
タを記憶させておくことにより、後述する様々な通信に
おいて、感情に対応する表情を送受信できるシステムを
構築することができる。例えばバーチャルキャラクター
を使ったネットワークコミュニケーションシステムであ
り、各端末が、認識技術を使った感情パラメータ導出モ
ジュールをもち、導出された感情パラメータをネットワ
ークを介して通信相手に送信する。受信した側では、送
信されてきた感情パラメータを使って表情合成を行い、
表示装置に合成された表情を描画する。通信確立時に、
感情空間(=学習済みのニューラルネットワーク)、表
情合成に使うシェイプデータを互いに交換しておくこと
で、リアルタイムで送受信するデータは、感情パラメー
タのみとなり、通信トラフィックを低減できる。
ュータ端末にこれらのデータ及びデータを処理するプロ
グラム、自分の顔やキャラクターの顔等のシェイプデー
タを記憶させておくことにより、後述する様々な通信に
おいて、感情に対応する表情を送受信できるシステムを
構築することができる。例えばバーチャルキャラクター
を使ったネットワークコミュニケーションシステムであ
り、各端末が、認識技術を使った感情パラメータ導出モ
ジュールをもち、導出された感情パラメータをネットワ
ークを介して通信相手に送信する。受信した側では、送
信されてきた感情パラメータを使って表情合成を行い、
表示装置に合成された表情を描画する。通信確立時に、
感情空間(=学習済みのニューラルネットワーク)、表
情合成に使うシェイプデータを互いに交換しておくこと
で、リアルタイムで送受信するデータは、感情パラメー
タのみとなり、通信トラフィックを低減できる。
【0058】次に、各種入出力端末を用いることによ
り、作成したターゲットモデルは再生端末の情報処理能
力とネットワークのデータ転送能力によってさまざまな
実施形態をとることができる。パーソナルコンピュータ
などの装置や、家庭用ゲーム機、業務用ゲーム機、マル
チメディアキヨスク端末、インターネットTVなど、様
々な装置において、本発明を実施するためのプログラム
と、人物の一連の動作や表情等の基本的な動きを再現し
た複数のアニメーションユニット・パラメータを所定の
ブレンド率に基づき合成した基本顔である基本顔モデル
の感情空間上の座標データ、及び3Dコンピュータグラ
フィックスモデル形成の対象となるターゲットモデルの
座標データとを利用して、操作者が表情をターゲットモ
デルに加えることができる。なお上記のプログラムやデ
ータは、操作者の端末装置に記憶されて備えられる形態
のほか、アプリケーション・サービス・プロバイダー
(ASP)形式のように、インターネット等を通じて接
続する記憶装置に備えられ、接続しながら利用する形態
をとることもできる。
り、作成したターゲットモデルは再生端末の情報処理能
力とネットワークのデータ転送能力によってさまざまな
実施形態をとることができる。パーソナルコンピュータ
などの装置や、家庭用ゲーム機、業務用ゲーム機、マル
チメディアキヨスク端末、インターネットTVなど、様
々な装置において、本発明を実施するためのプログラム
と、人物の一連の動作や表情等の基本的な動きを再現し
た複数のアニメーションユニット・パラメータを所定の
ブレンド率に基づき合成した基本顔である基本顔モデル
の感情空間上の座標データ、及び3Dコンピュータグラ
フィックスモデル形成の対象となるターゲットモデルの
座標データとを利用して、操作者が表情をターゲットモ
デルに加えることができる。なお上記のプログラムやデ
ータは、操作者の端末装置に記憶されて備えられる形態
のほか、アプリケーション・サービス・プロバイダー
(ASP)形式のように、インターネット等を通じて接
続する記憶装置に備えられ、接続しながら利用する形態
をとることもできる。
【0059】利用分野の一例としては、例えば、1対1
通信の例では、表情付きメール、対戦ゲームなどであ
る。また1対多通信(単方向)の例としては、ニュース
配信や、1対多通信(双方向)の例としては、インター
ネットショッピングなど、さらに多対多通信の例として
は、ネットワークゲームなどが例示できる。その他、携
帯電話(1対1)、通信カラオケマシン(1対多)など
は音声による感情入力と(液晶)画面による表情出力の
可能な通信手段として特有のサービスを提供することが
できる。
通信の例では、表情付きメール、対戦ゲームなどであ
る。また1対多通信(単方向)の例としては、ニュース
配信や、1対多通信(双方向)の例としては、インター
ネットショッピングなど、さらに多対多通信の例として
は、ネットワークゲームなどが例示できる。その他、携
帯電話(1対1)、通信カラオケマシン(1対多)など
は音声による感情入力と(液晶)画面による表情出力の
可能な通信手段として特有のサービスを提供することが
できる。
【0060】
【発明の効果】以上、詳細に説明したように、本発明に
よれば、感情のブレンド率を指定することにより対象と
なるシェイプデータの表情を形成し、さらに時間軸に沿
ったシェイプデータの変化を実現するためのシステムを
提供することができる。これにより、感情に基づき様々
な表情を作り出すことができる。またその表情には基本
表情モデルに作りこんだ皺なども含まれ、複雑な表現が
可能になった。
よれば、感情のブレンド率を指定することにより対象と
なるシェイプデータの表情を形成し、さらに時間軸に沿
ったシェイプデータの変化を実現するためのシステムを
提供することができる。これにより、感情に基づき様々
な表情を作り出すことができる。またその表情には基本
表情モデルに作りこんだ皺なども含まれ、複雑な表現が
可能になった。
【0061】6基本感情の基本顔のブレンド率を学習さ
せる際に、感情の度合いを0%、25%、50%、75
%、100%と徐々に増加させて学習させることで、ニ
ューラルネットの汎化性能を高めることができる。さら
に、基本顔そのものや6基本感情に分類できないような
様々な中間感情表情についても学習させたことにより、
より強力な恒等写像能力とより良い汎化性能を得ること
ができた。また、顔の基本動作を表す基本顔を個々に複
数作成し、それらをブレンド率により合成することで、
より自然な顔表情を作成することができた。また、ニュ
ーラルネットの恒等写像学習において、6基本感情だけ
でなく、それらに分類できないような様々な中間感情表
情についても学習させることでより理想的な汎化性能を
持つ感情空間を構築することができた。
せる際に、感情の度合いを0%、25%、50%、75
%、100%と徐々に増加させて学習させることで、ニ
ューラルネットの汎化性能を高めることができる。さら
に、基本顔そのものや6基本感情に分類できないような
様々な中間感情表情についても学習させたことにより、
より強力な恒等写像能力とより良い汎化性能を得ること
ができた。また、顔の基本動作を表す基本顔を個々に複
数作成し、それらをブレンド率により合成することで、
より自然な顔表情を作成することができた。また、ニュ
ーラルネットの恒等写像学習において、6基本感情だけ
でなく、それらに分類できないような様々な中間感情表
情についても学習させることでより理想的な汎化性能を
持つ感情空間を構築することができた。
【0062】構築した感情空間について、基本感情から
基本感情へ移動しながらその点に対応する表情を出力す
ることでアニメーションを作成し、これらの結果で得ら
れた基本感情表情から基本感情表情へのアニメーション
は、それらの表情の中間的な表情で補間されており、理
想的な汎化性能が得られたと言える結果となった。顔表
面の運動単位それぞれについて各モデル毎に基本表情を
構築することで、皺などの複雑な表現を可能にした。ま
た、恒等写像学習において、6基本感情表情のみでなく
それらの中間感情表情を学習データとして与えることで
より理想的な汎化性能を持つ感情空間を構築することが
可能となった。
基本感情へ移動しながらその点に対応する表情を出力す
ることでアニメーションを作成し、これらの結果で得ら
れた基本感情表情から基本感情表情へのアニメーション
は、それらの表情の中間的な表情で補間されており、理
想的な汎化性能が得られたと言える結果となった。顔表
面の運動単位それぞれについて各モデル毎に基本表情を
構築することで、皺などの複雑な表現を可能にした。ま
た、恒等写像学習において、6基本感情表情のみでなく
それらの中間感情表情を学習データとして与えることで
より理想的な汎化性能を持つ感情空間を構築することが
可能となった。
【0063】また、時間の経過とともに表情を変化させ
るアニメーションは、構築された感情空間上にある、時
間をパラメータとしたパラメトリック曲線として記述可
能となり、アニメーションのデータ量を大幅に削減する
ことができる。
るアニメーションは、構築された感情空間上にある、時
間をパラメータとしたパラメトリック曲線として記述可
能となり、アニメーションのデータ量を大幅に削減する
ことができる。
【図1】本発明のシステムに用いられるコンピュータ装
置の基本的なハードウェア構成を示す図である。
置の基本的なハードウェア構成を示す図である。
【図2】本発明のシステムの機能を実現するプログラム
の処理の機能を示すブロック図である。
の処理の機能を示すブロック図である。
【図3】17個のAUに基づき表情を変化させたモデル
の一例を示す図である。
の一例を示す図である。
【図4】17個のAUの概要を示す図である。
【図5】AUの組み合わせによる基本6感情のブレンド
率を示す図である。
率を示す図である。
【図6】本発明のシステム構成図である。
【図7】本発明の処理のデータフローを示すブロック図
である。
である。
【図8】ニューラルネットの構成図である。
【図9】ニューラルネットの構成図である。
【図10】怒り・嫌悪・恐れ・喜び・悲しみ・驚きの6
基本感情を表す図である。
基本感情を表す図である。
【図11】恒等写像学習を行った結果、中間層に生成さ
れた感情空間を示す図である。
れた感情空間を示す図である。
【図12】各運動単位の動作を表現したモデルをそれぞ
れ作成し、それに皺などの複雑な表現も作りこんだ一例
を示す図である。
れ作成し、それに皺などの複雑な表現も作りこんだ一例
を示す図である。
【図13】中間感情の表情を基本表情モデルのブレンド
率によって再現した一例を示す図である。
率によって再現した一例を示す図である。
【図14】基本表情モデルをブレンド率によって合成す
ることで、顔表情を作り出した一例を示す図である。
ることで、顔表情を作り出した一例を示す図である。
【図15】構築した感情空間について、基本感情から基
本感情へ移動しながらその点に対応する表情を出力する
ことでアニメーションを作成した結果の一例を示す図で
ある。
本感情へ移動しながらその点に対応する表情を出力する
ことでアニメーションを作成した結果の一例を示す図で
ある。
【図16】構築した感情空間について、基本感情から基
本感情へ移動しながらその点に対応する表情を出力する
ことでアニメーションを作成した結果の一例を示す図で
ある。
本感情へ移動しながらその点に対応する表情を出力する
ことでアニメーションを作成した結果の一例を示す図で
ある。
【図17】アニメーションを、感情空間内のパラメトリ
ック曲線として記述したことを示す図である。
ック曲線として記述したことを示す図である。
【図18】本発明の一実施形態の処理フローを示す図で
ある。
ある。
【図19】本発明の一実施形態における感情パラメータ
導出の処理を示す図である。
導出の処理を示す図である。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 森島 繁生 東京都世田谷区野沢1−15−2 Fターム(参考) 5B050 AA10 BA08 BA12 DA10 EA13 EA24 EA28 FA02 5B057 CA13 CB13 CC04 CE08 DA16
Claims (13)
- 【請求項1】 入力手段、記憶手段、制御手段、出力手
段、表示手段を備えるコンピュータ装置に備えられ、感
情による3Dコンピュータグラフィックス表情モデル形
成に用いるn次元の表情合成パラメータを3次元の感情
空間上の感情パラメータに圧縮するシステムであって、
前記システムは、5層ニューラルネットワークの恒等写
像学習により、n次元の表情合成パラメータから3次元
の感情パラメータを形成する演算手段を備え、前記の演
算手段による演算は、中間層を3ユニットとした5層ニ
ューラルネットワークを利用して、入力層と出力層に同
じ表情合成パラメータを与えて学習を行う演算処理と学
習したニューラルネットワークの入力層に表情合成パラ
メータを入力し、中間層から圧縮された3次元の感情パ
ラメータを出力する演算処理であることを特徴とする、
3次元の感情空間上の感情パラメータに圧縮するシステ
ム。 - 【請求項2】 請求項1に記載の発明において、ニュー
ラルネットワークの学習に使用するデータは、基本的な
感情に対応する表情の表情合成パラメータであることを
特徴とする、3次元の感情空間上の感情パラメータに圧
縮するシステム。 - 【請求項3】 請求項1に記載の発明において、ニュー
ラルネットワークの学習に使用するデータは、基本的な
感情に対応する表情の表情合成パラメータ並びにこれら
の表情の中間的な感情の表情合成パラメータであること
を特徴とする、3次元の感情空間上の感情パラメータに
圧縮するシステム。 - 【請求項4】 入力手段、記憶手段、制御手段、出力手
段、表示手段を備えるコンピュータ装置に備えられ、感
情の推移に基づき表情を合成する3Dコンピュータグラ
フィックス表情モデル形成システムであって、3次元の
感情パラメータをn次元の表情合成パラメータに展開す
るための5層ニューラルネットワークの後3層、基本感
情に対応する感情空間上3次元感情パラメータ、及び表
情を合成する3Dコンピュータグラフィックス表情モデ
ル形成のソースとなるシェイプデータを記憶する記憶手
段と、特定の感情に対する感情空間上の感情パラメータ
導出手段と、中間層を3ユニットとした5層ニューラル
ネットワークの後3層のデータを利用して、中間層に感
情パラメータ導出手段から導出された感情パラメータを
入力し、出力層に表情合成パラメータを出力する演算手
段とを備えたことを特徴とする、3Dコンピュータグラ
フィックス表情モデル形成システム。 - 【請求項5】 請求項4に記載の発明において、前記の
感情パラメータ導出手段は、前記の入力手段により各基
本感情のブレンド率の入力を行い、前期の記憶手段から
基本感情に対応する感情空間上の3次元感情パラメータ
を参照し、ブレンド率に対応する感情パラメータを導出
することを特徴とする、請求項4に記載の3Dコンピュ
ータグラフィックス表情モデル形成システム。 - 【請求項6】 請求項4に記載の発明において、前記の
感情パラメータ導出手段は、前記の入力手段により入力
された音声又は画像を解析して求められた感情に基づき
感情パラメータを導出する手段であることを特徴とす
る、請求項4に記載の3Dコンピュータグラフィックス
表情モデル形成システム。 - 【請求項7】 請求項4に記載の発明において、前記の
感情パラメータ導出手段は、前記のコンピュータ装置が
備えるプログラムによる演算処理により感情パラメータ
を生成する手段であることを特徴とする、請求項4に記
載の3Dコンピュータグラフィックス表情モデル形成シ
ステム。 - 【請求項8】 請求項4〜7に記載の発明において、3
次元の感情パラメータをn次元の表情合成パラメータに
展開するための5層ニューラルネットワークは基本的な
感情に対応する表情の表情合成パラメータを与えること
により学習したことを特徴とする、請求項4〜7のいず
れかに記載の3Dコンピュータグラフィックス表情モデ
ル形成システム。 - 【請求項9】 請求項4〜7に記載の発明において、3
次元の感情パラメータをn次元の表情合成パラメータに
展開するための5層ニューラルネットワークは基本的な
感情に対応する表情の表情合成パラメータ並びにこれら
の表情の中間的な表情の表情合成パラメータを与えるこ
とにより学習したことを特徴とする、請求項4〜7のい
ずれかに記載の3Dコンピュータグラフィックス表情モ
デル形成システム。 - 【請求項10】 請求項4〜9に記載の発明において、
3次元の感情パラメータから展開されたn次元の表情合
成パラメータを3Dコンピュータグラフィックス表情モ
デル形成の対象となるシェイプデータのブレンド率と
し、シェイプデータを幾何的にブレンドすることにより
表情を形成することを特徴とする、請求項4〜9のいず
れかに記載の3Dコンピュータグラフィックス表情モデ
ル形成システム。 - 【請求項11】 請求項10に記載の発明において、幾
何的なブレンドのソースとなるシェイプデータは、感情
とは独立した、顔の局所的変形(FACSに基づくAU等)
として前記の記憶手段にあらかじめ記憶されたデータで
あることを特徴とする、請求項10に記載の3Dコンピ
ュータグラフィックス表情モデル形成システム。 - 【請求項12】 請求項11に記載の発明において、テ
ンプレートとなる顔モデルとそれを局所的に変形した顔
モデルをあらかじめ用意し、テンプレートとなる顔モデ
ルと、表情を形成する対象となる顔モデルとのマッピン
グを行うことにより、表情を形成する対象となる顔モデ
ルを自動的に変形し、幾何的なブレンドのソースとなる
シェイプデータを作成することを特徴とする、請求項1
1に記載の3Dコンピュータグラフィックス表情モデル
形成システム。 - 【請求項13】 請求項10〜12に記載の発明におい
て、前記の感情パラメータ導出手段により設定した感情
パラメータ、及び所定時間後の感情パラメータを用い
て、表情の時間的推移を、感情空間上のパラメトリック
曲線として記述し、各時刻における曲線上の点(=感情
パラメータ)から、表情合成パラメータへ展開し、展開
されたパラメータを使用して、シェイプデータを幾何的
にブレンドすることにより表情を変化させることが可能
なことを特徴とする、請求項10〜12のいずれかに記
載の3Dコンピュータグラフィックス表情モデル形成シ
ステム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001094872A JP2002298155A (ja) | 2001-03-29 | 2001-03-29 | 感情による3dコンピュータグラフィックス表情モデル形成システム |
| US10/473,641 US20040095344A1 (en) | 2001-03-29 | 2001-05-21 | Emotion-based 3-d computer graphics emotion model forming system |
| PCT/JP2001/004236 WO2002080111A1 (en) | 2001-03-29 | 2001-05-21 | Emotion-based 3-d computer graphics emotion model forming system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001094872A JP2002298155A (ja) | 2001-03-29 | 2001-03-29 | 感情による3dコンピュータグラフィックス表情モデル形成システム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2002298155A true JP2002298155A (ja) | 2002-10-11 |
Family
ID=18949006
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001094872A Pending JP2002298155A (ja) | 2001-03-29 | 2001-03-29 | 感情による3dコンピュータグラフィックス表情モデル形成システム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20040095344A1 (ja) |
| JP (1) | JP2002298155A (ja) |
| WO (1) | WO2002080111A1 (ja) |
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006106711A (ja) * | 2004-09-10 | 2006-04-20 | Matsushita Electric Ind Co Ltd | 情報処理端末 |
| JP2007287177A (ja) * | 2002-12-11 | 2007-11-01 | Sony Corp | 情報処理装置および方法、プログラム、並びに記録媒体 |
| US7548891B2 (en) | 2002-12-11 | 2009-06-16 | Sony Corporation | Information processing device and method, program, and recording medium |
| US7788104B2 (en) | 2004-09-10 | 2010-08-31 | Panasonic Corporation | Information processing terminal for notification of emotion |
| JP2013219495A (ja) * | 2012-04-06 | 2013-10-24 | Nec Infrontia Corp | 感情表現アニメーション顔表示システム、方法及びプログラム |
| JP2017211939A (ja) * | 2016-05-27 | 2017-11-30 | ヤフー株式会社 | 生成装置、生成方法、及び生成プログラム |
| CN108765549A (zh) * | 2018-04-30 | 2018-11-06 | 程昔恩 | 一种基于人工智能的产品三维展示方法及装置 |
| JP2021043841A (ja) * | 2019-09-13 | 2021-03-18 | 大日本印刷株式会社 | 仮想キャラクタ生成装置及びプログラム |
| JP2022528999A (ja) * | 2019-08-30 | 2022-06-16 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 動画キャラクターの駆動方法並びにその、装置、機器及びコンピュータプログラム |
| JP2022537011A (ja) * | 2019-08-29 | 2022-08-23 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 人工知能に基づく音声駆動アニメーション方法及び装置、デバイス及びコンピュータプログラム |
| JPWO2022264235A1 (ja) * | 2021-06-14 | 2022-12-22 | ||
| JP2023517211A (ja) * | 2020-06-01 | 2023-04-24 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 表情トランスファーモデルの訓練方法、表情トランスファー方法及び装置並びにコンピュータ装置及びプログラム |
| WO2023195426A1 (ja) * | 2022-04-05 | 2023-10-12 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 復号装置、符号化装置、復号方法及び符号化方法 |
| KR102595666B1 (ko) * | 2022-05-03 | 2023-10-31 | (주)이브이알스튜디오 | 영상 생성 방법 및 장치 |
| WO2024100844A1 (ja) * | 2022-11-10 | 2024-05-16 | 日本電信電話株式会社 | 表情生成装置、表情生成方法および表情生成プログラム |
Families Citing this family (30)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20060248461A1 (en) * | 2005-04-29 | 2006-11-02 | Omron Corporation | Socially intelligent agent software |
| US20070130112A1 (en) * | 2005-06-30 | 2007-06-07 | Intelligentek Corp. | Multimedia conceptual search system and associated search method |
| KR100828371B1 (ko) | 2006-10-27 | 2008-05-08 | 삼성전자주식회사 | 컨텐츠의 메타 데이터 생성 방법 및 장치 |
| JP4964057B2 (ja) * | 2007-08-08 | 2012-06-27 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム装置の制御方法及びプログラム |
| US8219438B1 (en) * | 2008-06-30 | 2012-07-10 | Videomining Corporation | Method and system for measuring shopper response to products based on behavior and facial expression |
| US20140025385A1 (en) * | 2010-12-30 | 2014-01-23 | Nokia Corporation | Method, Apparatus and Computer Program Product for Emotion Detection |
| US9639743B2 (en) * | 2013-05-02 | 2017-05-02 | Emotient, Inc. | Anonymization of facial images |
| US9105119B2 (en) * | 2013-05-02 | 2015-08-11 | Emotient, Inc. | Anonymization of facial expressions |
| US9484015B2 (en) * | 2013-05-28 | 2016-11-01 | International Business Machines Corporation | Hybrid predictive model for enhancing prosodic expressiveness |
| US9378576B2 (en) | 2013-06-07 | 2016-06-28 | Faceshift Ag | Online modeling for real-time facial animation |
| CN105830006B (zh) * | 2014-01-30 | 2020-02-14 | 华为技术有限公司 | 图像及视频内容的情感修改 |
| US20150254886A1 (en) * | 2014-03-07 | 2015-09-10 | Utw Technology Co., Ltd. | System and method for generating animated content |
| US10386996B2 (en) * | 2015-06-11 | 2019-08-20 | Microsoft Technology Licensing, Llc | Communicating emotional information via avatar animation |
| US11893671B2 (en) * | 2015-09-07 | 2024-02-06 | Sony Interactive Entertainment LLC | Image regularization and retargeting system |
| EP3467619A2 (en) * | 2016-06-06 | 2019-04-10 | Devar Entertainment Limited | Device for influencing virtual objects of augmented-reality |
| CN106485773B (zh) * | 2016-09-14 | 2019-09-24 | 厦门黑镜科技有限公司 | 一种用于生成动画数据的方法和装置 |
| US10896535B2 (en) * | 2018-08-13 | 2021-01-19 | Pinscreen, Inc. | Real-time avatars using dynamic textures |
| US11893673B2 (en) | 2018-10-31 | 2024-02-06 | Soul Machines Limited | Morph target animation |
| US11024071B2 (en) * | 2019-01-02 | 2021-06-01 | Espiritu Technologies, Llc | Method of converting phoneme transcription data into lip sync animation data for 3D animation software |
| US10916046B2 (en) * | 2019-02-28 | 2021-02-09 | Disney Enterprises, Inc. | Joint estimation from images |
| US11157549B2 (en) * | 2019-03-06 | 2021-10-26 | International Business Machines Corporation | Emotional experience metadata on recorded images |
| FR3095878B1 (fr) * | 2019-05-10 | 2021-10-08 | Univ De Brest | Procédé d'analyse automatique d'images pour reconnaître automatiquement au moins une caractéristique rare |
| CN111589114B (zh) | 2020-05-12 | 2023-03-10 | 腾讯科技(深圳)有限公司 | 虚拟对象的选择方法、装置、终端及存储介质 |
| US11908233B2 (en) | 2020-11-02 | 2024-02-20 | Pinscreen, Inc. | Normalization of facial images using deep neural networks |
| CN112632276B (zh) * | 2020-12-08 | 2024-09-20 | 北京语言大学 | 一种情感类型辨别及情感强度计算方法 |
| CN112633191B (zh) * | 2020-12-28 | 2024-09-06 | 百果园技术(新加坡)有限公司 | 一种三维人脸重建的方法、装置、设备和存储介质 |
| JP2024084157A (ja) * | 2021-04-22 | 2024-06-25 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法 |
| KR20230049969A (ko) | 2021-10-07 | 2023-04-14 | 삼성전자주식회사 | 글로벌 측위 장치 및 방법 |
| US20240013802A1 (en) * | 2022-07-07 | 2024-01-11 | Nvidia Corporation | Inferring emotion from speech in audio data using deep learning |
| US12524965B2 (en) * | 2023-09-25 | 2026-01-13 | Sony Group Corporation | Generation of three-dimensional (3D) blend-shapes from 3D scans using neural network |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6185534B1 (en) * | 1998-03-23 | 2001-02-06 | Microsoft Corporation | Modeling emotion and personality in a computer user interface |
-
2001
- 2001-03-29 JP JP2001094872A patent/JP2002298155A/ja active Pending
- 2001-05-21 WO PCT/JP2001/004236 patent/WO2002080111A1/ja not_active Ceased
- 2001-05-21 US US10/473,641 patent/US20040095344A1/en not_active Abandoned
Cited By (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007287177A (ja) * | 2002-12-11 | 2007-11-01 | Sony Corp | 情報処理装置および方法、プログラム、並びに記録媒体 |
| US7548891B2 (en) | 2002-12-11 | 2009-06-16 | Sony Corporation | Information processing device and method, program, and recording medium |
| JP2006106711A (ja) * | 2004-09-10 | 2006-04-20 | Matsushita Electric Ind Co Ltd | 情報処理端末 |
| US7788104B2 (en) | 2004-09-10 | 2010-08-31 | Panasonic Corporation | Information processing terminal for notification of emotion |
| JP2013219495A (ja) * | 2012-04-06 | 2013-10-24 | Nec Infrontia Corp | 感情表現アニメーション顔表示システム、方法及びプログラム |
| JP2017211939A (ja) * | 2016-05-27 | 2017-11-30 | ヤフー株式会社 | 生成装置、生成方法、及び生成プログラム |
| CN108765549A (zh) * | 2018-04-30 | 2018-11-06 | 程昔恩 | 一种基于人工智能的产品三维展示方法及装置 |
| US12002138B2 (en) | 2019-08-29 | 2024-06-04 | Tencent Technology (Shenzhen) Company Limited | Speech-driven animation method and apparatus based on artificial intelligence |
| JP7312853B2 (ja) | 2019-08-29 | 2023-07-21 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 人工知能に基づく音声駆動アニメーション方法及び装置、デバイス及びコンピュータプログラム |
| JP2022537011A (ja) * | 2019-08-29 | 2022-08-23 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 人工知能に基づく音声駆動アニメーション方法及び装置、デバイス及びコンピュータプログラム |
| JP2022528999A (ja) * | 2019-08-30 | 2022-06-16 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 動画キャラクターの駆動方法並びにその、装置、機器及びコンピュータプログラム |
| JP7307194B2 (ja) | 2019-08-30 | 2023-07-11 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 動画キャラクターの駆動方法並びにその、装置、機器及びコンピュータプログラム |
| US11941737B2 (en) | 2019-08-30 | 2024-03-26 | Tencent Technology (Shenzhen) Company Limited | Artificial intelligence-based animation character control and drive method and apparatus |
| JP2021043841A (ja) * | 2019-09-13 | 2021-03-18 | 大日本印刷株式会社 | 仮想キャラクタ生成装置及びプログラム |
| JP7415387B2 (ja) | 2019-09-13 | 2024-01-17 | 大日本印刷株式会社 | 仮想キャラクタ生成装置及びプログラム |
| JP2023517211A (ja) * | 2020-06-01 | 2023-04-24 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 表情トランスファーモデルの訓練方法、表情トランスファー方法及び装置並びにコンピュータ装置及びプログラム |
| JP7482242B2 (ja) | 2020-06-01 | 2024-05-13 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | 表情トランスファーモデルの訓練方法、表情トランスファー方法及び装置並びにコンピュータ装置及びプログラム |
| JPWO2022264235A1 (ja) * | 2021-06-14 | 2022-12-22 | ||
| JP7670129B2 (ja) | 2021-06-14 | 2025-04-30 | 日本電信電話株式会社 | 表情変換装置、表情変換方法およびプログラム |
| WO2023195426A1 (ja) * | 2022-04-05 | 2023-10-12 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 復号装置、符号化装置、復号方法及び符号化方法 |
| KR102595666B1 (ko) * | 2022-05-03 | 2023-10-31 | (주)이브이알스튜디오 | 영상 생성 방법 및 장치 |
| WO2024100844A1 (ja) * | 2022-11-10 | 2024-05-16 | 日本電信電話株式会社 | 表情生成装置、表情生成方法および表情生成プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2002080111A1 (en) | 2002-10-10 |
| US20040095344A1 (en) | 2004-05-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2002298155A (ja) | 感情による3dコンピュータグラフィックス表情モデル形成システム | |
| KR101306221B1 (ko) | 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법 | |
| AU660532B2 (en) | Memory-based method and apparatus for computer graphics | |
| CN111553968B (zh) | 一种三维人体重构动画的方法 | |
| CN110286756A (zh) | 视频处理方法、装置、系统、终端设备及存储介质 | |
| US20030184544A1 (en) | Modeling human beings by symbol manipulation | |
| JP2007527556A (ja) | オブジェクトのための行動トランスレータ | |
| Pandzic et al. | Realistic avatars and autonomous virtual humans | |
| WO2005024728A1 (ja) | 形態変形装置、物体動作符号化装置および物体動作復号化装置 | |
| CN106709975A (zh) | 一种交互式三维人脸表情动画编辑方法、系统及扩展方法 | |
| CN117857892B (zh) | 基于人工智能的数据处理方法、装置、电子设备、计算机程序产品及计算机可读存储介质 | |
| CN114202615A (zh) | 人脸表情的重建方法、装置、设备和存储介质 | |
| Thórisson | ToonFace: A system for creating and animating interactive cartoon faces | |
| CN111739134A (zh) | 虚拟角色的模型处理方法、装置及可读存储介质 | |
| JP4011327B2 (ja) | 表示オブジェクト提供装置、表示オブジェクト提供方式及び表示オブジェクト提供プログラム | |
| CN114078181B (zh) | 人体三维模型的建立方法、装置、电子设备及存储介质 | |
| Fu et al. | Real-time multimodal human–avatar interaction | |
| CN113763518A (zh) | 基于虚拟数字人的多模态无限表情合成方法及装置 | |
| CN114049287A (zh) | 面部模型融合方法、装置、设备及计算机可读存储介质 | |
| Pandzic et al. | Towards natural communication in networked collaborative virtual environments | |
| CN119729145A (zh) | 一种数字人视频生成方法、装置、电子设备及存储介质 | |
| CN116309970A (zh) | 车用虚拟数字形象生成方法、装置、电子设备及存储介质 | |
| JPH10326353A (ja) | 3次元キャラクタアニメーション表示装置および3次元動きデータ伝送システム | |
| WO2022195818A1 (ja) | 画像生成システムおよび画像生成方法 | |
| JPH0888850A (ja) | 表情再現装置 |